1

Zur Nachahmung empfohlen: Energy Transfer verklagt mehrere Umwelt­organisationen wegen Verletzung föderaler und staat­licher Gesetze durch Betrug

Den in der Klage erhobenen Vorwürfen zufolge hat diese Gruppe von Verschwörern (die „Enterprise“) grundlegende irreführende und falsche Informationen über Energy Transfer und die Dakota Access Pipeline DAPL fabriziert und verbreitet mit dem Ziel, betrügerisch Spenden zu erhalten, in Aktivitäten des Baus dieser Pipelines zu intervenieren und entscheidende Geschäfts- und Finanzbeziehungen von Energy Transfer zu schädigen. Die Klage enthält auch den Vorwurf, dass die Enterprise auch kriminelle Akte und terroristische Akte angestiftet, finanziert und gefördert hat, um diese Dinge voranzutreiben. Die Aktionen hätten außerdem Gesetze von North Dakota bzgl. Betrug, Verleumdung und anderer Dinge verletzt.

Die beklagte Enterprise besteht aus schurkischen Umweltgruppen und militanten Individuen, welche sich einer Vielfalt krimineller Aktivitäten bedienen und eine Kampagne der Falschinformation losgetreten haben mit dem Ziel, Spendengelder üppiger fließen zu lassen und ihre politischen oder geschäftlichen Agenden voranzutreiben. Die Klage beschreibt die Falschinformations-Kampagne, welche aggressiv gegen die entscheidenden Geschäftsbeziehungen von Energy Transfer gerichtet ist einschließlich der Finanzquellen für DAPL und andere Infrastrukturprojekte von Energy Tranfser dergestalt, dass diese Finanzinstitutionen ihre Verbindungen mit Energy Transfer kappen, wenn sie nicht schädigenden Boykotten und anderen illegalen Angriffen ausgesetzt sein wollen.

Die Klage schreibt fest, dass die Angriffe kalkuliert und völlig unverantwortlich sind. Sie schädigen massiv Menschen und deren Eigentum entlang der Route der Pipeline. Dakota Access war ein legal genehmigtes Projekt, welches einen rigorosen, drei Jahre langen Umwelt-Begutachtungsprozess durchlaufen hat. Aus diesem Grund glaubt Energy Transfer, dass es seinen Anteilseignern, Partnern, Interessenten und all jenen gegenüber verpflichtet ist, die von der Gewalt und der mutwilligen Zerstörung seitens der Beklagten beeinträchtigt werden, was zu dieser Klage führte.

Die DAPL-Falschinformations-Kampagne beruht auf einer ganzen Reihe falscher, alarmistischer und sensationeller Behauptungen, darunter:

widerrechtliche Eingriffe in Stammes-Reservate

Entweihung geheiligter Stätten der Standing Rock Sioux Tribe (“SRST”) beim Bau der DAPL

Bau der DAPL ohne Mitsprache und ohne Berücksichtigung der Rechte und Einwände der SRST, und

exzessive und illegale Gewalt gegen friedliche Demonstranten.

Die Enterprise behauptete außerdem, dass die Pipeline zu katastrophalen Ölverschmutzungen, vergiftetem Wasser und massivem Klimawandel führt – obwohl ironischerweise gleichzeitig Enterprise-Mitglieder in böser Absicht versucht haben, mit Fackeln Löcher in die Pipeline zu brennen, was – falls das erfolgreich gewesen wäre – tatsächlich zu erheblichen Umweltschäden und mögliche Verluste von Leben geführt hätte.

Die Enterprise leistete diesen Falschbehauptungen Vorschub mit fabrizierten Beweisen einschließlich falscher GPS-Koordinaten, womit die angebliche Existenz kultureller und religiöser Artefakte entlang des DAPL-Korridors gezeigt werden sollte, sowie falsche eidesstattliche Erklärungen vor Gericht.

Zusätzlich zu dieser Falschinformations-Kampagne finanzierte die Enterprise direkt und indirekt Öko-Terroristen auf der Baustelle in North Dakota. Diese Gruppen errichteten ihr eigenes Outlaw-Camp unter friedlichen Demonstranten, welche sich nahe dem Oahe-See versammelt hatten. Sie missbrauchten die friedlichen Aktivitäten dieser Gruppen, um die Agenda der Enterprise weiter voranzutreiben, indem sie gewalttätige und destruktive Angriffe lostraten und gesteuert haben gegen die Durchsetzung des Gesetzes. Die Enterprise manipulierte danach diese „für-das Fernsehen-gemachte“ Ereignisse schamlos, um noch mehr Spendengelder für die Enterprise zu mobilisieren. Diese Terroristengruppen finanzierten ihre Aktivitäten sowie die Enterprise mittels Spendengeldern, um ein lukratives Drogen-Handelssystem innerhalb der Lager zu erhalten.

Andere in der Klage benannte illegale Aktivitäten gegen Energy Transfer und deren Ausführende enthalten konstant durchgeführte Cyber-Angriffe sowie telefonische und elektronische Drohungen gegen die körperliche Sicherheit der Mitarbeiter.

Die Enterprise hat eingeräumt, dass ihre Kampagne dem Unternehmen Schäden in Höhe von „hunderten Millionen Dollar“ zugefügt habe, einschließlich gestiegener Kosten der Finanzierung, verursacht durch die Einmischung der Enterprise in die Finanzbeziehungen des Unternehmens, sowie durch Kosten zur Abwehr der Schäden aufgrund der illegalen und bösartigen Kampagne der Enterprise. Diese Schäden ebenso wie der Schaden für den Ruf des Unternehmens sind ausschließlich Folgen der Desinformations-Kampagne der Enterprise, die bis zum heutigen Tag anhält. Energy Transfer verlangt einen Ausgleich der Schäden in einer Höhe, welche vor Gericht belegt wird.

Michael J. Bowe aus Kasowitz sowie Benson & Torres LLP, die Berater des Unternehmens, setzen ihre Ermittlungen gegen Praktiken und die Kampagne der Enterprise fort. Jedermann kann sich auf Vertrauensbasis per Telefon an das Unternehmen wenden (Telefonnummer). Eine Website wird eingerichtet, um Informationen zu katalogisieren und Berichte über die weitere Entwicklung in diesem Fall zu veröffentlichen, und auch, um die richte Darstellung der Fakten zu gewährleisten.

Energy Transfer Equity, L.P. (NYSE: ETE) is a master limited partnership that owns the general partner and 100% of the incentive distribution rights (IDRs) of Energy Transfer Partners, L.P. (NYSE: ETP) and Sunoco LP (NYSE: SUN). ETE also owns Lake Charles LNG Company. On a consolidated basis, ETE’s family of companies owns and operates a diverse portfolio of natural gas, natural gas liquids, crude oil and refined products assets, as well as retail and wholesale motor fuel operations and LNG terminalling. For more information, visit the Energy Transfer Equity, L.P. website at energytransfer.com.

Energy Transfer Partners, L.P. (NYSE: ETP) is a master limited partnership that owns and operates one of the largest and most diversified portfolios of energy assets in the United States. Strategically positioned in all of the major U.S. production basins, ETP owns and operates a geographically diverse portfolio of complementary natural gas midstream, intrastate and interstate transportation and storage assets; crude oil, natural gas liquids (NGL) and refined product transportation and terminalling assets; NGL fractionation; and various acquisition and marketing assets. ETP’s general partner is owned by Energy Transfer Equity, L.P. (NYSE: ETE). For more information, visit the Energy Transfer Partners, L.P. website at energytransfer.com.

View original content with multimedia:http://www.prnewswire.com/news-releases/energy-transfer-files-federal-lawsuit-against-greenpeace-international-greenpeace-inc-greenpeace-fund-inc-banktrack-and-earth-first-for-violation-of-federal-and-state-racketeering-statutes-300507851.html

SOURCE Energy Transfer Equity, L.P.

Weitere Links:

http://www.energytransfer.com

Link: http://tinyurl.com/y7npqefy

Übersetzt von Chris Frey EIKE




Holen sich die GRÜNEN ihre „Kernkom­petenz“ zum Klima­wandel von der Bundes­regierung?

EIKE: [2] Klimavertrag von Paris im Bundestag erreicht 100 % Zustimmung. Die DDR Volkskammer lässt grüßen,
und warum alle Parteien inzwischen unisono auch sonst die gleiche Meinung haben.
Und man fragt sich, warum selbst die GRÜNEN* auf ihren, wie man annehmen sollte, Fachgebieten Klima und Energie so konsequent nichts dazulernen, so dass ihr „Wissen“ nur zu einem bezüglich der Aussage unsinnigen Wahlplakat „Entweder Schluß mit Kohle oder Schluß mit Klima“ gereicht hat.

Gut, an Letzterem sind die GRÜNEN selbst schuld. Wer meint, auf Parteitagen von mittelmäßigen Klimagurus „Wissen“ zu erfahren,
EIKE: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor ,
sich von Fachfremden „Studien“ erstellen lässt:

[3] EIKE: Wenn Politologinnen „Klimastudien“ machen – zur „Klimastudie“ von Bündnis 90/Die Grünen,
und Vorsitzende von Abmahnvereinen als vermeintlich kompetente „Weltretter“ ihre Thesen vortragen lässt (den Geschäftsführer der Deutschen Umwelthilfe auf dem Parteitag [9]), braucht sich über mangelnde Kenntnisse nicht zu wundern und verdient es nicht besser.

Versuchen dann GRÜNE „Führungskräfte“, ihr Pseudowissen öffentlich vorzutragen, geht es entsprechend oft in die Hose:
EIKE: Cem Özdemir versucht sich in Energie,
EIKE: K. G. Eckardt versucht sich auf dem GRÜNEN Parteitag mit „Klimawandel“,

EIKE: Wie geil ist das denn, wir können Energie erzeugen, ohne die Landschaft kaputt zu machen,
EIKE: Grüne Abgeordnete Barbara Höhn durch Fakten widerlegt: Der Hopfenertrag steigt trotz Klimawandel

Leider sehen sie am Vorbild der Regierungsberaterin, C. Kempfert, welche behauptet, einen Informationsblog zu betreiben – der vom Autor jedoch mit gutem Gewissen und regelmäßig erneuerten Begründungen immer als (Des-)Informationsblog tituliert wird – , dass zum Klima (und Energie [16]) sogar erkennbar falsche Information klaglos in einer „Informationsserie“ publiziert werden kann, wenn es nur oft und konsequent genug geschieht:
EIKE 07.08.207: [15] Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T1 (2),
Sogar zu ungesetzlichen Maßnahmen darf aufgerufen und sie befürwortet werden, so lange man konsequent auf der politisch richtigen Linie bleibt [14] [12].

Dass all dies (noch) nicht regelmäßig zu einem Shitstorm und bei den anderen Stellen zu Lachstürmen führt, liegt wohl daran, dass kaum ein GRÜNER Parteitagsteilnehmer*in bei EIKE die Rezension dazu liest und unsere Medien sich beim „Entdecken“ GRÜNEN Unsinns bewusst zurückhalten, weil es auf ihre eigenen Publizierungen auch zutreffen würde.

Beginnen die GRÜNEN umzudenken?

Jedoch scheinen die GRÜNEN die Problematik erkannt zu haben. Und beschlossen vielleicht deshalb, mangels eigener Kompetenz und fehlendem, aufbaufähigem Fachpersonal, auf eine eigene Meinung zu verzichten und gleich die der Bundesregierung zu übernehmen, deren großer Meinungs-Einheitspartei-Vorsitzenden bei diesen Themen sowieso immer häufiger zugestimmt wird.
Zumindest kommt man zu diesem Eindruck, wenn man liest, dass die GRÜNEN ihre Information zum Klimawandel durch Anfragen bei der Regierung erhalten wollen.

Zuerst „outen“ sich die GRÜNEN, dass sie keine Ahnung haben

In ihrer Anfrage an die Bundesregierung zu Daten und Interpretation von Klimawandel-Parametern legten die GRÜNEN im Vorspann ihr bisheriges „Wissen“ offen.
BÜNDNIS 90/DIE GRÜNEN: [1]... Vorbemerkung der Fragesteller
Global betrachtet war 2016 das wärmste Jahr seit Beginn der Temperaturaufzeichnungen im Jahr 1880. Doch nicht nur das: Bereits die vergangenen zwei Jahre waren jeweils Hitzerekordjahre. Seit 2001 sind 16 der bislang 17 wärmsten Jahre gemessen worden. Ursache hierfür ist in erster Linie der Ausstoß von Treibhausgasen. Die Folgen der Klimakrise sind zunehmende Extremwettereignisse wie eine steigende Anzahl an Dürren, Überflutungen und Stürmen sowie
ein Abschmelzen des arktischen Eises und ein Anstieg des Meeresspiegels.

Dieser Vorspann offenbart erkennbar fehlendes Basiswissen. Vielleicht sollte es auch bewusst den mangelnden Kenntnisstand darlegen, um den Aufwand für die Beantwortung zu rechtfertigen, Begründung:
Genau das, was die GRÜNEN als „Folgen der Klimakrise“ an Extremereignissen listen, passiert nicht, wie es der IPCC im letzten Klimareport deutlich erklärte:
IPCC 2013, AR5, WGI, Kapitel 2, Seite 219: “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”
Übersetzung: “Es gibt [nur] begrenzte Anhaltspunkte zu Änderungen bei Extremereignissen, die mit anderen Klimavariablen seit der Mitte des 20. Jahrhunderts verbunden sind.“
Hinweis: Die vollständige Listung der IPCC-Extremereignisaussagen ist in [4] zum Schluss als Anlage hinterlegt.

Die restlichen „Begründungen“ entstammen ebenfalls den „handelsüblichen“, laufend kopierten „Katastrophentexten“ welche schon endlos widerlegt sind, aber wie Vampire einfach nicht sterben sollen, da dann das ganze Klimawandel-Drohgebäude mit einem Schlag in sich zusammenfiele [8].

Nebenbei ist man dann auch überrascht, dass Meldungen von Tageszeitungen, hier des theguardian, als Quelle von „Fachwissen“ zitiert werden:
[1] …der Wissenschaftler Peter Wadhams, dass es möglicherweise im Laufe der nächsten zwei Jahre zu einem weitestgehend eisfreien Sommer in der Arktis kommen wird (www.theguardian.com/environment/2016/aug/21/arctic-will-beice-free-in-summer-next-year).

Anhand des Arktiseises lässt sich die angebliche Klimaproblematik und mangelhafte Kenntnis der GRÜNEN darüber gut darstellen

Der theguardian-Artikel hat inzwischen einen anderen Link: Next year or the year after, the Arctic will be free of ice,
was aber nichts daran ändert, dass es sich nur um einen der auch in deutschen Tageszeitungen zu tausenden publizierten Alarmartikel von apokalyptisch ausgerichteten Wissenschaftlern handelt, der zudem frappierend an “unseren” Klimaapokalyptiker, Herrn Schellnhuber denken lässt: …
If we cannot halt the emissions of carbon dioxide, what can we do? In the end, the only hope we have is to find a way to remove carbon dioxide from the atmosphere once it has got there.

Inzwischen ist bereits das erste Jahr vergangen und das Arktiseis macht genau das Gegenteil des im Artikel Vorhergesagten, wie die Bilder 1 und 2 zeigen. Der Verlauf der diesjährigen Eisausdehnung in Bild 1 zeigt schon aktuell, dass das bisherige Sommerminimum von 2012 dieses Jahr im September auf keinen Fall unterschritten wird. Es wird deshalb darauf hinauslaufen, dass seit 2008 – bis auf die eine Spitze von 2012 – das Eisminimum sich nicht verschlimmert hat (Bild 2) und straft die „Klimaforscher“ der Unwissenheit, welche sich aufgrund des wenigen Eises im Winter sicher waren, im Sommer ein absolutes Minimum zu erleben.
Von den im Zeitungsartikel prognostizierten zwei Jahren ist damit schon das erste mit dem gegenteiligen Ergebnis „vorbei“, und dass die Arktis nächstes Jahr im Sommer vollkommen eisfrei wäre, äußerst unwahrscheinlich.
Als Fazit bleibt: Es war wieder eine der „sicheren“, dann aber doch nicht eingetroffenen Alarmmeldungen.
Die Apokalyptiker lernen auch nicht dazu. Schon Al Gore hat sich mit seiner „Vorhersage“, dass die Arktis im Jahr 2013 im Sommer eisfrei wäre, völlig vertan – für so viel (nicht-)„Wissen“ jedoch den Novellpreis bekommen. Nachdem ihm dies so einfach gelungen ist, wollen auch andere nicht hintenan stehen.

Bild 1 Zustand der Arktiseisbedeckung. Gestrichelte Linie ist der bisherige Minimalverlauf 2012. Stand 20. August 2017

Bild 2 Arktis, Meereisausdehnung seit 1979. Abgefragt am 19.08.2017

In der Vergangenheit war die Arktis im Sommer meistens eisfrei!

Die Kernfrage bleibt, wie „Klimawandelforscher“ überhaupt auf die Idee kommen, der Mensch hätte Anspruch auf Arktiseis im Sommer und nur mit diesem wäre unser Klima natürlich.
Es ist umgekehrt: Die (im Sommer) offene Arktis ist normal und was wir derzeit erleben, der Sonderfall. Nur die Glaskugeln – Neudeutsch: Klimasimulationen – machen der Welt vor, dass der Weg der Arktis zurück ins normale, fehlende Sommereis, unnatürlich wäre.
Auf WUWT erschien dazu kürzlich ein Artikel, welcher die neueste Studie dazu behandelt:
WUWT, 16.08.2017: [6] What do we know about Arctic sea ice trends?, die von Herrn Frey für EIKE übersetzt wurde:
EIKE: [13] Was wissen wir über die Trends des arktischen Meereises

Die darin verwendeten Langzeitdaten basieren ausgerechnet auf einer dieses Jahr erschienenen Studie: Stein et al. 2017, unter Teilnahme des deutschen AWI, welches die Bundesregierung in ihrer Antwort oft als die Klima-Fachstelle zitiert, sowie der Uni Bremen. Im Artikel (und der Studie) ist gezeigt, dass die Sommervereisung der Arktis ein klimatisch seltenes Ereignis innerhalb der letzten 10.00 Jahren und die im Sommer offene Arktis den Normalfall darstellt (Bilder 3 und 4). Auch die Änderungsgeschwindigkeit gab es früher schon (Bild 3). Womit sich die ganze Hysterie dazu schon alleine durch die Sichtung der Natur erledigt hat.

Bild 3 Verlauf Arktisvereisung (Darstellung für Teilbereiche) seit ca. 10.000 Jahren [6]

Bild 4 Verlauf Arktisvereisung global seit 10.000 Jahren (links ist das Jahr 2000). Quelle: Chris Gill: Holocene Sea-Ice Cover, Bild: Stein et al., 2017 (bearbeitet)

Nur wenigen ist bewusst, dass bereits Anfang des letzten Jahrhunderts eine große Arktiseisschmelze stattfand

Wenn über die Arktis gesprochen wird, beginnen die Diskussionen immer erst mit dem Jahr 1979, weil damals die überall dargestellte Satellitenbeobachtung begann (Bild 2). Da das Jahr 1979 noch in den Höhepunkt der Arktisvereisung fiel (weshalb damals die beginnende Eiszeit postuliert wurde), wird das Arktiseis notgedrungen immer weniger, was von Al Gore in seinem ersten Klimakatastrophenfilm medial schamlos ausgenutzt wurde und seitdem unsere Medien und „Weltrettungsverbände“ immer noch kritiklos als Menetekel des Klima-Weltuntergangs publizieren.

Schaut man jedoch bis an den Anfang des letzten Jahrhunderts zurück, stellt man erst einmal fest, dass das Arktiseis bereits damals stark zurückging und die Wetterkapriolen genau so dramatisch wie heute empfunden – und publiziert – wurden. Das Einzige, was historisch fehlt, ist die damals nicht vorhandene, GRÜNE Partei:
Quelle: Alles Schall und Rauch: Bericht einer Polarexpedition aus Spitzbergen im Jahr 1922:
… Die Arktis scheint sich zu erwärmen. Berichte von Fischern, Robbenjägern und Forschern welche das Meer um Spitzbergen und den östlichen Teil der Arktis befahren, zeigen alle auf eine radikale Änderung der klimatischen Bedingungen und bis dato gänzlich unbekannten hohen Temperaturen in diesem Teil der Welt
. Er wies daraufhin, das Wasser um Spitzbergen hatte sonst eine gleichbleibende Temperatur im Sommer von 3°C. Dieses Jahr wurden Temperaturen von bis zu 15°C gemessen und letzten Winter ist das Meer nicht mal an der Nordküste von Spitzbergen zugefroren.“
Viele Landschaften haben sich so verändert, sie sind nicht mehr erkennbar. Wo vorher grosse Eismassen sich befanden, sind jetzt oft Moränen, Ansammlungen von Erde und Steinen. An vielen Orten wo früher Gletscher weit ins Meer ragten, sind sie komplett verschwunden.
Die Temperaturveränderung, sagt Kapitän Ingebrigtsen, hat auch die Flora und Fauna in der Arktis verändert. Diesen Sommer suchte er nach Weissfisch in den Gewässern um Spitzbergen. Früher gab es grosse Schwärme davon. Dieses Jahr sah er keine, obwohl er alle seine alten Fischgründe absuchte.
Es gab wenige Robben in den Gewässern um Spitzbergen dieses Jahr und der Fang war weit unter dem Durchschnitt.

Eine Zeitungsmeldung dazu (Bild 5).

Bild 5 Zeitungsartikel von 1922 mit Darstellung der damals als dramatisch empfundenen Arktis-Eisschmelze. Quelle unbekannt

Als kleine Zusatzinformation noch ein Zeitungsbericht, der zeigt, dass nicht nur die Arktis damals schmolz, sondern wie heute auch damals gleich schlimme Starkregen niederginen.

Bild 6 Zeitungsausschnitt von 1926

Zurück zum Arktiseis.
Rekonstruiert man die Daten, so wird ersichtlich, dass der aktuelle Zustand überhaupt nicht dramatisch ist. Unter Berücksichtigung der Unsicherheitsbereiche könnte er sogar ähnlich, wie schon zu Anfang des letzten Jahrhunderts sein.

Bild 7 Rekonstruktion des Arktis-Sommereises seit 1900. Vom Autor bearbeitet und ergänzt. Quelle: WUWT [6]
Was nur der Fachmann erkennt (und in [6] dargestellt ist): Die Klimasimulationen (CMIP5) sind nicht in der Lage, die Vergangenheit zu rekonstruieren. Damit können sie es für die Zukunft allerdings mit Sicherheit auch nicht.

So wie damals das Eis ähnlich schmolz, waren auch die Temperaturen ähnlich hoch

Wenn die Eis-Rekonstruktionen zu Anfang des vergangenen Jahrhunderts wenig Eis ausweisen, muss sich das auch beim Temperaturverlauf finden lassen. Und man findet es, wie die folgenden Bilder zeigen.

Einmal hat die Arktis derzeit die Temperatur von 1936 … 45. Der Juni 2017 im Bild 10 zeigte die Temperatur wie vor fast 20 Jahren. Vor allem die immer neu gemeldeten „Temperaturspitzen“ in der Arktis [10] welche weiter „zum Himmel“ reichen sollten, erweisen sich als das, was sie sind: Merkmale von Klimazyklen, aber keine stetig zunehmende Temperaturerhöhung

Bild 8 [10] Aus drei Datensätzen zusammengestellte Temperatur von Spitzbergen seit 1910. GISS Temperaturdatensätze Spitzbergen Isfjord Radio (1910 – 1980) und Svalbard (1975 – 2015), ergänzt mit dem Verlauf Bjornoya (74.52N, 19.02E) von 1975 – 2015. Grafik vom Autor aus den GISS Viewer-Bildern im richtigen Maßstab zusammengesetzt

Bild 9 Temperaturverlauf der Arktis nach HadCRUT4-Daten von 1920 – 6.2017 mit 3-Jahres-Mittelwert. Quelle: Climate4you.

Bild 10 Temperaturverlauf der Arktis nach HadCRUT4-Daten von 6.2000 – 6.2017 mit 3-Jahres-Mittelwert. Quelle: Climate4you.

Im Kern geht es den GRÜNEN jedoch nicht wirklich um das Eis. Mit dem können sie bestimmt sowieso nichts anfangen. Es geht wohl eher um Befürchtungen, dass der Vorgang der Menschheit (ideologisch falsch) nützen könnte, aber undifferenzierte (und das können nur schlimme sein) Probleme erzeugt.
[1] … Ein eisfreier Sommer kann außerdem mehr wirtschaftliche Aktivitäten (Rohstoffförderung, Schiffsverkehr) nach sich ziehen und dadurch mehr Schadstoffeinträge mit den entsprechenden negativen Folgen verursachen.
Der durch die Klimaerhitzung bedingte Rückgang der Eismasse macht außerdem zusätzliche Ölreserven zugänglich. Im polaren Randmeer Karasee arbeitet der russische Staatskonzern Rosneft an der Erschließung dreier Ölfelder …

Was die GRÜNEN von der Bundesregierung wissen wollen

Nach dieser Offenlegung ihres auf Ideologiezwänge reduzierten Pseudowissens beginnen die GRÜNEN, im Stil von wissensdurstigen, kleinen Kindern die Bundesregierung abzufragen:
BÜNDNIS 90/DIE GRÜNEN: [1]. Wie hat sich nach Kenntnis der Bundesregierung die Eisfläche in der Arktis in den vergangenen 20 Jahren entwickelt (bitte jeweils Jahr und Größe der Eisfläche in Quadratkilometern sowie Quelle angeben)?

Man wird richtig neidisch, auf die Möglichkeiten, welche sich Abgeordneten bieten. Unsereins muss das selbst googeln und erhält dann beispielhaft das Bild 2. Darin sieht man, dass die Satellitenbeobachtung im Jahr 1979 begann und kann den Verlauf über die gesamte Zeit verfolgen und interpretieren. Wenn es einen stört, dass die Daten so kurz sind, muss man weiter googeln und sich durch Artikel und Studien graben, um zu einem Gesamtbild zu kommen, wie es im vorhergehenden Kapitel dargestellt ist.

Den „Wissensträgern“ und „Fachpersonen“ unserer Parteien bleibt diese Mühsal des googelns erspart. Aber nach dem Motto: „Ich weiß nicht was ich wissen muss, kann es aber sehr pedantisch-präzise formulieren“, sind sie sicher, dass schon ein gerade einmal zwanzig Jahre umfassender -dafür ganz genau gelisteter – Verlauf der Eisbedeckung ausreicht, um sich ein ausreichendes Bild über den seit ca. einer Jahrmillionen (Beginn des Eiszeitzyklus) ähnlichen Klimaverlauf – und kälteste Klimaperiode mit dem geringsten CO2-Anteil seit 300 Millionen Jahren – zu machen.

Bild 11 Verlauf von Temperatur (blau) und CO2 (schwarz) seit 600 Millionen Jahren

Sicher meinten die GRÜNEN, mit der „Anfragepräzision“ zu brillieren. Dabei zeigt genau diese „Präzision“, die Unkenntnis zum Thema.

Weil nur Unkenntnis nicht reicht, wird noch das eigene Denken abgeschaltet und bei der Regierung abgeholt:
BÜNDNIS 90/DIE GRÜNEN: [1] Welche Schlussfolgerungen zieht die Bundesregierung aus der Entwicklung der Eisfläche?
Antwort der Bundesregierung:[1] … Die Bunderegierung orientiert sich bei ihrer Einschätzung an den im Fünften Sachstandsbericht des Weltklimarats getroffenen Aussagen, siehe Antwort zu Frage 1. Danach nehmen die Ausdehnung und das Gesamtvolumen des arktischen Meereises sowie des Eises über Land ab.
Die Bundesregierung nimmt die Aussagen der Forschung über die Risiken des Klimawandels sehr ernst. Um den negativen Auswirkungen des Klimawandels entgegen zu wirken, hat die Bundesregierung intensiv am Abschluss eines globalen Klimaschutzabkommens mitgewirkt, welches in der Europäischen Union (EU) gemeinschaftlich, vor allem durch den europäischen Emissionshandel sowie die Lasten- bzw. Zielverteilung für die Sektoren außerhalb des Emissionshandels, umgesetzt wird. Ergänzende nationale Klimaziele werden unter anderem mit den Kerninstrumenten Aktionsprogramm Klimaschutz 2020 und dem Klimaschutzplan 2050 umgesetzt. Auch international setzt sich die Bundesregierung für eine ambitionierte und rasche Umsetzung des Pariser Übereinkommens ein, vor allem in den weiteren UNFCCC-Verhandlungen, aber auch im Rahmen seiner diesjährigen G20-Präsidentschaft, im Kreise der G7 und in anderen multilateralen Gremien und der bilateralen Zusammenarbeit. Nur durch die Erreichung der Temperaturziele, wie sie im Pariser Übereinkommen beschlossen wurden, kann das Risiko schwerer und irreversibler Klimafolgen voraussichtlich angemessen gemindert werden.

Die Antwort hat den GRÜNEN bestimmt gefallen, denn sie lässt sich unbesehen ohne weitere Bearbeitung direkt in eigene Parteiprogramme und GRÜNE Schulungsunterlagen kopieren.

Die GRÜNEN verzichten freiwillig darauf, den wirklichen, aktuellen Wissensstand zu erfahren

Wie vom Autor schon einmal bei der Sichtung einer Regierungsantwort festgestellt wurde:
EIKE 19.08.2016: [7] Vom Wissenschaftlichen Dienst veröffentlichte Klimainformation für Abgeordnete Rezension: Teil 2,
„vergisst“ der Wissenschaftliche Dienst in Berlin (bewusst?) „gerne“ aktuelle, der „offiziellen Linie“ widersprechende, oder solche kritisch betrachtenden Information weiterzugeben.

So auch die des Alfred Wegener Instituts über den Normalfall eisfreier Aktissommer (wie in den vorhergehenden Abschnitten berichtet). Er belässt es dann bei Unverbindlichkeiten und Bezug auf den inzwischen etwas veralteten IPCC-AR5 Report. Andererseits wird gerade das AWI als Forschungszentrum hervorgehoben:
[1] Die besondere Bedeutung der institutionell getragenen deutschen Arktisforschung wurde von den Arktisanrainern anlässlich der Teilnahme des BMBF im September 2016 an einem Arktis-Forschungsministertreffen in Washington auf Einladung von US-Präsident Obama gewürdigt …
…Weiterhin hat Deutschland dort angekündigt, die Führung des Sekretariats zum International Year of Polar Prediction, an dem sich zwölf polarforschende Nationen beteiligen, durch das AWI zu übernehmen.

Mit ihrer Vereinfachung der „Wissensgewinnung“ über die Bundesregierung verzichten die GRÜNEN demnach freiwillig darauf, das wirkliche, aktuelle Wissen zu ihren politischen Themengebieten zu erfahren.
Es scheint sie jedoch nicht zu stören, wie ihre fachlich teils desaströsen Auftritte zeigen (siehe Einleitungskapitel).

Man kann das verstehen. Mit wirklichem, breitem, fundiertem und neutralem Wissen würde die Partei im Bundestag massivst „anecken“. Schließlich bekommen die „Fachkräfte“ der Koalition ja ebenfalls nur die gleiche, eingeschränkte Information [12]. Man stelle sich das vor: Die GRÜNE Fraktion würde Frau Hendricks im Bundestag bei einem ihrer teils richtig kindischen und faktenfreien Vorträge auslachen, statt zu beklatschen.
EIKE 20.07.2017: [12] Randalen von Atomfrontkämpfern werden von Frau Hendricks ausdrücklich als „Freunde des Staates und der Gesellschaft“ gelobt ,
die Möglichkeit einer Koalition mit der nachtragenden Wunschkanzlerin wäre dahin. Eine ersehnte Zukunft durch Wissen zu gefährden, leistet sich keine Partei.

In diesem Stil der „Wissensabfrage“ geht es dann „endlos“ weiter.

BÜNDNIS 90/DIE GRÜNEN: [1] Welche Schlussfolgerungen zieht die Bundesregierung aus der Entwicklung der Durchschnittstemperatur?
BÜNDNIS 90/DIE GRÜNEN: [1] Welche Projektionen zum Zustand der Arktis bis zum Jahr 2050 liegen der Bundesregierung vor, und welche Schlussfolgerungen zieht sie daraus?
BÜNDNIS 90/DIE GRÜNEN: [1] Welche Schlussfolgerungen zieht die Bundesregierung aus Studien, bspw. vom Potsdam-Institut für Klimafolgenforschung oder der Scripps Institution of Oceanography der University of California in San Diego, wonach die Erderhitzung den Golfstrom schwächen könnte?
BÜNDNIS 90/DIE GRÜNEN: [1] Wie hat sich nach Kenntnis der Bundesregierung das Abschmelzen der arktischen Gletscher in den vergangenen 20 Jahren entwickelt?
Welche Schlussfolgerungen zieht die Bundesregierung aus dem Abschmelzen der Festlandgletscher in der Arktis für die Entwicklung des Meeresspiegelanstiegs?
BÜNDNIS 90/DIE GRÜNEN: [1] Liegen der Bundesregierung Kenntnisse vor, nach denen der Temperaturanstieg und die fortschreitende Eisschmelze Auswirkungen auf das vermehrte Aufkommen von Extremwettereignissen in Mitteleuropa haben?
BÜNDNIS 90/DIE GRÜNEN: [1] Welche Schlussfolgerung zieht die Bundesregierung aus der Entwicklung der durchschnittlichen Meereisdicke in der Arktis?
BÜNDNIS 90/DIE GRÜNEN: [1] Wie hat sich nach Kenntnis der Bundesregierung der Anteil von meerjährigem Eis hin zu einjährigem Eis entwickelt?

Die Qualität von Informationen „der Bundesregierung“ fällt recht unterschiedlich aus

Zur Aktuellen Bundestagsinformation ist ergänzend und positiv festzustellen, dass teils auch informativ geantwortet wurde und auch jemand mit Hintergrundwissen zusätzlich Wissenswertes und einige Fundstellen erhält. Vor allem wird deutlich auf Unsicherheiten hingewiesen. Trotzdem wird natürlich weder von der IPCC-Linie abgewichen, noch die „offizielle, politische Meinung“ in Frage gestellt.
Anbei ein positives Beispiel, welches zwar auf IPCC-Aussagen Bezug nimmt, jedoch recht sachlich und ohne Übertreibung auf Auswirkungen eingeht:
BÜNDNIS 90/DIE GRÜNEN: [1] Welche Gefahren für das Klima und die Umwelt gehen nach Kenntnis der Bundesregierung vom Auftauen der arktischen Permafrostböden aus?
Antwort (Auszug): … Bei anthropogenen Emissionsszenarien, in denen umfangreichere fossile Emissionen weiterhin stattfinden (RCPs 4.5, 6.2, 8.5), tritt das Permafrost-Kohlenstoff-Feedback in den Hintergrund, da dort anthropogene Emissionen den weit überwiegenden Teil der Gesamtemissionen darstellen würden. Permafrostkohlenstoff trägt in diesen
Fällen nur einen prozentual kleinen, allerdings zusätzlichen Teil zur atmosphärischen Erwärmung bei.
Es gibt weiterhin einige unbekannte Größen in allen Szenarien bzw. Modelrechnungen in Bezug auf den Permafrost, inklusive dem im submarinen Permafrost gebundenen Kohlenstoff auf arktischen Meeresschelfen sowie bei den Gashydraten in und unterhalb von submarinem und terrestrischem Permafrost. Für beide ist die gespeicherte und potentiell schnell mobilisierbare Kohlenstoffmenge nicht bekannt, aber möglicherweise von klimarelevanter Bedeutung.
Auch Gefahren für die Gesundheit wurden bereits konstatiert: der Ausbruch von Milzbrand mit tausenden von befallenen Rentieren, mehreren betroffenen Menschen sowie einem Todesfall auf der Yamal-Halbinsel im Sommer 2016 hat gezeigt, dass im Permafrost eingelagerte Krankheitserreger über Jahrzehnte überleben und zu epidemischen Krankheitsausbrüchen führen können. Potentiell betroffene Gebiete sind solche, in denen während entsprechender Krankheitsausbrüche vor weitreichenden Immunisierungsprogrammen im 19. und frühen 20. Jahrhundert infizierte menschliche und tierische Überreste in Permafrost begraben wurden, die im Zuge der arktischen Erwärmung auftauen könnten.

Insgesamt ist die Information jedoch recht eingeschränkt und deckt keineswegs die Bandbreiten wissenschaftlicher Erkenntnis ab, die man recht einfach zum Beispiel beim Nachsehen auf kaltesonne (und EIKE natürlich auch), zusätzlich hätte erfahren können:
kaltesonne: Spektrum der Wissenschaft: Klimagefahr durch auftauenden Permafrostboden wurde überschätzt (13.5.2015)
Ist der Permafrostboden in Gefahr? Vielleicht in ein paar tausend Jahren (30.12.2012)
Neue AWI-Studie zeigt, dass die Pflanzenwelt der nordrussischen Permafrostregion dem Klima schon häufig um mehrere Jahrtausende hinterherhinkte (9.7.2016)

Man beginnt auch etwas an der Wissenschaftskompetenz des Wissenschaftlichen Dienstes zu zweifeln, der ebenfalls Zeitungsartikel als Fundstellen listet:
[1] ... Die Arktis gilt deshalb als eine der wichtigsten Klimavariablen und hat auch Einfluss auf verschiedene Wettereignisse in Mitteleuropa (www.theguardian.com/environment/2016/dec/19/arctic-ice-melt-already-affecting-weather-patterns-where-you-liveright-now),
und auch nicht darauf hinweist, dass der von der Zeitung publizierte Artikel nicht unwidersprochen geblieben ist:

Climate Feedback: Analysis of “Arctic ice melt ‘already affecting weather patterns where you live right now’”, Published in The Guardian, by Damian Carrington on 19 Dec. 2016
GUEST COMMENTS
James Screen, Associate Professor, University of Exeter:
The article nicely introduces some of the emerging science linking Arctic climate change to extreme weather at lower latitudes. There are no major inaccuracies and the author has sought expert comment from several prominent scientists. However, the article fails to fully capture the large uncertainty about how Arctic warming may influence weather in places further south and how big this effect might be. For example, the article draws heavily on a scientific hypothesis that Arctic warming causes a more meandering jet stream and slower moving weather systems (e.g. blocking). This is a credible hypothesis supported by a few peer-reviewed publications (most prominently by one of the scientists interviewed), but there are other papers that have failed to identify such a link, or argued against one.
In short, there is no scientific consensus on whether or not Arctic warming causes larger jet stream wiggles or more persistent weather. The jury is still out. Whilst some of the scientist’s quotes do hint at unknowns and ongoing scientific debate, the overall tone of the article gives the impression the science on this topic is more settled than it actually is
.

Ganz grobes Diskussionsergebnis: … Kurz gesagt, es gibt keinen wissenschaftlichen Konsens darüber, ob die arktische Erwärmung größere Jet-Stream Verlagerungen oder mehr stabiles Wetter verursacht. Während einige der Zitate der Wissenschaftler auf die noch anhaltende, wissenschaftliche Debatte hindeuten, vermittelt der Artikel den Eindruck, dass die Wissenschaft zu diesem Thema mehr abgeschlossen wäre, als es tatsächlich der Fall ist.

Wie sich das äußert, kann man gut verfolgen:
Scinexx: Grönland: Rekordschmelze durch Jetstream-Welle Fatale Feedbackschleife von Atmosphärenströmung und arktischer Erwärmung
kaltesonne, 15. April 2017: Klimawandel führt nicht zu Winterextremen
Postdamer Wissenschaftler waren sich so sicher: Der Rückgang des arktischen Meereises verursacht kalte Winter in Mitteleuropa! Die Zeitungen druckten es begierig. Das der Bundesregierung nahestehende PIK-Institut bürgte für die Qualität der Information. Leider sahen es die meisten Fachkollegen ganz anders und lehnten die Postdamer Idee grundweg ab. Zuletzt äußerte sich die University of Exeter zur Thematik und schrieb am 28. Februar 2017 die wichtigste Erkenntnis gleich in den Titel einer Pressemitteilung:
Declining Arctic sea ice does influence European weather – but is not a cause of colder winters

The dramatic loss of Arctic sea ice through climate change is unlikely to lead to more severe winter weather across Northern Europe, new research has shown.

So viel Information könnte verwirren, sogar zum Nachdenken anregen, was GRÜNEN aber überhaupt nicht liegt. Somit reicht die eingeschränkte, amtliche Information den GRÜNEN. Wichtig war ja nur zu erfahren, welches „Wissen“ offiziell „erlaubt“ ist und den Vorgaben der Kanzlerin nicht zu sehr widerspricht.

Fazit

Wen wundert es da, dass im Politzirkus Berlin überall die gleiche Einheits-Meinung herrscht und auch so abgestimmt wird?
Dabei darf man nicht nur auf den GRÜNEN „herumhacken“. Die SPD (und auch die CSU) sind keinen Deut besser:
EIKE 21. August 2017: [11] POLITISCHE BILANZ: Nicht „ob“, sondern „wie schnell“, (Klimawandel-Statements von Umweltministerin Frau Hendricks und UBA Chefin Krautzberger)

Der unselige Einfluss des damaligen Umweltministers Tritti(h)n, welcher in seinem damaligen Machtbereich auf den Führungsebenen konsequent jegliches Wissen „ausrottete“ und durch hörige Gefolgsleuten ersetzte, wurde von der Kanzlerin genau so konsequent weitergeführt. Ein Ergebnis ist die „unendliche“ Besetzung der Umweltminister*innen-Position mit Nicht-Fachpersonen, deren vorgegebenen „Funktionsmerkmale“ der Glaube an die Unfehlbarkeit der Kanzlerin und das Wissenschaftsmärchen vom CO2-Umweltgift sind. Bei der Aktuellen kommt als selbst erarbeitete „Kompetenz“ noch der Glaube an den Klimaguru Al Gore dazu [11].

Satirischer Ausblick

Anhand der Geschichte der DDR ist bekannt, dass die Einschränkung der Meinung auf eine und der Parteien auf ein Konglomerat von gleichen, auf Dauer bei den Untertanen trotzdem zu Instabilitäten führen kann.
Es wird deshalb daran geforscht, wie sich solche Instabilitäten bei Untertanen medikamentös beheben lassen, um als alternativlos festgelegte, politische Entscheidungen auf Dauer ruhig zu stellen.

Was wie Satire klingt, beginn schon Wirklichkeit zu werden:
Achgut: Liebling, vergiss nicht Deine Migrationspille!
Unsere (staatsorientierten) Medien finden das selbstverständlich gut:

WDR: Kuschelhormon reduziert Fremdenfeindlichkeit

(Nicht nur) Wenn die Potentaten dieser Welt zu uns kommen und die Milliarden für die angeblich von uns angerichteten Klimaschäden einfordern:
EIKE 13. Juli 2017: [17] Wie viele Unterschriften zum Klimavertrag wurden mit Geldversprechungen gekauft?
und diese auch bereitwillig und in immer höher werdenden Summen bekommen, wird man solche Pillen vielleicht sogar wollen, um nicht aus der Haut zu fahren.

Nachtrag

Der Artikel war schon zur Einpflege weg-gemailt, da erschien der Artikel auf Achgut, in dem Katrin Göring Eckardts Buch „Ich entscheide mich für Mut“ rezensiert wurde. So fundiert und lesenswert, wie dieser Achgut-Artikel die Kernkompetenz GRÜNER Führungskräfte ebenfalls unter die Lupe nimmt, ergänzt er die vorliegenden Ausführungen mit einem anderen Betrachtungsbild ideal.
Achgut: Das Leben ist ein Kirchentag

Das Kennen von Aussprüchen wichtiger Personen der Zeitgeschichte gilt in vielen Kreisen als Ausweis einer höheren Allgemeinbildung, zudem sind sie für Small-Talks oft recht nützlich. In der Achgut-Rezension sind deshalb wichtige von Frau Eckardt aufgelistet. Nur diese als Information hier vorab:
„Ich will gern vieles wissen können, aber ich will nicht gewusst werden.“
„Unser alltägliches Verhalten bestätigt, dass die Macht von außen kommt.“
„Die Mittel der Kontrolle und Überwachung sind zugleich Mittel der Freiheit.“
„Macht und Schönheit der Digitalisierung kommen von unten.“
„Wir brauchen Regulierung bei den großen ökonomischen Playern.“
„Vielleicht geht es um so etwas wie Mülltrennung im Netz […] die durch Selbstverpflichtung und Überzeugungsarbeit funktionieren.“
„Was wir brauchen, ist eine säende Bürgerbewegung im Netz, für die Aneignung des digitalen Gemeinwohls und gegen die Kontrolle unseres Lebens durch bekannte Unbekannte.“
„Kirche muss politisch sein.“
„Werte wie Solidarität und Miteinander, Gerechtigkeit und Frieden sind nicht vom Staat allein generierbar“
„Sonne, Wind und Wasser können uns allen genug Energie liefern, ohne Zerstörung und Luftverschmutzung.“
*Mit GRÜNEN ist immer die Partei BÜNDNIS 90 / DIE GRÜNEN gemeint

Quellen

[1] Deutscher Bundestag, 18. Wahlperiode 10.05.2017, Drucksache 18/12294: Position der Bundesregierung zur Klimakrise und Eisschmelze in der Arktis
[2] EIKE 04.10.2016: Klimavertrag von Paris im Bundestag erreicht 100 % Zustimmung. Die DDR Volkskammer lässt grüßen
[3] EIKE 28.8.2015: Wenn Politologinnen „Klimastudien“ machen – zur „Klimastudie“ von Bündnis 90/Die Grünen

[4] EIKE, 20.06.2017: Gegen Klimaflüchtlinge helfen nur noch C. Juncker und der Pariser Klimavertrag Alternativ: Nicht der Klimawandel bedroht uns, sondern unsere Politiker

[5] Deutscher Bundestag Drucksache 18/11887 18. Wahlperiode, 29.03.2017: Kleine Anfrage der Abgeordneten Steffi Lemke, Annalena Baerbock, Dr. Valerie Wilms, Jürgen Trittin, Claudia Roth (Augsburg), Bärbel Höhn, Sylvia Kotting-Uhl, Oliver Krischer, Christian Kühn (Tübingen), Peter Meiwald, Dr. Julia Verlinden und der Fraktion BÜNDNIS 90/DIE GRÜNEN, Position der Bundesregierung zur Klimakrise und Eisschmelze in der Arktis

[6] WUWT, 16.08.2017: What do we know about Arctic sea ice trends?

[7] EIKE 19.08.2016: Teil II: Vom Wissenschaftlichen Dienst veröffentlichte Klimainformation für Abgeordnete Rezension: Teil 2

[8] EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen

EIKE 08.08.207: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T2 (2)

EIKE 27. Juli 2017: G20 Klimafakten ohne Hysterie betrachtet Teil 2 (4): Die Meerespegel steigen und steigen …(aber keinesfalls unnatürlich)

[9] EIKE, 21. August 2017: Das Kartell der Dummheit: Irrenhaus Deutschland – Wie wir mit dem Diesel unsere Grundfesten demontieren Teil 2, Stickoxide: Die Fehler des Umweltbundesamtes – Der tatsächliche Dieselanteil

[10] EIKE 01.01.2017: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann

[11] EIKE 21. August 2017: POLITISCHE BILANZ: Nicht „ob“, sondern „wie schnell“

[12] EIKE 20.07.2017: Randalen von Atomfrontkämpfern werden von Frau Hendricks ausdrücklich als „Freunde des Staates und der Gesellschaft“ gelobt

[13] EIKE 22.08.2017: Was wissen wir über die Trends des arktischen Meereises

[14] EIKE 11.10.2016: C. Kemfert, Professorin und Politik-Beraterin für Umwelt und Energie, bekommt Ehrenpreise für Agitation
EIKE 05.06.2016: Eine Professorin klärt den VDI auf, wie das EEG „wirklich“ funktioniert
EIKE 23.07.2016: Der Unterschied in der Klimawandel-Berichterstattung

Kritik an der Berichterstattung des Portals Klimaretter.Info

[15] EIKE 07.08.207: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T1 (2)

[16] EIKE 20.05.2017: Das fossile Imperium schlägt zurück – oder: Wie eine Wissenschaftlerin ihre Reputation vernichtet

[17] EIKE 13. Juli 2017: Wie viele Unterschriften zum Klimavertrag wurden mit Geldversprechungen gekauft?




Es ist vorbei!

               EGO IN HOC NATVS SVM AT AD HOC VENI IN MVNDVM

VT TESTIMONIVM PERHIBEAM VERITATI

Ich bin dazu geboren und in die Welt gekommen, daß ich für die Wahrheit zeugen soll. (Evangelium nach Johannes 18,37) Mit Dank an Leser Merbitz, Oberdörfer und Kristin Scharnowski)

In dem langen Kampf zwischen Legalismus und Konfuzionismus, Totalitarismus und Liberalismus, Diktatur und Demokratie war kein Ereignis ausgefallener und seltsamer, keines noch stärker falsch aufgefasst, keines zunächst so erfolgreich, keines sicherer, am Ende zu scheitern, als die Kampagne des Klima-Konformismus‘, welche die Tyrannen der Gedanken gegen den freien Markt wissenschaftlichen Denkens losgetreten haben. Jedweder Dissens war verboten.

Abu Ali Ibn al-Haytham, der irakische Astronom und Philosoph der Wissenschaft, welcher im 11. Jahrhundert im Osten das wissenschaftliche Verfahren gegründet hat wie zuvor Thales von Milet im Westen, schrieb, dass der Sucher nach Wahrheit – sein wunderbarer Terminus für Wissenschaftler – seinen Glauben nicht in irgendeinen alten Konsens steckt. Stattdessen unterwirft er es Begründung und Demonstration. Der Weg zur Wahrheit, sagte er, ist lang und schwierig: aber es ist genau der Weg, dem wir folgen müssen. Auf diesem Großen Weg ist jedes naive Beharren auf irgendeiner bloßen Parteilinie – so gut gemeint dieses auch daherkommt – immer ein Stolperstein.

Dass der jüngste Versuch der Verstaatlichung des wissenschaftlichen Denkens gescheitert ist, genauso wie Eugenik und Lysenkoismus zuvor, wird durch die vernünftige Entscheidung der Stadt Moskau demonstriert, dass nicht nur einerseits die offizielle Wissenschaft, sondern auch die andere Seite, nämlich die objektiv wahre Wissenschaft, auf diesem Forum zu Gehör kommt.

Echte Klimawissenschaft, die zu repräsentieren ich die Ehre habe, hat eine willkommene Überraschung für die heutige offizielle Klimawissenschaft. Es ist mein Ziel, für die Überlegungen der herausragenden zivilen Führer Ihrer großen Nation nichts weniger als auf verblüffend einfache und mit den Vorlagen meines Teams unwiderlegbare Weise aufzuzeigen, dass die Auffassung einer vom Menschen verursachten globalen Erwärmung als globale Krise auf einem 120 Jahre alten Irrtum beruht. Nach der Korrektur dieses Irrtums löst sich das imaginäre Problem des ungesunden Einflusses des Menschen auf das Klima und die globale Temperatur in Luft auf.

Es ist eines der am besten gehüteten Geheimnisse der offiziellen Klimatologie, dass zwischen 50% und 90% der globalen Erwärmung, welche die Computer-Spielchen prophezeien, nicht aufgrund unserer Zuführung von etwas CO2 zur Atmosphäre beruhen, dass einst ohnehin in der Luft vorhanden war, sondern auf der Kettenreaktion aufgrund der geringen, direkten Erwärmung von weniger als 1,2 K, zu welcher es bei einer Verdoppelung des CO2-Gehaltes kommt.

Diese Verstärkungen sind bekannt als „Temperatur-Rückkopplungen“. 40 Jahre lang hat die offizielle Klimatologie vor sich her getragen, dass ein verdoppelter CO2-Gehalt nicht eine globale Erwärmung von 1,2 K, sondern von 1,5 bis 4,5 K mit sich bringen werde (Einige Höchstoffizielle sprechen sogar von 13 K). Die von Rückkopplungsfaktoren moderierte Kurve der Reaktion auf globale Erwärmung ist eine rectangular [?] Hyperbel. Deren Fehler hat sie dazu verleitet, die Berechnung zum rechten Rand jener Kurve durchzuführen, wenn sie doch am linken Rand durchgeführt werden sollte.

Die offizielle mittelfristige Schätzung einer Erwärmung um über 3 K bei einem verdoppelten CO2-Gehalt impliziert, dass Rückkopplungen die direkte Erwärmung von 1,16 K verdreifachen. Das IPCC treibt seine Prophezeiungen mit all der eigennützigen, übermäßig geförderten, schlecht erforschten und unüberwindlichen Ignoranz eines Trofim Denisovich Lysenko voran. Wie ich zeigen werde, ist die Prophezeiung des IPCC eine unverantwortliche Übertreibung.

Während der 120 Jahre, seit Svante Arrhenius den langen Nordwinter, den Sie hier in Russland so gut kennen, damit zugebracht hatte zu berechnen, wie viel Erwärmung ein verdoppelter CO2-Gehalt auslösen würde, vermutete er, dass die Wasserdampf-Rückkopplung die direkte Erwärmung durch CO2 verdoppeln würde. Die offizielle Klimawissenschaft hat einen wesentlichen Beitrag durch Rückkopplungen angenommen. Das ist der zentrale Fehler, wie ich heute darlegen möchte. In Wirklichkeit tragen Rückkopplungen kaum etwas dazu bei, und die untere Grenze der Vorhersagebandbreite des IPCC von 1,5 K bei einer CO2-Verdoppelung ist in Wirklichkeit die Obergrenze der Bandbreite.

Ich habe Ihnen versichert, dass der Beweis denkbar einfach sein wird, und das ist er auch, obwohl ich 10 Jahre gebraucht habe, diesen zu finden und ein weiteres Jahr zu dessen Verifikation – unter tatkräftiger Mithilfe meines Forschungsteams und eines Laboratoriums der Regierung.

Rückkopplungen folgen den gleichen mathematischen Gesetzen aller dynamischen Systeme, in denen sie auftreten. Bzgl. Klima können sie weder direkt gemessen noch eindeutig voneinander unterschieden werden oder gar von den Strahlungsantrieben, welche ihr Auslöser sind.

Ein elektronischer Schaltkreis jedoch ist ein dynamisches System, bei dem Input und Output direkt gemessen und dessen Rückkopplungen eindeutig unterschieden werden können, nicht nur theoretisch, sondern ebenfalls durch direkte Messung. An den Bell Labs in New York hat Harold S. Black in den zwanziger Jahre zum ersten Mal die Theorie von Rückkopplungen entwickelt. Es ist diese Theorie, beschrieben in einem Bestseller-Lehrbuch von Hendrik Wade Bode und zum ersten Mal 1945 veröffentlicht, auf welcher die offizielle Klimatologie beruht. Aber die offizielle Klimatologie liegt dabei falsch.

In einem Bode-Rückkopplungs (Feedback)-Kreis gibt es ein Eingangs -(Input)-Signal – Volt in einem Schaltkreis, die globale Temperatur beim Klima. Das Signal wird dann verstärkt, durch einen Verstärker im Schaltkreis oder durch die Sünden der Menschen bei Klima. Als Nächstes wird ein gewisser Bruchteil des Signals dem Input-Knotenpunkt mittels eines Feedback-Blocks wieder hinzugefügt. Dort wird es zu dem Input-Signal addiert und erneut durch den Verstärkungs-Block geleitet und dann weiter zum Ausgangs- (Output)-Knotenpunkt.

Der erste Versuch von Arrhenius, die Frage „wie viel Erwärmung?“ zu beantworten ging der Theorie der Rückkopplung ein Vierteljahrhundert voraus. Man kann ihm seinen Irrtum verzeihen – besonders weil sich seine Studie auf mangelhafte Daten des lunaren Spektrums stützte.

Als James Hansen von der NASA im Jahre 1984 eine Studie zu Klima-Rückkopplung schrieb, war die Theorie in der Elektronik gut verstanden, wo sie umfassend und wiederholt verifiziert worden ist. Allerdings hat Hansen die Theorie nicht korrekt angewendet. In seinem Feedback-Loop gab es keinen Verstärker-Block.

Stattdessen hat er das Input-Signal, welches die globale Temperatur sein sollte, ersetzt durch die prophezeite direkte oder Rückkopplungs-Erwärmung als Reaktion auf verdoppelten CO2-Gehalt. Dieser Fehler führte dazu, dass der Rückkopplungs-Faktor um zwei Größenordnungen übertrieben worden ist.

Aufgrund der Fehler in Hansens Verfahren konnte die offizielle Klimatologie nicht den einfachen Punkt erkennen, den zu finden ich zehn Jahre gebraucht habe: dass jedwede Rückkopplungen, welche zur prophezeiten zukünftigen globalen Erwärmung beitragen, auch jetzt schon einen Beitrag zur heutigen Temperatur leisten müssten. Diese Tatsache erlaubt es uns zum ersten Mal, eine Obergrenze des Beitrags der Rückkopplungen zur Steigerung der heutigen Temperatur festzulegen – und auch für die zukünftige Erwärmung.

Gehen wir davon aus, dass es einen natürlichen Treibhauseffekt gibt. Dieser Effekt wird allgemein mit 33 K geschätzt. Die gemessene globale Temperatur beträgt rd. 288 K. Nur mit diesen beiden Werten der offiziellen Klimatologie – Werte, die wir hier als ad argumentum akzeptieren sollten – können wir eines der mächtigsten Instrumente im Arsenal historischer Mathematik anwenden, nämlich das, was heute unter der Bezeichnung ,Beweis durch Widerspruch‘ bekannt ist.

Unsere Aussage lautet, dass Anteile von Rückkopplung, welche von der offiziellen Klimatologie prophezeit werden, allesamt exzessiv sind. Um diese Aussage zu belegen, negieren wir sie und nehmen ad argumentum an, dass die offizielle Klimatologie korrekt ist. Dann überprüfen wir, ob die negierte Aussage zu einem Widerspruch führt. Falls das der Fall ist, muss unsere ursprüngliche Aussage korrekt und die offizielle Klimapolitik falsch sein.

Bei dem abwegigen Rückkopplungs-Verfahren der offiziellen Klimatologie darf man den impliziten Anteil an Rückkopplung ermitteln durch Einheitlichkeit des Verhältnisses der 1,16 K direkter Rückkopplungs-Erwärmung infolge eines verdoppelten CO2-Gehaltes einerseits zur prophezeiten Gleichgewichts-Erwärmung nach der Rückkopplung. Folglich beträgt das implizite Intervall der Rückkopplungs-Anteile 0,61 (0,23; 0,74) K für das Gleichgewichts-Sensitivitäts-Intervall des IPCC von 3 (1,5; 4,5) K. Nehmen wir mal an, dass dieses Intervall korrekt ist.

Aber jener maximale Rückkopplungs-Anteil beträgt implizit laut Prophezeiung des IPCC 0,23. Was ist dann der größte Rückkopplungs-Anteil, der in Wahrheit theoretisch möglich ist, nachdem die Fehler des Rückkopplungs-Verfahrens der offiziellen Klimatologie korrigiert worden waren? Man nehme per impossibile an – und dies ist die reductio ad absurdum – dass der gesamte natürliche Treibhauseffekt von 33 K von Rückkopplungen getrieben ist. In diesem Falle ist der mögliche maximale Feedback-Anteil einfach das Verhältnis des natürlichen Treibhauseffektes zur heutigen Temperatur: d. h. 33/288,4 oder 0,11.

Aber jener maximale Rückkopplungs-Anteil bei nur 0,11 ist nur die Hälfte des kleinsten Rückkopplungs-Anteils 0,23, den wir als korrekt vermutet haben. Damit ist nachgewiesen, dass die offizielle Klimatologie, auf die wir uns unklugerweise gestützt haben, den Rückkopplungs-Anteil fälschlich um 2 bis 6,5 mal übertrieben hat. Das ist ein großer Fehler.

Wie groß ist dann die theoretisch mögliche maximale globale Erwärmung als Folge eines verdoppelten CO2-Gehaltes? Die korrigierte Gleichung der Klima-Sensitivität ist ein wenig zu kompliziert für eine allgemeine Zuhörerschaft, obwohl ich ein paar Folien habe, die diese zeigen und deren Ableitung erklären, und ich werde sehr gerne Fragen dazu beantworten.

Da der maximal mögliche Rückkopplungs-Anteil jedoch so niedrig ist, dass die Berechnung durchgeführt wurde über ein fast lineares Segment am linken der rectangular-hyperbolic response curve, kann man die naive Gleichgewichts-Sensitivitäts-Gleichung der offiziellen Klimatologie heranziehen ohne großen Verlust an Genauigkeit, während die maximale, theoretisch mögliche Gleichgewichts-Sensitivität bei verdoppeltem CO2-Gehalt einfach die direkte, CO2-getriebene Erwärmung von 1,16 K dividiert durch (1 minus 0,11) ist. Die Antwort lautet 1,3 K. Tatsächlich ergibt die korrigierte Gleichung 1,5 K als Maximum – aber das ist immer noch das Minimum der offiziellen Klimatologie.

Und hier ist die Beweisführung.

Anders als die meisten Ergebnisse der offiziellen Klimatologie ist das Ergebnis meines Teams nicht probabilistisch, sondern deterministisch; nicht zweifelhaft, sondern definitiv; nicht prophezeit, sondern belegt. In unserer eingereichten Studie gibt es keine Zweifel hinsichtlich unseres Resultats, welches gegenwärtig bei einem führenden Klima-Journal den Begutachtungsprozess durchläuft.

Nichtsdestotrotz würde Al Haytham nichts weniger von uns erwarten, als das Ergebnis wieder und immer wieder zu überprüfen. Wir reichten jeden Entwurf unserer Studie an zwei bedeutende Professoren ein – einer ist Professor für optische Physik, um sicherzustellen, dass wir den CO2-Antrieb richtig verstanden haben, und der andere ist der weltführende Spezialist bei der Anwendung der Rückkopplungs-Theorie auf Klima. Beide haben die Veröffentlichung empfohlen.

Wir konstruierten auch einen Test-Schaltkreis mit einem Input von 23 Sätzen mit je drei Zahlen – das Input-Signal, den simple-gain factor im Verstärkungs-Block und den Rückkopplungs-Anteil. Wir haben die Outputs gemessen, und diese passten in jedem der 23 Testläufe bis auf ein Zehntel Kelvin genau zu unseren theoretischen Ergebnissen. Sie bestätigten auch durch Messung, dass die Temperatur-Reaktionskurve tatsächlich eine Hyperbel ist.

Wir waren aber immer noch nicht zufrieden. Wir beauftragten ein Laboratorium der Regierung, einen eigenen Schaltkreis zu konstruieren und alle 23 Experimente noch einmal durchzuführen, dieses Mal in einer Temperatur regulierten Kammer. Selbst dann reichte die bloße Anwesenheit des Operators aus, einige Messungen zu stören, so gering ist der Einfluss des Menschen auf das Klima.

Wir arbeiteten Monate lang mit dem Laboratorium zusammen, um ihm Zahlensätze zu geben, welche hinreichend zuverlässige Ergebnisse erzeugen angesichts der sehr geringen menschlichen Einflüsse, die zu simulieren wir versucht haben. Am Ende berichtete das Laboratorium, dass alle unsere 23 theoretischen Ergebnisse bis auf ein Zehntel Kelvin genau korrekt waren.

Ergebnisse von einem Laboratorium der Regierung

Tabelle der Ergebnisse. Für die Testläufe 2 bis 4 wurde die Voltzahl durch 100 dividiert, um die vorgegebene Präzision zu erreichen.

Dann, und wirklich erst dann, haben wir dem Laboratorium eine Ausgabe des Entwurfs unserer Studie zugesandt und enthüllt, dass es bei den Experimenten um Klimawandel geht. Das Laboratorium bestätigte, dass wir korrekt gearbeitet hatten, drängte uns aber, nicht den Namen [des Laboratoriums] zu nennen. Allerdings hatte ich es zu einer Bedingung für den Vertrag gemacht, dass die Ergebnisse in einem akademischen Journal veröffentlicht werden sollen: also erzielten wir einen Kompromiss. Wir konnten den Laborbericht in unsere Studie einarbeiten, nannten aber nicht, um welches Laboratorium es sich handelte. Im Gegenzug mussten wir für dessen Rechnung nicht bezahlen.

Die Reaktion des Labors ist verständlich. Wie mein Team und ich selbst aus eigener bitterer Erfahrung wissen, ist es eine Einladung zu fortgesetzter persönlicher Verunglimpfung, wenn man es wagt, die offizielle Parteilinie bzgl. Klima in Frage zu stellen. Erst vorige Woche gab es eine von den Medien aufgebauschte Forderung eines linksextremen Akademikers in den USA, dass ich hingerichtet werden sollte, weil ich es gewagt habe, die Parteilinie bzgl. Klima zu hinterfragen. Dabei ist alles, was ich getan habe, wie die Opfer von Lysenko, in Ruhe mit meinen Forschungen fortzufahren in die wahre Wissenschaft, welche Ergebnisse auch immer dabei herauskommen.

Unsere Ergebnisse überführten die Parteilinie als falsch. Es wird eine geringe globale Erwärmung geben – unser best estimate liegt um 1,3 K pro CO2-Verdoppelung – aber das ist längst nicht genug, um gefährlich zu sein. Es wird vorteilhaft sein. CO2-Düngung lässt die Erde schon jetzt ergrünen, führt zu besseren Ernteerträgen und stärkt die Widerstandsfähigkeit von Getreide gegen Dürren.

Für Ihre Städte, die so unter Geldmangel leiden, sind es gute Nachrichten, dass sie keinen einzigen Rubel mehr ausgeben müssen, um die globale Erwärmung aufzuhalten. In Russland wäre ein wenig Erwärmung genauso eine sehr gute Sache wie in meiner geliebten Heimat Schottland.

Für die Rodina: der kurzfristige Nachteil, nicht länger in der Lage zu sein, sibirisches Gas an die klima-besessene Europäische Union zu Preisen zu verkaufen, die um das drei- bis vierfache über dem Weltpreis liegen, wird längerfristig mehr als ausgeglichen durch das Entfernen aller internationalen Restriktionen auf Ihrem Recht, weiterhin Gas, Öl und Kohle zu fördern und zu verkaufen. Jene Reserven werden jetzt wirklich wertvoll, langfristig ebenso wie kurzfristig.

Ich möchte mit der folgenden Prophezeiung enden: In 20 Jahren wird Mr. Putin immer noch Ihr Präsident sein. Und dank Ihrer ungehinderten Freiheit, Ihre Vorräte von Gas, Öl und Kohle zu Ihrem Vorteil zu gewinnen, wird Russland eines der reichsten Länder der Erde werden.

Was die Klima-Angstmacherei betrifft: Es ist vorbei. Don’t worry – be happy! Спасибо!

Übersetzt von Chris Frey EIKE




Zukunft Energie-Armut

Der leitende Politikberater Paul Driessen erinnert uns bei CFACT.org daran, dass es ohne diese überaus wichtigen Energiequellen „keine einzige Windturbine und kein einziges Solarpaneel geben würde. Ohne fossile Treibstoffe – oder weitaus mehr Wasser- und Kernkraftwerke – könnten wir nicht die Metalle abbauen, verarbeiten und schmelzen, Fabriken, Raffinerien, Gießereien und Zementöfen bauen und betreiben, was zur Herstellung von Turbinen und Paneelen unabdingbar ist. Wir könnten die Fabriken nicht einmal mit den Maschinen ausstatten“.

Der Wohlstand unserer industrialisierten Gesellschaft mit einem freien Markt ist in der menschlichen Historie relativ neu. Das heutige Wohlergehen sollte man nicht als garantiert hinnehmen.

Im Jahre 1651 beschrieb Thomas Hobbes „Umstände“, unter denen es „keinen Platz für Industrien gibt, weil die Ergebnisse derselben unsicher sind, und konsequenterweise keine Kultur auf der Erde, keine Orientierung, keine herangeführten Güter, keine bequemen Behausungen, keine Mittel zur Fortbewegung und Entfernung von Dingen, die viel Kraft brauchen, keine Kenntnisse über das Aussehen der Erde, keine Zeitmessung, keine Kunst keine Schrift, keine Gesellschaft und – was am schlimmsten ist – unablässige Furcht und die Gefahr eines gewaltsamen Todes. Das Leben der Menschen wäre einsam, arm, hässlich, brutal und kurz“.

Vor zweihundert Jahren lebte die sehr große Mehrheit der Weltbevölkerung in extremer Armut. Dank freier Märkte, Industrie und, ja, wichtiger Energiequellen wie fossile Treibstoffe und Kernkraft leben heutzutage nur noch etwa 10% in extremer Armut … und mit jedem Tag wird es besser [was mir angesichts der Weltlage etwas optimistisch erscheint. Aber das liegt nicht an Energie. Anm. d. Übers.].

Muss das Leben in Zukunft „arm, hässlich, brutal und kurz“ sein?

Natürlich nicht!

Aber wir müssen alles in unserer Macht stehende tun, die Klima-Campaigner davon abzuhalten, ihre Ziele zu erreichen … oder wir werden genau dorthin kommen!

Link: http://www.cfact.org/2017/08/18/energy-poverty-future/

Übersetzt von Chris Frey EIKE




Taiwan hat ein ernstes Stromproblem – zu wenig Energie

Bericht der Quartz Media LLC [US], Josh Horwitz, 17. August 2017

Am Dienstag (15. August 2017) abends um 17 Uhr Ortszeit wurde es für Millionen von Haushalte und Geschäfte in ganz Taiwan plötzlich dunkel.

Quelle: Quartz, Taipeh People walk on a street during a massive power outage in Taipei, Taiwan August 15
– Einkaufsbummel im Dunkeln

Für einige waren nur die Telefonleitungen und TVs für ein paar Stunden tot, für andere kamen ganze Produktionslinien zum Stillstand .

Die beiden größten Halbleiterunternehmen der USA, Taiwan Semiconductor Manufacturing Co (TSMC, 台積電) und United Microelectronics Corp (聯 電), sagten, dass ihre Produktionslinien in Hsinchu und Tainan normal funktionierten.

Die Speicher-Chiphersteller Nanya Technology Corp (南亞 科技) und Micron Taiwan waren ebenfalls unberührt.

Advanced Semiconductor Engineering Inc (ASE, 日月光 半導體), der weltweit größte Chip-Tester und Packager, sagte, seine Anlagen in Kaohsiung erlitten einen Stromausfall, vor etwa eine Stunde sind die Produktionslinien wieder gestartet worden.

ASE berechnet noch die Kosten der verlorenen Produktionszeit.

ChipMOS Technologies Inc (南 茂), der weltweit zweitgrößte LCD-Treiber IC-Verpackungs- und Testdienstleister, sagte, dass die Produktionslinien zwischen zwei und drei Stunden ausgesetzt wurden.

Die Telekom-Betreiber Taiwan Mobile Co (台灣 大) und Chunghwa Telecom Co (中華 電信) sagten, dass ihre Basisstationen betroffen seien, haben aber ihren Betrieb wieder aufgenommen.

Die vielen Mittelständischen und kleineren Unternehmen / Geschäfte hatten meist keine Möglichkeit, ihren Betrieb aufrecht zu erhalten.

 

Taiwans staatlich unterstützter Energiemonopolist Taipower erklärte, dass der Blackout durch menschliches Versagen verursacht wurde

Alle sechs Generatoren im Kraftwerk fuhren gestern Nachmittag abrupt runter, als eine Erdgasversorgungsleitung beschädigt wurde, möglicherweise aufgrund menschlicher Fehler, erklärte Gaslieferant CPC Corp, Taiwan den Reportern.

Diese jüngste Störung nahm gestern 4.7 Gigawatt (GW) aus der Stromversorgungskapazität, als der Stromverbrauch ein weiteres Rekordhoch von 36,45 GW am Tag erreichte.

 

Aber unabhängig davon, ist es ein wichtiges Thema für das Land – wird der aktuelle Energieverbrauch [und die zuverlässige Energieversorgung] nicht reformiert, ist das Land auf dem richtigen Weg in eine große Versorgungskrise.

Wie Japan und Korea hat Taiwan einen Mangel an einheimischen Energiequellen. Infolgedessen importiert es über 98% seiner Energie, meist in Form von fossilen Brennstoffen, gemäß der Regierung . Mittlerweile kommen nur 6,25% der taiwanesischen Stromversorgung aus den drei Kernkraftwerken der Insel, die vor über 30 Jahren mit dem Betrieb begannen.

Quelle Energieministerium Taiwan; Energiemix

Es ist eine Mischung, die nicht optimal ist – angewiesen zu sein auf die Importe ist teuer und riskant, vor allem angesichts Taiwans isolierten geopolitischen Status und Chinas Einfluss auf die Energiepreise.

Mittlerweile sind die Reservekapazitäten der Energieversorgunger bereits sehr niedrig, im Januar hatte Taipower gewarnt, dass die Betriebsreserven unter die Marke von 6% fallen würden und eine Woche vor dem Blackout gab es eine „rote Warnung“, die signalisiert, dass die Reserven in der Nähe von 1% liegen, aufgrund einer Hitzewelle auf der Insel, die den Stromverbrauch hochtrieb.

Kapazitätsmeldung, Tai-Power

Quelle: The China Post

Taiwans Strominfrastruktur ist kläglich veraltet – sie ist schlecht ausgerüstet, die regelmäßigen Stürme zu ertragen, die auf die Insel treffen und sind nicht in der Lage, einen drastischen Wechsel zu erneuerbaren Energien zu ermöglichen. Das kommt zum Teil daher, weil Taiwans Haushalts Strompreise durch den Staat festgesetzt sind. Taiwan hat weltweit die niedrigsten Stromkosten für die Verbraucher- gut unterhalb der anderen entwickelten asiatischen Länder wie Japan, Südkorea und Singapur. Taipower arbeitet derzeit mit einem Defizit . Das, gepaart mit regelmäßigem Protest der Verbraucher und politischem Gegenwind, wenn Preiserhöhungen im Gespräch sind, macht die Modernisierung der Strominfrastruktur der Insel schwierig.

 

Obwohl der Stromausfall nur fünf Stunden dauerte, ist ein größerer Zeitraum im Bereich der Möglichkeit. Es könnte potenziell verheerende Auswirkungen für eine Wirtschaft haben, die stark von der Herstellung abhängig ist und kritisch für die weltweite Technologie-Lieferkette ist – Taiwan ist die Heimat von Industrie-Riesen wie TSMC, einer der weltweit größten Vertragspartner. TSMC, ein wichtiger Lieferant für Apple, sagte seine Produktion war diesmal nicht betroffen.

 

Eine Lösung wäre, mehr in Kernenergie zu investieren. Doch das ist ein Tabuthema für die aktuelle Regierung.

Im Jahr 2014 führte die Welle der Anti-Atom-Proteste dazu, dass die Regierung den Bau eines neuen Kernkraftwerks abbrach. Solche Anti-Atom-Stimmung ist nicht ganz ohne Grund – Taiwan ist eine Insel, anfällig für Erdbeben und Taifune und die Erinnerungen an den Tsunami und Fukushima in Japan im Jahr 2011 sind vorhanden.

Die derzeitige Präsidentin Tsai Ing-wen, die 2016 an die Macht kam, verdankte das einer überzeugten Anti-Atom-Plattform. Seit dem Amtsantritt reduzierte sie die vorhandene Energieversorgung der Insel durch Abschalten der Kernkraft um 13%, nach den Zahlen der Regierung.

Frau Tsai hat auch versprochen, den Anteil der erneuerbaren Energien an Taiwans Stromversorgung bis 2025 auf 20% zu erhöhen. Aber das erfordert die Aufrüstung von Taiwans Strominfrastruktur, die derzeit nicht für Wind- und Solarenergie geeignet ist. Ein Upgrade wird Geld kosten – das entweder in Form höherer Steuern oder höherer Strompreise die Verbraucher belasten wird. Und selbst dann könnte der Zusatz von erneuerbaren Energien den Rückgang der Kernenergie nicht kompensieren.

„Es ist sehr schwierig, sich vorzustellen, dass die Kapazitäten von erneuerbaren Energien, sei es Onshore-Wind oder Offshore-Wind oder Solar, den Verlust an Versorgungssicherheit in irgendeiner Weise kompensieren können, wenn die Atomkraft in ihrer Gesamtheit außer Betrieb genommen wird“, sagt Ross Feingold, ein Berater für multinationale Kunden über rechtliche und politische Risiken in Taiwan.

 

Taiwans Wirtschaftsminister trat nach dem Blackout zurück , und Frau Tsai veröffentlichte eine Entschuldigung auf Facebook:

蔡英文 Tsai Ing-wen

 15. August um 07:28· 

Die Stromversorgung in Taiwan hat ist allmählich zur Normalität zurückgekehrt. Für diesen Blackout entschuldige ich mich im Namen der Regierung der Nation.

Energie ist nicht nur die Existenzgrundlage für die Menschen, es ist eine Frage der nationalen Sicherheit. Nach wirklich umfassender Überprüfung ist dies aufgrund menschlicher Fehler passiert und lähmte einfach das Stromversorgungssystem. Dies ist der Kern des Problems. Also werde ich die entsprechenden Abteilungen beauftragen, in kürzester Zeit den Menschen einen klaren Bericht zu geben, warum unser System wegen eines versehentlich Schadens, so viel verursachen kann? Dieses System ist offensichtlich zu fragil, aber das war auch Taiwan für viele Jahre. Dieses System kann nicht reformiert werden, ich werde es auf die Agenda der zukünftigen Reform setzen.

Die Regierung fördert dezentrale grüne Energieerzeugung, um zu verhindern, dass der Ausfall eines einzigen Kraftwerks Auswirkungen auf unsere nationale Stromversorgung hat. Unsere politische Richtung wird sich nicht ändern, die heutigen Ereignisse werden uns nur noch entschlossener machen.

 

Die Central News Agency (CAN), der Republik China in Guangzhou hat ein exklusives Interview mit Taiwans Premier Lin Chuan veröffentlich.

… Die Republic of China Nuclear Society hat die Taiwan Power Company gebeten, mit den KKW – Einheit 1 und Einheit 2 die stabile Versorgung mit Kernenergie zu beginnen. Mit diesem „grünen Kern“ wird die Entwicklung von Ökostrom gefördert und es werden die internationalen Emissions-Reduktionsverpflichtungen eingehalten. Dieser Vorschlag kam von der Regierungsdienststelle für öffentliche Angelegenheiten. …

Weiterhin bekräftigte Taiwans Premier Lin Chuan, dass die Wiederherstellung der Kernenergie keine „logische“ Lösung für das war, was er einen „kurzfristigen Stromausfall“ nennt. Bis Taiwan sich für den Ausbau von nuklearen oder erneuerbaren Energien entscheidet oder beides und einem Ausbau des Stromnetzes, könnten diese „kurzfristigen“ Ausfälle langfristige Wiederholungen werden.

Erschienen auf Quartz am 17. August 2017

Übersetzt und zusammengestellt von Andreas Demmig

Taiwan, at the heart of the world’s tech supply chain, has a serious electricity problem

 




Klimatokratie : Der heimlifeisse* Pariser ­Hinterzimmer-Klimaschwindel fliegt auf. Gut so.

Die Maya, ein mittelamerikanisches Indianervolk, das in der frühen Neuzeit wegen anhaltender Dürre infolge Temperatur­anstiegs unterging, huldigten mit Fleiss und Akribie dem Sonnengott. Ich habe keine Ahnung, wie die Maya ihre Gottheit nannten, aber sie opferten ihr lebende Tiere und Menschen, weil ihnen ihre Medizinmänner erzählten, nur so sei der Zorn der Sonne zu besänftigen.

Die armen Maya wussten nicht, ob ihre ­Opfer dem Gott gefallen würden, aber sie ­opferten und huldigten ihm bis in den Untergang. Es wäre vermutlich schlauer gewesen, sie hätten ihre Ressourcen in eine Reform der landwirtschaftlichen Anbaumethoden investiert.

Wir sind heute wieder an einem ähnlichen Punkt.

Die Sonne ist böse geworden und heizt die Atmosphäre auf. Die Menschen befragen ihre Medizinmänner, die ihnen drohend neue Opfer empfehlen. Keine Tiere oder Menschen diesmal, die Leute sollen Geld und Wohlstand auf die Altäre legen, gefragt sind Selbstkasteiung und Verzicht. Auch die Heutigen wissen nicht, ob ihre Darbringungen den Sonnen­göttern Freude machen, aber, ihren Medizinmännern vertrauend, hoffen sie, dass die Opfer irgendwann, vielleicht in 100 Jahren, Früchte tragen werden.

Klimapolitik ist Voodoo, Sonnenreligion, magisches Denken, auch eine Art Ablasshandel, an dem viele mitverdienen.

Die Vorstellung, dass die Menschheit in einer konzertierten Aktion an Kongressen und Konferenzen die Durchschnittstemperaturen auf diesem Planeten steuern kann, ist so verrückt, dass sie schon fast wieder faszinierend ist. Die gleichen Leute, die seit Jahrzehnten erfolglos versuchen, die Staatsschulden zu senken, blühen vor den Mikrofonen auf, wenn sie den Leuten draussen erzählen können, wie sie mit ihren Konzepten den mutmasslichen weltweiten Temperaturanstieg begrenzen werden. Endlich eine Grenze, die sie sichern können.

Das Pariser Klimaabkommen ist, soweit ich es überblicke, ein Betrug.

Es wurde von seinen Initianten als ultimativer Versuch zur Rettung des Planeten eingeflogen. Was in Paris beschlossen würde, sei von existenzieller Bedeutung für die Menschheit, jubelten die Zeitungen, ein politischer Akt von allerhöchstem Rang: die Anbahnung der Lösung eines Zen­tralproblems, an der jeder Bürger dieses Planeten ein ureigenstes Interesse haben müsste. Und jetzt kommt der Betrug: Die Initianten von «Paris» schusterten ihr Abkommen vorsätzlich so zusammen, dass es in keinem Land jemals eine Abstimmung darüber geben würde. Die Rettung der Menschheit wurde an den Menschen vorbeientschieden.

Natürlich gab es Ausflüchte: Das Abkommen, hiess es, wäre gar nicht durchgekommen, wenn man es als offiziellen Vertrag mit Sank­tionen aufgesetzt hätte. Alle Massnahmen seien freiwillig, sonst wäre es notwendig geworden, das Abkommen den Parlamenten vorzulegen. Das dann aber doch nicht. Die Klimaretter um US-Präsident Obama fanden das Klima zu wichtig, um es der Demokratie zu überlassen.

Warum eigentlich? Wenn die Klimasteuerung so wichtig ist, wäre dies doch der endgültige Strassenfeger in der Politik. Weshalb soll man an den Leuten vorbeischleusen, was die Leute dringend interessieren muss und, wenn es ja stimmt, auch wird? Das seltsame Verhalten lässt nur zwei Deutungen zu: Entweder glauben die Klimapolitiker nicht an ihre ­Klimapolitik. Oder sie sind keine Demokraten, sondern Diktatoren, präziser: Klimatokraten, die ihr Anliegen wie einst die Kommunisten oder andere Vertreter totalitärer Systeme undemokratisch, heimlich, von oben, an den Bürgern vorbei durchzwängen wollen. Vermutlich trifft beides zu.

Man hört jetzt oft, das Pariser Klimaabkommen sei harmlos, da unverbindlich, die ganze Übung eher symbolisch zu verstehen und mehr ein Signal als konkrete Politik. Wer das glaubt, ist den Klimatokraten bereits auf den Leim gekrochen. Dieses Abkommen ist gefährlich, denn es schwebt irgendwo zwischen ­moralischer und rechtlicher Verbindlichkeit im demokratiefreien Raum über dem Rechtsstaat. Es ist ein Nichtvertrag, der aber doch Verhaltensänderungen und politische Massnahmen erzwingen will, freilich ohne dass die Bürger etwas zu sagen haben.

Und von wegen harmlos. In der Schweiz zum Beispiel dient das «unverbindliche» Pariser Klimaabkommen bereits sehr wohl als sehr verbindliche Rechtfertigungsgrundlage einer Energiestrategie, die bis ins Jahr 2050 rund 200 Milliarden Schweizer Franken kosten und die Energieversorgung auf den Kopf stellen wird – mit massiven Eingriffen ins Privat­leben. So umkurven die Klimaretter die Demokratie: Sie schaffen an ihren internationalen Konferenzen Pseudorecht, das sie im Inland als Druckmittel benützen, um die gewünschten Gesetze herbeizuhebeln.

Trumps Ausstieg aus diesem Nichtvertrag, der ein Vertrag ist, ohne es zuzugeben, ist ein Akt der Ehrlichkeit. Der weltweite Hass, der ihm seither gesteigert entgegenschlägt, ist nur ein Beweis dafür, wie sehr die antidemokratische Klimareligion auch auf den Zeitungs­redaktionen und in den Parteien um sich gegriffen hat. Mächtige Interessengruppen fürchten bereits um Geld und Einfluss, den ihnen das ach so unverbindliche Klimaabkommen bescheren wird.

Der Gipfel der Heuchelei ist, wenn sie Trump jetzt vorwerfen, er hätte doch gar nicht austreten sollen, eine stillschweigende Nichtbeachtung des Abkommens wäre möglich und ausreichend gewesen. In solchen Ratschlägen ­offenbart sich die ganze Unehrlichkeit dieses heimlifeissen Pariser Hinterzimmer-Klimaschwindels: Es geht nicht ums Klima, es geht darum, die Fassade einer weltweiten Gesinnungsgemeinschaft aufrechtzuerhalten, die sich und ihren Profiteuren in Wirtschaft, Forschung und Gesellschaft die Taschen füllt.

Die Masken fallen. Der Schwindel fliegt auf. In der Schweiz gibt Bundespräsidentin Doris Leuthard unter dem nicht enden wollenden Applaus der Medien strahlend die Galions­figur für diese dubiose demokratie- und wohlstandsfeindliche Klimatokratie.

Ich bin sicher nicht gegen Umweltschutz und saubere Energien, aber ich bin dagegen, wenn hinter unserem Rücken eine Art Umweltismus aufgezogen wird mit verlogenen «unverbindlichen» Abkommen, die am Ende ein System von Pfründen, Vorschriften und Privilegien begründen, das Leute bezahlen müssen, die gar nie gefragt wurden. Dank Trump reden nun endlich alle darüber. Gut so.

 

)* Anmerkung der EIKE-Redaktion :

Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich : „Klimatokratie: Der heimlifeisse Pariser ­Hinterzimmer-Klimaschwindel fliegt auf. Gut so.“

| Die Weltwoche, Nr. 23/2017 |   http://www.weltwoche.ch/

EIKE dankt dem Autor und zugleich WELTWOCHE-Chefredakteur Roger Köppel  für die Gestattung des ungekürzten Nachdrucks.




Über die Auswirkungen der Global Warming Policy Foundation (GWPF)

Ihre jüngste Veröffentlichung ist eine vergleichende Übersicht der Auswirkungen von Skeptikern auf die Klimapolitik in UK und in ihrem Geburtsland Neuseeland. Sie basiert auf Interviews mit Politikern, Staatsbeamten und Akademikern. Während sie sich phasenweise sehr schwierig liest, gibt es doch einige faszinierende Einblicke. Zum Beispiel wird ein namentlich nicht genannter Beamte mit den düsteren Worten zitiert:

Eine gut organisierte und finanziell üppig ausgestattete Gruppe … deren Job es ist zu versuchen, alles zu unterminieren, was die Gemeinschaft der Klimawissenschaft macht.

Meint er damit uns? Die kleine alte GWPF? Das kann er nicht ernst meinen! Die Geschichten von der Art der Machiavelli’schen fünften Kolonne, gesteuert mit militärischer Präzision und ausgestattet mit einer unbegrenzten Finanzierung seitens Big Oil begann im Jahre 2009, als die GWPF von zwei Typen aus der Taufe gehoben wurde, welche in einem Besenschrank in Westminster arbeiteten. Da ist es vielleicht keine Überraschung, dass jetzt, mit drei in Vollzeit Angestellten und einem winzigen Büro der Gedanke einer großen ölfinanzierten Verschwörung in Whitehall um sich greift (und dies trotz der Tatsache, dass die GWPF wiederholt und bis zum Gehtnichtmehr darauf hingewiesen hat, dass sie keinerlei Zuwendungen von der Energieindustrie oder Personen mit Interessen daran akzeptieren wird).

Dies hat zweifellos etwas mit der Tatsache zu tun, dass die GWPF tatsächlich Auswirkungen gezeigt hat. Tatsächlich sind einige von Sharmas Interviewpartnern davon überzeugt, dass die GWPF verheerende Auswirkungen sowohl auf die Regierung hat…

…die meisten Kabinettsmitglieder bleiben hinsichtlich Klimawissewnschaft nicht überzeugt und erwärmen sich viel mehr für die GWPF-Position als für den 5. IPCC-Zustandsbericht.

… und auf die öffentliche Diskussion…

Vereine wie die GWPF sind laut und bekommen viel Raum, sich zu äußern.

Ich vermute, dass wenn man denken kann, dass drei Vollzeit-Mitarbeiter eine globale Verschwörung sind, dann kann zweifellos der einmalige Kurzauftritt von Nigel Lawson in einer Nachrichtenshow als „viel Raum, sich zu äußern“ daherkommen. Und der Politik-Maschinerie scheint es lästig zu sein, dass die GWPF damit fortfährt, auf die negativen Auswirkungen der Klimapolitik auf die Wirtschaft hinzuweisen – oder, wie Einige es nennen, auf die „Lebensweise der Normalbürger“.

Es ist ein faszinierender Blick hinter die Kulissen von Whitehall: Es scheint dort eine Paranoia zu geben hinsichtlich einer kleinen Gruppe von Dissidenten, und eine gewisse Wut darüber , dass irgendjemand es wagt, sich um die nationalen ökonomischen Interessen von UK Gedanken zu machen. Es ist viel eher beunruhigend, dass Menschen wie diese überhaupt irgendwie in der Nähe der Schalthebel der Macht weilen. Man kann sich nicht von dem Gefühl freimachen, dass unsere Zukunft nicht in den besten Händen liegt.

Full paper: Sharman A and Perkins R. Post-decisional logics of inaction: The influence of knowledge controversy in climate policy decision-making. Forthcoming in Planning and Environment A. Preprint.

Link: https://www.thegwpf.com/on-the-impact-of-the-gwpf/

Übersetzt von Chris Frey EIKE




Deutschlands Autoindustrie: Mord auf offener Straße?-Ein perfides Spiel mit Klimaangst und fiktiven Abgas-„Todesopfern“ (2)

Was ist von Horrorzahl-Studien zu halten?

Eines der schlagkräftigsten Argumente für die Gegner des Verbrennungsmotors sind zahlreiche Studien, in denen angeblich nachgewiesen wurde, dass Abgase und Feinstaub jährlich zigtausende Tote verursachen würden. Schaut man sich diese Untersuchungen jedoch genauer an, so fällt auf, dass es sich oft um sogenannte Kohortenstudien handelt. Dabei werden nicht etwa eindeutige Ursache-Wirkungsbeziehungen auf experimenteller Basis untersucht, sondern beispielsweise die Entfernung des Wohnorts von stark befahrenen Straßen.

Die schrittweise Einengung der zulässigen Gehalte von Kohlenwasserstoffen (HC) und Stickoxiden in den Abgasen von Diesel-PKW im Verlauf der verschiedenen Stufen der Euronorm (Quelle: [KIT])

Bei diesen Kohortenstudien kommt es jedoch häufig zu offensichtlich gravierenden Falschinterpretationen. In manchen Fällen scheint eine gleichzeitige Betrachtung anderer Risikofaktoren wie Rauchen, Alkoholkonsum, sozialer Status oder Ernährungsgewohnheiten nicht einbezogen zu werden. Anwohner stark befahrener Straßen leben in der Regel in einem anderen sozialen Umfeld als Eigenheimbesitzer in verkehrsfernen Wohnvierteln. Die Relevanz von Studien, die dies nicht ausreichend berücksichtigen, ist daher anzweifelbar.

In anderen Fällen wird beispielsweise häufig ein Zusammenhang zwischen NOx und Krebs behauptet, was ganz offensichtlich im Widerspruch zum klassisch experimentell ermittelten Stand des Wissens steht. Solche Studien sind daher zur Beurteilung der Risiken der Abgase moderner Dieselfahrzeuge ungeeignet. Weitergehende Vorwürfe, die sich auch auf Feinstaub beziehen, wirken so alarmistisch, dass ihre Glaubwürdigkeit dadurch stark in Frage gestellt wird. So finden sich Aussagen wie die, dass Nanopartikel das Gehirn schädigten. Sie seien möglicherweise sogar Ursache für bestimmte Alzheimer-Erkrankungen, Kinder entwickelten systematische Entzündungen des Gehirns sowie frühe Anzeichen der Alzheimer-Erkrankung und es komme zu einem reduzierten Intelligenzquotienten [HEIS]. In anderen Studien werden sogar Risiken bezüglich Herz-Kreislauferkrankungen sowie Diabetes erwähnt [CIRC]. Besonders alarmistisch bezüglich selbst geringer Werte von NOx in der Atemluft ist beispielsweise eine Metastudie der italienischen Epidemiologin Annunziata Faustini im European Respiratory Journal. Sie hat die wichtigsten Studien zum Thema analysiert und errechnet, dass die Zahl der jährlichen Todesfälle in der Bevölkerung um jeweils vier Prozent zunehme, wenn die jährliche Durchschnittsbelastung weitere zehn Mikrogramm NO₂ pro Kubikmeter ansteigt. Nun beträgt die jährliche Stickstoffkonzentration in städtischen Wohngebieten im Mittel zwanzig bis dreißig Mikrogramm. An vielbefahrenen Straßen sind Anwohner jedoch nach Messungen des Umweltbundesamts manchmal Konzentrationen ausgesetzt, die bis zu vierzig oder sogar sechzig Mikrogramm pro Kubikmeter darüberliegen. Mit jeden weiteren zehn Mikrogramm NO2 soll die Zahl der tödlichen Herzattacken und -infarkte um dreizehn Prozent ansteigen [FAZ]. Dies müsste eigentlich zu einer signifikant sinkenden Lebenserwartung der Bevölkerung großer Städte führen. Da das Gegenteil der Fall ist, kann man solcherlei Studien als widerlegt abhaken.

Anzahl der Stunden, in denen die Grenzwerte für NO2 an verschiedenen Messstellen überschritten wurden (Quelle: [LUST])

 

Eine Schlüsselrolle bei solchen Untersuchungen kommt auch den beiden Instituten für Epidemiologie (EPI I/II) am Helmholtz Zentrum München unter der Leitung von Prof. Dr. Annette Peters zu. Sie ist hochdekorierte Beraterin in wissenschaftlichen und beratenden Gremien auf nationaler wie auch auf internationaler Ebene und hat großen Einfluss auf Politik und Presse bis hin zur World Health Organisation (WHO) der UNO. Dort vertritt sie Ansichten wie die, dass die aktuell geltenden Grenzwerte für NOx aus gesundheitlicher Sicht deutlich zu hoch seien. Die Weltgesundheitsorganisation WHO (in der sie ebenfalls Einfluss hat) überarbeite gerade ihre Empfehlungen, weil neuere Daten zeigten, dass die Sterblichkeit bereits weit unterhalb dieses Wertes ansteige. Aus gesundheitlicher Sicht sei der in Europa erlaubte Jahresmittelwert für Stickstoffdioxid von 0,04 mg/m3 zu hoch. Wahrscheinlich gebe es für Stickoxide überhaupt keinen „sicheren“ Schwellenwert [PETE]. Dies steht in diametralem Widerspruch zu den Erkenntnissen z.B. der Arbeitsmedizin. Wer wissen will, woher ein nicht unerheblicher Teil der durch öffentliche Gelder geförderten Meinungsmache gegen unsere technische Zivilisation stammt, dem sei empfohlen, sich die beeindruckende Liste der Institutionen und politischen Gremien anzusehen, in denen Fr. Prof. Dr. Peters in führender Position vertreten war oder ist [PETE2].

Bei all diesen Schreckensmeldungen fragt man sich, wie die Menschheit in früheren Jahrzehnten und Jahrhunderten überhaupt überleben konnte, denn die Luft des Mittelalters war in den Stuben und Werkstätten sicherlich um ganze Größenordnungen stärker mit Schadstoffen z.B. aus der Holzverbrennung belastet als heute. Bei vielen dieser Untersuchungen hat man den Eindruck, dass die Verfasser vor allem darauf aus sind, das Auto als Wurzel jedes nur denkbaren Übels darzustellen. Statt sich von dem hochwissenschaftlichen Wortgeklingel dieser Studien einschüchtern zu lassen, sollte man lieber auf den eigenen gesunden Menschenverstand vertrauen. Tut man dies, so erkennt man schnell, dass diese Art von epidemiologischen Studien in deutlichem Widerspruch zur Erhöhung des Lebensalters in Deutschland generell und speziell in den großen Städten steht. Die Menschen in den höher mit Abgasen belasteten großen deutschen Städten leben länger als der Durchschnitt der deutschen Bevölkerung, und ihr Lebensalter steigt immer weiter an [MUEL]. Demnach ist den Aussagen solcher Kohortenstudien gegenüber eine gehörige Portion Misstrauen angebracht. Der führende Toxikologe Professor Helmut Greim von der TU München, von 1992 bis 2007 Vorsitzender der MAK-Kommission, hält die heute geltenden Grenzwerte für Stadtluft und insbesondere Forderungen nach ihrer weiteren Absenkung für übertrieben [GREI]. Auch Prof. Matthias Klingner, Leiter des Fraunhofer-Instituts für Verkehrs- und Infrastruktursysteme IVI in Dresden, sagte in einem Interview mit den Dresdner Neueste Nachrichten: „In der Feinstaub-Debatte, wo von 80.000 Toten im Jahr die Rede war, hatten wir ausgerechnet, dass der Grenzwert von 50 Mikrogramm Feinstaub am Tag, der nur 35 mal im Jahr überschritten werden darf, den eingeatmeten Partikeln einer halben nikotinfreien Zigarette entspricht. Nun kann man natürlich sagen, man soll überhaupt nicht rauchen, aber an der großen Gruppe der Raucher statistisch nachgewiesen sind gesundheitliche Folgen erst nach einem sehr, sehr viel höherem Zigarettenkonsum“ [KLIN].

Entwicklung der Lebenserwartung von Einwohnern verschiedener deutscher Großstädte sowie für Deutschland insgesamt für die Geburtsjahrgänge 1995 und 2010 (Daten: [LEBE], Statista)

 

Abgas-Beurteilung: Eine zweigeteilte Welt

Bezüglich der Beurteilung der Gefährlichkeit von Abgasen ist die Fachwelt offensichtlich zweigeteilt. Da gibt es auf der einen Seite Fachgremien, deren Zusammensetzung zumindest früher hauptsächlich nach ärztlicher bzw. arbeitsmedizinischer Qualifikation erfolgte. In der Schweiz ist dies die SUVA (Schweizer Unfall Versicherung), die in der Schweiz Aufgaben wahrnimmt, die denjenigen der Berufsgenossenschaften in Deutschland entsprechen. In Deutschland ist hierfür die Ständige Senatskommission zur Prüfung gesundheitsschädlicher Arbeitsstoffe (MAK-Kommission) der Deutschen Forschungsgemeinschaft [DFG] verantwortlich, der aktuell 36 hochrangige Fachleute angehören. Wer sich einen Eindruck davon verschaffen will, wie sorgfältig und verantwortungsbewusst diese Gremien an ihre Aufgaben herangehen, dem sei ein Blick in das Factsheet: Schweizer Grenzwerte am Arbeitsplatz [MAKW] empfohlen.

In Deutschland erscheint jedes Jahr eine neue Ausgabe der MAK-Liste mit den erfolgten Änderungen. Dabei finden sich interessante und teils dramatische Verschiebungen. Noch 1994 findet sich in der MAK-Liste zu NO2 die ein Grenzwert von 9 mg/m³, heute sind es nur noch 0,95mg/m³. Die Bestimmung erfolgt folgendermassen: Zunächst wird der Stand der Erkenntnisse aus der Literatur gesammelt und ausgewertet. Dazu zählen sowohl Tier- als auch Menschenversuche sowie Studien z.B. an Mitarbeitern, die entsprechenden Auswirkungen ausgesetzt sind oder waren. So wird ermittelt, wo die Dosisgrenze für NO2 in der Atemluft ist, bei der mit Sicherheit keine Wirkung auf den Organismus erfolgt. Dieses nennt man den NOAEL-Wert (no observed adverse effect level). Oft wird dieser Wert als MAK-Wert festgelegt. Da der Mensch sich nicht Rund-um-die-Uhr am Arbeitsplatz befindet, bedeutet die Festlegung vom NOAEL-Wert als MAK-Wert eine zusätzliche Sicherheit. Oft wird noch ein zusätzlicher Sicherheitsfaktor (häufig zwischen 0,1 bis 0,25) eingeführt. Letzteres könnte auch zur Herabsetzung des deutschen MAK-Wertes für NO2 von 9 mg/m3 auf nur noch 0,95 mg/m3 geführt haben [NIEM].

Der Erfolg der ergriffenen Maßnahmen zur Reinhaltung der Luft zeigt sich besonders deutlich an der Entwicklung der Werte für Schwefeldioxid vor allem im Bereich der neuen Bundesländer (Grafik: [UBA])

 

Auf der anderen Seite gibt es die „Fachwelt“ der grünlinken Aktivisten, die heute nicht nur in Parteien, NGO’s, zahllosen finanzstarken Stiftungen und den Medien, sondern auch in den meisten staatlichen und halbstaatlichen Gremien einschliesslich der Forschung eine dominante Rolle spielen. Diese Kräfte verfügen nicht nur über Milliardensummen aus Steuergeldern, sie üben auch dank ihrer Dominanz in Gremien, die über die Vergabe von Forschungsbudgets entscheiden, einen unglaublichen starken und zugleich negativen Einfluss auf alle Bereiche der Wissenschaft aus. Wer nicht mit ihrer Ideologie konform geht, geht bei der Beantragung von Geldern für Forschungsprojekte solange leer aus, bis er seine Lekion gelernt hat. Hier bestimmen längst nicht mehr Fachleute, sondern politisch gestützte Ideologen den Gang der Dinge, hier werden Gefälligkeitsgutachten initiiert, die dann in geeigneten politischen Gremien – gern auch auf EU- oder UNO-Ebene – ohne Rücksicht auf toxikologische Erkenntnisse und unter souveräner Missachtung jeglicher ökonomischen Vernunft durchgepeitscht werden. Von diesen Kräften, die oft auf gesicherten und hoch dotierten Beamtenpöstchen sitzen, wird die Festlegung rein „politisch-ideologischer“ Grenzwerte für Autos und die Luft in Städten gesteuert, die bei weniger als einem Zweihundertstel dessen liegen, was noch vor etwas mehr als zwei Jahrzehnten als unbedenklich für ständige jahrelange Exposition am Arbeitsplatz galt. Hier liegen die Ursprünge der nicht nur gegen das Automobil, sondern im Prinzip gegen unsere ganze technische Zivilisation gerichteten Kampagnen, die derzeit vor allem das Automobil im Visier haben. Wenn es nicht gelingt, diesen Kräften die Deutungshoheit über die von ihnen okkupierten Bereiche im Gesundheits-, Arbeits- und Umweltschutz wieder zu entreißen, wird unsere Bevölkerung für deren Eskapaden noch einen sehr hohen Preis zu zahlen haben.

 

Todesurteile auf dem Umweg über die EU

Bei vielen der alarmistischen Studien über die angeblich zu hohen Risiken von Abgasen für die Bevölkerung finden sich auffallend häufig Formulierungen wie „werden diskutiert“, „nähere Angaben zu obiger Quelle sind nicht verfügbar“, „möglicherweise“, „Hinweise“ oder „kann“. Ein weites Feld für politisch dominierte Verbotsgremien, in denen Ideologen die Fachleute jederzeit mühelos überstimmen können. Diese Entwicklung kann man seit Jahren sowohl auf nationaler Ebene als auch auf internationaler Ebene beobachten. Insbesondere in EU-Gremien kommen zu den „grünen“ Motiven noch die üblichen Grabenkämpfe der EU-Staaten untereinander. Hier kann man den ungeliebten deutschen Klassenprimussen, deren Industrie stark automobillastig ist, mal so richtig vor das Schienbein treten. Die aktuelle Dauerkanzlerin hat schon öfters bewiesen, dass sie es meisterhaft versteht, solche Gremien mit den „richtigen“ Leuten zu besetzen. Diese helfen bei der Durchsetzung ihrer eigentlichen Ziele, ohne dass sie sich im eigenen Land zu sehr in die Nesseln setzen müsste. Wenn dann die eigene Industrie mit Grenzwerten auf EU-Ebene konfrontiert ist, gegen die man selbst als deutsche Regierung nichts mehr ausrichten kann, kann man sich immer noch dadurch profilieren, dass man gegenüber der „übermächtigen“ EU ein bisschen auf Widerstand mimt und nach „hartem Verhandeln“ ein paar Brosamen mitbringt, während die beschlossenen Grenzwerte längerfristig von vornherein das Todesurteil für die Automobilindustrie bedeuten. Das funktionierte vor allem deshalb besonders gut, weil die Regierung und damit die Vertreter unseres Landes insgeheim sowieso der Meinung waren, der Verbrenner sei nicht mehr zeitgemäß und in einigen Jahrzehnten werde es nur noch selbstfahrende Autos geben. Allen voran unsere Klimakanzlerin, die überraschend kurz vor der aktuellen Bundestagswahl ihre Linie des Versteckens und des Agierens über das Ziehen von Strippen im Hintergrund aufgegeben hat. So hat sie sich in einem Interview mit der „Super-Illu“ klar auf die völlige Abkehr vom Verbrennungsmotor festgelegt [MERK] und in einer weiteren Stellungnahme auch für das Ende des Individualverkehrs ausgesprochen, da sie überzeugt sei, dass man „in 20 Jahren nur noch mit Sondererlaubnis selbstständig Auto fahren“ dürfe [SELB]. Das Lenken wird aus ihrer Sicht dann der Staat übernehmen. Halt so, wie sie es von Kindesbeinen an gewohnt war. Und wen kümmern schon die paar Rentner, die durch diese Manöver enteignet werden, weil sie ihren alten Wagen nicht mehr benutzen dürfen, ihnen aber das Geld für die Beschaffung der teuren neuen Modelle mit ihrem ganzen nur bedingt erforderlichen Schnickschnack fehlt.  

Die etwas überraschende Selbstdemaskierung der Bunddeskanzlerin lässt darauf schließen, dass sie glaubt, die „Festung Automobil“ sei dank der pausenlosen Attacken einer breiten Front von Gegnern – von der US-Regierung über die EU und die grünlinken Kräfte in Politik und Medien bis zur öffentlichen Meinung – inzwischen so diskreditiert und sturmreif geschossen, dass man mit ihr dasselbe veranstalten könne wie mit der Kernkraft im Jahre 2011. Es würde nicht verwundern, wenn sie unmittelbar nach ihrem alternativlosen Wahlsieg wieder so ein Gremium wie die damalige „Ethikkommission“ ins Leben rufen würde, um der wichtigsten deutschen Exportindustrie und zugleich dem Individualverkehr beschleunigt den Garaus zu machen.

 

Die CO2-Würgeschlinge

Dass die Weichen längst gestellt wurden, kann man auch an einem weiteren Punkt erkennen: Den CO2-Grenzwerten. Zwar ziert sich die Kanzlerin bei der Festlegung von Endterminen, aber das ist nur Show. Nach dem großen Getue um die angebliche „Vergasung der Bevölkerung“ [DOE] durch „kriminelle, von Gier getriebene Manager der Automobilbranche“ haben sich die etablierten politischen Parteien von grün über rot bis schwarz beim „Dieselgipfel“ auf eine vorübergehende Entschärfung der aufgeheizten Stimmungslage verständigt. Den Politikern ist klar, dass dieses Thema so kurz vor den Wahlen nicht weiter hochkochen sollte, weil dann die Gefahr bestünde, dass die betrogene Bevölkerung ihnen die ersehnten Stimmen verweigern könnte. Denn das Manöver, das langfristig durchgezogen wird, erfordert langsames, schrittweises Vorgehen, damit die Opfer nicht unruhig werden.

Das Ziel bleibt natürlich unverändert: Während man derzeit im Rahmen einer Scheibchenstrategie nur auf den Diesel einprügelt, wird es ab 2020 alle Verbrenner treffen. Das ist bereits jetzt festgeschrieben, und zwar durch die Vorgaben für den CO2-Ausstoss des sogenannten Flottenverbrauchs, der auf EU-Ebene von den derzeit noch rund 130 g CO2/100 km schon ab 2020 auf 95 g CO2/ 100 km gesenkt werden soll. So gilt derzeit ein Limit von 130 g CO2/km, was beim Diesel-Pkw 4,9 l/100 km und beim Benziner 5,5 l/100 km entspricht. Es wird von der aktuellen deutschen Neuwagenflotte knapp eingehalten. Mit dem neuen Grenzwert 95 g CO2/100 km darf ein Diesel nur noch 3,6 l/100 km verbrauchen, ein Benziner nur noch 4,0 l/100 km [NIEM]. Bei den für 2025 avisierten Werten von 68 oder 78 g CO2/100km [CO2V] wären beim Diesel nur noch 2,6 bzw. 3,0 l/100 km zulässig, beim Benziner entspräche dies 2,86 bzw. 3,3 l/100 km. Dass schon die Werte für 2020 und erst recht die Vorgaben für 2025 nicht einzuhalten sein werden, ist selbst für Laien leicht einzusehen. Diese Grenzen können nur als Ausdruck des festen Willens der EU interpretiert werden, den PKW mit Verbrennungsmotor zum Tode zu verurteilen. Das ganze Gehampel mit den Grenzwerten und die Dieseldiskussion bzw. die „Dieselgipfel“ sollen davon nur ablenken, um den Widerstand durch die übliche Salamitaktik aufzusplittern. Und diese bereits vor vielen Jahren getroffenen Entscheidungen hätten niemals gegen den entschlossenen Widerstand Deutschlands gefällt werden können.

Auch beim Feinstaub PM10 zeigt die Langzeitauswertung, dass die Luftqualität immer besser geworden ist. Umso misstrauischer sollte man gegenüber der aktuellen Panikmache sein (Grafik: [UBA])

 

LKW verursachen den Löwenanteil der Dieselabgase

Ein besonders wichtige Quelle von NOx-Emissionen im Straßenverkehr sind die Diesel-LKW sowie Autobusse. Alleine LKW emittieren in einer Stadt wie Ulm dreimal soviele Abgase wie die Diesel-PKW. Kaum etwas dokumentiert die Verlogenheit der aktuellen Kampagne gegen Diesel-PKW sowie der angekündigten Fahrverbote ausgerechnet gegen Diesel-PKW deutlicher als solche Tatsachen. Besonders klar erkennbar sind die Falschbehauptungen zu Abgasen neuer Dieselautos ab Euro 5 auch am Vorwurf der angeblich von ihnen ausgehenden „Krebsgefahr“ festzumachen: Diese besteht definitiv weder bei NO noch bei NOx, und Feinstaub ist seit Einführung des Dieselpartikelfilters kein spezifisches Problem des Diesel-Pkw, sondern entsteht aus einer Vielzahl von Quellen, wozu insbesondere auch die Benziner gehören. Gegenteilige Behauptungen in sogenannten epidemiologischen Studien sind lediglich der Beweis, dass die Verfasser Probleme damit hatten, bei ihrer Analyse die Einflüsse multipler Quellen bzw. Ursachen sauber zu trennen. Auch am Gesamtaufkommen des Feinstaubs haben Diesel-PKW nur einen untergeordneten Anteil. Verkehrswissenschaftler wie Prof. Klingner weisen darauf hin, dass dem Verkehr keinesfalls die behauptete dominierende Rolle bei den Feinstaubemissionen zukommt [KLIN].

 

Unerwartete Auswirkungen „stickoxid-gereinigter“ Dieselabgase

Auf eine ebenso interessante wie ungewollte Nebenwirkung der Verringerung des Stickoxid-Ausstoßes moderner Dieselfahrzeuge der Euro 5 und Euro 6- Kategorie verweist eine Meldung der Neuen Osnabrücker Zeitung vom 23.10.2015 [NOZ]. Zwar bildet das indirekt von Autos stammende NO2 , das sich aus dem zunächst ausgestoßenen NO bildet, bei Sonnenlicht zusammen mit organischen Substanzen und Sauerstoff Ozon, das in entsprechender Konzentration Schleimhäute, Augen und Lungen reizt und zu Atemwegsbeschwerden führen kann. Da das von Autos primär emittierte NO nachts jedoch Ozon abbaut, haben zwar mit der Abgasverbesserung die Ozon-Spitzenwerte abgenommen, dafür ist wegen des verringerten nächtlichen Ozonabbaus jedoch die durchschnittliche Belastung angestiegen. Somit führt ausgerechnet die Verringerung des NO-Ausstosses moderner Dieselfahrzeuge zur erhöhten Bildung eines anderen Luftschadstoffs.

In seiner hervorragenden Analyse hat R. Leistenschneider (Teil 1 hier und Teil 2 hier) nachgewiesen, dass der Anteil der Diesel-PKW an den realen NO2-Emissionen sehr viel geringer ist als von der Politik behauptet (Grafik: [LEIS2])

 

Natürlicher NOx-Kreislauf

Angesichts der lauten und völlig überzogenen Diskussion über die vom Menschen und insbesondere vom Auto erzeugten NOx-Abgase ist den meisten Menschen gar nicht bewusst, dass diese Teil natürlicher Kreisläufe sind, deren wahre Dimensionen bisher kaum beachtet wurden. In der Atmosphäre hat das NOx nur eine kurze Verweildauer von typischerweise 2-5 Tagen. Zum Aufkommen aus natürlichen Quellen gab es bereits im Jahre 1994 detaillierte Erkenntnisse:

 

  1. Angegeben in N;
  2. 55 % Energiegewinnung, 45 % Transport (Autos, Flugzeuge)
  3. Von diesen Bränden sind 4 % natürlichen und 96 % anthropogenen Ursprungs

Demnach entsprangen damals rund 40 % des in der Atmosphäre vorhandenen NOx natürlichen Quellen, wobei dies sowohl regional als auch zeitlich starken Schwankungen unterworfen ist. Zudem kommt nur ein Bruchteil der aus anthropogenen Quellen stammenden Mengen tatsächlich von modernen Diesel-PKW, siehe auch bei [LEIS, LEIS2].

Stickstoff ist essentiell für alles Leben und ist wesentlicher Bestandteil z.B. von Eiweißen. Daher muß unsere Nahrung Stickstoff enthalten. Mit der Ernte wird dem Boden Stickstoff entzogen, das sind in Deutschland etwa 1,5 bis 2 Mill. t Stickstoff pro Jahr. Der Stickstoffaustrag durch die Ernte muß dem Boden durch Düngung wieder zugeführt werden. Die Pflanzen können den Stickstoff jedoch nicht direkt aus den Stickstoffmolekülen der Luft aufnehmen, sondern erst aus NO2, das aus der Luft z.B. durch Regen in den Boden gewaschen wird. Deshalb nehmen auch die in Kraftwerken und im Verkehr erzeugten Stickoxide am Stickstoffkreislauf der Natur teil, so daß schließlich ein Teil dieses aus dem Auspuff stammenden Stickstoffs auch auf unserem Teller landet [NIEM].

Auch ein Skript der TU Darmstadt unterstreicht die grosse Bedeutung natürlicher Quellen für den Stickstoffkreislauf zwischen Atmosphäre, Boden und Gewässern (Grafik: [TUDA])

Eine weitere, neuere Untersuchung belegt, dass die aus natürlichen Quellen stammenden Stickoxidmengen diejenigen aus modernen Diesel-PKW um ein Vielfaches übertreffen [LEIS]. Behauptungen mancher Epidemiologen, dass es für Stickoxide wahrscheinlich überhaupt keinen „sicheren“ Schwellenwert gebe, sollte man angesichts dieser „unbequemen Wahrheit“ skeptisch begegnen.

 

Die Qual der Wahl

Deutschland und mit ihm Europa haben ein Problem. Wir haben ein Staatsoberhaupt, das schon in einer anderen Republik im goldenen Käfig lebte. Das ist auch heute noch so, wozu braucht man ÖPNV oder Fahrrad, wenn man Fahrer und Regierungsjet hat. Dieses Staatsoberhaupt huldigt Visionen, die den Realitäten der Naturgesetze sowie der Ökonomie zuwiderlaufen, und ihm ist in seinem Lauf zu dieser visionären heilen Welt das Schicksal des eigenen Volks ganz eindeutig ziemlich egal. Unglücklicherweise verfügt ebendieses Staatsoberhaupt trotz nahezu flächendeckender Lern- und Faktenresistenz über großmeisterliche Fähigkeiten im Bereich der politischen Manipulation und hat es geschafft, nicht nur die eigene Partei, sondern auch alle sogenannten etablierten anderen Parteien in ihr Macht- und Ideologiegespinst einzubinden. So, wie es halt auch in der ehemaligen „Demokratischen Republik“ mit ihren Schein-„Oppositionsparteien“ war, die im Volk ironisch als „Blockflöten“ bezeichnet wurden. Die aktuell an der Regierung beteiligte zweite angebliche deutsche „Volkspartei“ hat sich von den Zeiten ihrer ehemals bodenständigen Anführer wie Helmut Schmidt inzwischen weit entfernt. Während die alte Garde sich damals noch Gedanken über die Daseinsvorsorge der eigenen Bevölkerung machte, kommen von den heutigen Anführern nur noch reflexhaft hohle Phrasen über die angebliche „Gier der Manager“ und deren „hochnäsige“ Weigerung, sich planwirtschaftlichen Diktaten unfähiger politischer Spinner nach nicht verkaufsfähigen E-Autos widerspruchslos zu beugen. Leute wie Schulz, Hendricks oder Dobrindt werden nie bereit sein anzuerkennen, dass unhaltbare politische Vorgaben die Ursache des Problems sind. Lieber erheben sie Forderungen, die darauf hinauslaufen, das Ende der Autoindustrie schon in den nächsten ein bis zwei Jahren herbeizuführen. Dem Verfasser ist heute noch erinnerlich, wie Mitarbeiter eines Industrieunternehmens in einer Diskussion mit kommunistischen Aktivisten der damaligen Studentenbewegung auf den Firmenparkplatz wiesen und sagten: „Da seht ihr den Unterschied zwischen unserer Situation hier und derjenigen in der DDR“. Die SPD hat heute keinen Helmut Schmidt mehr, der lapidar feststellte: „Wer Visionen hat, soll zum Arzt gehen“. Die Gesamtheit der heutigen etablierten Parteien gehört mit ins Wartezimmer. Mit Blick auf die kommende Wahl ist das passendste Zitat vermutlich das von Heine: „Denk ich an Deutschland in der Nacht, so bin ich um den Schlaf gebracht“. Man sollte wirklich genau überlegen, wohin man sein Kreuzchen auf dem Wahlzettel setzt.

Fred F. Mueller

Hier finden Sie den vollständigen Bericht als pdf zum herunterladenEnergiewendeAutoMord

 

Quellen

[BLIE] Umweltchemie. Von C. Bliefert. VCH Verlagsgesellschaft, Weinheim, 1994. 453 S., Broschur 68.00 DM. – ISBN 3-527-28692-6

[CIRC] https://doi.org/10.1161/CIRCULATIONAHA.116.026796 Circulation. 2017;136:618-627

[CO2V] http://www.spiegel.de/auto/aktuell/co2-grenzwerte-flottenverbrauch-steigt-erstmals-wieder-an-a-1162063.html

[DOE] https://eike.institute/2017/08/01/moralischer-bankrott-ard-energieexperte-juergen-doeschner-luegt-hemmungslos-die-vergasung-von-10-000-unschuldigen-herbei/

[FAZ] http://www.faz.net/aktuell/wissen/leben-gene/studie-was-zu-viel-feinstaub-mit-unserem-koerper-macht-15151548.html

[GREI] http://www.focus.de/finanzen/karriere/berufsleben/politik-ignoriert-zweifel-am-grenzwert-40-mikrogramm-dieselpanik-wegen-grenzwertluege-in-ihrem-buero-ist-20-mal-so-viel-stickstoff-erlaubt_id_7378545.html

[HEIS] https://www.heise.de/forum/heise-online/News-Kommentare/2018-koennen-Elektroautos-fuer-Endkunden-guenstiger-sein-als-Verbrenner/Re-430-000-Europaeer-sterben-jaehrlich-an-Feinstaub/posting-14242020/show/

[KIT] http://www.ifkm.kit.edu/Abgasmessung-Fragen-und-Antworten.php

[LEIS] https://eike.institute/2017/08/20/das-kartell-der-dummheit-irrenhaus-deutschland-wie-wir-mit-dem-diesel-unsere-grundfesten-demontieren-teil-1-stickoxide-der-grosse-anteil-natuerlichen-ursprungs/

[LEIS2] https://eike.institute/2017/08/21/das-kartell-der-dummheit-irrenhaus-deutschland-wie-wir-mit-dem-diesel-unsere-grundfesten-demontieren-teil-2-stickoxide-die-fehler-des-umweltbundesamtes-der-t/

[LUST] https://www.stadtklima-stuttgart.de/index.php?luft_luftinstuttgart

[MAKW] https://safety.physik.unibas.ch/Downloads/Factsheetgrenzwerte.pdf

[MCDO] https://www.ncbi.nlm.nih.gov/pubmed/25842615

[MERK] http://www.spiegel.de/auto/aktuell/merkel-haelt-ende-von-verbrennungsmotoren-fuer-richtigen-ansatz-a-1162820.html

[MUEL] https://eike.institute/2016/07/22/einsatz-der-oeko-garotte-gegen-das-auto-dieselverbote-der-vernichtungsfeldzug-gegen-eine-deutsche-top-industrie/

[NIEM] https://eike.institute/2016/01/21/dieselgate-was-sagen-uns-die-zahlen/#comment-184943

[NOAEL] Empfehlungen des Wissenschaftlichen Komitees der EU für Grenzen beruflicher Exposition gegenüber NO2 SCOEL/SUM/53 vom Juni 2013 (Ref. Ares(2013)2611731 – 09/07/2013, GSW 1421 82-48

[NOZ] https://www.noz.de/deutschland-welt/vermischtes/artikel/629895/gefahrliche-stoffe-kommen-aus-dem-auspuff

[NO2GE] http://gestis.itrust.de/nxt/gateway.dll/gestis_de/001090.xml?f=templates$fn=default.htm$3.0

[NOMA] https://de.wikipedia.org/wiki/Stickstoffmonoxid

[NO2MA] https://de.wikipedia.org/wiki/Stickstoffdioxid

[PETE] http://www.stern.de/gesundheit/diesel-abgase–grenzwerte-fuer-stickoxide-und-feinstaub-zu-hoch-7569076.html

[PETE2] https://www.helmholtz-muenchen.de/epi2/the-institute/staff/staff/ma/362/Prof.%20Dr.-Peters/index.html

[SELB] http://derstandard.at/2000059138106/Merkel-Selbstfahrende-Autos-in-zwanzig-Jahren-Pflicht

[SPIE] Kommentator #7 HansGustor in http://www.spiegel.de/spiegel/stuttgart-eine-autostadt-auf-der-suche-nach-einer-neuen-mobilen-zukunft-a-1161847.html#js-article-comments-box-pager

[SUED] http://www.sueddeutsche.de/auto/internationale-automobil-ausstellung-merkels-motorvisionen-1.29734

[THAL] European Environment Agency EEA Report No28/2016 Air Quality in Europe – 2016 report https://www.eea.europa.eu/publications/air-quality-in-europe2016

[TUDA] http://indigo.meteor.tu-darmstadt.de/umet/script/Kapitel1/kap01.html#%C3%BCber1-6-3

[UBA] UBA Bericht Entwicklung der Luftqualität in Deutschland UBABerichtLuftqualität3760-6 (2009)

 




Das Trump’sche Energiezeitalter

Wenn man nach einigen Wochen USA wieder zurück ist und das Zwangsgebühren-Fernsehen einschaltet, glaubt man Nachrichten von einem anderen Stern zu sehen. Jedenfalls ist Washington ferner, als einst Bonn für “Aktuelle Kamera” und den “Schwarzen Kanal” gewesen sind. Es ist deshalb dringend zu raten, sich etwas näher mit der Energiepolitik der USA zu beschäftigen.

Was will Trump?

Hier wird immer noch von einer “Unberechenbarkeit des POTUS (President Of The United States)” geschwafelt. Die Wirklichkeit ist anders: Für deutsche Verhältnisse offensichtlich unbegreiflich, handelt es sich bei Trump um einen Mann – die Bezeichnung Politiker wird an dieser Stelle bewußt nicht verwendet – der das ausspricht, was er denkt und es anschließend auch umsetzt. Wer die unzähligen Wahlkampfauftritte aufmerksam verfolgt hat, ist von keinem seiner Schritte überrascht.

Trump ist kein Politiker und er wird wahrscheinlich auch nie einer werden, weil er es gar nicht sein will. Er ist ein Vollblut-Unternehmer in des Wortes ursprünglicher Bedeutung. Der Kosmos “Washington” ist ihm so fremd und so zuwider, daß er nur noch vom Sumpf spricht. Getreu seinem Vorbild Ronald Reagan: Der Staat ist nicht die Lösung, der Staat ist das Problem. Bezeichnenderweise wird genau dieser Präsident bis zum heutigen Tage in Deutschland gern als Schauspieler verunglimpft. Anders in den USA: Dort wird er – unabhängig von der Parteizugehörigkeit – inzwischen zu den zehn besten Präsidenten gezählt, die es je in der Geschichte der USA gegeben hat. Freilich gemessen an ihren Taten und nicht an irgendeinem Geschwafel aus den Lehrbüchern der “politischen Wissenschaften”. Obama war der Prototyp des Schönsprechers schlechthin. Er hat diesen Stil soweit auf die Spitze getrieben, bis er sogar farbige Wähler, Minderheiten und vor allem die sogenannte Arbeiterschaft (die traditionelle Wählerschaft der Demokraten) in das Trump’sche Lager getrieben hat.

Trump ist Patriot. Das kann man mögen oder nicht. Er wurde in Schule und Elternhaus so erzogen und er ist von der Kraft der Bibel und der Verfassung zutiefst überzeugt und kann aus beiden auswendig zitieren. Wer glaubt, >>America first again<< sei nur ein flotter Spruch einer Wahlkampfagentur gewesen, hat diesen Mann und seine Anhängerschaft in keiner Weise verstanden. Ganz im Gegenteil: Das gesamte Trumplager ist geradezu beseelt von dem Gedanken, die USA wieder großartig zu machen und sie haben auch ganz klare Vorstellungen wohin die Reise gehen soll: Mehr Wohlstand, mehr Freiheit und Verantwortung für den Einzelnen und größere Stärke nach außen, um diese Werte jederzeit verteidigen zu können – ein Frontalangriff auf jede linke Ideologie.

Wer sich hier der Illusion hingibt, ein paar “Kulturschaffende” oder gewalttätige “Antifanten” könnten den personifizierten linken Albtraum bald vertreiben, wird sich täuschen: Hält Trump Kurs, wird er mit überwältigender Mehrheit wieder gewählt werden und der “American way of live” wird wieder einmal für viele zum Vorbild werden. Wie zielstrebig und hartnäckig der “Baulöwe” ist, hat er bereits in seinem bisherigen Leben unter Beweis gestellt: Jedes seiner Bauprojekte war umstritten und von vielen “Experten” als undurchführbar erklärt worden. Gleichzeitig liegt aber in seinem Erfolg auch sein persönliches Risiko: Er könnte Opfer – wie Ronald Reagan – eines Attentats werden.

Der Stellenwert der Energie im Trump’schen Plan

Trump weiß, daß Energie die wirtschaftliche Schlüsselgröße ist: Mit Energie geht alles, ohne (preiswerte) Energie geht nichts. Er hat deshalb sofort mit der Entfesselung begonnen. Bereits in der Übergangszeit zwischen seiner Wahl und seinem Amtsantritt hat er zahlreiche Dekrete unterschriftsreif ausgearbeitet und diese ohne zu zögern bei Amtsantritt in Umlauf gebracht. Diejenigen in der Industrie, die ihm schon vorher aufmerksam zugehört hatten, haben sich parallel auf das zu erwartende vorbereitet. Die “Energieexperten” in Deutschland reiben sich noch heute die Augen, warum Benzin und Diesel plötzlich wieder rund 50 Eurocent in den USA kostet. Geschweige, begreifen sie auch nur annähernd die Konsequenzen. Sie verharren lieber weiter in ihrer Traumwelt aus Wind, Sonne und Elektroautos.

Wenn man Wohlstand will, muß man Arbeitsplätze gestatten. Für Arbeitsplätze braucht man ein nachgefragtes Produkt. Sich gegenseitig die Haare zu schneiden – wie es mal ein in Ungnade gefallener SPD-Politiker treffend formuliert hat – oder staatliche Arbeitsbeschaffungsmaßnahmen, bringen gar nichts. Öl, Gas und Kohle werden überall auf der Welt zu kalkulierbaren Preisen nachgefragt. Amerika hat sie in unvorstellbaren Mengen. Man muß nur Förderung, Abbau und Handel gestatten.

Wie einfach “Wirtschaftswunder” geht, kann man im gesamten Süden der USA beobachten. Mit den Bohrtürmen, Pipelines und Tanklagern kommen die Arbeiter, die so etwas bauen. Diese brauchen aber Essen und Unterkunft. Es entstehen überall Motels und Restaurants. Diese wiederum müssen gebaut und renoviert werden, was das lokale Handwerk fördert. Aus Dörfern werden Kleinstädte – wie einst im Ölboom der 1920er Jahre. Es folgen die Familien, die Schulen und Kindergärten etc.

Und die Löhne steigen. Ganz ohne Gewerkschaftsfunktionäre, sondern durch Nachfrage. Sicheres Anzeichen dafür, sind heute schon die Schilder am Straßenrand: Wir stellen sofort ein. Üblich sind für einen LKW-Fahrer im Ölgeschäft 1.500 bis 2.000 Dollar – pro normaler Arbeitswoche. Wer bereit ist, auch nachts und am Wochenende (Zuschläge) zu fahren, auf Urlaub verzichtet, kommt auf bis zu 200.000 Dollar Jahreseinkommen. Wohlgemerkt als LKW-Fahrer. Bei Steuern und Sozialabgaben, die davon sogar etwas übrig lassen. Viele ziehen das einige Jahre durch und haben dann ein schuldenfreies Eigenheim. Man sieht auch immer mehr Frauen im Transportsektor. Sie verdienen halt mehr, als eine Friseuse oder Kindergärtnerin. Gleichberechtigung auf Kapitalismusart, ganz ohne Gendergedöns.

Wie wurde der Ölboom möglich?

Fachleuten war schon immer klar, daß die Ölvorräte (bezogen auf die heutigen Förderraten) nach menschlichen Maßstäben schier unerschöpflich sind. Alles nur eine Frage der Fördermethoden und der aktuellen Preise. Akzeptiert man das, ist es nur ein kleiner Schritt, Förderbeschränkungen und Handelsschranken abzuschaffen. Befreit man sich erst einmal von Irrlehren wie “Peak Oil”, “Klimakatastrophe” und dem Försterspruch von der “Nachhaltigkeit”, geht alles ganz schnell.

Trump brauchte nur die diversen Bohr- und Förderschikanen aus der Obamazeit außer Kraft setzen und schon wurde wieder gebohrt. Je mehr gebohrt wird, um so mehr wird in die Technik investiert und um so billiger werden die Bohrungen. Selbst Fachleute sind über den Preisverfall erstaunt. Je billiger das Öl wird, um so mehr steigt die Förderung. Hinter diesem vermeintlichen Widerspruch steht einfach die unsichtbare Hand des Marktes. Ökonomisch betrachtet, besteht kein Unterschied zwischen Computern und Öl.

Das Öl muß aber noch zum Verbraucher. Pipelines sind nach wie vor die günstigste und sicherste Methode. Trump hat per Federstrich die Verbote von Obama außer Kraft gesetzt. Schon flossen die Milliarden in diesen Sektor. Über die fadenscheinigen Gefahren für die Umwelt, wird man in einigen Jahren nur noch schmunzeln, wenn man sich überhaupt noch daran erinnert.

Je mehr Öl und Ölprodukte exportiert werden, je geringer werden die Inlandspreise. Seit den 1970er Ölkrisen gab es gravierende Exportbeschränkungen in den USA. Getreu der Lehre vom “peak oil”mußte mit dem kostbaren Saft sparsam umgegangen werden. Öl und insbesondere Gas ist aber wertlos, so lange es nicht vom Bohrloch zum Verbraucher gelangen kann. Je schlechter die Transportkette ist, um so höher sind die Abschläge für den Förderer. Dies führte dazu, daß die Ölpreise in den Weiten der USA weit unter den Weltmarktpreisen lagen. Kein Anreiz für Investoren. Es wurden lieber Raffinerien an der Küste gebaut und teures Importöl verwendet. Je mehr die Exportbeschränkungen gelockert wurden, um so mehr stieg die Nachfrage an. Es trat das ein, was viele jahrelang bestritten haben: Die Preise an den Tankstellen sanken, denn plötzlich gab es Inlandsöl zu Weltmarktpreisen. Durch die Skaleneffekte sanken die Produktionskosten. Viel schneller, als sich Saudi Arabien etc. vorstellen konnten.

Der Gassektor

Ausgelöst durch die technische Entwicklung von Bohr- und Fördertechnik für Schiefergas – hier als “fracking” bezeichnet – gab es plötzlich Erdgas im Überfluß. Die Preise fielen gewaltig. Die Technik wurde schnell auf die Ölförderung übertragen. Zum Überdruss tritt aber selten Gas und Öl alleine auf. Zumeist kommt aus jeder Ölquelle auch Begleitgas und aus jeder Gasquelle zumindest auch Kondensat (damit wird Rohöl besonders dünner Konsistenz bezeichnet). Plötzlich hatte man auch – insbesondere in den Ölfördergebieten des Permian-Basin und Bakken – Erdgas im Überfluss. Es mußten schnellstens Pipelines gebaut und zusätzliche Nachfrage geschaffen werden. Übergangsweise blieb nur das Verfeuern in Gaskraftwerken, was die Sektoren Kohle und Kernenergie (vorübergehend) kräftig durcheinander brachte.

Inzwischen baut man riesige Gasverflüssigungsanlagen und eine ganze Tankerflotte. Ziel ist es, sich die weitaus höheren Weltmarktpreise für Erdgas zu erschließen. Durch die steigenden Inlandspreise kann man die Förderung weiter ankurbeln und die anderen Energiesektoren wieder weiterentwickeln.

Kohle

Die USA sind (auch noch) ein Kohlenland. Sie verfügen über riesige Vorräte, die sich überwiegend noch im Tagebau gewinnen lassen. Als Trump im Wahlkampf angetreten ist und den Bergleuten versprochen hat, ihnen ihre Arbeitsplätze zurückzugeben, hat jede Telepromter-VorleserIn in der deutschen Medienlandschaft sich bemüssigt gefühlt, ihn mit Spott und Häme zu überziehen. Inzwischen hat die erste Kohlenmine seit 45 Jahren neu eröffnet und die Produktion zieht langsam wieder an. Die Nachfrage steigt weltweit immer weiter. Nicht nur in Entwicklungsländern. Trump hat nie behauptet, daß er die Kohle ausschließlich in den USA verfeuern will. Auch hier hätte man besser zuhören sollen.

Für den Verbrauch im Inland liegt der Schlüsselpreis bei etwa 2,3 $/MMBtu (1 Million British Thermal Units entspricht etwa 293 kWh) Wärmepreis. Liegt der Erdgaspreis darunter, werden die Gasturbinen angeworfen. Steigt das Erdgas über diesen Wert, übernehmen die Kohlekraftwerke wieder die Stromproduktion. Eigentlich ein sehr flexibles System. Obama wußte das auch und hat deshalb versucht die Kohlekraftwerke durch “Klimaschutz” auszuschalten.

Als Trump bei seinem werbewirksamen Fernsehauftritt mit Bergarbeitern den Spuk der Obama-Administration zurückgenommen hat, hat er immer wieder beschwörend den Begriff “clean coal” benutzt. Darunter versteht man nicht einfach “saubere Kohle”, sondern es ist ein Fachausdruck für CO2-Abscheidung. Nicht etwa zum “Klimaschutz”, sondern die Ölindustrie wartet sehnsüchtig auf große CO2 Ströme. Wenn die endlich bereitgestellt werden, kann man für sehr kleines Geld die bereits versiegten Ölquellen wieder reaktivieren und die Märkte endgültig mit billigem Öl fluten. Auch dies eine Entwicklung, die in Deutschland völlig verdrängt und verschlafen wird. Hier redet man sich lieber gegenseitig von der Zukunft des Elektro-Autos besoffen.

 

Der politische Aspekt

In Deutschland wird den Menschen seit ihrer Schulzeit eingehämmert, daß die USA Kriege nur um Öl führen. Dies war zwar schon immer Blödsinn, gehört aber inzwischen zu den festen Glaubensbekenntnissen linker Gutmenschen. Wer ein Gefühl dafür haben will, wie tief diese Propaganda viele Amerikaner verletzt, sollte sich mal mit Veteranen des Golfkriegs unterhalten. Inzwischen schlägt die Reaktion geradezu in Trotz um. Man will nicht nur von Ölimporten unabhängig werden, sondern es den “Feinden Amerikas” heimzahlen und ihnen ihr bequemes Leben durch Öleinnahmen wegnehmen. Es ist kein Zufall, daß auf den Bohrtürmen in Texas die amerikanische Fahne weht und viele Öltanks in der Wüste mit “remember 9/11” verziert sind. Im konservativen Amerika hat man längst begriffen, daß die wahre Macht der USA nicht seine Bomber, sondern seine Wirtschaftskraft ist. Genau darum geht es den Kreisen um Trump und das ist der politische Hintergrund der Parole “Make America Great Again”.

Eine besondere Stellung nimmt hierbei das (alte) Europa ein. Die Kritik an den nicht eingehaltenen Zusagen über die Verteidigungsausgaben ist nur das erste Wetterleuchten am Horizont. Die Stimmung in der Bevölkerung geht schon viel weiter: Man versteht es nicht, warum Europa mit seinen Energieausgaben Rußland füttert und anschließend Amerika deshalb seine Rüstungsausgaben erhöhen muß. Auch in dieser Frage sollte man nicht vergessen, daß das Vorbild von Trump Ronald Reagan ist. Reagan hat das “Reich des Bösen” dadurch zur Implosion gebracht, indem er auf das Wettrüsten voll eingestiegen ist und die Spirale beschleunigt hat. Man nannte diese Strategie damals in Deutschland abfällig den “Krieg der Sterne”. Nach dem Zusammenbruch des Sowjetreiches folgte eine lange Periode der Sympathie für Rußland in den USA. Inzwischen schlägt die Stimmung um: Man fühlt sich wieder bedroht und hintergangen. In der Deutschland eigenen Realitätsverweigerung und dem völligen Unverständnis der amerikanischen Mentalität wird das hier zur Wahlkampfposse zwischen Trump und den Clintons verniedlicht. Die Falken in den USA kommen langsam in eine Stimmung gegenüber Putins Reich, wie gegenüber Japan nach Pearl Harbor. Wenn Rußland weiter aufrüstet und Weltreich spielt, werden sie ihre Panzer und Kernwaffen diesmal nach nordkoreanischem Vorbild essen müssen.

Amerika bereitet sich darauf vor, die Öl- und Gaspreise jederzeit ins Bodenlose fallen lassen zu können. Staaten – wie Deutschland – die auf Rußland setzen (Ostseepipeline etc.), werden mit in den Strudel gezogen werden. Die Amerikaner bevorzugen immer simple Lösungen: O.K., wir haben im Moment keine Waffe gegen die U-Boote der Nazis, also müssen wir Schiffe schneller bauen als die Deutschen sie versenken können – hört sich aberwitzig an, hat aber funktioniert. Wenn Rußland weiter aufrüstet, o. k. dann müssen wir ihnen eben ihre einzige Einnahmequelle kaputt machen, indem wir die Energiepreise unter ihre Produktionskosten senken – einmal so betrachtet, ist die Nord-Korea-Frage ein Testlauf. Das Energiewende-Deutschland wird schon in wenigen Jahren ein böses Erwachen haben.

Übernommen von NUKEKLAUS hier 




Eigenschaften der Windenergie: Solide Gründe dafür und dagegen

Bericht STT:

Wäre die Windenergie ein Pferd, hätte ihr Besitzer es schon längst erschossen. Stattdessen, von ideologischen Eiferern bejubelt und endlos mit leistungssteigernden Subventionen vollgepumpt, fährt es fort, sich irgendwie zu vermehren.

Unmöglich chaotisch in der Lieferung von Energie, fängt es das Rennen niemals pünktlich an und beendet nutzlos es leider nicht, auch wenn es gelingt, es aus seinem Ruheplatz zu bewegen.

Als STT-Anhänger sind Sie sich bewusst, dass diese Website der Wind-Industrie gewidmet ist und den Blutegeln, die daraus zu Lasten der Betroffenen Profit generieren wollen.

In Deutschland ist es unser englischsprachiger Doppelgänger No Tricks Zone, der die Dinge weiterhin mit der gleichen Intensität liefert. In diesem Beitrag zieht Pierre Gosselin eine Bilanz mit acht sehr festen Gründen, die Windkraft mit Leidenschaft zu hassen.

 

8 Solide Nachteile der Windkraft: Trifft jeden, der es aushalten muss
Kommentiert von No Tricks Zone, Pierre Gosselin, 16 July 2017

Die Texte in kursiv, sind als Teilkopien der Argumente in strompreisvergleich24 zu finden; der Übersetzer.

 

Es gibt acht Nachteile, die nicht ignoriert werden können, schreibt die deutsche Webseite. Was folgt, sind die acht Gründe zusammen mit meinen (Pierre Gosselin) eigenen Beschreibungen.

 

Strompreisvergleich24, Nachteile von Windenergie, 8 Gegenargumente

  1. Unstabile, unregelmäßige Stromversorgung

Strompreisvergleich24:

Hier zeigt sich, dass zusätzliche Energiequellen unerlässlich sind und Windkraftanlagen nicht als einzige Energiequelle infrage kommen. Die mangelnde Konstanz ist einer der größten Nachteile von Windenergie. Energiegewinnung per Windkraft bietet sich deshalb lediglich als unterstützende Maßnahme an.

No Tricks Zone:

Der Wind weht nicht ständig und so ist die Versorgung instabil und wild schwankend. An vielen Orten kann der Wind für Tage oder sogar Wochen ausbleiben. Und dann kann bei starken Winden das Stromnetz durch das Überangebot überlastet werden, oder die Turbinen müssen abgeschaltet werden, um schwere mechanische Beschädigungen zu vermeiden. Insgesamt haben die Windenergieanlagen in Deutschland nur knapp 18% ihrer installierten Nennkapazität generiert.

  1. Windkraftanlagen sind teuer

Strompreisvergleich24:

Man muss kein Experte sein, um zu erkennen, dass die Errichtung von Windkraftanlagen in solchen Gebieten teurer ist, als beispielsweise auf dem flachen Land. Aus diesem Grund sind oft staatliche Subventionen nötig, um die Kosten für den Bau von Windkraftanlagen an rentablen Orten überhaupt stemmen zu können.

Wenn Windräder allerdings erst einmal stehen und ihre Arbeit aufgenommen haben, amortisieren sich die Kosten innerhalb von kurzer Zeit.

No Tricks Zone:

Der Return-off-Investment für Windkraftanlagen kann viele Jahre dauern und macht nur an Orten Sinn, wo der Wind oft weht, z.B. Küstengebiete, Offshore- oder Hügelkuppen. Aber das macht die Installation viel teurer. Viele Investoren haben sehr enttäuschende Ergebnisse von Windprojekten gesehen. Darüber hinaus sind in Deutschland die Strompreise in den vergangenen Jahren zum großen Teil durch die obligatorische Einspeisung von Windenergie stark gestiegen.

 

  1. Überschüssige Leistung ist extrem schwierig zu speichern

Strompreisvergleich24:

Zwar gibt es die Möglichkeit der Energiespeicherung in einem Pumpspeicherkraftwerk, diese können allerdings aufgrund des komplizierten Aufbaus nicht überall errichtet werden und stehen auch sonst häufig in der Kritik – vor allem aufgrund ihrer Ineffizienz.

Einen Lichtblick gibt es allerdings: Aktuell versuchen Forscher die Energie des Windes in Form von Wasserstoff und Methan – also in Form von Gas – zu speichern. Gas kann wiederum gelagert und zu einem späteren Zeitpunkt genutzt werden. Power-to-Gas – so nennt sich diese Art der Energieumwandlung – befindet sich aktuell jedoch noch in der Entwicklung.

No Tricks Zone:

Bisher sind Wissenschaftler und Ingenieure noch weit davon entfernt, eine Lösung für die Speicherung von Elektrizität zu finden. Batterien sind teuer und schwer und erfordern massive, umfangreichen Bergbau für seltene Metalle. Pumpenspeichertechniken sind nur an begrenzten Stellen möglich und auch sie sind schrecklich ineffizient. Umwandlung von Wind-Strom in ein Gas wie Wasserstoff und dann wieder in Strom, wenn der Wind nicht bläst ist teuer und hat einen sehr schlechten Wirkungsgrad.

 

  1. Zerstörung des natürlichen Lebensraumes

Strompreisvergleich24:

Es gibt nur eine Art, wie man diesen Vorgang verhindern kann: Fachkundige Biologen müssen das Gebiet vor dem Bau auf bedrohte Tier- und Pflanzenarten hin überprüfen. Dies gilt sowohl für Gebirge, für das Flachland und für Küstengebiete. Werden bedrohte Tierarten entdeckt, muss das Bauvorhaben gestoppt werden – Artenschutz geht immer vor.

No Tricks Zone:

Da die Installation von Windkraftanlagen in Wohngebieten problematisch ist, befinden sich Windparks oft in ländlichen oder naturgeschützen Gebieten – auch in der Mitte der Wälder. Dies bedingt die Industrialisierung der natürlichen Lebensräume. Pflanzen und Wildtiere verlieren ihre Habitate oder sind nachteilig betroffen. Bereiche werden oft entwaldet, um Platz für die Windtürme zu machen. Zufahrtswege reißen Schneisen in die Wälder, schädigen das lokale Biotop dauerhaft oder zerstören es sogar. Gleiches gilt für Offshore-Windkrafttürme. Auch diese stellen oft eine Gefahr für dort lebende Tierarten dar.

 

  1. Vogelmord: Tod durch Windflügel

Strompreisvergleich24:

In den USA werden beispielsweise laut der renommierten Fachzeitschrift Nature bis zu 440.000 Vögel im Jahr von Windkraftanlagen getötet. Im Vergleich zur Vogeltötung durch Autos, Pestizide und Strommasten ist diese Zahl allerdings lächerlich gering und fast schon vernachlässigbar. Entsprechende Zahlen finden Sie im verlinkten Artikel.

No Tricks Zone:

Als ob die Industrialisierung von Naturlandschaft nicht schlimm genug wäre, sind die Windenergieanlagen auch eine echte Gefahr für die Vögel. Jedes Jahr werden Millionen von Vögeln (unnatürlich) von Windenergieanlagen weltweit getötet. Nach dem Magazin „Nature“ werden in den USA bis zu 440.000 Vögel jedes Jahr getötet. Konventionelle Kraftwerke hingegen töten nicht annähernd so viele Vögel. Besonders Fledermäuse sind durch Windkraftanlagen gefährdet.

In dem verlinkten Artikel auf Nature fand ich (Demmig) kein richtiges Gegenargument:

Nature

… Die spanische Ornithologische Gesellschaft in Madrid schätzt, dass Spaniens 18.000 Windkraftanlagen jährlich 6 Millionen bis 18 Millionen Vögel und Fledermäuse töten. „Ein Flügel schneidet einen Gänsegeier halb durch“, sagt Bechard. „Ich habe sie nur enthauptet gesehen.“

Windkraftanlagen töten im Laufe des Jahres weit weniger Vögel, als viele andere Ursachen, die mit Menschen verbunden sind, einschließlich Hauskatzen und Kollisionen von Vögeln mit Glasfenstern. [das war‘s, keine Zahlen, keine Quellen, der Übersetzer] Aber die Windkraft hat eine unverhältnismäßige Auswirkung auf bestimmte Arten, die bereits ums Überleben kämpfen, wie die prekäre US- Golden Eagle [Steinadler] ( Aquila chrysaetos canadensis ).

„Die beunruhigende Frage mit der Windentwicklung ist, dass wir sehen, dass eine wachsende Zahl von Vögeln der Erhaltung von Windkraftanlagen getötet wird“, sagt Albert Manville, ein Biologe mit dem US Fisch- und Wildtierdienst in Arlington, Virginia.

 

  1. Gefahr von Eiswurf

Strompreisvergleich24:

Zum einen wird es in Deutschland normalerweise gar nicht kalt genug, sodass sich solch dicke Eisschichten gar nicht erst auf den Rotorblättern bilden können, zum anderen sind sich die Hersteller dieses Problems bewusst, sodass entsprechende Gegenmaßnahmen für den Ernstfall eingebaut werden (zum Beispiel Eisabschaltsysteme).

No Tricks Zone:

In der Winterzeit kann sich Eis auf den Flügeln bilden und später als Geschosse herabgeworfen werden, was eine Gefahr für Menschen und Eigentum in der Nähe der Windanlagen darstellt. Treffer in der Nähe von Windanlagen wurden berichtet.

 

  1. Ästhetik und Immobilienwerte

Strompreisvergleich24:

Das Landschaftsbild wird durch Windkraftanlagen – und durch zusätzliche Strommasten – nachhaltig geprägt, was vor allem Naturliebhabern übel aufstößt.

Des Weiteren schrumpfen die Immobilienpreise normalerweise, sobald sich Windräder in Sichtweite befinden. Wenn neue Windkraftanlagen gebaut werden sollen, kommt es deshalb meist zu einem Aufschrei der Vermieter.

No Tricks Zone:

In früheren Zeiten waren die Windmühlen eine Faszination. Aber heute sind sie sehr viel größer und die Leute sind die Hässlichkeit leid geworden. In Norddeutschland ist es oft schwierig, sein Haus zu verlassen, ohne einen Windpark zu sehen. In Deutschland gibt es buchstäblich Hunderte von Bürgerinitiativen gegen den Bau von Windparks. Die Menschen sind die Industrieanlagen mitten in der Natur wirklich satt.

Windenergieanlagen in der Sichtweite reduzieren die Immobilienwerte ernsthaft.

 

  1. Windkraftanlagen erzeugen Lärm und Infraschall

Strompreisvergleich24:

Auch wenn es aus der Ferne immer so wirkt: Windkraftanlagen sind nicht lautlos. Natürlich ist die Empfindung von Lärm eine individuelle Angelegenheit – einige Menschen können sich allerdings am Lärm von Windkraftanlagen stören. Wir finden den Lärm von Straßenverkehr allerdings bedeutend schlimmer, zumal man sich normalerweise nicht direkt unter ein Windrad stellt.

Beim Bau von Windrädern müssen deshalb bestimmte Grenzwerte eingehalten werden. Zudem muss ein gewisser Mindestabstand zu Wohngebieten eingehalten werden, wenn neue Windkraftanlagen errichtet werden.

Fazit: Nachteile von Windenergie

Anhand der hier vorgestellten Nachteile von Windenergie erkennt man recht deutlich, dass es so etwas wie die perfekte Energiequelle nicht gibt. Jede Art der Energiegewinnung ist sowohl mit Vor- als auch mit Nachteilen verknüpft. Wir finden jedoch, dass die Vorteile von Windenergie überwiegen.

No Tricks Zone:

Windkraftanlagen sind nicht leise. Darüber hinaus produzieren sie Infraschall: Niederfrequente Geräusche an und unterhalb der menschlichen Hörschwelle. Infraschall durch das Innenohr als Druckimpulse wahrgenommen. Wissenschaftlich ist bestätigt worden, dass dieses Menschen krank macht und sogar gesundheitsschädlich ist.

Der Übersetzer: Besonders störend ist selbst ein relativ geringer Lärmpegel [35 … 39 dBA, was nach Norm erlaubt ist] in einer ansonsten sehr ruhigen Landgegend – [nachts nahezu 0 dBA Umweltgeräusche – wo ich wohne, in der Nähe zu Windanlagen mit 200m Höhe]

***

Hier noch ein neuntes Argument gegen Windkraftanlagen:

Quelle: http://windwahn-selters-ts.de/links-zu-artikeln/;

Brennende Windkraftanlage bei Isselburg im Münsterland.

 

Strompreisvergleich24, Vorteile von Windenergie, 7 Pro-Argumente

  1. Wind ist eine unbegrenzte Ressource

Strompreisvergleich24:

… Er ist kostenlos, reichlich vorhanden, (fast) kontinuierlich verfügbar und wird uns von der Natur gegeben. … – der Wind weht so gut wie immer.

Während die Kohle- und Ölvorräte des Planeten früher oder später aufgebraucht sein werden, wird der Wind noch immer über die Erde fegen. Selbst in ferner Zukunft, wenn es die Menschheit vielleicht schon gar nicht mehr gibt. Wenn es um die Vorteile von Windenergie geht, dann sollte dieses Argument stets als erstes erwähnt werden.

Realitätscheck Eike:

Das Argument: „Irgendwo weht der Wind immer“ und die daraus abgeleitete Erwartung einer deutlichen Glättung der Gesamtleistung in einem Maße, das einen Verzicht auf Backup-Kraftwerksleistung ermöglichen würde, ist allerdings an Hand der realen Daten niemals eingetreten. Das gilt auch für die vielgepriesenen Offshore Windräder. Das Gegenteil ist der Fall, nicht nur für ein einzelnes Land, sondern für ganz Europa. Für das Jahr 2016 weist die entsprechende Zeitreihe (Stundenwerte) einen Mittelwert der Windstromproduktion von 33.000 MW und ein Minimum von weniger als 6.500 MW auf. Man bedenke: bei Windstille werden europaweit gerade mal 6.500 Megawatt von installierten 150.000 Megawatt Wind erzeugt. Dies entspricht trotz der europaweit verteilten Windparkstandorte gerade einmal 4 % der insgesamt installierten Nennleistung. Oder anders gesagt: von den 150 „Wind-Großkraftwerken von je 1000MW“ produzieren europaweit gerade mal noch sechs. Der Rest steht nur so rum und wartet auf Wind.

Die schlechte Nachricht ist: Windenergie trägt praktisch nicht zur Versorgungssicherheit bei und erfordert 100 % planbare konventionelle Backup-Kraftwerke.

Dies erfuhren Sie bereits hier, aussagekräftig dafür die Grafik mit der Häufigkeit der verfügbaren Windleistung über ganz Deutschland.

Das kann man auch bei den Energieerzeugern erfahren, hier die Windstudie als Folienvortrag der VBG

 

  1. Sehr geringer Schadstoffausstoß

Strompreisvergleich24:

Wenn Windkraftanlagen erst einmal in Betrieb genommen wurden, ist quasi kein Schadstoffausstoß mehr vorhanden. … Alles in allem handelt es sich bei Windenergie um eine der saubersten Formen der Energiegewinnung mit einer positiven CO2-Bilanz.

Der kaum vorhandene Schadstoffausstoß sorgt übrigens auch dafür, dass in der Nähe von Windkraftanlagen dennoch Wohnflächen existieren können. Diese müssen zwar aufgrund der Geräuschentwicklung einen bestimmten Abstand halten, dieser muss allerdings nicht so groß sein wie bei Kohlekraftwerken.

[Abstand bei Kohlekraftwerken großer Leistung: 1.500 m]

Realitätscheck Eike: …3) Die Befürworter erneuerbarer Energie widmen dem erforderlichen Landverbrauch und den Rohmaterialien keinerlei Aufmerksamkeit, ebenso wenig wie den damit verbundenen Umweltauswirkungen bei der Einrichtung von Wind-, Solar- und Biotreibstoff-Programmen in einer Größenordnung, welche den gegenwärtigen und weiter zunehmenden Energiebedarf der Menschheit decken kann, vor allem, wenn es darum geht, den Lebensstandard in Entwicklungsländern zu erhöhen.

Selbstverständlich gehören die Emissionen von im standby laufenden Kraftwerke zu dem durch EE generierten Schadstoffausstoß, denn ohne back-up Sicherheit gegen Stromausfälle kann ein Industrieland nicht existieren. Diese und noch weitere Umweltschäden kommen hinzu, wegen des Abbaus von seltenen Erden, lesen Sie hier. (und auch bei 5.)

 

  1. Windenergie gut für rohstoffarme Länder

Strompreisvergleich24:

Länder wie Deutschland, die relativ arm an natürlichen Rohstoffen sind, müssten viel Strom importieren, wenn es keine erneuerbaren Energien gäbe. Statt auf teuren Import, setzt Deutschland allerdings lieber auf Windkraft- und Solaranlagen und verschafft sich somit einen enormen wirtschaftlichen Vorteil gegenüber anderen Nationen.

Realitätscheck: Das ist schlichte Propaganda, denn wer soll hier Wertschöpfung betreiben können, wenn es keine gesicherte Stromversorgung gibt. Die Erläuterung gilt wie oben bei Punkt 1, hier und hier.

 

  1. Windkraftanlagen schaffen Arbeitsplätze

Strompreisvergleich24:

Am offensichtlichsten sind dabei die Jobs der Handwerker, die bei der Produktion, beim Aufbau und bei der Wartung zwingend benötigt werden.

Biologen müssen beispielsweise vor dem Bau das Areal untersuchen und herausfinden, ob es bedrohte Tierarten oder seltene Pflanzen gibt, deren Heimat durch den Bau der Windkraftanlagen zerstört werden könnten. Des Weiteren müssen sich Juristen um Baugenehmigungen und um die Klärung rechtlicher Fragen kümmern. Wenn Windparks vor der Küste gebaut werden, dann kommen außerdem noch Reedereien mit ins Spiel.

Realitätscheck Eike: Dieser Mythos von vielen neuen Arbeitsplätzen durch Windanlagen (und andere EE) stirbt nicht aus. Das als Argument nun auch die Juristen angeführt werden, ist mir allerdings neu. Wie viele solide Arbeitsplätze sind denn z.B. durch den Niedergang oder Wegzug der Industrie unwiederbringlich verloren gegangen? Lesen Sie hier und hier und hier, dass sich die Sache mit den Arbeitsplätzen bereits seit mehreren Jahren nicht gebessert hat.

 

  1. Wind stinkt nicht

Strompreisvergleich24:

Wer in der Nähe von einem Kohlekraftwerk wohnt, der kennt das Problem: Solche Anlagen können eine ziemliche Geruchsbelästigung darstellen. Windräder produzieren ebenfalls Strom, allerdings sind sie dabei geruchlos. Optisch kann man von Windrädern halten, was man möchte – die Nasen der Anwohner belästigen sie jedoch nicht.

Realitätscheck Eike: Wer die alten, mit schlechter Braunkohle betriebenen Kohleöfen noch in Erinnerung hat (meine Großmutter drosselte die Wärmeabgabe meist nur durch mehr oder weniger Luftzufuhr, der weiß wie diese Abgase stinken. Die moderner Filtertechnik laufenden Kohlkraftwerke haben damit aber überhaupt nichts mehr zu tun. Ich selbst war mal bei einer Inbetriebnahme dabei: Die Luft kam sauberer raus, als sie reinging. Hier mal ein Verweis auf Wikipedia. (Das Geruchsproblem stellt sich bei Biogasanlagen mit größerer Intensität).

 

  1. Stetige Weiterentwicklung der Anlagen

Strompreisvergleich24:

Windkraftanlagen werden von Ingenieuren immer weiter verbessert. Die heutigen Windräder produzieren beispielsweise deutlich mehr Strom, als es noch vor 20 Jahren der Fall war. … Wer weiß, welche Windräder uns in Zukunft zur Verfügung stehen werden?

Jedoch: Die Weiterentwicklung kostet ebenfalls Geld, weshalb man davon ausgehen kann, dass sich Kosten und Nutzen insgesamt gesehen neutralisieren.

Realitätscheck Eike:

Die heutigen Windkraftanlagen können bezüglich Flügelbildung bereits auf mehr-hundertjährige Entwicklung zurückblicken. Die maximale Ausbeute der Windenergie ist physikalisch bestimmt – hier greifen auch die Verbesserungen der Flugzeugbauer, für die Gestaltung der Flügel. Die Entwicklungen der letzten Jahre bezogen sich hauptsächlich auf Wirkungsgradverbesserung der Generatoren.  (Einsatz von Dauermagneten (Neodym) für die Erregung, spart Erregerleistung ein. Wesentliche Verbesserungen der bestehenden Anlagen sehe ich nicht. (Mein Studium und Praxis: Energietechnik). Zu erwarten ist, dass die Anlagenbauer in Richtung „höher“ und „mehr Leistung“ (größere Flügel) gehen werden. Die Kosten steigen jedoch auch überproportional. Fazit: Neutral. Die Windbranche schreibt dazu.

 

  1. Dauerhaftes Einkommen für Gemeinden

Strompreisvergleich24:

Wenn Windkraftanlagen auf dem Gelände von Gemeinden errichtet werden, dann erhalten diese Pachteinnahmen, solange die Windräder Strom produzieren. So hat im Endeffekt auch der Steuerzahler etwas davon.

Realitätscheck Eike: Das mag an windreichen Standorten an der Küste noch so sein. Im Inland und an den nun angegangen windschwachen gebieten (Merke:  Bürgerwindparks begrenzen das Risiko für die Planer und Erbauer). Lesen Sie hier über die ausbleibende Gewinne und hier.

Fazit: Vorteile von Windenergie

Strompreisvergleich24:

Windenergie ist eine grandiose Art der Energiegewinnung, die uns unser Planet kostenlos zur Verfügung stellt. Warum sollte man sie also nicht nutzen? Windenergie hat allerdings nicht nur Vorteile. Die Nachteile von Windenergie haben wir ebenfalls für Sie aufgelistet.

Dem ist weiter nichts hinzuzufügen, als …

Bürgerinitiative Marienthal, Windkraftgegner

***

Gefunden auf STT am 19.08.2017

Übersetzung und Realitätscheck Andreas Demmig

https://stopthesethings.com/2017/08/19/hateful-eight-8-solid-reasons-why-subsidised-wind-power-is-both-pointless-harmful-to-health-wealth/

http://notrickszone.com/2017/07/16/wind-energys-8-serious-disadvantages-hurts-everything-from-wealth-to-health/#sthash.FIXqHrz7.dpbs

https://www.strompreisvergleich24.com/erneuerbare-energien/vorteile-von-windenergie/




Deutschlands Autoindustrie: Mord auf offener Straße? – Ein perfides Spiel mit Klimaangst und fiktiven Abgas-„Todesopfern“ (1)

Wer wissen will, wie perfide das Spiel ist, das unsere Politiker derzeit mit dem Recht des Bürgers auf individuelle Mobilität spielen, dem sei empfohlen, in der Mediathek des ZDF die um 19.00 Uhr ausgesandte „Heute“-Nachrichtensendung des ZDF vom 9.8.2017 anzusehen. Unter „Strategien gegen Luftverschmutzung“ wird das Beispiel Düsseldorfs vorgestellt, wo die Stadt die „grüne Welle“ mancherorts unterbricht. Damit sollen, so der Kommentar, die Autofahrer gezwungen werden, abzubremsen und neu anzufahren, obwohl das mehr Schadstoffe bedeutet. Dies sei „Verkehrserziehung in Richtung Zukunft“.

Mit überlegenem Lächeln erläutert anschließend Thomas Geisel, SPD-Oberbürgermeister der Stadt Düsseldorf, seine Motive zu dieser bewussten Erhöhung der Luftbelastung in seiner Stadt wie folgt: „Das mag jetzt unter Schadstoffgesichtspunkten an der einen individuellen Stelle nachteilig sein, aber insgesamt geht es natürlich darum, die Menschen zu motivieren, die Bahn zu benutzen eher als das Auto…“

Das wurde so nonchalant dahergesagt, dass man sich der Ungeheuerlichkeit dieser Aussagen im ersten Moment gar nicht bewusst wird. Hier erklärt ein Oberbürgermeister einer Landeshauptstadt, dessen Stadt von der DUH („Deutsche Umwelthilfe“, manchmal auch als Toyotas ’Ndrangheta bezeichnet) wegen zu hoher Abgaswerte verklagt wird, dass er bewusst Maßnahmen ergreift, welche diese Belastung noch ansteigen lassen. Dabei halten Spitzenvertreter seiner Partei zudem Schauermärchen über „zehntausend Tote durch Autoabgase jedes Jahr in Deutschland“ für glaubwürdig und fordern mit dieser Begründung Fahrverbote. Wenn ein SPD-Politiker zugleich willentlich eine Steigerung dieser Abgasbelastung herbeiführt, kann man vermuten, dass er hier bewusst Leben und Gesundheit von Bürgern gefährdet. Für Juristen dürfte die Frage von Interesse sein, ob hier die Staatsanwaltschaft aufgrund eines begründeten Anfangsverdachts von sich aus tätig werden müsste oder ob Bürger der Stadt Düsseldorf selbst Klage erheben sollten. Es scheint berechtigt, hier von einem Bubenstück der besonderen Art zu sprechen.

Interessanterweise gibt es auch aus Stuttgart Hinweise darauf, dass die grün geführte Stadtverwaltung dort zu ähnlichen „Tricks“ greift. In einem Kommentar zu einem Bericht im „Spiegel Online“ ist zu lesen, dass an einer besonders kritischen Messstelle (Am Neckartor) die Straße Richtung Fellbach von zwei auf eine Spur verengt wurde, um einen Fahrradstreifen anzulegen, so dass sich dort die Pendler aufstauen. Zudem gibt es dort jetzt eine Abzweigung zu einem neuen Einkaufszentrum, dessen Parkhaus jeden Samstag komplett voll ist. Und last but not least gibt es direkt neben dem Neckartor eine riesige Baustelle, bei der regelmäßig schwere Nutzfahrzeuge hin- und herfahren.

Die NOx-Emissionen des Straßenverkehrs in Deutschland sind seit 1990 sowohl absolut (von 1,46 auf 0,491 Mio. t) als auch prozentual (von 50,7 auf nur noch 40,1 %) zurückgegangen (Grafik: Umweltbundesamt)

 

Meister der Doppelzüngigkeit

Mit seiner Haltung steht der SPD-OB Geisel selbstverständlich nicht alleine da, sondern befindet sich, wie man so schön sagt, im Mainstream. Auch seine Art des „Nudging“, also des hinterhältigen Manipulierens, hat größere Vorbilder. Es gibt in Deutschland Politiker, die ihre Schulung in einer Zeit und einer Republik erhalten haben, in der Grenzwachen „Republikflüchtlingen“ in dem gutem Glauben in den Rücken geschossen haben, die Obrigkeit habe dies befohlen. Hinterher hieß es, dass ein solcher Schießbefehl niemals existiert haben soll. Eine solche Fähigkeit, Menschen zu manipulieren und sie zu Handlungen zu veranlassen, zu denen sie sich bei klarer Kenntnis der Sachlage vermutlich nicht bereitgefunden hätten, war schon eine Meisterleistung. Politiker, die diese Kunst in verantwortlicher Position des Regimes verinnerlicht haben, sind es gewohnt, ihre wahren Absichten zu verstecken und wenn möglich andere vorzuschieben, damit diese die Drecksarbeit machen. Wer sich in diesem Dschungel zurechtfinden will, muss lernen, dem gesprochenen oder geschriebenen Wort nicht blind zu vertrauen, zwischen den Zeilen zu lesen und vor allem die Fakten zu beachten.

Der Rückgang der transportbedingten Schadstoffemissionen ist auch europaweit zu beobachten (Grafik: [THAL])

 

Das eigentliche Ziel heißt „Dekarbonisierung“

Die politische Elite, die Deutschland im Moment führt, hat sich voll und ganz dem Ziel der „Dekarbonisierung“ unserer Volkswirtschaft verschrieben. Dies ist eine der wesentlichsten Triebkräfte des Handelns insbesondere der Mehrheitsparteien, ein Ziel, an dem sie seit mindestens einem Jahrzehnt geduldig und mit allen ihr verfügbaren Mitteln und Methoden arbeiten. Autos, deren Verbrennungsmotoren fossiles CO2 ausstoßen, haben in diesem Weltbild keinen Platz. Entsprechende Aussagen tätigten maßgebliche PolitikerInnen bereits 2009: „Während die Autobranche mit der 63. IAA mühsam versucht aus der Krise zu fahren, fordert Bundeskanzlerin Merkel nichts geringeres als die Neuerfindung des Automobils“ und verlangte „von den deutschen Herstellern einen Entwicklungsschub hin zu umweltfreundlicheren Motoren“. Es gelte, „das Auto fast wieder neu zu erfinden, nämlich völlig neue Antriebstechnologien zu entwickeln“ [SUED]. Bereits damals gab es Planungen, bis 2020 mindestens eine Million Elektromobile auf deutsche Straßen zu bringen, die von höchster Stelle als „ehrgeizig, aber notwendig“ bezeichnet wurden. Da die Kfz-Hersteller sich jedoch halsstarrig zeigten, wurden im Rahmen einer Langfristplanung geeignete „erzieherische Maßnahmen“ auf den Weg gebracht. Die faulen Ausreden der unwilligen Automanager, dass es keine ausreichende Nachfrage nach E-Fahrzeugen gebe und der Markt von ihnen andere Fahrzeuge verlange, durften schließlich nicht ungestraft bleiben. Die Umsetzung der gewünschten „Erziehungsmaßnahmen“ erforderte jedoch die Ausarbeitung einer ausgeklügelten und langfristig angelegten Strategie.

Die historischen Karten der NO2-Jahresmittelwerte in Deutschland belegen den ständigen Rückgang der NO2-Gehalte in der Luft (Grafik: Umweltbundesamt)

 

Grünlinke Traumwelten

Zum Leidwesen solcher „verantwortungsbewusster“ Politiker ist es im heutigen Deutschland jedoch schwieriger, die Bevölkerung zum „richtigen“ Konsumverhalten zu motivieren, als noch vor einigen Jahrzehnten im östlichen Deutschland. Dort konnte es solche Flausen der Untertanen erst gar nicht geben, weil es nur ein einziges Automodell gab, und selbst das konnte man nicht mal so eben kaufen. Aber die Politikerkaste ist flexibel und wächst mit ihren Aufgaben. Zunächst galt es, sich die Deutungshoheit zu sichern. Der Bevölkerung musste klargemacht werden, dass ganz Deutschland eine Art Naturparadies zu sein hat. Dabei wird einfach ausgeklammert, dass Zivilisation nicht nur Vorteile wie warme Wohnungen, Kleidung und Nahrung sowie Antibiotika und moderne Medizin ermöglicht, sondern unabdingbar auch gewisse Belastungen mit sich bringt. Dazu gehört die Beanspruchung durch körperliche Arbeit ebenso wie Beeinträchtigungen der Gesundheit durch Gift- und Reizstoffe sowie Schäden an Natur und Umwelt. Früher gab es in den westlichen Gesellschaften einen gewissen Grundkonsens darüber, dass man hier Kompromisse einzugehen hatte. Es galt, die zivilisatorisch gewünschten Vorteile nicht zu gefährden, dabei jedoch die zu akzeptierenden Nachteile auf ein vertretbares Minimum einzugrenzen. Heute geht dieser Konsens jedoch immer weiter verloren, insbesondere bei den großstädtischen Eliten. Hier tummeln sich alle möglichen grünen und linken Ideologien, welche dem Glauben anhängen, man habe ein Anrecht darauf, die Vorteile einer technologisch fortgeschrittenen Industriegesellschaft uneingeschränkt zu genießen, ohne dafür irgendwelche Kompromisse eingehen zu müssen. Diese moderne urbane Spaßgesellschaft wünscht sich eine Fahrradrepublik mit bedingungslosen Grundeinkommen und einer Umwelt wie in einem hochalpinen Luftkurort, ergänzt um eine schrankenlose Willkommenskultur für Wirtschaftsflüchtlinge aus jedem „failed state“ dieser Welt. Diese Ideologien werden von einem Großteil der Medien mit großer Verve unterstützt. Hierdurch erhalten sie einen überproportional großen Einfluss auf die öffentliche Meinung und damit auf die Politik.

Die Lebenserwartung der deutschen Bevölkerung ist mit der Weiterentwicklung unserer technischen Zivilisation ständig gestiegen (Grafik: Statistisches Bundesamt)

 

Die beste Luft seit 100 Jahren

Die deutsche Bevölkerung atmet heute die beste Luft seit mindestens 100 Jahren. Früher gab es in den Häusern offene Kamine und Herde, geheizt wurde überwiegend mit Holz, dessen schädlicher Rauch karzinogene Substanzen in der Raumluft verteilte. Auch Kerzen sowie Petroleumlampen sind massive Quellen schädlicher Luftschadstoffe, denen die Bevölkerung tagein, tagaus ausgeliefert war. In den Städten und Industriegebieten gab es keinerlei Abgasbehandlung. Noch in den 60er Jahren kam es im Ruhrgebiet zu Todesfällen durch Smog, einer giftigen Mischung aus unbehandelten Abgasen (Ruß, Staub, SO2) und Nebel. Mit der Einführung entsprechender Gesetze und der Installation von Abgasbehandlungsanlagen hat sich die Qualität der Luft seither ständig und in erheblichem Umfang verbessert, wie sich anhand langjähriger Vergleiche des Umweltbundesamts unschwer dokumentieren lässt. Waran liegt es also, dass man derzeit von fast allen Parteien und aus allen Medien den Eindruck erhält, die Luft in unseren Städten werde durch gierige und rücksichtslose Automanager so verpestet, dass jährlich abertausende Menschen an den Folgen sterben. Es sei deshalb unausweichlich, dass man um der Volksgesundheit willen so schnell wie möglich ein Verbot von Verbrennermotoren anstreben müsse? Wobei der Diesel zwar derzeit die meisten Prügel abbekommt, der Benziner jedoch ebenfalls bereits zum Tode verurteilt wurde.

Auf europäischer Ebene ist der Straßentransport nur mit 13 % an der Emission des besonders kleinteiligen Feinstaubs PM2.5 beteiligt (Grafik: [THAL])

 

Verleumdungen statt Tatsachen

Wenn man sich die Vorwürfe gegen den Diesel, der im Moment als Sündenbock herhalten muss, einmal genauer ansieht, so stellt man fest, dass diesem Dinge unterstellt werden, die gar nicht den Tatsachen entsprechen. So wird in den Medien häufig suggeriert, dass Diesel-PKW Hauptquelle sowohl von Feinstaub als auch von Stickoxiden (NOx) seien und ihre Abgase Krebs sowie Lungen- und Kreislauferkrankungen auslösen würden. Dabei stimmt dies für Diesel-PKW spätestens ab der seit 2009 geltenden Schadstoffklasse Euro 5 nicht, weil sie seitdem mit einem Rußpartikelfilter ausgerüstet sein müssen. Der Diesel unterscheidet sich vom Benziner lediglich durch einen höheren Ausstoß von Stickstoffoxid (NO), das sich an der Atmosphäre dann zu Stickstoffdioxid (NO2) umwandelt. Über die Gesundheitsgefahr dieser Mischung, die unter dem Sammelbegriff NOx zusammengefasst wird, werden alle möglichen abstrusen Behauptungen in die Welt gesetzt. Dabei sind diese vergleichbar einfachen chemischen Substanzen der Wissenschaft seit gut 100 Jahren bekannt. Auch ihre gesundheitlichen Auswirkungen sind seit vielen Jahrzehnten immer wieder sorgfältig untersucht worden. In den Konzentrationen, in denen sie in der Atmosphäre unserer Städte vorkommen, sind sie höchstens lästig bis irritierend, keinesfalls aber gefährlich. Da sie auch an Arbeitsplätzen – z.B. im Bereich der chemischen Industrie – auftreten, wurden hierzu nach umfassenden Untersuchungen durch Fachgremien sogenannte MAK-Grenzwerte festgelegt. Diese MAK-Werte werden als unbedenklich für Gesunde eingestuft, selbst wenn diese dem Grenzwert über Jahre hinweg an 8 Stunden jeden Arbeitstags ausgesetzt sind. In Deutschland galt für NO2 noch 1994 ein MAK-Wert von 9 mg/m3 [NIEM], in der Schweiz sind es bis heute 6 mg/m3.

Die Anzahl der Überschreitung des Ozon-Grenzwerts von 180 µg/m3 ist seit Jahrzehnten rückläufig (Grafik: Umweltbundesamt)

Inzwischen wurde – vermutlich aufgrund von Pressionen linksgrüner politischer Kräfte – der MAK-Wert für NO2 in Deutschland drastisch um einen Faktor von fast 10 auf nur noch 0,950 mg/m3 heruntergesetzt. Für die beiden Einzelbestandteile gelten weiterhin auch separate MAK-Werte. Beim NO liegt dieser in Deutschland bei 0,63 mg/m3, in der Schweiz dagegen bei 3 mg/m3 [NOMA]. Die oft vertretene Ansicht, dass Asthma-Patienten und Menschen mit chronischer Bronchitis auf erhöhte NO2-Werte empfindlicher reagieren als Gesunde, wird in relevanten Datensammlungen zu den Gesundheitsrisiken nicht unterstützt [NO2GE]. Auch in den Empfehlungen des Wissenschaftlichen Komitees der EU für Grenzen beruflicher Exposition gegenüber NO2 [NOAEL] ist nachzulesen, dass trotz intensiver Überprüfung der Literatur keine eindeutigen Erkenntnisse bezüglich einer nachteiligen klinischen Wirkung von NO2 auf Personen mit Asthma, chronischen Lungenerkrankungen oder Bronchitis vorliegen. In der dort aufgeführten Literatur finden sich Studien über Bergarbeiter in einem Salzbergwerk. Diese waren Dieselabgasen (Ruß + NO + NO2) in Kombination mit den im Bergbau üblichen Belastungen (Staub) unter bergbautypischen körperlichen Belastungen bei NO2-Gehalten bis zu 7,6 mg/m3 ausgesetzt waren. Dabei konnte kein Zusammenhang mit Atembeschwerden oder Husten festgestellt werden.

Noch ungefährlicher als NO2 ist das NO, das im primären Dieselabgas den weit überwiegenden Anteil des NOx ausmacht. NO bewirkt keine Reizerscheinungen an den Schleimhäuten und ist zudem ebenso wie NO2 weder reproduktionstoxisch noch mutagen oder krebsauslösend [NOMA]. Es stellt sich daher die Frage, warum man überhaupt NOx-Werte (d.h. die Summe aus NO und NO2) heranzieht, statt lediglich den NO2-Gehalt zu bestimmen. Möglicherweise vor allem deshalb, weil die gemessenen Werte dadurch im „grünen“ Sinne aufgebläht werden und man leichter zu Grenzwertverletzungen kommt.

Fasst man das ungefährlichere NO mit NO2 zu NOx zusammen, so erhält man deutlich höhere Werte als bei reiner Betrachtung des NO (Grafiken: [UBA])

 

Konzentrierte Dieselabgase im Tierversuch

Dass die Abgase moderner Dieselfahrzeuge mit Feinstaubfilter bei weitem nicht so schädlich sind wie vielfach behauptet, wurde in den USA 2015 von McDonald et al. durch eine eingehende experimentelle Untersuchung an Ratten nachgewiesen [MCDO]. Hierbei wurden die Versuchstiere über Zeiträume von bis zu 30 Monaten für 16 Stunden am Tage und an 5 Tagen in der Woche in einer kontrollierten Abgasatmosphäre gehalten, die auf der höchsten Stufe einen NO2-Gehalt von 8,4 mg/m3 aufwies, das ist rund das neunfache des deutschen MAK-Werts. Dabei ergaben sich kaum Hinweise auf karzinogene Wirkungen. Selbst bei den höchsten Abgaskonzentrationen zeigten sich an den Lungen der Versuchstiere nur minimale bis leichte Schädigungen….

wird fortgesetzt…




FakeNews: ..Brände von Elektrofahrzeugen sind im Vergleich zu Bränden bei Benzinfahrzeugen relativ selten!

Die Wahrheitspostille Nr 1 (oder ist es Nr. 2, oder 3 oder,,,) der deutschen Medienlandschaft FOCUS Online meldet am 21.8.17

„Elektrische Streetscooter Brand nach technischem Defekt: Drei Elektro-Transporter der Post zerstört!“

In einem relativ sachlichen Bericht wird erläutert, dass…

Drei Lieferwagen vom Typ Streetscooter fingen wegen eines technischen Defekts Feuer.

Und weiter

Nach Auskunft der Polizei entstand ein Sachschaden in Höhe von 250.000 Euro. 30 weitere Transporter wurden durch Ruß und Hitzeeinwirkung beschädigt, so die Polizei. Verletzt wurde niemand.

Dann –man schreibt mal eben die Fakten bei Kollegen ab…

Wie die „Rhein-Neckar-Zeitung“ unter Berufung auf die bisherigen Ermittlungen berichtete, sollen die Akkus der elektrischen Postautos die Ursache des Feuers sein. Dem widerspricht allerdings jetzt ein Sprecher der Deutschen Post: Der Akku sei bisherigen Erkenntnissen nach nicht die Brandursache gewesen…

Soweit so klar, der eine glaubt es seien die Akkus gewesen, der andere mit seinem speziellen (Förder)-Interesse widerspricht. Soweit so fair.

Dann aber der Hammer: So schreibt der/die anonyme AutorIn und besinnt sich dabei auf seine unmittelbare Pflicht Propaganda für das einzig Gute, Wahre, Schöne zu machen, Und dichtet :

Brände von Elektrofahrzeugen sind im Vergleich zu Bränden bei Benzinfahrzeugen relativ selten und lassen sich meistens auf zwei Ursachen zurückführen: Entweder durch aufgerissene Akkus bei schweren Unfällen oder durch technische Probleme beim Aufladeprozess.

Das muss man sich auf der Zunge zergehen lassen:

Brände von Elektrofahrzeugen sind im Vergleich zu Bränden bei Benzinfahrzeugen relativ selten

Ein einfacher Dreisatz zeigt, dass bei nur 3 (1) von ca. 25.000 E-Fahrzeugen (Bestand 2016) auf deutschen Straßen ca. 5.040 (korr. 23.8.17) Auto-Bränden von im wahrsten Sinne des Wortes Verbrennern (bei 42 Mio KfZ) auf deutschen Straßen entsprechen?

Das vorhersehbare Ergebnis dieser Massenzerstörung:

Die Medien würden Amok laufen, alle Zeitungen wären voll, Sondersendungen Tag und Nacht berichten, die Grünen hätten es schon immer gewusst, die Deutsche Umwelthilfe sowieso und würde nach strengeren Brandschutzgrenzwertregeln rufen, dann alle anderen abmahnen und Schadensersatzklagen einreichen, die anderen Parteien die Manager beschimpfen und die Kanzlerin würde sofort einen weiteren Verbrenner-Verbots-Gipfel mit sofortiger Verbotswirkung einberufen.

Nur, so etwas passiert beim Lieblingskind aller Grün-Bewegten – dem E-Auto- in diesem Land nicht. Und sei es noch so gefährlich.

Trotzdem stelle ich meine bisher ungeklärte Frage:

Wie kommt der AutorIn auf „relativ selten“?

Einzig mögliche Antworten

  1. Er/sie kann nicht rechnen

und

  1. Er/sie will verdummen, d.h die Leser auf sein(ihr Niveau herabziehen.

Ich fürchte es wird ihm/ihr sogar gelingen.

 

(1) Die anderen Brände bei E-Autos- über die so gut wie nicht berichtet wird- sind in diesem Vergleich nicht berücksichtigt. Eine aussagefähige Erhebung dazu liegt mir nicht vor.

 

 

 




Was wissen wir über die Trends des arktischen Meereises?

Diese Änderung des arktischen Klimas wird oft als Beweis angeführt, dass die Menschen einen drastischen Klimawandel verursachen. Zum Beispiel wurde am 29. April 2017 in einem Artikel im Economist impliziert, dass das arktische Eis ungewöhnlich schmilzt, dramatisch und besorglich:

Das Abschmelzen erfolgt weitaus schneller als einst erwartet. Während der letzten drei Jahrzehnte ist die Eisausdehnung der Arktis um die Hälfte und dessen Volumen um drei Viertel zurückgegangen … Man schätzt, dass die Arktis bereits im Sommer 2040 eisfrei sein könnte. Bisher war man von dem Jahr 2070 ausgegangen.

Wie auch immer, ist die Satellitenaufzeichnung seit 1978 lang genug, um uns die folgenden Fragen zu beantworten?:

1. Wie ungewöhnlich (oder normal) sind die jüngsten Trends?

2. Können wir bestimmen, wie viel des derzeitigen Klimawandels auf das Konto der Menschen geht und wie viel davon natürlichen Ursprungs ist?

Vor Kurzem haben wir im Hydrological Sciences Journal (HSJ) eine Studie veröffentlicht, in welcher wir das arktische Meereis bis zurück zum Jahre 1901 abschätzten, wobei wir verschiedene Datenquellen vor der Zeit der Satelliten herangezogen haben (Abstract hier).

HSJ hat diesen Artikel als einen ihrer „Featured Articles“ eingestuft, was bedeutet, dass er während eines begrenzten Zeitraumes heruntergeladen werden kann: hier. Aber falls man diesen Beitrag nach diesem Zeitraum liest und keinen Zugang ohne Zahlschranke mehr hat, kann man ein Vorab-Druck hier herunterladen.

In unserer Studie sind wir zu dem Ergebnis gekommen, dass der jüngste Rückzug des arktischen Meereises während der Satelliten-Ära tatsächlich einer Periode mit Eiszunahme Mitte der vierziger Jahre gefolgt ist, welche wiederum einer anderen Rückzugsphase während der zehner Jahre folgte. Dies zeigt, dass das arktische Meereis wesentlich dynamischer ist als man denken könnte, wenn man sich allein die Satellitenaufnahmen anschaut (wie es der Economist oben getan hat). Also werden wir in diesem Beitrag detaillierter darauf eingehen, was wir gegenwärtig über Trends des arktischen Meereises wissen.

Meereis-Trends während der Satelliten-Ära

Die Satellitendaten bzgl. der Meereisausdehnung in der Arktis und um die Antarktis können vom US National Snow & Ice Data Center (NSIDC) hier heruntergeladen werden. In den folgenden Graphiken plotteten wir die jährliche Meereis-Ausdehnung aus dieser Satelliten-Ära sowohl für die Arktis als auch für die Antarktis. Zum Vergleich sind die Temperaturtrends in der Arktis seit 1900 eingetragen (übernommen aus unserem HSJ-Beitrag).

Wir erkennen: Jawohl, die mittlere Ausdehnung des arktischen Meereises hat seit Beginn der Satellitenaufzeichnungen allgemein abgenommen. Jedoch hat die Ausdehnung des Meereises um die Antarktis im gleichen Zeitraum allgemein zugenommen. Wenn wir jedoch unser Augenmerk auf die viel längeren Temperaturaufzeichnungen aus der Arktis lenken, können wir sehen, dass dies keine Überraschung ist. Seit Ende der siebziger Jahre (also zu Beginn der Satellitenaufzeichnungen) hat sich die Arktis erwärmt, aber dies folgte einer Periode der Abkühlung in der Arktis von den vierziger bis Anfang der siebziger Jahre! Mit anderen Worten, hätten die Satellitenaufzeichnungen in den vierziger Jahren begonnen und würde das arktische Meereis mit den Temperaturen zusammenhängen, hätten wir vermutlich eine Periode mit Meereis-Wachstum gefunden.

Änderungen des arktischen Meereises vor der Satelliten-Ära

Einer der Gründe für das große Interesse an Meereis-Aufzeichnungen auf der Grundlage von Satelliten-Beobachtungen ist der Umstand, dass die meisten Gebiete des Planeten kontinuierlich überwacht werden. Aber man hat das arktische Meereis auch vor der Satelliten-Ära überwacht mittels zahlreicher Messungen an Landstationen, von Schiffen, U-Booten Bojen und Flugzeugen.

Während der neunziger Jahre und zu Beginn dieses Jahrhunderts haben die Professoren Walsh und Chapman versucht, einige dieser Messungen vor der Satelliten-Ära zu kombinieren, um die Satellitenaufzeichnung rückwärts bis zum Beginn des 20. Jahrhunderts zu erweitern. Man erkennt in der Abbildung unten, dass ihre Schätzungen implizierten, dass es vor der Satelliten-Ära praktisch keine Variabilität gegeben hatte!

Viele Jahre lang war der „Walsh and Chapman“-Datensatz als ziemlich zuverlässig und genau eingeschätzt worden. Er fand in der wissenschaftlichen Gemeinschaft weithin Verwendung.

Wie man aus dem folgenden Videoclip erkennen kann [der hier aus urheberrechtlichen Gründen nur als Link angegeben ist] wurde er sogar in dem Al-Gore-Fil „An Inconvenient Truth“ aus dem Jahr 2006 gezeigt, obwohl Gore da etwas durcheinander gebracht zu haben scheint, welche Daten er eigentlich zeigt, behauptet er doch, dass die Walsh & Chapman-Graphik auf „Messungen der Eisdicke von U-Booten“ beruht.

https://www.youtube.com/watch?v=vTFuGHWTIqI

Übrigens haben wir den Verdacht, dass die von Gore erwähnten U-Boot-Messungen vermutlich diejenigen von Rothrock et al. (1999) sind (hier ohne Zahlschranke), aber jene Messungen sind viel mehr begrenzt als Gore impliziert, und sie wurden bereits im Jahre 1999 veröffentlicht. Damit ist unklar, warum Gore sich bemüßigt fühlte, „sie zur Veröffentlichung zu überreden“.

Als wir jedoch detailliert auf die Daten vor der Satelliten-Ära schauten, erkannten wir, dass es bei den Walsh & Chapman-Schätzungen ernste Probleme gab.

Das Hauptproblem ist, dass die Daten vor der Satelliten-Ära sehr limitiert sind. Falls ein Schiff durch ein bestimmtes Gebiet während einer bestimmten Jahreszeit fährt, hätten diese Auskunft geben können über das Eis in jenem Gebiet oder ob es eisfrei war. Aber was macht man, wen dort nie Schiffe gefahren (oder Flugzeuge geflogen) sind?

Es scheint, dass in vielen Fällen, wenn Walsh & Chapman Messungen aus einem bestimmten Gebiet vorliegen haben, sie im Grunde am Ende davon ausgingen, dass jene Regionen mit Eis angefüllt waren!

Zum Beispiel zeigt die Karte links in der Abbildung unten die von Walsh & Chapman herangezogene Hauptdatenquelle für August 1952. Es ist eine Schätzung der arktischen Meereis-Ausdehnung, welche vom Danish Meteorological Institute (DMI) vorgenommen worden war. Die roten Linie auf der Karte zeichnen die Eisgrenzen nach, wo das DMI tatsächlich Messungen durchgeführt hat – in diesem Falle zumeist um Grönland und Ostkanada. Die weißen Regionen auf der übrigen Karte zeigen Gebiete, in denen „Eis angenommen wurde, ohne dass man Informationen dazu habe“. Mit anderen Worten, das DMI hat geraten, dass es dort Eis geben könnte, aber man wusste es beim DMI nicht!

Dieser Zeitraum lag mitten im Kalten Krieg, und leider gab es kaum Datenaustausch zwischen der Sowjetunion und westlichen Ländern wie Dänemark. Also lagen dem DMI praktisch keinerlei Informationen aus dem russischen Sektor der Arktis vor. Allerdings haben die Russen zufälligerweise ihre eigenen Beobachtungen des russischen Meereises durchgeführt mittels Luftaufklärung, Schiffen, Bojen usw. Im 21. Jahrhundert haben einige russische Wissenschaftler angefangen, diese Daten zu digitalisieren und zu veröffentlichen. Die Karte auf der rechten Seite zeigt die russischen Beobachtungen für genau den gleichen Monat (August 1952). Die blauen Gebiete waren eisfrei, die weißen Regionen mit Eis angefüllt. In den grau gefärbten Gebieten wurden keine Messungen durchgeführt.

Erkennen Sie, dass alle Regionen der von den Russen überwachten sibirischen Arktis eisfrei waren, während das DMI sie mit Eis angefüllt vermutet hat?

Die Schätzungen von Walsh & Chapman vermuteten, dass die vom DMI geratenen Eisverhältnisse genau waren, aber das war keineswegs der Fall!

Jetzt müssen wir erwähnen, dass während der Zeit, in der wir unsere Studie sowohl mit den Russischen Daten als auch mit den DMI-Daten durchführten, Walsh & Chapman ihre Schätzungen aktualisiert haben. Und der neue Walsh et al.-Datensatz zieht den russischen Datensatz ebenfalls heran (hier).

Wie wir in der Studie besprechen, endet ihr Verfahren jedoch immer noch in der effektiven Vermutung, dass die meisten Gebiete ohne Beobachtungen „mit Eis angefüllt“ waren! Unserer Ansicht nach ist das eine sehr unkluge Vermutung, vor allem für die ersten Jahre, als es nur sehr wenige Beobachtungen gab.

Wir erkannten also, dass die Daten aus der Vor-Satelliten-Ära neu kalibriert werden mussten, um den begrenzten Beobachtungen und auch den Änderungen in den verschiedenen Datenquellen Rechnung zu tragen (Flugzeuge vs. Schiffe und Bojen usw.) – für verschiedene Gebiete und Zeiträume. Für eine detaillierte Diskussion unseres Re-Kalibrierungs-Verfahrens empfehlen wir, unsere diesbezügliche Studie zu lesen. Das Abstract findet sich hier. Aber im Wesentlichen nutzten wir die Temperaturaufzeichnungen der Arktis von Wetterstationen auf dem Festland um sicherzustellen, dass die Meereis-Messungen jeder einzelnen Datenquelle eine ähnliche Reaktion zeigen auf Änderungen der Temperatur in der Arktis wie jene, welche während der Satelliten-Ära beobachtet worden waren.

Nach der Neukalibrierung erhielten wir das folgende Ergebnis einschließlich der Fehlerbalken:

Dabei sind verschiedene Phänomene zu beachten:

Während das arktische Meereis in der Tat allgemein abgenommen hat seit Beginn der Satelliten-Ära, folgte dies zufällig einer Periode mit arktischem Meereis-Wachstum von den vierziger bis zu den siebziger Jahren!

Tatsächlich scheint die Arktis regelmäßig zu alternieren zwischen Perioden mit Meereis-Zunahme und -rückzug. Dies unterscheidet sich so ziemlich von den Schätzungen zuvor von Walsh & Chapman, welche implizierten, dass sich das arktische Meereis vor der Satelliten-Ära kaum veränderte!

Falls wir die Fehlerbalken ignorieren, könnte man vielleicht argumentieren, dass die jeweiligen Meereis-Ausdehnungen seit 2005 geringer sind als seit 1901. Allerdings sollten wir die Fehlerbalken nicht ignorieren. Wir erkennen, dass die Fehlerbalken der Vor-Satelliten-Ära niedriger sind als die größeren Fehlerbalken während der gesamten Satelliten-Ära. Mit anderen Worten, die gegenwärtig niedrigen Werte sind immer noch konsistent mit unseren Schätzungen aus der Vor-Satelliten-Ära.

Ein brauchbarer Test der vom IPCC verwendeten globalen Klimamodelle (mit der Bezeichnung „CMIP5“-Modelle) ist deren Fähigkeit, arktische Meereis-Trends im Nachhinein abzubilden [„hindcast“]. Eine „Nachhersage“ ist eine „Vorhersage“, welche zeitlich zurück verläuft.

Unten vergleichen wir unsere Sommer-Rekonstruktion mit dem Mittel der Nachhersagen der IPCC-Klimamodelle.

Man erkennt, dass die IPCC-Modelle in keiner Weise in der Lage waren, die unterschiedlichen Wachstums- und Rückzugsphasen zu reproduzieren.

Änderungen des arktischen Meereises während der letzten 10.000 Jahre

Während der letzten Jahre haben viele Forscher ein interessantes neues „Proxy“ für die Bedeckung mit arktischem Meereis entwickelt mit der Bezeichnung „PIP-25“. Dieses kann herangezogen werden für die Abschätzung langfristiger Änderungen der Meereisausdehnung. Ein „Proxy“ ist eine Art Messung zur indirekten Abschätzung einiger Eigenschaften – in diesem Falle die arktische Meereisausdehnung.

Im Jahre 2007 bemerkten Prof. Simon Belt und seine Kollegen, dass ein bestimmter Algentyp, der nur im Meereis wächst, eine besondere Gruppe von Molekülen bildet mit der Bezeichnung „IP-25“ – siehe Belt et al. 2007 (Abstract hier, Link zu Google Scholar hier). Ihr Ergebnis: falls das Meereis in einer Region im Sommer schmilzt, sinken einige dieser IP-25 auf den Meeresboden als Teil der Ozean-Sedimente. Falls es jedoch kein Meereis gibt, oder falls das Meereis das ganze Jahr über erhalten bleibt, dann enthalten die Ozean-Sedimente jenes Jahres keinerlei IP-25. Falls man also einen Sediment-Bohrkern zieht für jenes Gebiet, kann man die Gegenwart von IP-25 als Proxy heranziehen für „jahreszeitliches Meereis“, d. h. Eis, dass sich nur zeitweise im Jahr bildet.

Später erkannte man, dass falls IP-25 fehlten, auch das Vorhandensein anderer Phytoplankton-Spezies herangezogen werden konnte, um zu unterscheiden zwischen Perioden mit permanenter Eisbedeckung (weniger Wachstum des Phytoplanktons infolge verringerter Sonnenstrahlung unter dem Eis) und eisfreien Bedingungen (stärkeres Wachstum des Phytoplanktons). Kombiniert man die IP-25 mit Phytoplankton-Messungen in einem ozeanischen Sediment-Bohrkern, hat man eine „PIP-25“-Proxy-Reihe, welche zwischen drei Typen der Eisbedeckung unterscheiden kann:

Permanente Eisbedeckung (wenig IP-25 und wenig Phytoplankton)

Jahreszeitliche Eisbedeckung (hohe IP-25)

Zumeist eisfrei (wenig IP-25, aber viel Phytoplankton)

In Stein et al. (2017) präsentierten Prof. Rüdiger Stein und seine Kollegen die Ergebnisse von zwei neuen PIP-25-Sedimentbohrkernen (aus der Tschuktschen-See und dem Ostsibirischen Meer) und verglichen sie mit anderen zwei Bohrkernen aus früheren Studien in anderen Gebieten der Arktis (einen aus der Laptev-See und der andere aus der Fram-Straße).

Wir haben die Karten unten angepasst an Abbildung 2 von Stein et al. 2017, mit einigen Markierungen, um die Stellen einfacher zu erkennen. Die Karten zeigen die Stelle der vier Bohrkerne relativ zur maximalen bzw. minimalen Meereisausdehnung im Jahre 2015. Die vier Bohrkerne sind ziemlich gleichmäßig in der Arktis verteilt und sollten daher eine vernünftige Schätzung gestatten, wie das Meereis in der gesamten Arktis langfristig variiert hat.

Man beachte, dass alle vier Bohrstellen während des sommerlichen Minimums (am 6. September 2015) eisfrei waren, dass aber drei Stellen während des Winter-Maximums eisbedeckt waren. Mit anderen Worten, an diesen drei Stellen gab es „jahreszeitliche Eisbedeckung“, während die übrige Stelle (in der Fram-Straße) auch zum winterlichen Maximum (am 17. März 2015) außerhalb der eisbedeckten Gebiete lag. Also ist jene Station derzeit „zumeist eisfrei“. Wie wir jedoch gleich sehen werden, zeigen die PIP-25-Sediment-Bohrkerne, dass sich diese Bedingungen mit der Zeit verändert haben.

Für die vier Plots unten haben wir die PIP-25-Ergebnisse für die vier Sediment-Bohrkerne digitalisiert, und zwar von Abbildung 10 in Stein et al. 2017. Grob gesagt zeigen PIP-25-Werte über 0,5, dass das Gebiet zu der Zeit zumeist eisfrei war, während Werte über 0,7 auf permanente Eisbedeckung hinweisen, das heißt also das ganze Jahr über mit Eis bedeckt waren. Werte zwischen 0,5 und 0,7 zeigen, dass es in dem Gebiet „jahreszeitliche Eisbedeckung“ gab, d. h. es war zum winterlichen Maximum mit Eis bedeckt, im sommerlichen Minimum jedoch eisfrei.

Wie oben erwähnt durchlaufen drei der Vier Stellen gegenwärtig „jahreszeitliche Eisbedeckung“, während die Stelle in der Fram-Straße „zumeist eisfrei“ war. Allerdings durchliefen den PIP-25-Daten zufolge während der letzten 10.000 Jahre alle vier Stellen extensive Perioden mit weniger Eisbedeckung ebenso wie extensive Perioden mit viel mehr Eisbedeckung. Im Besonderen scheint die Eisbedeckung an allen vier Stellen vor 6000 bis 8000 Jahren erheblich geringer gewesen zu sein (deutlich vor der Bronzezeit) als es heute der Fall ist.

Dies deutet auf zwei Punkte, die besonders relevant für unsere Diskussion sind:

Arktische Meereis-Ausdehnungen haben sehr viel Variabilität gezeigt während der letzten 10.000 Jahre (mindestens), so dass wir nicht allzu überrascht sein sollten, dass sich die Ausdehnungen seit Beginn der Satellitenaufzeichnungen im Jahr 1978 substantiell verändert haben.

Trotz des weit verbreiteten Glaubens, dass die gegenwärtige arktische Eisbedeckung „ungewöhnlich gering“ ist, scheint es so, als ob die Eisbedeckung vor 6000 bis 8000 Jahren noch deutlich geringer war.

Zusammenfassung

Nach der Neu-Kalibrierung der Daten vor der Satelliten-Ära kommt zum Vorschein, dass das arktische Meereis alterniert hat zwischen Perioden mit Wachstum und Perioden mit Schrumpfung. Die Satellitenaufzeichnungen begannen zufällig am Ende von einer der Wachstumsperioden. Dies hat zu der irrigen Ansicht verleitet, dass der Eisrückgang nach 1978 ungewöhnlich ist.

Die Ergebnisse neuer Meereis-Proxys aus Ozean-Sedimentbohrkernen zeigen, dass die Eisausdehnung in der Arktis während der letzten 10.000 Jahre substantiell variiert hat. Sie zeigen außerdem, dass die arktische Eisausdehnung vor der Bronzezeit noch viel geringer war als heute.

Die gegenwärtigen globalen Klimamodelle sind nicht in der Lage, die beobachteten Änderungen des arktischen Meereises seit 1901 abzubilden. Daher dürften sie die natürliche Meereis-Variabilität erheblich unterschätzen.

Link: https://wattsupwiththat.com/2017/08/17/what-do-we-know-about-arctic-sea-ice-trends/

Übersetzt von Chris Frey EIKE




Verschiebt der Klimawandel Europas Hochwässer dramatisch?

Die Hochwasser in Europa kommen scheinbar nicht mehr pünktlich, wie im Kalender angegeben

TU Wien, Pressemeldung: [6] Der Klimawandel verschiebt Europas Hochwässer
Ein Zusammenhang zwischen dem Klimawandel und Hochwässern ist nun erstmals klar belegt. Eine von der TU Wien geleitete Studie zeigt: Der Zeitpunkt der Hochwässer verschiebt sich dramatisch.
… In einem internationalen Großprojekt, geleitet vom Hochwasserexperten Prof. Günter Blöschl von der TU Wien, wurden nun Datensätze aus 50 Jahren von über 4000 hydrometrischen Stationen aus 38 europäischen Ländern gesammelt und ausgewertet. Das Ergebnis: Der Klimawandel hat tatsächlich einen deutlichen Einfluss auf Hochwasserereignisse. Erkennen lässt sich das am besten daran, dass sich das Auftreten der Hochwässer über die Jahre zeitlich verschiebt. Je nach Ursache der Hochwasserereignisse treten sie in manchen Regionen immer früher auf, in anderen immer später …

Es lohnt sich, die Studie zu sichten, da sie (wieder) eines der typischen Beispiele ist, wie aus im Kern unbrauchbaren Daten durch statistische Kunstkniffe Abweichungen „generiert“ werden und das unspektakuläre Ergebnis dann medial aufgebauscht vermittelt wird.

 

Die Hochwasserpegel wurden bisher nicht höher und die Starkniederschläge ebenfalls nicht schlimmer

Wie unlängst in einer kleinen Sichtung anhand 100-jähriger Niederschlagsreihen gezeigt wurde, sind die Starkniederschlags-Streuungen unglaublich hoch. Es ist so „schlimm“, dass ist nicht einmal nach 100 Jahren sichere Trends belegbar sind. Vor allem jedoch: Eine Korrelation mit der steigenden Temperatur oder dem CO2-Eintrag zeigt sich definitiv nicht [4].

Zur Erinnerung dazu Niederschlags-Verläufe [4] einer von Starkniederschlag oft betroffenen Gegend: Einmal die Tageswerte und dazu die 7-Tageswerte, wie sie in der Studie [6] [7] ausgewertet wurden. Farblich hinterlegt ist das Jahr 1960, mit dem die Auswertungen der Studie beginnen.

Bild 1 Tagesniederschlag Annaburg (DWD-Station 170) von 1901 – 2017

Bild 2  7-Tages-Niederschlag Annaburg (DWD-Station 170) von 1901 – 2017

 

Historische Flutpegel sind verblüffend oft erheblich höher, als die seit dem „Klimawandel“. Es wird noch viele, viele Jahrzehnte dauern (falls es überhaupt so weit kommt), bis solche überhaupt wieder erreicht werden, von einer Erhöhung dann noch gar nicht zu reden.
Der Pegel des Mains (aber auch viele andere) sind dafür ein beredtes Beispiel. Im Jahr 2013 wurde in Würzburg das Afrikafestival überschwemmt, weil die Stadt der Veranstaltung ein Überflutungsgebiet zugewiesen hatte und musste abgebrochen werden. Zeitungen schrieben damals dazu, es wäre eine sichtbare Auswirkung des Klimawandels. Der Autor sagt anhand von Bild 3 dazu, es war eine sichtbare Auswirkung von Dummheit des städtischen Planungsamtes. Das städtische Amt, welches die Fläche zugewiesen hatte, hielt sich mit Äußerungen zurück.

Bild 3 Hochwassermarken des Mains bei Würzburg seit dem Mittelalter bis 2013 (Grafik vom Autor anhand der Hochwassermarken-Angaben erstellt)

Bild 4 Hochwassermarken Neckarsteinach vor dem Bistro „Stadtgarten“ Quelle: Historische Hochwassermarken

Bild 5 Hochwassermarken in Frankfurt a. M. Quelle: Historische Hochwassermarken

Bild 6 Elbe, Fließmengen seit 1850. Wert der Flut 2002 von 4.700 m3 nach vom Autor nach den Angaben in der Studie ergänzt. Quelle: MUDELSEE ET AL.: EXTREME FLOODS IN CENTRAL EUROPE

Das ist nicht nur in und um Deutschland herum so, sondern zum Beispiel auch in Schweden:
[9] … The results show that the changes in annual maximum daily flows in Sweden oscillate between dry and wet periods but exhibit no significant trend over the past 100 years.

 

Es muss aber doch ein (negativer) Klimawandeleinfluss zu finden sein

Den schlimmen Einfluss des Klimawandels zeigende „Belege“ müssen aber her. Und da es die Höhe und die Häufigkeit der Hochwasser nicht hergeben, muss es eben deren zeitliche Verschiebung sein. Scheinbar konnte man sich früher auf die Pünktlichkeit der Hochwässer verlassen und diese Pünktlichkeit scheint der Klimawandel nun „zerstört“ zu haben.
Damit der Nachweis gelang, wurde ein enormer (geförderter) Aufwand betrieben.

 

Jahrelange, mühevolle Arbeit, um zu erkennen, dass wenn der Schnee früher schmilzt, das Schmelzwasser auch früher im Flachland ankommt

Die durchführende TU Wien meldete stolz die (Klimawandel-negativen) Ergebnisse.
TU Wien, Pressemeldung: [6] … So wurden in jahrelanger, mühevoller Arbeit Hochwasserdaten aus ganz Europa zusammengesammelt, aufbereitet und mit Hilfe von Modellrechnungen analysiert. Dabei zeigte sich tatsächlich, dass sich die Hochwässer in Europa in den letzten 50 Jahren zeitlich ganz deutlich verschoben haben:
„Im Nordosten Europas, in Schweden, Finnland und im Baltikum kommen die Hochwässer heute um einen Monat früher als in den 60er und 70er Jahren. Damals traten sie durchschnittlich im April auf, heute im März“
, sagt Günter Blöschl. „Das liegt daran, dass der Schnee heute bereits früher schmilzt als damals.“ In England und Norddeutschland hingegen kommt das Hochwasser heute um etwa zwei Wochen später als damals .. An den Atlantikküsten Westeuropas führt der Klimawandel dazu, dass früher im Jahr das Maximum an Bodenfeuchte erreicht ist, und in Teilen der Mittelmeerküste führt die Erwärmung des Mittelmeers dazu, dass die Hochwasserereignisse immer später auftreten.

Diese Erkenntnis hat etwas an sich. Nun wissen von durch Schneeschmelzen-Hochwasser Betroffene endlich, warum solche früher auftreten.
Allerdings soll es doch weniger Schnee haben, so dass dadurch einmal die Ereignisse selbst und auch deren Höhe zurückgehen müssen. Und früher gab es viele besonders schlimme Schmelz-Hochwasser durch Eisstau im Fluss. Diese sind durch die Erwärmung (und veränderte Fließgeschwindigkeiten) fast völlig verschwunden. Alles Einflüsse, welche in der Studie keine Berücksichtigung finden, da sie weitgehend vor dem Untersuchungszeitraum lagen.

 

Ein Fleckerlteppich an differierenden Trends

So man will, lässt sich zu allem und überall ein kurzfristiger Trend als Korrelation berechnen und statistisch belegen, was ja auch Anlass für viele Witze ist. Warum soll das bei Hochwässern nicht so sein. Wenn man es, wie in der Studie [7] durchgeführt, kommen auch bei Hochwässern Trendrichtungen heraus, allerdings regional verteilt sehr unterschiedliche. Bild 7 aus der Studie zeigt diese: Blau: positive Zeitverschiebung (später), Braun: negative Zeitverschiebung (früher). Daraus kann man sich heraussuchen, welchen Trend man in Europa gerne möchte.

Bild 7 [7] Supplement, Fig. S3 (Teilbild) 7-day maximum precipitation (1960-2010), trend in timing; red indicates earlier precipitation, blue later precipitation (days per decade) (B).

 

Um den Trend-Fleckerlteppich zu beschönigen, wurden die „Trends“ etwas anders „eingefärbt“ (Bild 8) und von kleineren, leidlich „trendigen“ Regionsbereichen (den von Vierecken umschlossenen) Trendbilder erstellt (Bild 9).

Bild 8 [7] Supplement, Fig. S2 (Ausschnitt) Observed trends in flood timing 1960-2010, at individual hydrometric stations (points, n=3184) and interpolated trends (background pattern). Rectangles show selected subregions that were subject to a detailed regional analysis (Fig. 2).

So richtig „trendig“ sind aber selbst diese Regionen nicht. Stellt man sich die Unsicherheitsbereiche, welche (bestimmt nicht zufällig) nur mit +-0,5 Sigma (weniger Aussagekraft als ein Münzwurf) schraffiert wurden, mit den sonst üblichen, mindestens +-2 Sigma (95 %), eher sogar +-2,5 Sigma (99 %) vor, bleibt von einer „Trendsicherheit“ praktisch nichts mehr übrig.

Bild 8-2 [7] Fig. 2 Long-term temporal evolution of timing of floods and their drivers for six hotspots in Europe.
(A) Southern Sweden; (B) Baltics; (C) southwestern Norway; (D) southern England; (E) northwestern Iberia; (F) Adriatic coast. Solid lines show median timing over the entire hotspot; shaded bands indicate variability of timing within the year (±0.5 circular standard deviations). Green, timing of observed floods; purple, 7-day maximum precipitation; orange, snowmelt indicator; blue, timing of modeled maximum soil moisture. All data were subjected to a 10-year moving average filter. Vertical axes show month of the year (June to May).

 

Starkregenereignisse streuen ohne Klimawandel-Trend

Damit Überschwemmungen auftreten, muss es stark regnen. Als Starkregen gelten >30 mm Wassersäule pro Tag, also 30 Liter / m2. In [4] wurden anhand von Beispielen die extremen Streuungen von Starkregenereignissen gezeigt, anbei daraus (und zusätzliche) Darstellungen.
Im folgenden Bild ist die zeitliche Lage der Tage (Tag im Jahr), an denen Starkregen an der Messstation Annaburg auftrat. Es zeigt sich eine Zeit-Spanne von ca. 200 Tagen. Ein Trend ist nicht erkennbar und wäre bei der hohen Streuung auch aus dem über 100-jährigen Verlauf nicht signifikant zu ermitteln.


Bild 9 DWD-Messstation Annaburg, Sachsen-Anhalt (ID 170), Tag des Auftretens eines Starkregenereignisses von 1901 – 2017

Wenn man auf drei Tage Starkregen hintereinander verdichtet, werden die Ereignisse natürlich weniger. Jetzt könnte man im Verlauf von über 100 Jahren einen ganz schwachen Trend sehen. Ob dieser signifikant ist, bleibt fraglich.

Bild 10 DWD-Messstation Annaburg (ID 1176), Tag des Auftretens eines Starkregenereignisses von 1901 – 2017

 

Während die Messstation Annaburg so etwas wie einen Jahreszeiten-Bezug aufweist, zeigt eine Messstation in Württemberg, wie Teile dieses Bundeslandes von Starkregenereignissen geradezu malträtiert werden.

Bild 11 DWD-Messstation Eisenbach, Baden-Württemberg (ID 1176), Tag des Auftretens eines Starkregenereignisses von 1901 – 2017

Verdichtet man die Ereignisse ebenfalls und nimmt wieder nur die, wenn es drei Tage lang ununterbrochen Starkregen gab, ändert sich zwar die Anzahl, aber nicht die zeitliche Auftretenswahrscheinlichkeit über das gesamte Jahr. In Verbindung mit dem Bild 13, welches die 4-Tage-Starkregen-Ereignisse zeigt, wird klar, dass es keinen Trend, sondern ein chaotisches Verhalten gibt.

Bild 12 DWD-Messstation Eisenbach, Baden-Württemberg (ID 1176). Ereignistage von 3 Tagen hintereinander auftretendem Starkregen zwischen 1901 – 2017

 

Bild 13 DWD-Messstation Eisenbach, Baden-Württemberg (ID 1176), Ereignistage von 4 Tagen hintereinander auftretendem Starkregen zwischen 1901 – 2017

 

So hat es auch ein Redakteur DER WELT einmal erkannt und in einem Artikel beschrieben.
ZEIT ONLINE: … Die Grafik zeigt alle Starkregen-Ereignisse seit 1960; jeder der 44.005 Punkte ist eine solche Messung. Einen Trend kann man daraus nicht ablesen. Es gab weder häufiger noch seltener Starkregen in den vergangenen fünfeinhalb Jahrzehnten.
… Könnte alles nur Zufall sein? Könnte es. Statistisch wird man das erst nachweisen können, wenn man bessere Daten – etwa aus den Satellitenaufnahmen – über einen sehr langen Zeitraum auswertet. Und damit meinen Klimaforscher Jahrhunderte …

Bild 14 Deutschland, alle Starkregenereignisse seit 1960 – ca. 2015. Quelle: ZEIT ONLINE, 3. Juni 2016: Was ist starker Regen

 

Was der Autor in DER WELT schrieb, klingt zu vernünftig und widerspricht auch der Doktrin. Deshalb durfte es so natürlich nicht stehen bleiben. Mit einer Dialektik, welche mittelalterlichen Scholastikern zur Ehre gereicht hätte, wurde das Manko gerade gebogen, indem erklärt wird, dass gerade, weil man es nicht belegen kann, es ein Beleg wird, indem man sich darüber eben einigt:
ZEIT ONLINE: … Meteorologe Becker …  „Der fehlende Messnachweis eines Ereignisses stellt keinen sicheren Beweis für die Abwesenheit des Ereignisses oder Trends dar. Außerdem lägen aus der Zeit zu Beginn der Industrialisierung nicht so gute und umfassende Daten vor.
Der Zeitraum, seit dem es Wetteraufzeichnungen gibt, ist einfach zu kurz, um diesen Zusammenhang zu beweisen, sagt auch der DWD selbst. Trotzdem sind sich die meisten Meteorologen einig, dass die globale Erwärmung zu mehr extremen Wetterereignissen und damit auch zu häufigerem und intensiverem Starkregen führt. Und zwar auch in Deutschland.

 

Warum untersucht die Studie nur sieben Tage-Ereignisse?

In der Studie wird eine Flut erst nach 7 Tagen mit starkem Niederschlag angenommen. Gerade die jüngeren Überflutungsereignisse in Deutschland, bei denen viele kleinere Flüsse und Bäche über die Ufer traten und in Städten und Dörfern massivste Schäden anrichteten, geschahen aber spätestens mit dem zweiten Starkregentag.
Doch ist offensichtlich, warum nur die Ereignisse über viele Tage verwendet werden konnten. Wie die Bilder 10, 12, 13 zeigen, kommt man erst dann zu „auswertbaren“ Häufigkeitsbildern.

Dass diese Einschränkung rein „ergebnisorientiert“ und nicht „problemorientiert“ begründet ist, zeigt ein gerade erschienener Artikel sehr schön. Die jüngeren Flutschäden wurden vorwiegend durch kurzfristige Starkniederschläge verursacht:
Bayerische Staatszeitung BSZ, 18.07.2017: Weniger Schäden durch Naturkatastrophen Im ersten Halbjahr ging es auf dem Planeten vergleichsweise ruhig zu, … Hochwasserschäden haben stark abgenommen.
„So haben etwa die Hochwasserschäden an Flüssen stark abgenommen. Das liegt an verbessertem Hochwasserschutz.“ Auf der anderen Seite gebe es einen signifikanten Anstieg der Schäden durch Gewitterereignisse. „Gegen Gewitter kann man sich nicht so gut schützen wie gegen Flussüberschwemmungen, gegen materielle Schäden durch starke Tornados kann man eigentlich gar nichts tun“, sagte Höppe.
In Deutschland hätten Ereignisse wie die schweren Gewitter in Braunsbach und Simbach 2016 und zuletzt in Berlin und Umland hohe Schäden verursacht. „Für diese Entwicklung gibt es auch eine Erklärung, nämlich den Anstieg des Feuchtegehalts der Erdatmosphäre. Das ist ein klares Anzeichen des Klimawandels.“

Auch zeigt der Artikel auf, dass Herr Höppe hier bewusst (er weiß es als Fachmann ganz sicher besser) den leider gängigen Unsinn: Mehr Wärme = mehr Starkregen, erzählt. Denn die Starkregen von Simbach, Braunsbach und diesem Juli (wozu das in Berlin zählt), ereigneten sich nach kühlen Tagen und taugen keinesfalls als „Anzeichen des Klimawandels“, wie der Autor extra nachgeprüft und in mehreren EIKE-Artikeln dazu berichtet hat [4] [10] [11].

 

In der ersehnten, vorindustriellen Zeit war es nicht besser

Die Studie behauptet, mit einer Trendanalyse, beginnend im Jahr 1960 könnte man bei durch Niederschläge initiierten Ereignissen signifikante Trends ermitteln. Wie das (außer bei Schneeschmelze-bedingten Ereignissen) gelingen soll, bleibt dem Autor ein Rätsel. Zudem bliebe dann immer noch die Frage offen, ob es solche Trends nicht auch schon früher gab (was in der Studie nicht untersucht wurde), und sie damit (falls sie vorhanden wären) überhaupt Klimawandel-bedingt sein müssen.
Denn natürlich schwankten die Ereigniszeiten auch früher beträchtlich, (Bilder 3 … 6) und als Beispiel:
Dionysius-Kirche in Asselt, 5 km nördlich von Roermond (NL). Datum der Hochwasserereignisse, in bezüglich der Pegelhöhe absteigender Reihenfolge:
2.1.1926; 13.1.1995; 24.12.1993; 14.12.1880; 16.1.1920; 2.2.1981; 16.10.1924; 15.2.1984; 14.1.1992; 23.7.1980; 26.7.1879.
Die Ereignis-Spanne reicht vom Oktober über den Winter bis zum Juli, also über mehr als ein halbes Jahr.

 

Wenn man nicht genau weiß, zu welchem Datum das nächste Hochwasser kommt, kann man doch nicht planen

Wie die Menschheit die vielen Jahrtausende bis zur heutigen Zeit überleben konnte, wird immer mehr zum Rätsel. Man könnte gerade meinen, es gab vor dem Klimawandel nur stabiles, streng nach dem Kalender verlaufendes Wetter und Regen und Sonnenschein erschienen immer pünktlich. Weil dies (angeblich) wegen des Klimawandels nicht mehr so sein soll, hat der moderne Mensch – beziehungsweise die GRÜNEN, denen alles (von ihnen) Ungeplante ein Gräuel ist – nun jedoch massive Probleme.
Studie: [7] … If the trends in flood timing continue, considerable economic and environmental consequences may arise, because societies and ecosystems have adapted to the average within-year timing of floods. Later winter floods in catchments around the North Sea, for example, would lead to softer ground for spring farming operations, higher soil compaction, enhanced erosion, and direct crop damage, thereby reducing agricultural productivity. Spring floods occurring earlier in the season in northeastern Europe may limit the replenishment of reservoirs if managers expect later floods that never arrive, with substantial reductions in water supply, irrigation, and hydropower generation. Our flood timing observations at the continental scale also enable the identification of a clear climate change signal that could not be obtained by earlier studies based on flood magnitude data

Extrakt: … Wenn sich die Trends der zeitlichen Verschieben der Fluten fortsetzen, können erhebliche ökonomische und ökologische Konsequenzen entstehen, weil sich Gesellschaften und Ökosysteme an den durchschnittlichen Jahreszeitplan der Überschwemmungen angepasst haben.

 

Das zeitliche Auftreten in Deutschland schwankt innerhalb weniger Jahrzehnte um 100 … 200 … 360 Tage. Ausgesuchte Gegenden in Europa schwanken innerhalb von 50 Jahren um – 65 … + 45 Tage, ein dramatisches Ergebnis?

Studie: [7]: … Our data show a clear shift in the timing of floods in Europe during the past 50 years (Fig. 1). The regionally interpolated trend patterns shown in Fig. 1 range from –13 days per decade toward earlier floods to +9 days toward later floods, which translates into total shifts of –65 and +45 days, respectively, of linear trends over the entire 50-year period

Durch die selektive Zeitauswahl der Studie konnten über Europa Trends „berechnet“ werden und diese werden als „dramatisch“ dargestellt.

Betrachtet man das Thema etwas globaler und bezieht auch andere Ereigniszeiten mit ein, verschwindet das Ergebnis in den Streuungen, wie es in der Studie auch im Ansatz gelistet ist:
Studie: [7] … where 81% of the stations show a shift toward earlier floods (50% of the stations by more than –8 days per 50 years) …
… there is a shift toward later floods (50% of the stations by more than +5 days per 50 years) …

 

Wie formulierte es der für die Schadenstatistik Verantwortliche von Munich Re so herrlich:
BSZ, 18.07.2017: … Skeptiker des Klimawandels führen als Argument häufig ins Feld, die Schäden durch Naturkatastrophen seien nicht gestiegen. …
Höppe tritt dem entgegen: … „Wenn man sämtliche Naturkatastrophen in einen Topf wirft, haben wir nach dieser Berechnung zunächst tatsächlich keinen Anstieg der Schäden. Doch wenn man das etwas differenzierter betrachtet, sieht man, dass dies teilweise an Präventionsmaßnahmen liegt“, … „So haben etwa die Hochwasserschäden an Flüssen stark abgenommen. Das liegt an verbessertem Hochwasserschutz.“ Auf der anderen Seite gebe es einen signifikanten Anstieg der Schäden durch Gewitterereignisse.
Ausgerechnet die Gewitterereignisse hat die Studie nicht untersucht, dafür die Hochwässer, welche „keinen Anstieg an Schäden zeigen“. Ein guter, zusätzlicher Beleg, dass die Studie nicht nach Gefahren, sondern nach Klimawandel-„Belegen“ gesucht hat.

 

Der Klimawandel verursacht in jedem Fall Kosten

Wenn ein Herr Höppe dazu meint:
… Höppes Fazit: „Der Klimawandel verursacht in jedem Fall Kosten – entweder durch die erhöhten Präventionskosten oder durch Schäden, wenn die Vorsorge unterblieben oder nicht möglich ist.“
hat er sogar recht. Das ist seit Jahrtausenden so, seit man begann, sich gegen Wetterunbilden zu schützen. Was sich über Zeiträume aber verändert hat, ist die Effektivität der Maßnahmen.

Im Mittelalter glaubte man falschen Entstehungstheorien und gab das Geld zur Prävention damit völlig unwirksam für immer größere Kathedralen und einen sich immer weiter aufblähenden Kirchenstaat aus. Mit Beginn der Neuzeit dachte man tiefgehender nach, erfasste die physikalischen Hintergründe und begann, das Geld für wirkliche Lösungen auszugeben. Aktuell glaubt man wieder einer falschen Entstehungstheorie und gibt das Geld lieber vollkommen wirkungslos für die Ökokirche (CO2-Verhinderung) aus, als die direkte Schadensabwehr zu finanzieren. Das ist aber nicht Schuld des „Klimawandels“, sondern der tiefen Gläubigkeit gegenüber Öko-Heilsbringern, wie sie leider auch bei den zuständigen Politiker*innen zu finden ist:
EIKE: Klimawandel-Statements von Umweltministerin Frau Hendricks und UBA Chefin Krautzberger

Dazu abschließend noch Daten aus der Datenbank der Münchner Rückversicherung. Leider schneidet der Viewer (für den interessierten Bürger) die vorhandenen, alten Daten ab. Der Autor behauptet böswillig, damit man nicht so deutlich sieht, wie „schlimme Daten“ früher noch schlimmer waren. Aber auch so erkennt man, dass ein „Klimawandel“ – und damit das anthropogenen CO2 – keinen sich stetig verschlimmernden Einfluss haben kann, wie immer „ermittelt“ und berichtet wird.

Bild 15 Flutereignisse Europa von 1980 … 2016. Schäden. Quelle: MuRe Schadensdatenbank NatCat-Viewer

Bild 16 Flutereignisse Europa von 1980 … 2016. Anzahl. Quelle: MuRe Schadensdatenbank NatCat-Viewer

Für Fördermittel publizieren wir jedes gewünschte Ergebnis

Man wird den Verdacht nicht los, dass für das viele Geld und Personal, welches für die Studie bereitgestellt wurde, unbedingt ein (klimaalarmistisches) Ergebnis veröffentlicht werden musste.
Regelmäßige EIKE-Leser ahnen, welches Portal für (Des-)Information zu Klima und EEG die Pressemitteilung vollkommen kritiklos übernahm:
KLIMARETTER.INFO, 14. August 2017: Klimawandel verschiebt Hochwasser

 

Quellen

[1]
EIKE 31.07.2017: G20 Klimafakten ohne Hysterie betrachtet Teil 4 (4)

[2]
EIKE 10.05.2017: Die Volkshochschule Hannover und ihre Ausstellung: Wir alle sind Zeugen – Menschen im Klimawandel

[3]
EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

[4]
EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels

[5]
EIKE 14.09.2016: Frau Hendricks glaubt im Klimawahn, Klimapäpstin geworden zu sein und den Irrglauben ihrer Bürger verdammen zu dürfen Zu ihrem Gastbeitrag „Weit verbreiteter Irrglaube“ im Handelsblatt

[6]
Technische Universität Wien, 2017-08-1, Pressemeldung: Der Klimawandel verschiebt Europas Hochwässer

[7]
Günter Blöschl at al., 11. August 2017: Changing climate shifts timing of European floods

[8]
WEB-Seite: Historische Hochwassermarken

[9]
Swedish Meteorological and Hydrological Institute, 601 76 Norrköping, B. Arheimer and G. Lindström, 04 Feb 2015: Climate impact on floods: changes in high flows in Sweden in the past and the future (1911–2100)

[10]
EIKE 14.06.2017: Fake News: Diesmal Pfingstunwetter um Hildesheim – neue Einschläge des Klimawandels?

[11]
EIKE 06.07.2016 : Das Unwetter bei Simbach am Inn – Ein Nachtrag zur Debatte im Bayerischen Landtag

 




POLITISCHE BILANZ: Nicht „ob“, sondern „wie schnell“

Die globale Energiewende nach dem Abkommen von Paris

Dr. Barbara Hendricks: Energieversorgung und Klimaschutz, das sind zwei Themen, die nicht mehr getrennt voneinander gedacht und behandelt werden können. Und zwar im globalen Maßstab. Für mich als Bundesministerin für Umwelt, Naturschutz, Bau und Reaktorsicherheit steht das Thema der globalen Energieversorgung ganz zwangsläufig in einem Wechselverhältnis mit effektivem Klimaschutz. Der weltweite Energiebedarf muss schon in naher Zukunft möglichst nachhaltig und klimafreundlich gedeckt werden. Daran kann es keinen vernünftigen Zweifel mehr geben.
Wir wissen, dass eine auf fossilen Energieträgern beruhende Energieversorgung und die damit einhergehende globale Erwärmung unsere natürlichen Lebensgrundlagen gefährden, angefangen bei der individuellen Gesundheit bis hin zur internationalen Sicherheit. Hier gegenzusteuern, ist keine Frage des Ob, sondern vor allem eine Frage des Wie und des Wie-schnell.
Wir müssen Antworten auf die zentrale Frage geben, wie sich der nötige Strukturwandel auf dem Weg zu einer nachhaltigen und CO2-freien Energieversorgung sozialverträglich für alle steuern lässt. Die Grundlagen sind bereits gelegt: Das Pariser Klimaschutzabkommen markiert einen irreversiblen Wendepunkt und ist ein klares Bekenntnis der Weltgemeinschaft hin zu einer treibhausgasneutralen Wirtschafts- und Lebensweise in diesem Jahrhundert. Das Abkommen ist auch deshalb so bedeutsam, weil es ein unmissverständliches Signal zum Umsteuern an die gesamte Weltwirtschaft und an die Finanzmärkte ausgesandt hat. Die Finanzmärkte sollen ihre Portfolios an den Notwendigkeiten einer dekarbonisierten Weltwirtschaft ausrichten. Andernfalls laufen sie Gefahr, in „stranded assets“ zu investieren.

Klimaschutz verursacht aber nicht nur Kosten, sondern ist schon heute vor allem ein Wachstumsmotor. Der Umstieg auf die Erneuerbaren ist ein großes Modernisierungsprogramm für unsere Volkswirtschaften, ein Treiber für Innovationen und Beschäftigung. Damit einher geht aber auch die Verantwortung, dass wir diese Modernisierung sozial gerecht gestalten müssen – bei uns und im globalen Maßstab. Es geht um eine sogenannte just transition.
In Deutschland haben wir beispielsweise bei der Erarbeitung des „Klimaschutzplans 2050“, der deutschen Klimaschutzlangfriststrategie, von Anfang an einen breiten Dialogprozess ermöglicht, um größtmögliche Transparenz durch Beteiligung sicherzustellen. Für mich war von Anfang an wichtig, dass Klimaschutz kein Elitenprojekt sein darf und deshalb möglichst von der gesamten Gesellschaft getragen werden muss. Dieser Ansatz gilt natürlich auch international. Wir werden den Kampf gegen die Erderwärmung und ihre Folgen nicht gewinnen, wenn wir bestehende Ungerechtigkeiten zementieren, und schon gar nicht, wenn wir neue Ungerechtigkeiten zulassen.

Für die künftige internationale Energieversorgung bedeutet dies, dass wir als Industrieländer die Entwicklungs- und Schwellenländer partnerschaftlich darin unterstützen müssen, alternative Energiequellen zu Kohle, Öl und Gas zu nutzen. Es muss unser gemeinsames Interesse sein, dass wir alle gemeinsam einen Pfad der wirtschaftlichen Entwicklung einschlagen, der Rücksicht auf die Belastungsgrenzen der Umwelt nimmt.
Die deutsche Bundesregierung steht in diesem Zusammenhang fest zu ihrer Zusage, den Beitrag zur internationalen Klimafinanzierung bis 2020 zu verdoppeln. So hat mein Ministerium beispielsweise mit der Internationalen Klimaschutzinitiative im Zeitraum zwischen 2008 und 2016 Maßnahmen zur nachhaltigen Energieversorgung mit rund 237 Millionen Euro gefördert und so die Energiewende in unseren Partnerländern unterstützt. Damit zeigen wir, was möglich ist, wenn wir Energieversorgung und Klimaschutz konsequent zusammen denken.

Quelle: Friedrich­Ebert­Stiftung, info 02/2017 Rückenwind für die Energiewende, Kommunikation und Grundsatzfragen

 

Barbara Hendricks trifft Aktivisten, ihren Messias und macht Werbung für dessen neuen Film

Quelle: BMUB Homepage

Bild Barbara Hendricks und Al Gore (Ausschnitt). Quelle: BMUB Homepage, Arne Wichmann

BMUB Pressemitteilung Klimaschutz

BMUB, 08.08.2017 Pressemitteilung: Heute Abend findet in Berlin die Vorpremiere des Films „Immer noch eine unbequeme Wahrheit – unsere Zeit läuft*“ des ehemaligen US-Vizepräsidenten und Filmemachers Al Gore statt.
Anschließend diskutiert Bundesumweltministerin Barbara Hendricks mit Al Gore, dem Filmemacher und Umweltaktivisten Hannes Jaenicke und WWF-Vorstand Eberhard Brandes über den Kampf gegen den Klimawandel. Der Regisseur Volker Schlöndorff wird zudem über das Thema Film und Verantwortung reden.

Hendricks: „Seit 2014 haben wir drei Temperaturrekorde in Folge registriert – das gab es noch nie seit Beginn der Wetteraufzeichnung. Seit den 1960er Jahren war jede Dekade wärmer als die vorherige. Und für das laufende Jahrzehnt deutet alles darauf hin, dass es wieder einen neuen Höchststand geben wird. Auch Deutschland muss sich auf die Konsequenzen des Klimawandels einstellen.
Zur Wahrheit, um die es ja auch im zweiten Film von Al Gore geht, gehört, dass wir Dinge nicht weiter auf die lange Bank schieben können. Das bedeutet: Wir müssen weg von Öl, Kohle und fossilem Gas bis zur Mitte des Jahrhunderts. In Deutschland werden wir dazu im nächsten Jahr einen Pfad für den schrittweisen und sozialverträglichen Ausstieg aus der Kohleverstromung verabreden.
Das zweite große Thema ist der Abschied vom Öl im Verkehrssektor. In Deutschland hat der Verkehr seit 1990 nichts zur Minderung der Treibhausgase beigetragen. Aktuelle Zahlen deuten darauf hin, dass die Treibhausgase aus dem Verkehr in diesem Jahr sogar steigen werden. Das ist das vollständige Versagen der Verkehrspolitik beim Klimaschutz. Darum brauchen wir jetzt schnell eine echte Verkehrswende.“
Quelle: BMUB Homepage 08.08.2017, Pressemitteilung Nr. 275/17 Klimaschutz

*Kleine Rezension zum Film: Achgut: Al Gott vom Planeten Ich
Artikel, welche die fachliche Qualität von Frau Hendricks beleuchten:
EIKE 20.07.2017: Randalen von Atomfrontkämpfern werden von Frau Hendricks ausdrücklich als „Freunde des Staates und der Gesellschaft“ gelobt
EIKE 27.03.2017: Nee, bei uns gibt´s keine Klimaleugner
EIKE 08.03.2017: In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht Klimaschutz Mut

 

Wer hofft, es gäbe in Deutschlands politischer Landschaft vielleicht doch noch eine Ideologie-freie Zone, in welcher noch Fakten abwägend Berücksichtigung finden, wird leider enttäuscht. Die Chefin der neben dem Umweltministerium wohl zweitwichtigsten Behörde steht Frau Hendricks an tiefster Ökogläubigkeit nicht nach. Sie huldigt (in Ihrer Rede) dem nach Al Gore weltweit zweiten Klimaguru, Herrn Schellnhuber bedingungslos, von kritischer Reflexion keine Spur. Und sie ist überzeugt, dass Klimaskepsis rechtsradikal ist.
Das wäre als Meinung einer privaten Einzelperson nicht schlimm, dass es aber von einer UBA-Präsidentin auf einer Podiumsdiskussion ohne Kritik verkündet werden kann, zeigt den mehr als desolaten Zustand der Klimadiskussion in Deutschland.

 

Begrüßungsrede von Maria Krautzberger, Präsidentin des Umweltbundesamtes, anlässlich der Podiumsdiskussion „Selbstverbrennung oder Transformation

am 15. Juli 2016, in der Akademie der Künste, Berlin

… meine Damen und Herren,
die Akademie der Künste ist für das Umweltbundesamt (UBA) eher ungewohntes Terrain. Umso mehr freue ich mich, dass es gelungen ist, diese Veranstaltung gemeinsam zu organisieren! Und noch dazu mit einem Thema, das aus unserer Sicht das wichtigste Thema dieses Jahrhunderts ist: der Klimawandel. 
Der Klimawandel sollte, muss uns alle alarmieren. Aber wir haben immer noch das Problem, dass die Ergebnisse der Klimawissenschaftler nicht überall und nicht in gleicher Weise ernst genommen werden. Dabei gibt es große politische Erfolge: das Paris Abkommen oder die Erklärungen des G 7- und des G 20-Gipfels. 
Dennoch: Es bewegt sich weltweit noch zu wenig; die notwendigen politischen Entscheidungen lassen immer noch auf sich warten. Wir brauchen sie dringend, um die Welt vor den dramatischen Folgen des Klimawandels zu bewahren.
Daher kann man zu Recht, wie es im Titel der Veranstaltung heute heißt, von einer Klimakrise sprechen.

Die „ZEIT“ hat kürzlich in einem Dossier mit der Überschrift „Morgen vielleicht“ die Frage beleuchtet: Wie kann es sein, dass alle – Wissenschaftler, Politiker, breite Teile der Gesellschaft  über die Erderwärmung wissen, dass seit Jahren viele, fast alle, das Klima retten wollen – und es dennoch so schwer ist, das Problem zu lösen? Liegt das an der Natur der Menschen?
Es gibt dafür viele Gründe. Und die Frage, warum das so ist beschäftigt uns natürlich auch im UBA sehr. 
Sicher spielt die Komplexität des Klimawandels eine Rolle, auch die oft fehlende, unmittelbare Betroffenheit – jedenfalls in unseren Breiten. Der Klimawandel erscheint  – als eine Gefahr, die wir nicht unmittelbar erleben,  – als eine Gefahr, die weit weg zu liegen scheint – irgendwo in der Zukunft und – als ein Phänomen, das auf den ersten Blick zwar eindeutige Opfer, aber viele, viele Täter hat – so dass es schwer ist, die Verursacher konkret und einfach zu beschreiben. Wir gehören hier ja letztlich alle irgendwie zu der Tätergemeinde.

Daneben gibt es auch immer noch die so genannten KlimaSkeptiker. Sie vertreten unter dem Anschein von Wissenschaftlichkeit die Meinung, dass der Mensch gar keine Rolle spielt beim Klimawandel. Alles sei natürlich. Klimaänderungen habe es schon immer gegeben. Somit sei es irrelevant, wie sich der Mensch verhält. Es gehe darum, sich einfach nur auf die Klimaveränderungen einzustellen.  

Der letzte Punkt ist ja richtig. Wir müssen uns auf den Klimawandel einstellen, weltweit. Aber die Wissenschaft hat klar belegt, dass der Mensch den Klimawandel durch den Ausstoß von Treibhausgasen entscheidend verursacht und beeinflusst. Alle hier wissen das. Aber ich fürchte, wir müssen uns auf neue Debatten darüber einrichten, wenn ich die Argumentation der Rechtspopulisten in Europa – und in der Welt – verfolge.
Wir dürfen uns nicht nur auf den Klimawandel einstellen. Vor allem müssen wir ihn begrenzen! Gelingt uns das nicht, dann drohen uns nach allem, was wir heute wissen, apokalyptische Zustände! 

Da wir Menschen die zentrale Rolle beim Klimawandel und Klimaschutz spielen, liegt es nahe, diese Themen in verschiedensten gesellschaftlichen Feldern, gerade auch in der Kultur, zu reflektieren. Die Ursachen der Klimaveränderung sind ja konkrete Folgen unserer neuzeitlichen Lebenswelt: Unser anthropozentrisches Welt- und Menschenbild, unsere Ökonomie bestimmen bekanntlich den Umgang mit der Natur, mit unseren Lebensgrundlagen. 

„Selbstverbrennung“ – so hat Hans Joachim Schellnhuber seinen großen Beitrag zum Verhältnis von Klima, Mensch und Kohlenstoff genannt. Er findet sich im Titel dieser Veranstaltung, auch weil er ursprünglich selbst dabei sein wollte. Der Begriff beschreibt – wie auch sein Buch –, wie wir Menschen uns selbst die Zukunft nehmen. 
Dabei hat das alles erst vor kurzer Zeit begonnen: Die industriell-fossile Revolution hat in knapp 200 Jahren unseren Alltag, die Produktionsweisen und auch unser Denken komplett verändert. So gründlich, dass sich viele Menschen keine andere Art zu leben oder zu wirtschaften mehr vorstellen können.
Wir wissen schon länger, dass diese Entwicklung unsere Ökosysteme an die planetaren Belastungsgrenzen gebracht hat. Nicht nur in Bezug auf das Klima. Die Grundlagen unseres Wohlstands sind damit bedroht. Wir leben auf Kosten kommender Generationen. Die Erde ist dabei, sich grundlegend zu verändern.
Schon heute sind manche Schäden deutlich sichtbar. Dürren, Überflutungen, Wetterextreme oder das Abschmelzen der Gletscher. Sie kennen diese Bilder.
Schreckensszenarien dürfen und sollten uns aber nicht alleine motivieren, Dinge zu verändern. Wir brauchen auch positive Visionen. Diese positiven Zukunftsbilder können auf vielerlei Weise entstehen. Kunst und Kultur spielen dabei auf jeden Fall eine zentrale Rolle! 

Kulturpolitik ist ja auch Gesellschaftspolitik. Sie steht für Lebensstile, Werte und Überzeugungen. Kunst und Kultur können Identität erzeugen, Orientierung bieten oder gar Sinn stiften. Sie können gesellschaftliche Herausforderungen reflektieren und Transformationsprozesse anstoßen, zumindest aber begleiten. Und vielleicht die Frage beantworten, wie wir diejenigen erreichen, die bislang gar nicht am Klimawandel interessiert sind; wie wir das Problem adäquat benennen und öffentlich zur Debatte stellen. Das ist wichtiger denn je. 

Kunstschaffende wie Michael Sailstorfer oder Tomàs Saraceno können uns den Kopf und die Sinne öffnen und zeigen, welche Schönheiten unser Planet bietet. 
Beide haben – und darüber freue ich mich – für diese Veranstaltung zwei Videoarbeiten beigesteuert. Diese werden wir gleich im Anschluss sehen. 
Übrigens: Michael Sailstorfer wird im nächsten Jahr ein Kunst am-Bau-Projekt für den Erweiterungsbau des Umweltbundesamtes in Dessau realisieren. Darauf freuen wir uns alle sehr.
Meine Damen und Herren, 
wir brauchen viele Verbündete, um unsere Erde vor der Selbstverbrennung zu retten. Und immer wieder Koalitionen, wie die so wichtige und auch bewährte Koalition zwischen Wissenschaft und Kunst. Daher freue ich sehr, dass wir uns heute hier – in der Akademie der Künste mit ihrer langen Geschichte – darin üben können diesen Diskurs zu führen ….  

 

Es gibt nur noch eine zulässige Meinung – wer diese auch glaubt, steigt auf

Wie total es unserer Kanzlerin gelungen ist, dazu eine feste, politische Einheitsmeinung herzustellen, zeigte jüngst auch das Entwicklungshilfe-Ministerium:
EIKE, 26.06.2017: Das globale Klimami(ni)sterium des Entwicklungsministers Müller
und die gelisteten Publizierungen bestätigen, was (nicht nur) Herr Dr. Koelle gerade auf EIKE beschrieben hat.
EIKE, Dr. Koelle, 17.08.2017: Die unheimliche Allianz von Politikern und Klimatologen

Wenn für Arbeitsplätze und den Staatshaushalt lebenswichtige Industrien von der Politik Zugeständnisse erfahren, treten NGOs in Deutschland die Hölle los und maßen sich an, über den Staat bestimmen zu dürfen. Wenn sich Spitzenpolitiker*innen offen als tiefgläubige Anhänger von Klimawandel-Gurus und deren teils abstrusen Thesen bekennen und Kritik daran öffentlich ausschalten, opponiert in Deutschland niemand (außer kleine Häuflein in wenigen, kritischen Blogs).