1

Die Eisheiligen werden immer kälter

Anlass dieser Frage ist die Behauptung des Vorstandes des Deutschen Wetterdienstes (DWD), Andreas Friedrich in der Osnabrücker Zeitung am 21.April 2016: „…In den vergangenen Jahren haben sich die Eisheiligen eher rar gemacht“. Meteorologe Andreas Friedrich vom Deutschen Wetterdienst stellt fest: „In den letzten Jahren zeigten sich diese Kaltlufteinbrüche im Mai weniger…“

Schon im letzten Jahr hatte Vorstand Friedrich im „Focus“ ähnliches behauptet: http://www.focus.de/panorama/wetter-aktuell/wetter-aktuell-kein-frost-im-mai-meteorologen-erwarten-heissheilige_id_4665149.html . Durch die Focus-Redakteure wurden die Eisheiligen 2015 einfach zu Heißheiligen gemacht.

Wissenschaftliche Betrachtung der Erwärmungsbehauptungen:

Zunächst sei die Frage erlaubt, was heißt Gegenwart, was heißt in den letzten Jahren? Für den folgenden Artikel definiere ich „Gegenwart“ deshalb selbst: Ab 1998 setzten verstärkt die Katastrophenmeldungen und Vorhersagen über eine unheilvolle Erderwärmung aufgrund eines angeblichen Treibhauseffektes ein. Deshalb werde ich zukünftig solche nichtsagenden Zeitungsangaben naturwissenschaftlich ungebildeter Redakteure wie „in jüngster Zeit“ oder „die letzten Jahre“ oder „in der Gegenwart“ immer das Jahr 1998 als Ausgang für die Betrachtung ansetzen.

Und da Meteorologen 30 Jahre als Klimaeinheit definierten, soll auch dieser Zeitraum untersucht werden. Beginnen wollen wir aber mit 50 Jahren, einem recht langen Betrachtungszeitraum.

Die Eisheiligen als (angebliches) eindeutiges Indiz der Klimaerwärmung

Wir haben uns die Daten der Klimastation Potsdam für die letzten 50 Jahre besorgt, also von 1966 bis 2016. Im folgenden Diagramm sind die 5 Eisheiligentage (11. – 15. Mai) aus der Langzeitreihe der Klimastation von Potsdam (PIK Potsdam) mit Tageswerten extrahiert und die fünf Tage im Schnitt dargestellt. Und dieses Jahr 2016 waren die Eisheiligen in Potsdam mit 14,3 C im Mittel um einiges wärmer als letztes Jahr (12,9 C), was sicherlich mit der Lage von Potsdam zu tun hat. Denn die Maiabkühlung mit Regen erfolgte diesmal aus dem Südwesten und erreiche Potsdam später. Schon 200 km weiter südlich bei der Station Holzhau im Erzgebirge betrug der Eisheiligenschnitt 2016 etwa 10C und war damit kälter als ein Jahr zuvor. http://www.wetterstation-holzhau.de/wetter-holzhau-eisheilige.html

Die letzten 50 Jahre Eisheiligen in Potsdam:

Wir greifen trotzdem auf Potsdam zurück, da uns die Daten über einen längeren Zeitraum vorliegen. Wir beginnen mit dem Jahre 1966. Die Überraschung ist groß: Die Eisheiligen zeigen einen signifikanten Trend von – 0,5K innerhalb dieser 50 Jahre. ein halbes Grad Abkühlung in 50 Jahren ist das Gegenteil einer Erwärmung, und das Gegenteil eines Ausfalls der Eisheiligen. Die wärmsten Eisheiligen waren im Jahre 1968 mit 19,6C, das waren damals Sommerheilige mitten im Mai. Noch wärmer waren die Eisheiligen 1945 direkt nach Kriegsende in Berlin-Potsdam. Bei 20,8C erfreute man sich unmittelbar nach dem Waffenstillstand an hochsommerlichen Badetemperaturen in Berlin-Potsdam.

Abb. 1. Über die letzten 50 Jahre zeigen die Eisheiligen innerhalb des Mai-Monates einen negativen Trend, die fünf Tage wurden eindeutig kälter und nicht wärmer. Es sei noch darauf hingewiesen, dass kurz nach dem Start des Betrachtungszeitraumes ab 1971 neun kalte Eisheiligenjahre folgten, welche die Trendlinie anfangs nach unten drückten.

Diese Daten sind außerdem nicht wärmeinselbereinigt, ab 20 Jahre rückwirkender Betrachtung müsste man vor allem bei Städten wie Potsdam eine WI-Bereinigung vornehmen. Wir haben darauf verzichtet, da die weiteren Aussagen auch bereits ohne WI-Bereinigung eindeutig sind. Allerdings ist anzumerken, dass in der freien Fläche Deutschlands, die fallende 50 Jahres-Trendlinie noch stärker wäre, die Eisheiligen also stärker kühlend auf die Vegetation einwirken als die Trendlinie angibt. (siehe letzte Abbildung)

Ergebnis 1: In den letzten 50 Jahren wurden die Eisheiligen kälter und nicht wärmer.

Zweiter Betrachtungszeitraum: Die Eisheiligen ab 1985

Beim nächsten Betrachtungsabschnitt nehmen wir die Daten der Klimastation Potsdam ab 1985, damit sind die 30 Jahre als kleinste Klima-Betrachtungseinheit erfüllt. Auch diese Eisheiligengrafik ist eindeutig:

Abb. 2. Die Grafik zeigt ein verblüffendes Ergebnis. Nähert man sich der Gegenwart, dann werden die Eisheiligen immer kälter. Die negative Steigung der Trendlinie nimmt zu. Und das bei der Klimastation PIK Potsdam, dem deutschen Zentrum der Erwärmungsmärchenerzähler.

Auch in diesem Falle sei unbedingt erwähnt, dass Potsdam in diesen letzten 3 Jahrzehnten einen immer größer werdenden Wärmeinseleffekt entwickelt hat, auch ist die Stadt mit Berlin zu einer großen flächigen Wärmezone zusammengewachsen. Die Abkühlung der Eisheiligen in der freien Fläche Deutschlands, dort wo keine Menschen wohnen und auch keine Messstationen stehen, ist natürlich noch gravierender, die Trendlinie noch fallender. Dort werden auch dieses Jahr wieder blühende Obstbäume erfrieren.

Ergebnis 2: In den letzten 30 Jahren wurden die Eisheiligen deutlich kälter.

Die Gegenwartsbetrachtung

Besonders in der Gegenwart, die der Autor als die Jahre ab 1998 definiert hat, sollen die Eisheiligen laut DWD-Vorstandmitglied Friedrich besonders wärmer geworden sein. Zitat: „…In den vergangenen Jahren haben sich die Eisheiligen eher rar gemacht…“. Das verkündet uns nicht nur Herr Friedrich, sondern alle Erwärmungsgläubigen vom Geschäftsmodell Klimaerwärmung mit ihren Helfern, den deutschen Medien. Wir hoffen nun, dass viele Leser diesen Artikel oder auch nur die nächste Grafik an ihre Heimatredaktionen schicken oder im Bekanntenkreis weiter verbreiten, damit auch diese Klimalüge der angeblich Wärmer werdenden Eisheiligen endlich aufgedeckt wird.

Abb. 3: Nähert man sich der Gegenwart, dann fällt die Trendlinie noch rasanter. Die Eisheiligen wurden beängstigend kälter. Und natürlich sind 2015 und 2016 die Eisheiligen überhaupt nicht ausgefallen. Sie waren 2016 im Mittelfeld, in Potsdam allerdings über der fallenden Trendlinie des Kälter Werdens.

Gesamtergebnis

Bereits seit 50 Jahren werden die Tage vom 11. bis 15. Mai in Deutschland wieder kälter. Das ist ein langer fallender Trend. Nähert man sich der Gegenwart, dann nimmt der fallende Trend sogar zu. Also genau das Gegenteil von Heißheiligen. Jeder aufmerksame Naturbeobachter und Kleingärtner hat das schon längst durch Eigenbeobachtungen erkannt. Aber das zeigen auch eindeutig die Daten der Klimastation Potsdam und die Daten des Deutschen Wetterdienstes, obwohl diese nicht wärmeinselbereinigt sind. Die warnenden Meldungen der Deutschen Medien über angeblich immer wärmer werdende Eisheilige in der Gegenwart halten einer wissenschaftlichen Betrachtung nicht Stand. Kurz gesagt: Eine glatte Lüge, die uns seit Jahren aufgetischt wird. Wir müssen Herrn Friedrich vom DWD schon persönlich fragen: „Herr Friedrich, Kennen Sie überhaupt die eigenen Messdaten?

Noch schlimmer aber ist, dass die Medien sich in den Dienst von Unwissenden bzw. von bewusst die Unwahrheit sagenden stellen, und die Deutschen falsch informieren. Und noch schlimmer ist, dass sie sich weigern, die wissenschaftliche Wahrheit ihren Lesern mitzuteilen, selbst wenn man sie eigens darauf hinweist. Der Leser möge diese Behauptung selbst überprüfen und eine Veröffentlichung einer der drei Grafiken in seiner Heimatzeitung anhand dieser dargelegten Fakten verlangen.

Eisheiligen außerhalb der Wärmeinseln: Weiter vorne im Artikel haben wir betont, dass weder die Daten des Deutschen Wetterdienstes noch die Daten der Klimastation Potsdam wärmeinselbereinigt sind. In der freien Fläche, außerhalb der Ansiedlungen und außerhalb der Brandenburgischen Landeshauptstadt Potsdam wirken die Eisheiligen vor allem nachts noch stärker kühlend, da sie durch die anthropogen erzeugte Wärme nicht weggeheizt werden können.

Vegetation außerhalb der Städte und anderer Wärmeinseln:

Wir wollen nun nicht den Versuch einer Wärmeinselbereinigung dieser Temperaturen unternehmen, sondern wir überprüfen die Abkühlung der Eisheiligen in der freien Fläche anhand der Vegetation. Dafür wählen wir das Frankenbachtal in Süddeutschland. Das Tal liegt zwischen den beiden Städten Aalen und Ellwangen auf 450 bis 470m NN. Am 3.ten Eisheiligentag 2016, im Süddeutschen „Servaz“ genannt, sah die Vegetation so aus wie auf dem folgenden Foto. Der Standort ist etwa 1 km von der nächsten kleinen Ansiedlung entfernt. Kurzum: Mitten in der Pampa Deutschlands.

Vegetationsstand 13.Mai 2016 in der freien Fläche außerhalb der Wärmeinseln: Durch den kalten April und den anfangs kalten Mai 2016, der in der freien Fläche außerhalb der Städte und Ansiedlungen noch kälter ausfiel, haben die Bäume und Sträucher beim Start der Eisheilligen noch fast keine Vegetation entwickelt, getreu dem alten Bauernspruch: „Servaz muss vorüber sein, will man vor Nachtfrost sicher sein“. Die Aufnahme zeigt den Südhang des Frankenbachtales in Süddeutschland auf 460m Höhe. Die Vegetation ist durch die Hanglage vor den kalten Nordwinden des Spätwinters und Frühjahres eigentlich bestens geschützt. Trotzdem sind vor allem die jungen Eschen noch kahl, während der große Eichbaum bereits erstes Grün zeigt. Man achte auch auf den spärlichen Grasbewuchs. Wir erkennen einen deutlichen Unterschied zur Vegetation innerhalb der Städte. Foto Kowatsch

Ergebnis: Wie zu erwarten sind in der freien Fläche Deutschlands die fünf Eisheiligentage noch kälter als in den Städten. Die fallende Trendlinie der Gegenwart hinterlässt deutlich ihre Spuren bei der (fehlenden) Vegetation. Das 250 Jahre alte Volkslied „Komm lieber Mai und mache die Bäume wieder grün“, https://www.youtube.com/watch?v=RJzXw-s3rCY von Wolfgang. A. Mozart gilt seit nunmehr fast acht Jahren nur für die Wärmeinseln, dort wo die Menschen wohnen und arbeiten. Und außerhalb?

2016 jedenfalls warten in der freien Fläche Deutschlands – genauso wie mit Abstrichen in den letzten 7 Jahren – selbst die Bäume und Sträucher bis die Eisheiligen vorbei sind. Denn erst am 17.Mai erschien ein spärliches Grün bei der Baumgruppierung auf dem vorigen Foto. Es handelt sich um Erlen, Eichen, Ahorn, Eschen, Hasel und Birken. Wir haben somit durch die vergleichende Vegetationsbeschreibung festgestellt, dass außerhalb der Wärmeinseln die Bäume seit etwa acht Jahren mit ihrem Grün warten bis die Eisheiligen vorbei sind. Die Apfelbäumchen öffnen sogar erst nach den Eisheiligen ihre Blüten.

Foto: Kowatsch

15.05.2016, letzter Eisheiligentag (kalte Sophie). Die Tageshöchsttemperatur betrug 8 C um 15 Uhr, vor Ort gemessen. Der Apfelbaum zeigt im Kronenbereich einzelne Blüten, sonst sind die Blütenknospen noch geschlossenen. Zur Vollblüte gelangen diese Apfelbäumchen auf 490 m NN oberhalb des Frankenbachtales erst nach Eisheiligen. Die wissenschaftlich botanische Frage ist somit: Woher wissen die Apfelbäume in der freien Fläche Deutschlands, dass sie mit dem Blühbeginn die Eisheiligen abwarten müssen, damit wenigstens der größte Teil ihrer Blüten nicht erfriert. Hoffen wir auf einen warmen Herbst, damit die Äpfel auch ausreifen können.

Fazit: Da die Erwärmungsgläubigen und die selbst ernannten Klimaretter alle in den Städten wohnen, fast alle grottenschlechte Naturbeobachter sind, sich zudem meist am beheizten Schreibtisch oder sich bevorzugt in den warmen Stuben ihrer vom Staat und damit von uns finanzierten Arbeitsplätze aufhalten und ihr Bezug zur freien Natur und zu den Weiten Deutschlands verloren ging, nehmen sie die Realität der kälter werdenden Eisheiligen überhaupt nicht mehr wahr. Selbst die Klimafolgenforscher beim PIK Potsdam sind fest überzeugt von ihrer Computer-Klimaerwärmung und Software-Erwärmungsspielerei, bloß richtet sich die Vegetation Deutschlands und auch ihre eigene Messstation nicht danach.

Die kälter werdenden Eisheiligen sind auch der Hauptgrund, dass der Wonnemonat Mai selbst bei den wärmeinselbehafteten Messstationen des Deutschen Wetterdienstes seit 30 Jahren kälter werden, bei den wenigen Messstationen in der freien Fläche wie z.B. Amtsberg-Dittersdorf im Erzgebirge wird der Mai bereits seit 35 Jahren kälter

Nachtrag zur Namensentstehung des Begriffes „Eisheiligen“: In den katholischen Ländern Süddeutschlands und Österreichs, welches vor 1921 weit über die Grenzen des heutigen Kleinstaates Österreich hinausreichte, war jeder Kalendertag einem Heiligen gewidmet. Somit war jeder Tag des Jahres ein Heiligentag. Man schrieb den Josefi-, Martini-, Leonhardi- oder Peter und Paultag. Den Bauern war schon immer bekannt, dass in der Mitte des Maimonates ein Kälteeinbruch erfolgte. Und Minustemperaturen nannte man sprachlich Eistemperaturen. Und somit wurden aus den Heiligentagen einfach Eisheiligentage, regional auch Eistage genannt. Mir sind allerdings keine Hitzeheiligentage bekannt. Warum diese fünf Eisheiligentage im Mai nun seit vielen Jahrzehnten selbst in den Wärmeinseln kälter werden, kann ich auch nicht erklären.

Josef Kowatsch, aktiver Naturschützer, guter Naturbeobachter und unabhängiger Klimawissenschaftler




Neue Studie: Erneuerbare Energie wird immer Regierungs-Unterstützung brauchen

Die Autoren der Studie schreiben: Während erneuerbare Energie während der letzten paar Jahre Fortschritte gemacht hat – die Kosten für Solar gingen von 2009 bis 2014 um zwei Drittel zurück – haben neue Bohr- und Extraktionsverfahren fossile Treibstoffe billiger gemacht und die zur Verfügung stehende Menge von Öl und Gas zunehmen lassen. In den USA allein haben die Ölreserven zwischen den Jahren 2000 und 2014 um 59%, die Gasreserven sogar um 94% zugenommen. Als Folge davon ist der Trend zu billigeren Erneuerbaren überkompensiert worden durch sogar noch billigere fossile Treibstoffe.

Die Forscher berechneten, dass konventionelle Energie während der nächsten 10 Jahre stets billiger ist als grüne Energie. Grüne Energie kann nur funktionieren, wenn die Energiepreise extrem hoch sind. Die Erzeugung von ausreichend Wind- und Solarstrom, um fossile Treibstoffe substantiell zu beeinflussen oder zu ersetzen und damit die Reduktion von CO2-Emissionen würde bis zum Jahr 2030 16,5 Billionen Dollar kosten.

[16,5 Billionen Dollar, um das Leben auf der Erde zu bekämpfen!! Anm. d. Übers.]

Mehr Investitionen erforderlich

Myron Ebell, Direktor des Center for Energy and Environment am Competitive Enterprise Institute, verweist auf das Solarkraftwerk Ivanpah bei Las Vegas. Es wird demnächst von den Regulatoren geschlossen werden als ein gutes Beispiel, warum man hinsichtlich Investitionen in grüne Energie besonders sorgfältig vorgehen sollte, um zu sehen, ob ihre Versprechungen erfüllt werden.

„Das Kraftwerk Ivanpah wurde gefördert mit etwa 1,6 Milliarden Dollar an Regierungs-Anleihen sowie mit über 535 Millionen Dollar an Steuernachlässen. Für die Steuerzahler bedeutet das, dass sie bereits mit über 2 Milliarden Dollar dabei sind – und das Werk geht pleite!“ sagte Ebell. „Natürlich werden die Umweltaktivisten sagen, dass noch mehr Geld in das System investiert werden müsse, und geizige Konservative müssen mehr Funds genehmigen, damit das Projekt am Laufen gehalten werden kann“.

Unerfüllte Versprechen

„Der Preis einiger erneuerbarer Technologien ist zwar gesunken, aber wenn man zurück schaut auf die siebziger Jahre, als damit begonnen worden ist, erneuerbare Quellen lautstark als die saubere Lösung unserer Energiebedürfnisse anzupreisen, waren sie über-gefördert, als ob sie damit wettbewerbsfähig werden würden“, sagte Ebell.

„Sie haben prophezeit, dass Erneuerbare nur noch wenige Jahre brauchen werden, bis sie wettbewerbsfähig sind, und diese Prophezeiung ist niemals eingetroffen“, sagte Ebell. „Man kann auf all die Studien zu erneuerbarer Energie zurückschauen, und man wird erkennen, dass ihre Prophezeiungen sich niemals als richtig erwiesen haben.

Konventionelle Energiepreise werden weiter sinken. Wir sind effizienter geworden bzgl. Bergbau, Transportwesen und Verbrennung von Kohle. Mit dem Kollaps der Öl- und Gaspreise – wie sollen Erneuerbare damit jemals mithalten können?“

Link: http://news.heartland.org/newspaper-article/2016/04/29/new-study-shows-renewable-energy-may-always-need-government-support

Übersetzt von Chris Frey EIKE




Klima: Der wirkliche ,besorgliche Trend‘

Ich sagte meinen Studenten, dass Daten der absolute König sind und Modelle nichts weiter als nützliche Werkzeuge. Jedes Modellergebnis oder jedwede Theorie muss mittels Daten überprüft und validiert werden, und es muss immer mit Vorsicht betrachtet werden.

Der große Nobelpreisträger und Physiker Richard Feynman lehrte Studenten: Falls eine Theorie oder eine Hypothese nicht mit Daten oder Experimenten übereinstimmt,

ist sie falsch! In dieser einfachen Aussage liegt der Schlüssel zur Wissenschaft. Es ist völlig belanglos, wie schön die Hypothese ist; es ist völlig belanglos, wie smart man ist oder wie man heißt … Falls ein Experiment Ihrer Hypothese widerspricht, ist sie falsch! Punkt!“

Einstein schärfte seinen Wissenschaftler-Kollegen ein:

Ein Modell oder eine Hypothese kann gar nichts ,beweisen‘. Aber Daten können eine Hypothese oder ein Modell ungültig machen. Es bedarf nur eines einzigen Experimentes, um zu zeigen, dass ich falsch liege“.

Die „Treibhaus-Theorie“, die bemüht wird, um die Welt zu verändern, scheitert auf vielfache Weise an diesem Test.

Anwendung von Feynman und Einstein auf die „Klimawissenschaft“

Zunächst einmal stellen viele Wissenschaftler in Frage, dass CO2 ,der Klimatreiber‘ und eine Gefahr für die Menschheit ist.

Dr. Patrick Moore, PhD-Ökologe und Mitbegründer von Greenpeace sagte bei einer Anhörung vor einem Komitee des US-Senats im Februar 2014 Folgendes:

Als sich das moderne Leben vor über 500 Millionen Jahren zu entwickeln begann, war der CO2-Gehalt über zehn mal so hoch wie heute, und doch blühte das Leben … Es blühte auch, als es vor 450 Millionen Jahren zu einer Eiszeit kam, als der CO2-Gehalt zehn mal höher lag als heute“.

Was in aller Welt macht es dann zu einem absoluten Naturgesetz, dass sich ein CO2-Niveau von 350 ppm katastrophal auswirken wird, wie so viele Wissenschaftler derzeit sagen?

Die „Hypothese“, dass ein CO2-Gehalt über 350 ppm zu einer planetarischen Katastrophe führen wird, musste mit Beobachtungen/Messungen überprüft werden. Ein großes Team neutraler Wissenschaftler und ich selbst untersuchten die drei wesentlichen Grundsätze der modellbasierten „Wissenschaft“, die die EPA bemühte, um ihre Energie- und Klima-Vorschriften zu rechtfertigen. Wir berichteten dem Obersten Gerichtshof, dass jeder einzelne Grundsatz bei dem Test glatt durchgefallen ist.

● Messungen mittels Satelliten und Wetterballonen zufolge gab es keinerlei globale Erwärmung seit nunmehr fast 19 Jahren – trotz einer Zunahme des atmosphärischen CO2-Gehaltes um über 10%.

● Die starke Erwärmung, die alle Klimamodelle in der hohen Troposphäre über den Tropen simulieren, existiert einfach nicht.

● Sogar die NOAA und das IPCC haben inzwischen eingeräumt, dass es weder einen Aufwärts- noch einen Abwärtstrend hinsichtlich Dürren, Überschwemmungen, Hurrikanen und Tornados gibt. Nur die Schneebedeckung hat zugenommen – und die Modelle hatten projiziert, dass Schneefall das einzige Extremwetterereignis sei, das abnehmen würde.

Allerdings fahren EPA, NOAA und NASA auf Druck des Weißen Hauses damit fort, diese falschen Modelle weiter heranzuziehen, um eine düstere Zukunft zu prophezeien und uns vom Verbrauch fossiler Treibstoffe abzubringen. Und dank einer beispiellosen Milliarden-Dollar-Flut sind Universitätswissenschaftler nur zu gerne bereit, diese Bemühungen und die düsteren Prophezeiungen zu stützen.

Das ist etwas, vor dem Eisenhower in seiner Abschiedsrede warnte:

Die Möglichkeit, dass die Lernenden der Nation dominiert werden von der Regierung, die Zuteilung von Projekten und die Macht des Geldes sind immer präsent – und müssen sehr stark berücksichtigt werden“.

Die NOAA hat jüngst vor einer Zunahme von Hitzewellen und Hitzetoten gewarnt. In Wirklichkeit haben Hitzewellen in der ersten Hälfte des 20. Jahrhunderts einen Höhepunkt erreicht und seitdem abgenommen. Tatsächlich sind in 23 der 50 US-Staaten die Allzeit-Höchsttemperatur-Rekorde in den dreißiger Jahren aufgetreten; vor 1960 war dies in 38 Staaten der Fall. Seit den vierziger Jahren gab es viel mehr Allzeit-Kälterekorde als Hitzerekorde. Wie die Graphiken zeigen, ist die Anzahl der Tage mit einer Temperatur von 95°F [35°C] sowie die Anzahl großräumiger Hitzewellen seit den dreißiger Jahren gesunken.


Zweifelhafte Behauptungen einer „gefährlichen Erwärmung“
Ebenfalls vollkommen ignoriert wird die unbequeme Tatsache, dass durch Kälte viel mehr Menschen umkommen als durch Wärme. Eine im vorigen Jahr veröffentlichte umfassende Studie im medizinischen Journal Lancet untersuchte mehr als 74 Millionen Todesfälle an 384 Orten in 13 Gebieten: in kalten Ländern wie Kanada und Schweden, in Ländern der gemäßigten Zone wie Spanien, Südkorea und Australien sowie in tropischen und subtropischen Ländern wie Brasilien und Thailand. Die Studie kam zu dem Ergebnis, dass weltweit durch Kälte 20 mal so viele Menschen umgekommen sind als durch Wärme.

Berichte der Regierung, Autoren der Meinungsspalten und Blogger, die Graphen des Inhalts posten, steigende Rekord-Lufttemperaturen oder Ozeanwärme zu zeigen, führen in die Irre. Das sind keine wirklichen Rohdaten. Es sind geplottete Daten, die von Wissenschaftlern „adjustiert“ oder „homogenisiert“ (d. h. manipuliert) worden sind – oder es handelt sich um Outputs von Modellen auf der Grundlage von Hypothesen, von denen viele falsch sind.

Der Forscher am UK Met.-Office Chris Folland rechtfertigt dies:

Die Daten spielen keine Rolle. Wir geben unsere Empfehlungen (zur Reduktion von CO2-Emissionen) nicht aufgrund der Daten. Wir geben sie aufgrund der Klimamodelle“.

Der Klimamodellierer an der Oxford University David Frame fügt hinzu: „Anstatt die Modelle als die buchstäbliche Wahrheit beschreibend zu betrachten, sollten wir sie als bequeme Fiktionen ansehen, die versuchen, etwas Nützliches zur Verfügung zu stellen“.

Aber Modelle sind nur dann nützlich und gültig, falls deren Outputs durch Beobachtungen und Messungen in der realen Welt bestätigt werden. Und was noch mehr zählt, diese Daten-Plots werden von den gleichen Organisationen aufbereitet, die für die Erzeugung der Modell-Prophezeiungen verantwortlich sind.

Tatsächliche Originaldaten sind so stark und so oft verändert worden, dass sie praktisch keinerlei Ähnlichkeit mehr haben mit den originalen Eintragungen. Beispiel: Die Abkühlung um 0,7°C zwischen 1940 und den siebziger Jahren – was die Welt in die Furcht vor einer neuen Kleinen Eiszeit stürzte – ist in diesen korrumpierten Computermodellen einfach „verschwunden“.

Wichtige Perspektiven der Erwärmungs-Behauptungen

Im Jahre 1978 hat der aus den Star Trek-Filmen bekannte Schauspieler Leonard Nimoy gewarnt: „Der schlimmste Winter seit einem Jahrhundert trat im vorigen Jahr auf. Klimaexperten glauben, dass die nächste Eiszeit im Anrollen ist. Jüngsten Beweisen zufolge könnte diese schneller eintreten, als irgendjemand erwartet hat. An Wetterstationen im hohen Norden sind die Temperaturen seit 30 Jahren gesunken. Meeresküsten, die lange während des Sommers eisfrei waren, sind jetzt das ganze Jahr über blockiert“.

Nur wenige Jahre später begannen die Temperaturen jedoch zu steigen – und plötzlich warnten die „Klimaexperten“, dass fossile Treibstoffe den Planeten unkontrollierbar erwärmen würden. An Arktische Meeresküsten, fingen sie an zu proklamieren, gab es plötzlich viel weniger Eis, und es bestand die Gefahr, dass sie das ganze Jahr über eisfrei sein würden“.

[Abgesehen von allem anderen – wieso ist das eine ,Gefahr‘? Anm. d. Übers.]

Um ihre Besorgnisse zu unterstreichen, übertreiben sie Erwärmungsgraphiken mittels Streckung der Scales, nur damit jedwede Erwärmung in jüngster Zeit viel signifikanter aussieht als sie tatsächlich ist. Außerdem muss die behauptete 1 Grad mehr oder weniger stark auftretende Erwärmung in den richtigen Zusammenhang gestellt werden.

Hier im Norden ändern sich die Lufttemperaturen oftmals um über 17°C an einem einzigen Tag, monatliche Mitteltemperaturen variieren um etwa 30°C zwischen Januar und Juli, und die Differenz zwischen den jeweiligen absoluten Maxima und Minima kann bis zu 70 K betragen.

Plottet man diese normalen Temperaturvariationen in eine Graphik, die auch die globale Temperaturänderung zwischen 1850 und 2015 zeigt (basierend auf den Daten, die von der Institution gesammelt werden, der die UN am meisten vertrauen – nämlich HadCRUT) ist die vermeintliche planetarische Erwärmung praktisch nicht wahrnehmbar. Sie ist mit Sicherheit nicht „gefährlich“.

Teil 2: Politik und Zweck

Wer ist nun der Treiber dieser Weg-Von-Kohlenwasserstoff-Energie-Kampagne, um eine Das-Ende-Der-Welt-Kalamität zu verhindern? Die Liste ist lang und enthält u. A. Politiker und UN-Globalisten (man suche nach Agenda 21), die nach mehr Macht und Kontrolle über jeden Aspekt unseres Lebens trachten.

Wissenschaftler, Umweltaktivisten, grüne Nicht-Regierungs-Organisationen (NGOs) sowie Unternehmen jagen allesamt den 1,5 Billionen Dollar pro Jahr nach, die die Klimakrise und die Erneuerbaren-Industrie füttern. Die lange Liste enthält außerdem auch wissenschaftlich ungebildete Bevölkerungskontroll-Sozialisten und Hollywood-Stars, die allesamt von Umweltjournalisten unterstützt werden, die irgendwelche „grünen“ Gründe oder Schauermärchen niemals hinterfragen.

Viele bringen das „Vorsorgeprinzip“ hervor, um drastische Maßnahmen zu rechtfertigen, die perverserweise wirklich drastische Konsequenzen haben, beabsichtigt oder nicht. Öko-Fanatismus hat Europa bereits fest im Griff.

Auswirkungen schlechter Politik

Während der letzten zehn Jahre ist der Strompreis in Europa im Mittel um 63% gestiegen.

Umfragen zeigen, dass 38% aller britischen Haushalte grundlegende Erwerbungen wie Nahrungsmittel zurückstellen, um die hohen und weiter steigenden Energiekosten bezahlen zu können. Weitere 59% aller Haushalte machen sich Sorgen darüber, wie sie ihre Stromrechnungen noch bezahlen sollen, wenn erst einmal das Pariser Abkommen in Kraft ist. Arme Familien werden am schlimmsten betroffen.

Familien und Firmen in den „Blue States“ im Nordosten zahlen bereits die höchsten Strompreise in den USA – doppelt so viel wie in einigen anderen US-Staaten. Die Änderungen, welche die EPA und diese Regierung betreiben, könnten jene Raten noch verdoppeln – ebenso wie die Raten in anderen Staaten.

Die tausende Dollar, die eine durchschnittliche Familie im Nordosten bei Benzin und Heizöl im Jahre 2015 gespart haben dank Fracking und Bohrungen auf Land in Privatbesitz war echt willkommen als der einzige ,Anstieg‘ den viele Familien seit vielen Jahren bekommen haben.

Allerdings wird auch dies bald Geschichte sein, falls die Pläne der EPA nicht durch Gerichte blockiert werden – oder durch einen Präsidenten Trump. Außerdem planen sowohl Hillary Clinton als auch Bernie Sanders, im Falle ihrer Wahl Fracking zu eliminieren, ebenso wie die meisten Bohrungen nach und die Erzeugung von Öl und Gas.

Mit einer Hillary Clinton-Regierung und einem neuen demokratischen donierten Kongress, welche versprechen, Fracking zu eliminieren und fossile Treibstoffe übermäßig zu besteuern, würden die Energiekosten pro Familie um tausende Dollar pro Jahr steigen. In Europa ist dies bereits geschehen, nachdem die Grünen die Kontrolle übernommen hatten.

Abgesehen davon treffen rasant steigende Energiepreise die gesamte Wirtschaft, beeinflussen sie doch die Kosten aller Güter und Dienstleistungen – einschließlich Produktion und Dienstleistungen seitens Fabriken, Krankenhäusern, Schulen, kleineren Unternehmen sowie den Transport von Nahrungsmitteln und anderen Produkten. Rasant steigende Energiepreise vernichten Arbeitsplätze und senken den Lebensstandard, müssen doch Unternehmen und Gemeinden tausende, wenn nicht Millionen zusätzliche Dollar aufbringen, nur damit die Lichter nicht ausgehen, sowie für Heizung und den Betrieb von Maschinen.

Dies bedeutet, dass mehr Industrien sich in Übersee umschauen werden [sicher nicht in Europa, Anm. d. Übers.], wo Energiekosten und Arbeitslöhne viel niedriger sind, während Millionen Amerikaner in Teilzeitarbeit gedrängt werden, unter Lohnkürzungen zu leiden haben oder Einschnitte in das soziale Netz verkraften müssen.

Inzwischen wird erwartet, dass die USA Milliarden Dollar an arme Länder und Entwicklungs-Ökonomien überweisen werden als „Reparation, Abschwächungs- und Anpassungskosten“ bzgl. Klimawandel, wie es im Paris-Abkommen vorgesehen ist. Und jene relativ neuen armen Länder einschließlich China und Indien werden immer noch fossile Treibstoffe verbrennen und unsere Arbeitsplätze wegnehmen, um deren Bürger aus der Armut zu holen.

All die Opfer von Amerikanern, Europäern und Familien in anderen entwickelten und jetzt reichen Ländern werden für Nichts erbracht!

Dies ist genau das, was die sog. „Progressiven“ wollen und weshalb sie durch die Straßen marschieren, um es zu bekommen.

Die wirklichen Ziele der Klima-Alarmisten

Der ehemalige Gouverneur von Washington State [im Nordwesten der USA am Pazifik, Anm. d. Übers.], der Demokrat Dixy Lee Ray sah den zweiten Vertrag von Paris schon vor vielen Jahren kommen:

Die Zukunft wird eine Eine-Welt-Regierung sein mit der zentralen Planung bei den UN. Befürchtungen von Umweltkrisen – ob nun real oder nicht – werden zum Mitmachen führen“.

Im vorigen Jahr hat die UN-Klimachefin Christiana Figueires offen erklärt:

Unser Ziel ist es nicht, die Welt vor ökologischen Kalamitäten zu retten, sondern das globale Wirtschaftssystem zu verändern … Dies ist vielleicht die schwierigste Aufgabe, die wir uns je gestellt haben und welche absichtlich das ökonomische Entwicklungsmodell verändern soll, zum ersten Mal in der Geschichte der Menschheit“.

Einfacher ausgedrückt, sie beabsichtigt, das freie Unternehmertum durch eine von den UN kontrollierte, zentralisierte, sozialistische Eine-Welt-Regierung und ökonomische Kontrolle zu ersetzen.

Im November 2010 hat der IPCC-Funktionär Ottmar Edenhofer einen zusätzlichen Grund für die UN-Klimapolitik aus dem Hut gezogen:

Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Das ist sie nicht. Tatsächlich geht es nur darum, den Wohlstand der Welt neu zu verteilen“.

[Ob die Alarmisten auch hier auf diesem Blog auch leugnen, dass diese Personen das gesagt haben? Anm. d. Übers.]

Zusätzlich zu all den Dingen, die hinsichtlich Energie- und Klimapolitik falsch laufen, destruktiv und einfach verkehrt sind, gibt es einige wirklich Angst machende Entwicklungen. Und als Clou von allem überlegt das Justizministerium der Obama-Administration jetzt ernsthaft, General-Staatsanwälten [der US-Staaten] beizuspringen und Unternehmen, Organisationen und Einzelpersonen zu belangen, die nichts weiter tun als zu wagen, unabhängig zu denken, und die die Behauptungen zurückweisen, dass die vom Menschen getriebene globale Erwärmung die größte Gefahr für unser zukünftiges Wohlergehen darstellt.

All dies klingt mehr nach Deutschland vor dem Zweiten Weltkrieg als nach den Vereinigten Staaten von Amerika. Es ist mit Sicherheit ein Trend, um den wir uns weitaus mehr Sorgen machen sollten als um jede wirkliche denkbare Bedrohung durch irgendeinen nicht wahrnehmbaren menschlichen Beitrag zum Klimawandel, der von Anbeginn die Menschheit und unseren Planeten betroffen hat.

——————-

Joseph D’Aleo is a Certified Consulting Meteorologist and Fellow of the American Meteorological Society. He was a college professor and First Director of Meteorology at the Weather Channel. He has authored books and papers on how natural factors drive seasonal weather and long-term climate trends.

Link: http://icecap.us/index.php/go/joes-blog/climate_the_real_worrisome_trend1/

Übersetzt von Chris Frey EIKE




Energie-Katastrophe in Europa aus US-amerikanischer Sicht

Deutsche werden gezwungen, Strom zu verschwenden, um den Kollaps grüner Energie zu verhindern

Andrew Follett

Wind- und Solarenergie haben jüngst das deutsche Stromnetz fast zum Verglühen gebracht, aber die Katastrophe wurde gerade noch verhindert, als die deutsche Regierung die Verbraucher dafür bezahlte, Strom zu verschwenden.

Die Netzbetreiber waren gezwungen, konventionelle Kraftwerke vom Netz zu nehmen, nachdem durch „grüne“ Energie so viel Strom erzeugt wurde, dass das Netz kurz vor dem Kollaps stand. Die Medienagentur Quartz versuchte, die Beinahe-Katastrophe als einen gewaltigen Triumph zu verkaufen (hier) mittels Hinausposaunen der Tatsache, dass grüne Energie kurzzeitig 87% des deutschen Stromverbrauches decken konnte.

Stromnetze funktionieren nur, wenn sie in jedem Augenblick genau die Strommenge bereit halten, die gerade verbraucht wird (hier). Das ist ein Riesenproblem für Wind- und Solarenergie, kann doch deren Output nicht im Voraus genau vorhergesagt oder einfach angepasst werden. Wind und Solar können das Netz durchbrennen lassen, wenn sie zu viel Strom erzeugen. Erzeugen sie dagegen zu wenig, drohen Spannungsabfälle und Blackouts. Derartige Schäden hat es in Deutschland bereits gegeben, ebenso wie in anderen Netzen, die zu stark von Wind und Sonne abhängen – wie beispielsweise in Kalifornien (hier).

Da bei Wind und Sonne immer auch die Gefahr besteht, dass sie zu wenig Strom erzeugen, müssen die Netzbetreiber immer Stromreserven aus konventioneller Erzeugung bereit halten (hier). Die Stromnachfrage mit der Zeit ist relativ leicht vorhersagbar, und konventionelle Kraftwerke wie Kernkraft- und Gaskraftwerke, können bzgl. ihres Outputs leicht adjustiert werden (hier).

Deutschland hat den Schaden minimiert, indem man die Verbraucher dafür bezahlt hat, Strom im Überfluss zu verbrauchen. Außerdem hatte man Wind- und Solarstromerzeuger aufgefordert, ihre Anlagen abzuregeln, wenn sie nicht gebraucht werden. Deutschland hat den Windparkbetreibern im vorigen Jahr 548 Millionen Dollar gezahlt, damit sie ihre Anlagen abregeln, um so Schäden am Stromnetz des Landes zu verhindern (hier).

Wegen der schädlichen Auswirkungen, die die grüne Energie auf das Stromnetz in Deutschland hatte, plant die Regierung, die Gesamtmenge an Windenergie bei 40 bis 45% der nationalen Kapazität zu deckeln (hier, in Deutsch). Bis zum Jahr 2019 will Deutschland 6000 Megawatt Windkraft-Kapazität loswerden.

Trotz der Einschnitte bei Windkraft schätzt die Bundesregierung, dass sie über 1,1 Billionen Dollar zur Unterstützung der Windkraft ausgeben wird, obwohl die Errichtung von Windturbinen noch nicht einmal das Ziel erreicht hat, die CO2-Emissionen zu verringern.

Die Federal Energy Regulatory Commission (FERC) der USA untersucht gegenwärtig, wie grüne Energie die Zuverlässigkeit des Stromnetzes unterminiert. Die FERC glaubt, dass es ein „signifikantes Risiko“ dafür gibt, dass die Stromerzeugung in den USA unzuverlässig wird, weil „Wind und Solar nicht den Service bieten können, den Kohlekraftwerke bieten“. Umweltvorschriften könnten den Betrieb konventioneller Kohle- oder Erdgaskraftwerke unprofitabel machen, was eine große Gefahr für die Zuverlässigkeit des amerikanischen Stromnetzes darstellt (hier).

Link: http://www.cfact.org/2016/05/13/germans-forced-to-waste-electricity-to-prevent-green-energy-meltdown/

————————————————-

Hier kommt ein weiterer Blick aus den USA auf Europa bzgl. Energie, diesmal auf Dänemark.

Dänemark: Windenergie ist zu teuer

Michael Bastasch

Die Regierung von Dänemark hat Pläne aufgegeben, fünf Offshore-Windparks zu errichten, fürchtet man doch, dass der dort erzeugte Strom für die dänischen Verbraucher zu teuer wird.

„Seit 2012, in welchem Jahr wir die politische Übereinstimmung erreicht haben, sind die Kosten unserer Erneuerbaren-Politik dramatisch gestiegen“, sagte Klimaminister Lars Christian Lilleholt, ein Politiker der Liberalen Partei, die die Minderheitsregierung des Landes repräsentiert (hier).

Die Regierung müsste 10,63 Milliarden Dollar zahlen, um Strom von diesen fünf Windparks zu kaufen – ein Preis, der als viel zu hoch für die Verbraucher angesehen wird, haben diese doch schon jetzt die höchsten Strompreise von Europa zu zahlen (hier).

„Das können wir nicht akzeptieren, zahlen doch Privatwirtschaft und Haushalte schon jetzt viel zu viel. Die Erneuerbaren-Politik von Dänemark hat sich als viel zu teuer erwiesen“, sagte Lilleholt.

Dänemark erzeugt etwa 40% seines Stromes aus Windkraft und hat sich zum Ziel gesetzt, diese Marke bis zum Jahr 2020 auf 50% zu schrauben. Aber dieses Ziel war immer stärkerem Gegenwind ausgesetzt, und zwar in Gestalt hoher Energiepreise.

Die Dänen haben Milliarden an Steuern und Abgaben zahlen müssen, um Windturbinen zu unterstützen. Damit sind die Strompreise nach oben geschossen, sogar obwohl der tatsächliche Strompreis jüngst etwas gesunken ist. Grüne Steuern machen inzwischen 66 Prozent der dänischen Stromrechnungen aus (hier). Nur 15 Prozent davon gehen in die Stromerzeugung selbst.

Die Strompreise haben inzwischen ein Niveau erreicht, dass die Regierung zu der Entscheidung bewogen hat, grüne Steuern auf Stromrechnungen der Verbraucher zu kappen (hier).

„Der Einspeisetarif [PSO tariff] ist teuer und ineffektiv. Wir haben lange geglaubt, dass die steigenden Kosten vorübergehender Natur sind, aber jetzt ist nur zu klar, dass wir eine Alternative finden müssen. Daher ist die Regierung bereit, über ein Auslaufen der PSO-Abgabe nachzudenken“, sagte Minister Karsten Lauritzen.

Dänische Politiker wollen immer noch, dass ihr Land bis zum Jahr 2050 vollständig unabhängig von fossilen Treibstoffen wird. Damit wollen sie die [vermeintliche, Anm. d. Übers.] globale Erwärmung bekämpfen. Aber Einschnitte bei grünen Energiesteuern bedeuten, dass sie andere Wege finden müssen, um Windprojekte zu finanzieren.

Link: http://www.cfact.org/2016/05/13/denmark-says-wind-energy-too-expensive/

————————————————-

Und hier der Blick auf Europa als Ganzes:

Report beschreibt Details des Kollaps‘ „grüner Energie“ in Europa

Andrew Follett

Die Gelder, die Regierungen und der private Sektor in Europa in grüne Energie gesteckt haben, haben sich von 132 Milliarden Dollar im Jahre 2011 bis zum vorigen Jahr auf 58 Milliarden Dollar mehr als halbiert.

Ein jüngst von einer Britischen Wirtschafts-Prüfungsgesellschaft veröffentlichter Report macht regierungsamtliche Kürzungen von Subventionen sowie das Scheitern grüner Energie bzgl. Zuverlässigkeit und Einhaltung der Kostenziele als Gründe für die sinkenden Investitionen aus. Die Kürzungen erfolgten zum allergrößten Teil aus Kostengründen.

Noch im Jahre 2010 hatte Europa einen Anteil von 45% an den weltweiten Investitionen in grüne Energie, aber dieser Anteil ist inzwischen auf 18 Prozent gesunken (hier).

„Immer wenn Subventionen gesenkt, unterbrochen oder ganz beendet werden, verschwinden die Investitionen in Projekte erneuerbarer Energie“, sagte Myron Ebell, der Direktor des Center for Energy and Environment am Competitive Enterprise Institute. „Gleiches ist wiederholt in den USA passiert, als Steuervorteile für Wind- und Solarenergie ausgelaufen sind. Der Grund liegt auf der Hand: Trotz Jahrzehnte langer Versprechungen, dass sich diese Technologien demnächst kommerziell rechnen werden, können sie immer noch nicht im Marktwettbewerb mithalten mit konventionellen Stromquellen“.

UK war routinemäßig der Spitzenplatz, um in grüne Energie zu investieren, und zwar infolge lukrativer Subventionen, Vorschriften und Steueranreizen zur Mitte der Nuller-Jahre dieses Jahrhunderts, aber jetzt ist man auf den 13. Rang zurückgefallen, wie aus dem Report hervorgeht.

Diese Subventionen und Steueranreize waren ungemein kostspielig. Im Jahre 2014 haben die Briten atemberaubende 54 Prozent mehr für Strom bezahlt als die Amerikaner, während Stromsteuern bei den Bürgern mit etwa 6,6 Milliarden Dollar in jedem Jahr zu Buche schlugen (hier).

Ganz Europa machte ähnliche Erfahrungen hinsichtlich grüner Energie. Der Kontinent pumpte 1,2 Billionen Dollar in die Industrie grüner Energie (hier), um die globale Erwärmung zu bekämpfen, aber die CO2-Emissionen und auch die Stromrechnungen des Kontinents steigen einfach weiter (hier).

Einer Studie des Manhattan Institute zufolge sind die Stromkosten für die Bürger zwischen den Jahren 2005, als in Europa pro-grüne Politik entwickelt wurde, und 2014 um 63 Prozent gestiegen. Im gleichen Zeitraum sind die Preise in den USA um 32 Prozent gestiegen. In Deutschland, Spanien und UK, die am stärksten in den Energiemärkten intervenierten, sind die Preise am schnellsten gestiegen, wie aus der Studie hervorgeht.

Der Europäer gibt im Durchschnitt 26,9 Cent pro Kilowattstunde Strom aus, während der Amerikaner im Durchschnitt nur 10,4 Cent zahlt (hier). Diese rasant steigenden Energiekosten haben die Armen in Europa am härtesten getroffen, werden diese doch 1,4 bis 4 mal so stark betroffen als Reiche (hier)..

Link: http://www.cfact.org/2016/05/13/report-details-collapse-of-green-energy-in-europe/

Alle Beiträge übersetzt von Chris Frey EIKE




Deutschlands Wind Industrie ist dem Untergang geweiht, die Politik begrenzt den Ausbau.

Die Deutschen gingen härter und schneller in die Windkraft als alle anderen – und sind von den damit verbundenen Kosten mit aller Macht gefangen. Die Subventionen waren kolossal, die Auswirkungen auf den Strommarkt chaotisch und – im Gegensatz zum Umweltzweck der Politik – stiegen die CO2-Emissionen schnell: wenn "Rettung" des Planeten angesagt ist – wie uns immer wieder gesagt wurde – alles über die Reduzierung der von Menschen verursachten Emissionen eines geruchlosen, farblosen, natürlich vorkommenden Spurengases, wichtig für alles Leben auf der Erde – dann hat die deutsche Energie / Umweltpolitik offensichtlich versagt hat (siehe unseren Beitrag hier)

Feinde der Aufklärung

Anderswo in der Welt, sind wir zu der Überzeugung gekommen, dass die Deutschen diese Dinge hinunter bis zu den Bits lieben; dass die Gesetze der Ökonomie keine Anwendung in Deutschland haben; und dass sie auf dem besten Weg zu einer 100% Windenergie versorgten Zukunft sind.

Aber in Wahrheit hat sich die politische Realität zwangsläufig mit seiner wirtschaftlich und sozial katastrophalen Energiewende gefangen: ländliche Gemeinden bündeln ihre Kräfte und kämpfen, um ihre Gesundheit und Häuser vor dem unaufhörlich erzeugten niederfrequentem Rauschen und Infraschall zu schützen; Ärzte haben ein Moratorium für neue Windparks zum gleichen Ende gefordert; politische Parteien werden gebildet, um gegen den Wahnsinn von Green-Gruppendenken Einfluss zu nehmen; und die deutsche Industrie – wird durch eskalierenden Energiekosten geschlachtet – fordert ein Ende des Wahnsinns, zumindest die Unternehmen, die nicht bereits gepackt und in die USA umgezogen sind, wo die Strompreise nur ein Drittel von denen in Deutschland sind.

Dann – wie bei jedem anderen Strommarkt, der durch Milliarden an Subventionen für die Windenergie [und PV] pervertiert worden ist, (mit dem, was aus dem Geldbeutel der Verbraucher und / oder der Steuerzahler enteignet wurde / wird), hat das keinen kommerziellen Wert – es ist die vernichtende Wirkung der massiven Bevorzugung für Windenergie, die sie auf herkömmliche Kraftwerke hat.

Alles Oben genannte hat sich in einem perfekten politischen Sturm kombiniert, was Sigmar Gabriel, den Wirtschaftsminister, dazu geführt hat, ein Ende des abwegig freien Laufs der Errichtung von Windanlagen zu erklären, der bislang genossen wurde: eine „killing cap“ [eine Deckelung] der Windindustrie für den Ausbau der  Windkraft in Deutschland.

Mit all der Gereiztheit, die wir von dem Wind-Kult zu erwarten haben, reagierten die deutschen Grünen wie verwöhnte Gören, jammern, dass ihre geliebte Windindustrie so gut wie verurteilt ist. Hier sind ein paar Schlaglichter auf Deutschlands einst unsterbliche Unterstützung für die Windenergie:

Deutschland verlässt sein 1,1 Billionen Dollar Programm für Windenergie bis 2019

Andrew Follett für The Daily Caller vom 8. April 2016

Deutschland plant den Bau neuer Windparks zu stoppen bis zum Jahr 2019, eine schrittweise Abkehr vom $ 1,1 Billionen Windenergieprogramm, nach einem Bericht in der Berliner Zeitung.

Die Regierung plant, die Gesamtmenge der Windenergie auf 40 bis 45 Prozent der nationalen Kapazitäten zu begrenzen. Bis 2019 würde diese Politik zu einer massiven Reduktion von 6.000 Megawatt Windkraftleistung führen, im Vergleich zum Ende des Jahres 2015.

"Der Inlandsmarkt für viele [Windkraftanlagen] Hersteller kollabiert vollständig", sagte Julia Verlinden, eine Sprecherin der deutschen Grünen Partei, der Berliner Zeitung. "Mit ihrem Plan, wird die Bundesregierung die Wind Unternehmen töten." Verlinden schiebt den politischen Einfluss auf "alte, fossil befeuerte Kraftwerke."

Deutschlands Regierung jedoch, hat die Windenergie sehr unterstützt. Die Regierung schätzt, dass sie mehr als $ 1,1 Billionen [Dollar oder Euro, egal] für die Unterstützung der Windkraft ausgegeben haben wird, auch wenn der Bau von Windkraftanlagen, das Ziel der Regierung von tatsächlicher Reduzierung der Kohlendioxid-Emissionen (CO2) nicht erreicht hat.

Deutschland kreierte lukrative Subventionen und Steuervorteile  für die Windkraft im Jahr 2011, nachdem es beschlossen hatte, auf Kernkraft bis 2022  ganz zu verzichten, nach dem Fukushima Daiichi Atomunglück [nuclear disaster] in Japan. Deutschlands Versorger verklagten die Regierung bereits über $ 21 Milliarden Dollar für den Atomausstieg.

Strom aus neuer Windkraft ist fast viermal so teuer, wie Strom aus bestehenden Kernkraftwerken, nach einer Analyse des Instituts für Energieforschung. Die steigenden Kosten für Subventionen werden auf gewöhnliche Steuerzahler abgewälzt, was Beschwerden ausgelöst hat, dass einkommensschwache Haushalte die wohlhabenden subventionieren.

Die Kernkraft brachte 29,5 Prozent der Energie in Deutschland im Jahr 2000 – im Jahr 2015 sank der Anteil auf 17 Prozent

The Daily Caller

 

Quelle STT; Teuer, nutzlos und hässlich: Was mag man daran nicht wollen?

****

STT verlinkte auf einen Artikel in der Berliner Zeitung von Frank Thomas Wenzel am 07.04.2016

Nur mal die Schlagzeile und die ersten beiden Statements im Artikel:

Windenergie Die Bundesregierung legt bei Energiewende den Rückwärtsgang ein

·         Die Windenergie ist aufgrund der niedrigen Kosten eine Erfolgsstory

·         Der Bau von Windanlagen lohnt sich auch an windarmen Standorten

 Textquelle: Berliner Zeitung

Die beiden Kommentare am Ende des Artikels sind lesenswert, der Übersetzer.

http://www.berliner-zeitung.de/wirtschaft/windenergie-die-bundesregierung-legt-bei-energiewende-den-rueckwaertsgang-ein-23846294

Übersetzung des deutschen Artikels ins englische (siehe vorstehenden Link) und eigener Kommentar vom Global Warming Policy Forum

Die Bundesregierung blockiert den Ausbau der Windenergie als kostengünstige Alternative zu Atom- und Kohlekraftwerken

Die übliche dezente Antwort der Grünen:

„Der Heimatmarkt vieler Hersteller bricht zusammen“, sagt Julia Verlinden, Sprecherin für Energiepolitik in der Grünen-Bundestagsfraktion. „Mit ihrem Vorhaben haut die Bundesregierung den Windunternehmen ihr Standbein weg.“ Dabei sei die Windenergie eine kostengünstige Technologie, um Atom- und Kohlekraftwerke zu ersetzen.

Was Julia vielleicht gefallen wird, ist zu prüfen, wie man 1,1 Billionen für eine völlig wetterabhängige Stromquelle wegwerfen kann, die für 100% seiner Kapazität durch konventionelle Erzeugungsquellen gestützt werden muss, … ob das jemals einen wirtschaftlichen oder ökologischen Sinn ergibt.

Aber das wäre Logik zu einer Analyse hinzufügen, zu der die Wind-Kultisten sich nicht überwinden können, sie zu machen. Nein, viel einfacher ist es zu schimpfen und zu jammern. Was Sigmar Gabriel getan hat, ist nicht das Töten einer Industrie, es geht um wirtschaftliche Sichtweise: die Windindustrie ist kein Geschäft, es ist ein Subvention saugender Parasit, der, wenn nicht gegengesteuert wird, das reale Geschäft an die Wand fährt. Die Deutschen haben es endlich kapiert, sehr zum Entsetzen der Windindustrie  und seiner bedrängten Verehrer – ihr deutsches Experiment ist offensichtlich gescheitert; und alles, was sie jetzt tun können, ist zu heulen.

Erschienen am 17.04.2016 auf StopTheseThings

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2016/04/17/germanys-wind-industry-doomed-as-new-policy-caps-wind-power-capacity/




Als der Meeresspiegel doppelt so schnell anstieg – nur weil eine Studie nicht richtig gelesen wurde

Der FOCUS meldete voller Bestürzung (es war die wichtige Zeit nach dem Klimagipfel und vor der Unterschrift des Klimavertrages in Paris):

FOCUS [1] Auswirkung des Klimawandels

Bisher unterschätzt: Meeresspiegel steigt doppelt so stark wie bisher vermutet

Eine Studie deutscher Forscher zeigt Bedenkliches. Sie haben herausgefunden, dass der Meeresspiegel wegen des Klimawandels weltweit deutlich stärker ansteigt, als bisher vermutet.

Der weltweite Anstieg der Meeresspiegel durch die Klimaerwärmung ist einer Studie zufolge bislang deutlich unterschätzt worden. Vermutlich sei er doppelt so hoch wie bislang gedacht, heißt es in einer am Montag veröffentlichten Studie deutscher Forscher in der US-Fachzeitschrift "Proceedings of the National Academy of Sciences".

Das notwendige Schreckensszenario durfte dazu natürlich nicht fehlen:

[1]… Dies könnte schwere Folgen haben. … Zunahme schwerer Stürme möglich

Nach dem obligatorischen Schock (hat der Autor etwas so Wichtiges zum AGW-Klimawandel übersehen und nicht auf EIKE gemeldet?) kam die Entwarnung.

Eine andere Quelle klärt auf (ein Lob dem Internet, das unsere Qualitätsmedien immer mehr ersetzen hilft).

[2] wetter.de (Hervorhebungen durch den Autor):

In vielen Medien konnte man von einer Studie hören oder lesen, dass der Meeresspiegel doppelt so stark ansteigen würde, als bislang vermutet. Doch die Studie wurde völlig falsch interpretiert.

Was die Studie eigentlich aussagt ist, dass die Ausdehnung des Meerwassers aufgrund seiner Erwärmung bislang unterschätzt wurde.
In der Vergangenheit war man davon ausgegangen, dass die Erwärmung des Wassers ungefähr 0,7 Millimeter zum jährlichen Meeresanstieg von 3 Millimeter beiträgt. Das Ergebnis der Studie beweist nun jedoch,
dass der Anteil doppelt so hoch ist. 1,4 Millimeter, also fast die Hälfte des Meeresanstieges kommt durch das erwärmte Wasser, das mehr Platz in Anspruch nimmt. An der Gesamthöhe des Meeresspiegel-Anstiegs ändert das jedoch nichts.

Man könnte also mit ruhigem Gewissen über diese Meldungsente des FOCUS hinwegsehen und sich allerhöchstens überlegen, ob sich der Kauf einer solchen Zeitschrift wirklich lohnt.

Was dem FOCUS jedoch nicht aufgefallen ist, sich aber jeder fragt der das Thema kennt:

Wenn diese Studie recht hat, müssen im Gegenzug alle Meldungen über verstärkt schmelzende Pole (Grönland- und Antarktis-Festlandeis) vollkommen falsch sein. Denn damit wurde der Anstieg bisher ja erklärt. Aber keine Sorge, dass dies nicht unwahrscheinlich ist, ist schon länger bekannt:

kaltesonne [3]: Antarktischer Eisschild schmilzt wohl doch langsamer als gedacht

Ein internationales Forscherteam um Erik Ivins vom Jet Propulsion Lab im kalifornischen Pasadena hat sich nun die isostatische GIA-Korrektur näher angeschaut und auf Basis von neuen Überlegungen und Daten überarbeitet. Die Ergebnisse veröffentlichten Sie vor kurzem (2013) im Journal auf Geophysical Research. Dabei bestimmten sie auf Basis der Daten des letzten Jahrzehnts, dass die antarktische Eisschmelze im schlimmsten Fall einen Beitrag von 0,16 mm pro Jahr am weltweiten Meeresspiegelanstieg besitzt. Dies ist signifikant weniger als der Weltklimarat in seinem letzten Klimabericht von 2007 veranschlagt hat. Damals ging der IPCC noch von einem antarktischen Meeresspiegel-Beitrag von im schlimmsten Fall 0,56 mm pro Jahr aus (Tabelle SPM1 des IPCC AR4-Berichts).

Fast interessanter als der Inhalt ist die Begründung:

[3] Dies ist die sogenannte glacial isostatic adjustment (GIA). Und eben dieser Wert ist nicht einfach zu ermitteln. Die Unsicherheit beträgt hierbei 50-150 Milliarden Tonnen pro Jahr (Gigatonnen/Jahr). Dies ist kein Pappenstiel, der bisher angenommene Schmelzbetrag für die Gesamtantarktis beträgt lediglich 26 Gigatonnen pro Jahr. Da ist die Unsicherheit um ein Mehrfaches höher als das angebliche Datensignal, was nicht gerade Vertrauen in die Ergebnisse stiftet.

Dem Autor ist dies auch schon aufgefallen. Das nämlich die Messfehler der Eis-Volumensmessungen ein Vielfaches der angeblich sicheren Aussagen betragen (bezog sich auf eine AWI „Schmelzmeldung“).

Aber wo käme man hin, einfach klein beizugeben nur weil ein paar Unentwegte an AGW-Dogmen zu rütteln wagen. Wenn die einen weniger sagen, wird der AGW-Turbo eben erhöht. Simulationen schaffen das mit Leichtigkeit. Und 10 mal mehr ist wenigstens eine runde, für jeden eingängige Zahl.

GreenTech [4]: Eisschilde schmelzen zehnmal schneller

Der Meeresspiegel könnte in den nächsten 50 Jahren um drei Meter steigen, zeigt die neueste Studie des renommierten Klimaforschers James Hansen. Sich auf eine Erderwärmung um bis zu zwei Grad festzulegen, wie es im Pariser Klimaabkommen geschehen soll, sei "hoch gefährlich", findet Hansen und macht seine Ergebnisse schon vor einem Peer-Review-Verfahren öffentlich.

Was die Amis können, kann das deutsche PIK auch:

[5] PIK-Alarmmeldung: „Meeresspiegelanstieg: Zu groß zum Wegpumpen“, er könnte bis 2100 um 1,3 m steigen

Erinnerungen an die Waschmittelwerbung der 60er Jahre des letzten Jahrhunderts werden wach und so muss es auch den Juden im Alten Testament gegangen sein, wenn sie sich bei einem Wochenendausflug nacheinander ihre Untergangs-Propheten anhörten.

Dass jede Meldung vollkommen andere Werte angibt stört beim AGW-Wandel nicht, Hauptsache es geht ausreichend alarmistisch aufwärts.

Wie man die Simulationen – und ausschließlich solche zeigen einen (über dem natürlichen Trend liegenden) Anstieg – kalibrieren will, wenn man nicht einmal den realen Zustand genau genug messen kann bleibt ein Rätsel. Aber das ist so Vieles beim AGW-Klimawandel, dass es nicht mehr auffällt.

Fazit

Man muss den FOCUS in Schutz nehmen. Bei den vielen immer neu sich ändernden „sicheren“ Zahlen des AGW-Klimawandels kommt man wirklich schnell durcheinander. Und Hintergrundwissen oder einfach etwas Recherche mit der man die Ungereimtheiten erkennen könnte – kann man von einem Leitmedien-Redakteur schließlich nicht verlangen.

Quellen

[1] FOCUS ONLINE, 26.01.2016: Auswirkung des Klimawandels Bisher unterschätzt: Meeresspiegel steigt doppelt so stark wie bisher vermutet

http://www.focus.de/wissen/klima/auswirkung-des-klimawandels-bisher-unterschaetzt-meeresspiegel-steigt-doppelt-so-hoch-wie-bisher-vermutet_id_5237767.html

[2] www.wetter.de: Falsche Meldung zum Meeresspiegel Durcheinander zur Studie über den steigenden Meeresspiegel

http://www.wetter.de/cms/falsche-meldung-zum-meeresspiegel-2664752.html

[3] kaltesonne, 15. Juni 2013 Antarktischer Eisschild schmilzt wohl doch langsamer als gedacht

http://www.kaltesonne.de/antarktischer-eissschild-schmilzt-wohl-doch-langsamer-als-gedacht/

[4] GreenTech Jul 24 2015: Eisschilde schmelzen zehnmal schneller

http://www.greentech-germany.com/eisschilde-schmelzen-zehnmal-schneller-a1862301

[5] EIKE 01.04.2016: PIK-Alarmmeldung: „Meeresspiegelanstieg: Zu groß zum Wegpumpen“, er könnte bis 2100 um 1,3 m steigen

http://www.eike-klima-energie.eu/news-cache/pik-alarmmeldung-meeresspiegelanstieg-zu-gross-zum-wegpumpen-er-koennte-bis-2100-um-13-m-steigen/




Eine unbequeme Überprüfung: 10 Jahre später ist Al Gores Film noch immer alarmierend falsch

Gore warnte, dass Kohlendioxid-Emissionen die katastrophale globale Erwärmung erhöhen würden, was mehr extreme Wetter verursachen würde, Städte auslöschen und zum ökologischen Kollaps führen würde. Um die globale Erwärmung zu stoppen, muss der Mensch auf fossile Brennstoffe verzichten und im Grunde jeden Aspekt seines Lebens verändern.

Das Anschauen von „Eine unbequeme Wahrheit“ ist wie in der Zeit zurück zu gehen. Zurück zu einer Welt, in der Aufklapp-Handys cool waren und „Futurama“ [Zeichentrickserie, spielt zu Beginn des 31.Jh] noch neue Folgen drehte. Eine Welt, wo ein verbitterter Präsidentschaftskandidat versuchte, sich als Umwelt Kreuzfahrer neu zu erfinden.

Aber sind Gores Warnungen, die im Jahr 2006 auf viele alarmierend waren, wahr geworden?

Zu Ehren des bevorstehenden 10. Jahrestag, hat The Daily Caller „Eine unbequeme Wahrheit“ nochmal angeschaut, nur um zu sehen, wie gut Gores Warnungen der zukünftigen Klimakatastrophe mit der Realität einhergehen.

Gore reitet seit mindestens Ende der 1980er Jahre auf der globalen Erwärmung herum, aber erst 2006 entdeckte er eine Möglichkeit sich massiv zu bereichern,  indem er Filme dazu machte und in die staatlich geförderte grüne Energie investierte.

Gore eröffnet den Film, indem er über die Natur spricht, springt dann zu einer Präsentation, wo er das erste Bild zeigt, das je von der Erde aus dem Weltraum aufgenommen wurde. Von diesem Bild, springt er direkt zu alarmistischen Behauptungen über die globale Erwärmung.

Kilimanjaro hat immer noch Schnee

Einer der ersten eklatanten Behauptungen die Gore macht, ist über den Kilimandscharo in Afrika. Er behauptet, dass Afrikas höchster Gipfel schneefrei sein wird „innerhalb des Jahrzehnts.“ Gore zeigt Dias von Kilimanjaro’s Höhepunkt [der Schneebedeckung] in den 1970er Jahren im Vergleich zu heute, um daraus zu schließen, der Schnee verschwindet.

Nun, es ist schon ein Jahrzehnt und, ja, es ist immer noch Schnee auf dem Kilimandscharo, das ganze Jahr über. Man muss kein Wissenschaftler sein, um dies herauszufinden. Es reicht ein Blick auf die letzten Fotos die auf der Reise-Website TripAdvisor.com veröffentlich werden.

Im Jahr 2014 überwachten Ökologen aktuell Kilimanjaro’s Schneedecke und fanden, diese ist nicht einmal in der Nähe von Verschwinden. Die Schneedecke kann ein wenig geschrumpft sein, aber Ökologen sind zuversichtlich, es bleibt so für die absehbare Zukunft.

„Es gibt laufende mehrere Studien, aber die vorläufigen Ergebnisse zeigen, dass das Eis bei weitem nicht schmelzend ist“, Imani Kikoti, ein Ökologe am Mount Kilimanjaro National Park, auf eturbonews.com.

„So sehr wir uns einig sind, dass der Schnee über die Jahrhunderte zurückgegangen ist, sind wir uns aber einig, dass ein gesamtes abschmelzen nicht in naher Zukunft geschehen wird „.

Gore ließ die Erwärmungspause aus

Gore behauptet auch, der Temperaturanstieg durch Erhöhungen der vom Menschen verursachten Kohlendioxid-Emissionen würde „sich ohne Unterbrechung intensivieren.“ Er wechselte zu Hitzewellen, die häufiger werden, wie die eine 2003, die 35.000 Menschen in ganz Europa getötet hat.

Klingt erschreckend – bis Sie wirklich sehen, was mit der globalen Temperatur geschah, nachdem Gore‘s Film veröffentlicht wurde. Die globalen Temperaturen zeigten wenig bis gar keinen Erwärmungstrend.

In der Tat zeigen Daten der Oberflächentemperatur keine signifikante globale Erwärmung für einen Zeitraum von etwa 15 Jahren, der in den frühen 2000er Jahren beginnt.

Mit Satelliten erfasste Temperaturdaten zeigen, bis auf den aktuellen El Niño, keinen statistisch signifikanten Erwärmungstrend seit mehr als 21 Jahren.

Gores Film wurde direkt in der Mitte der so genannten globalen Erwärmungspause „Hiatus“ veröffentlich, die Gore ausgelassen hat.

Das Wetter ist nicht schlechter geworden

Gore wurde auch berühmt mit der Vorhersage, dass Stürme häufiger und intensiver werden wenn vom Menschen verursachte Emissionen die Ozeane erwärmen.

 „Natürlich, wenn die Ozeane wärmer werden, verursacht das stärkere Stürme „, sagte Gore in seinem Film. „Im selben Jahr, als wir diese Reihe von großen Hurrikanen hatten, setzen wir auch einen neuen Allzeitrekord für Tornados.“

Gores Film kam gerade, nachdem Hurrikan Katrina die Golfküste verwüstete. Aufnahmen von den Zerstörungen durch diesen Sturm wurden ausführlich in Gores Film gezeigt. Er erwähnt, wie die US mit Ausbrüchen von schweren Stürmen in den frühen 2000er Jahren getroffen wurde und wie Japan eine Rekordzahl von Taifunen erlebte.

„Die Versicherungswirtschaft hat dies bemerkt“, sagte Gore. „Deren Verluste steigen“.

Aber Gore Behauptung ist mehr Hype als eigentliche Wissenschaft, da Stürme nicht mehr extrem sind seit 2006, nicht einmal die Erkenntnisse des IPCC‘s unterstützen Gores Behauptung.

Der IPCC fand im Jahr 2013  „es gibt nur begrenzte Anhaltspunkte von Änderungen hin zu Extremen mit anderen Klimavariablen, seit der Mitte des 20. Jahrhunderts.“ Der IPCC fand auch „keine signifikanten beobachteten Trends in der globalen tropischen Zyklon Frequenz im vergangenen Jahrhundert“ und  „es wurden keine robuste Trends in der jährlichen Anzahl von tropischen Stürmen, Wirbelstürmen und schweren Hurrikane im Nordatlantischen Becken im letzten Jahrhundert identifiziert“.

Gore sollte diese Ergebnisse wohl ernst nehmen, da er den Nobelpreis im Jahr 2007 mit dem IPCC für seine Arbeit über die globale Erwärmung geteilt hat.

Der Nordpol hat noch Eis

Gore behauptete auch, die Arktis könnte in den kommenden Jahrzehnten eisfrei sein. „Innerhalb der nächsten 50 bis 70 Jahre könnte es vollständig verschwunden sein.“

Ohne arktisches Meereises würden Eisbären und alle Arten von arktischen Tieren bedroht sein, warnte Gore und zeigt eine animierte Szene eines ertrinkenden Eisbären.

Dies ist tatsächlich eine von Gores vorsichtiger Prognose – er sagte im Jahr 2008 falsch vorher, es würde bis 2013 keine Arktis mehr geben Aber auch in diesem Fall liegt Gore falsch, wahrscheinlich wegen der geographischen Lage der Arktis.

Die Arktis ist fast vollständig von Land umgeben, so dass das Eis, das sich dort bildet, dazu neigt, dort zu bleiben. Die arktische Eisbedeckung ist in den letzten Jahrzehnten geschrumpft, aber es ist nicht wahrscheinlich, dass wir auch einen Sommer erleben, wo der Nordpol vollständig eisfrei ist.

„Ich bezweifle, dass die Arktis in jedem Sommer frei von Eis sein wird, obwohl die Gesamtfläche auch in der Zukunft stark reduziert werden kann, wenn es sich dort weiter erwärmt“, sagte Chip Knappenberger, ein Klimaforscher am libertären Cato Institute. „Solche Situation sollte nicht allzu besorgniserregend sein, da es genügend Beweise gibt, dass es in der Vergangenheit [bereits] aufgetreten ist, und klar, Eisbären und alles andere dort oben, haben es geschafft zu überleben“.

Und bevor ich es vergesse, die neuesten Daten zeigen, dass Eisbären tatsächlich gedeihen, trotz schrumpfender Eisbedeckung.

Eine „Day After Tomorrow“ -Style Eiszeit ist immer noch einen Tag entfernt

Erinnern Sie sich an den 2004 Blockbuster-Film „The Day After Tomorrow“? In dem Film sagen die Wissenschaftler, der Golfstrom ist für die Regulierung des Klimas von wesentlicher Bedeutung, er schaltet sich ab und verursacht eine weitere Eiszeit.

Nun, Gore deutet an, dass dies passieren könnte, wenn Grönlands Eisdecke schmilzt und mehr kaltes Wasser in den Nordatlantik bringt.

„Am Ende der letzten Eiszeit, als der letzte Gletscher in Nordamerika zurückging, war das Eis geschmolzen und ein riesiger Pool von frischem Wasser gebildet“, sagte Gore. „Ein Eis-Damm bildete sich an der östlichen Grenze und eines Tages brach er“.

Gore sagte frisches, kaltes Wasser blutete aus in den Nordatlantik und verursacht das der Golfstrom zum Stillstand kommt und Europa in eine weitere Eiszeit schickt. Gore suggeriert dann, wenn Grönlands Eis schmilzt, das eine ähnliche Bedrohung darstellen könnte.

Australische Wissenschaftler haben jedoch völlig die Behauptungen entlarvt, der Golfstrom oder AMOC wurde schwächer werden.

„Behauptungen einer Verstärkung oder Verringerung des AMOC sind daher reine Spekulation“, schrieben Australiens Wissenschaftler in ihrer im März veröffentlichten Studie.

Erschienen auf The Daily Caller am 03.Mai 2016

Übersetzt von Andreas Demmig

http://dailycaller.com/2016/05/03/an-inconvenient-review-after-10-years-al-gores-film-is-still-alarmingly-inaccurate/




Fakten, die man nicht ignorieren sollte Russland: Ein kommender globaler Energieriese?

In diesem Chor ablehnender und abwertender Stimmen sind selten nachdenkliche Töne zu vernehmen. Eine Rolle spielt hier sicherlich die von einer höheren Pfarrerstochter maßgeblich bestimmte deutsche Politik. So war erst vor wenigen Tagen aus dem Kanzleramt zu hören, dass die G8 tot seien [SPIE]. Als Begründung wird angeführt, dass Moskau keine Anzeichen dafür zeige, die Bedingungen für eine Rückkehr zu erfüllen. Und zudem seien die Amerikaner strikt gegen eine Wiederaufnahme. Begriffe wie „Interessenlage Deutschlands“ bzw. Europas oder „Realpolitik“ finden sich in solchen Meldungen kaum. Der europäische Konsens beinhaltet eine einfache Kernbotschaft: Der ungezogene Rüpel hat so lange weiter in der Ecke zu stehen, bis der Schulmeister seine Meinung ändert. Konsequenzen für sich selbst scheint man in Berlin oder Brüssel nicht zu befürchten.

Auch die Medien schlagen nahezu flächendeckend in diese Kerbe. Anscheinend muss bis in die USA gehen, um Analytiker zu finden, die diesbezüglich öffentlich eine differenziertere Meinung vertreten. Einer von diesen ist Scott L. Montgomery von der Jackson School of International Studies der University of Washington, der in einem kürzlich in der „Huffington Post“ veröffentlichten Beitrag Fakten darlegte, mit denen man sich vielleicht näher beschäftigen sollte [HUPO]. Statt einer wörtlichen Übersetzung wurde für die folgende Darstellung die Form einer teils recht freien, eher sinngemäßen Interpretation gewählt. Diese Bereiche sind durch kursive Schrift kenntlich gemacht. Für Passagen, welche die persönliche Einschätzung des Autors wiedergeben, wurde dagegen normale Schrift gewählt. Auch Zwischenüberschriften stammen vom Autor.

Was hat denn Russland überhaupt zu bieten?

Zunächst warnt S. Montgomery davor, Russland als ein Land einzustufen, das seine Macht lediglich seinem Reichtum an Kohlenwasserstoffen – sprich Erdöl und Erdgas – verdanke. Eine solche Charakterisierung als „Petrostaat“ sei zu einseitig. In Wirklichkeit baue sich das Land nämlich als eine völlig neue Art von Energielieferant auf und gewinne dadurch mehr globalen Einfluss als selbst die Opec. Grund für den Unterschied sei Russlands Bedeutung auf vielen entscheidenden Energiesektoren, allen voran Öl, Gas, Kohle und Kernkraft. Diese breitgefächerte Energiestrategie, die auf fossile Brennstoffe ebenso setzt wie auf ein wiedererstarktes Nuklearprogramm, habe geopolitische ebenso wie wirtschaftliche Auswirkungen nicht nur für Russlands europäische Nachbarn, sondern auch für sich entwickelnde Nationen in der ganzen Welt.

Bild rechts oben: Bohrturm für eine Gasexploration

Exportweltmeister bei Öl und bei Gas

In der Diskussion über das Verhältnis zu Russland werde oft übersehen, mit was für einem Riesen auf dem Öl- und Gassektor man es hier zu tun hat. Vielfach wird gar nicht zur Kenntnis genommen, dass dieses Land nach Saudi-Arabien der weltweit zweitgrößte Erdölexporteur ist. Noch bedeutender als beim Erdöl sei seine Rolle auf dem Erdgassektor, wo es aktuell wohl der mit Abstand dominierende Exporteur ist Trotz zahlreicher Warnungen, dass die jetzigen hohen Pumpraten auf Dauer nicht durchzuhalten seien, gebe es keine Anzeichen für eine Änderung. Ein Grund hierfür sei sicherlich die kombinierte Wirkung des aktuellen Verfalls der Ölpreise sowie der im Zusammenhang mit der Ukraine verhängten Sanktionen. Dadurch wurden sowohl der Staat als auch die Wirtschaft schwer getroffen. Vorerst scheine dem Land nichts anderes übrigzubleiben, als weiterhin sein hohes Förderniveau beizubehalten.

Mittelfristige Stabilisierung

Trotz dieser Probleme hat das Land eine Gegenstrategie gefunden, die es ihm erlauben dürfte, die Auswirkungen abzufedern und sich langfristig sogar in eine bessere Ausgangsposition zu bringen. So hat Russland fortschrittliche neue Methoden zur Verbesserung der Ausbeute bei älteren Feldern eingesetzt und konnte dadurch den Rückgang ihrer Produktion kompensieren. Ergänzt wurde dies durch neu erschlossene Vorkommen im ostsibirischen Becken sowie auf der Sachalin-Insel. Dies Kombination hat es Russland ermöglicht, seine Produktion langsam, aber stetig zu steigern.


Rohre für eine Bohrlochauskleidung

Raffination auf Rekordniveau

Ein weiterer wesentlicher Unterschied zwischen Russland und vielen anderen ölexportierenden Ländern betrifft die Tatsache, dass die Russen nicht nur die reinen Rohstoffe Öl und Gas liefern, sondern auch raffinierte Produkte wie Benzin oder Treibstoff für Flugzeuge, die sowohl nach Europa als auch nach Asien exportiert werden. Interessant ist hieran schon allein der Umfang: Russland ist auf diesen Schlüsselsektoren bereits seit mehr als einer Dekade der weltgrößte Exporteur und liefert mehr als die gesamte OPEC zusammengenommen. Nur die USA haben aufgrund ihres Booms im Schiefergasbereich ähnliche Zahlen vorzuweisen. Dank dieser zusätzlichen Prozessschritte in der Wertschöpfungskette ergeben sich weitere Verdienstmöglichkeiten, so dass ein höherer Anteil der erzielten Verkaufserlöse im eigenen Land verbleibt.

Niemand kennt die wahren Reserven

Die entscheidende Frage im Zusammenhang mit Russland ist die nach der tatsächlichen Höhe der vorhandenen Reserven. Hierzu scheint es im Ausland keine wirklich verlässlichen Zahlen zu geben. Diverse Anzeichen sprechen allerdings dafür, dass sie bedeutend sein könnten. Und sie werden in der jetzigen Situation schlechter Preise geschont. So hat Russland beispielsweise die Inangriffnahme zahlreicher neue Öl- bzw. Gasprojekte schlicht verschoben und eher darauf gesetzt, den Förderstrom aus den vorhandenen Bohrlöchern mithilfe moderner Fördertechnologien zeitlich zu verlängern. Für neue Märkte in Asien hat man gleich auf neue Vorkommen in Ostsibirien und auf der Insel Sachalin zurückgegriffen. Das Problem für den Westen ist die Tatsache, dass man dort nicht weiß, über welche Reserven an Kohlenwasserstoffen Russland wirklich verfügt. Sie sind vermutlich gewaltig. Unter der Arktis dürften noch riesige unerschlossene Vorkommen schlummern, und auch unter dem Kaspischen Meer, dem Nordkaukasus sowie Teilen von Ostsibirien sowie Sachalin werden noch große Ressourcen vermutet. Hinzu kommt noch enormes Potenzial für Schieferöl und -gas in Westsibirien.

Im Visier der Saudis?

Viele Beobachtern haben Mühe, die aktuellen politischen und wirtschaftlichen Manöver der Außen- und Wirtschaftspolitik Saudi-Arabiens einzuordnen. Die aggressive Förderpolitik schadet sowohl Freund (USA, übrige OPEC-Staaten) als auch Feind (Iran und Russland). Militärisch hat man sich im Jemen in eine kriegerische Auseinandersetzung verwickeln lasse, die nicht so siegreich zu verlaufen scheint, wie man sich das vermutlich erhofft hatte. Die Erfolge des von den Saudis unterstützten und finanzierten Bürgerkriegs in Syrien wurden durch das  Eingreifen russischer Truppen in vergleichsweise kurzer Zeit weitgehend zunichte gemacht. Und das früher enge Verhältnis zu den USA ist mittlerweile deutlich komplizierter geworden. Insgesamt ist eine sehr komplizierte Gemengelage verschiedenster Machtfaktoren und geopolitischer Interessen entstanden, die nur schwer zu interpretieren ist. Einigen Aspekten sollte man jedoch Aufmerksamkeit schenken.

Saudi-Arabien hat seine Preis- und Förderschlacht losgetreten, als Russland durch die Ukrainekrise und die Boykotte bereits geschwächt und isoliert wirkte. Dennoch scheint Moskau imstande zu sein, der von Saudi-Arabien losgetretenen Mengen- und Preisschlacht standzuhalten. Das berechtigt zu Spekulationen über die tatsächliche Größe der russischen Reserven. Tatsache ist, dass Russlands Wirtschaft zwar angeschlagen, aber noch längst nicht K.O. zu sein scheint und die Devisenreserven weitgehend stabil sind, während die Goldbestände sogar zunehmen. Auf der anderen Seite kommt auch Saudi-Arabien augenscheinlich nicht ohne Blessuren davon. So gibt es Meldungen über wirtschaftliche Probleme, und die kürzliche Ankündigung, sich vom Öl abwenden zu wollen, wirft eine Menge Fragezeichen auf. Hinzu kommen Rückschläge auch auf außenpolitischem Gebiet. Es ist den Saudis nicht gelungen, die Aufhebung der Isolation Teherans zu verhindern, und das Verhältnis zu den USA war früher möglicherweise schon mal enger. Die schnelle und erfolgreiche Militärkampagne der Russen in Syrien ist auch ein Signal an Riad. Auch sollte zu denken geben, dass Russland im gleichen Zusammenhang bereit war, finanzielle Verluste in zweistelliger Milliardenhöhe in Kauf zu nehmen, als die Türkei sich einmischte. Die Schnelligkeit und Härte der russischen Reaktion gegenüber Ankara zeugt nicht unbedingt von Schwäche, weder was Finanzen noch was politische oder militärische Macht angeht. Bei aller gebotenen Vorsicht könnte man in all dem Anzeichen dafür sehen, dass das Wüstenkönigreich mit Moskau an einen Gegner geraten ist, der ihm auf seinem ureigensten Gebiet – dem Erdöl – auf Augenhöhe begegnen könnte.

Erdgas als Trumpf

Ein ganz entscheidender Trumpf in der Hand Moskaus ist in diesem Zusammenhang das Erdgas. Unter den Kohlenwasserstoffen ist dies die höherwertige Energiequelle. Ergiebige Erdgasvorkommen sind wesentlich rarer gesät als solche des Erdöls. Hier ist Russland nicht nur der mit Abstand größte Exporteur, sondern verfügt auch über rund 25 % der weltweit bekannten Reserven. In einer Welt, die nach COP21 versuchen will, aus Klimaschutzgründen ihren Primärenergiebedarf eher aus Erdgas statt aus Kohle oder Erdöl zu decken, wird deshalb in Zukunft wohl kein Weg an Russland vorbeiführen.

Europa ist bezüglich seines Bedarfs an Kohlenwasserstoffen – insbesondere bezüglich Erdgas – zu 30 % von Russland abhängig. Bei fast der Hälfte der europäischen Länder einschließlich Deutschlands liegt die Abhängigkeit mit Werten zwischen 40 und 100 % noch deutlich höher. Offizielle Verlautbarungen, dass diese Abhängigkeiten abgebaut würden, haben sich bisher wohl als hohle Phrasen erwiesen. Die Realität spricht in Form erhöhter Importe eine andere Sprache. Die wirtschaftliche Schwäche Europas hat es gezwungen, lieber preiswertes Pipeline-Erdgas aus Russland zu beziehen als das teurere Flüssiggas aus Übersee.

Ostasien befindet sich diesbezüglich in einem früheren, aber bereits jetzt wesentlichen Stadium eines ähnlichen Abhängigkeitsverhältnisses. So bezieht Japan, der weltweit größte Flüssiggasimporteur, inzwischen rund 10 % seiner Lieferungen aus Russland, versucht aber dessen ungeachtet, weitere Verträge abzuschließen.

Als Fazit bleibt festzuhalten, dass Lieferungen von russischem Öl und Gas für die Mehrzahl der fortgeschrittensten Volkswirtschaften der Welt unverzichtbar geworden sind. Sollten die Vorhersagen der International Energy Agency (IEA) und vergleichbarer Organisationen zutreffen, so wird die Nachfrage nach Erdgas in den nächsten Jahrzehnten zunehmen.

Abkehr von Europa bei Öl, Gas…

Mit Blick auf die internationale Ausrichtung russischer Energieexporte sind Anzeichen einer für Europa nachteiligen Entwicklung nicht zu übersehen. Während russisches Öl und Gas aus vorhandenen Quellen zurzeit weiterhin nach Europa fließen, findet nach und nacch eine Verschiebung nach Asien statt. Schwerpunkte sind hierbei China, Japan und Südkorea. Neue Vorkommen und neue Pipelines werden vor allem mit Blick auf Asien erschlossen.

Bisherige russische Versuche einer Verbesserung der Liefersituation für Europa scheinen dagegen vorerst weitgehend auf Eis zu liegen. Die South Stream-Pipeline wurde auf Betreiben der EU gestoppt, als das Rohrmaterial schon bestellt war. Das erratische Verhalten eines aufstrebenden Despoten am Bosporus, an den sich Europa auf Betreiben einer gewissen Dame mit Betonkopf und Blondfrisur gegen jede Vernunft binden möchte, hat zudem dafür gesorgt, dass auch die Planungen für eine Ausweichroute nachhaltig gestört sind. Hierzulande scheint man nicht zu begreifen, dass Pipelines extrem teure und deshalb entsprechend langfristig ausgelegte Infrastrukturprojekte darstellen. Hat man einen potenziellen Investor einmal „überzeugt“, dass er sein Geld und seine Ressourcen besser woanders einsetzen sollte, so wird man ihn später in der Regel nur mit größter Mühe dazu bringen können, diese Entscheidung noch einmal zu überdenken. Hier haben unsere Politiker recht gewichtige Hypotheken aufgenommen. 

…und auch bei der Kohle

Diese Verschiebung der russischen Interessenschwerpunkte lassen sich auch beim Export von Steinkohle feststellen, einem weiteren Energiesektor, auf dem das Land eine weltweit führende Rolle spielt. Die in Russland vorhandenen Reserven sind die weltweit zweitgrößten und werden nur noch von denjenigen der USA übertroffen. Auch wenn die USA ihre Kohleindustrie derzeit vor die Wand fahren und Europa aus Klimaschutzgründen aus der Kohleverstromung aussteigen möchte, gibt es weltweit genügend Abnehmer.

Seit dem Jahr 2000 hat sich das Exportvolumen von 45 Mio. t/a auf über 150 Mio. t/a mehr als verdreifacht. Damit liegt Moskau hinter Indonesien und Australien weltweit auf dem dritten Platz. Ähnlich wie bei den Kohlenwasserstoffen gehen diese Exporte sowohl nach Westen wie auch nach Asien, doch liegt der Anteil von China, Japan und Südkorea bereits bei mehr als 40 % und nimmt weiter zu. Wachsende Nachfrage gibt es auch aus Indien und Südkorea sowie einer Reihe von Ländern in Südostasien. Russland profitiert hierbei von seiner geographischen Lage, die es ihm erlaubt, seine Exportmärkte sowohl im Westen als auch im Osten zu suchen.


Schreitschilde stützen die „Decke“ im Untertage-Kohlebergbau und schützen so die Kumpel

König Kernkraft?

Einen massiven Ausbau betreibt Russland darüber hinaus im Bereich der Kernenergie. Die staatliche Nuklearfirma Rosatom hat seit 2010 Verträge und Kooperationsabkommen mit mehr als zwei Dutzend Ländern abgeschlossen. Diese betreffen die erstmalige Errichtung von Kernkraftwerken im jeweiligen Land. Darüber hinaus übernimmt Russland auch den Betrieb und die Versorgung mit Kernbrennstoff.

Zu den Vertragspartnern gehören nicht etwa die reichsten Länder, da die meisten von diesen bereits über Nuklearenergie verfügen. Stattdessen finden sich darunter Länder wie Vietnam, Myanmar, Bangladesh, Armenien, die Türkei, Jordanien, Saudi-Arabien sowie Ägypten. Keines dieser Länder ist bisher Mitglied im „Nuclear Power“-club.

Es gibt eine Reihe wichtiger Gründe, weshalb diese sich entwickelnden Länder Interesse an Kernkraft haben: Steigender Bedarf an elektrischer Energie, der Wunsch nach CO2-freier Stromerzeugung und Sorgen um die künftige Sicherheit der Energieversorgung. Damit ist, klar, dass ungeachtet einer Stagnation oder sogar eines Rückgangs der Kernkraftnutzung in westlichen Ländern ihr Einsatz in diesen sich entwickelnden Ländern stark zunehmen wird.

Im März dieses Jahres vermeldete die World Nuclear Association, dass aktuell 65 Reaktoren im Bau sind und weitere 173 in den Auftragsbüchern standen oder geplant waren. Die meisten waren für China, Indien oder Russland selbst vorgesehen. Aber über diese Zahlen hinaus, die allein für sich mehr als ausreichen, um alle Kernreaktoren zu ersetzen, die in die nächsten Dekaden möglicherweise stillgelegt werden könnten, gibt es 337 weitere Reaktoren, die zurzeit in der Diskussion stehen. Ihre Standorte liegen in 50 Nationen, von denen 31 bereits Kernkraftprogramme haben. Hierzu gehören die meisten oben bereits genannten Länder, die bereits Verträge oder Vereinbarungen mit Russland haben. Darüber hinaus gibt es aber weitere Interessenten in Afrika, Südostasien und Südamerika, die durchaus zu einem späteren Zeitpunkt in die Kernenergie einsteigen dürften.

Entscheidend ist in diesem Zusammenhang, dass Russland bereits bewiesen hat, dass es imstande ist, am Wettbewerb für einen großen Anteil an diesem neuen, rasch wachsenden globalen Markt teilzunehmen [ROSA]. Die Globalisierung der Nukleartechnologie hat Russland die Möglichkeit eröffnet, erfolgreich gegen Anbieter aus Japan, Südkorea, Frankreich, den USA und demnächst auch China und Großbritannien anzutreten. 

Allerdings hat Russlands keine Garantien für Erfolg auf diesem Gebiet. So plant beispielsweise Saudi-Arabien die Errichtung von 16 Kernreaktoren bis 2035 und hat eine ganze Reihe von Angeboten sowohl für kleinere als auch für größere Anlagen von Russland, Japan und Südkorea eingeholt. Dennoch zeigt sich, dass die Bedeutung Russlands als Lieferant sowohl von Nukleartechnologie als auch von entsprechenden Brennstoffen in Zukunft auf jeden Fall zunehmen dürfte. Das Resultat könnte eine Machtposition Moskaus in vielen Teilen der sich entwickelnden Welt sein, welche die Sowjetunion niemals erreichen konnte.

Grafische Darstellung des modernen russischen Kernkraftwerks der Generation 3+ in Novoworonesch (http://www.rosenergoatom.ru/media/files/magazine/REA0_0108.pdf (Seite 32/33)) Original uploader was TZV at de.wikipedia)

Sehr interessant ist in diesem Zusammenhang auch eine kürzliche Analyse der südafrikanischen IOL, die sich mit der russischen Nuklearpolitik in Afrika beschäftigt [SUED]. Mit Ausnahme des bereits gut industrialisierten Südafrikas verfügen die südlich der Sahara gelegenen Länder Afrikas nur über rund 28 GW an Kraftwerkskapazität, gerade einmal soviel wie Argentinien. Nur ein Viertel der Bevölkerung hat Zugang zu elektrischem Strom, und die Versorgung ist sehr unzuverlässig. Diesem Mangel wollen Afrikas Länder durch Bau von Kernreaktoren begegnen.

Algerien plant demnach den Bau von 2 KKW mit 2.400 MW, in Ägypten geht es um 4 KKW mit 4.800 MW, Ghana 1 KKW mit 1.000 MW, Kenya 4 KKW mit 4.000 MW, Marokko 1 KKW, Nigeria 4 KKW mit 4.000 MW und Südafrika will 6-8 Reaktoren mit insgesamt 9.600 MW errichten.

Russland ist dieser Quelle zufolge der weltweit größte Exporteur von Nukleartechnologe mit einem Anteil von 25 % aller derzeit gebauten Kernkraftwerke. Darüber hinaus hat Moskau zweistellige Prozentanteile an Konvertierung und Anreicherung von Uran, an der Lieferung von Kernbrennstoffen und an der Wiederaufbereitung abgebrannter Brennstäbe. Die Exporterlöse von Rosatom erreichten im vergangenen Jahr 6,4 Mrd US-$, während das Gesamtvolumen der bis 2030 vorliegenden Auslandsaufträge 110 Mrd US-$ erreichte.

Eine ernstzunehmende Energiegroßmacht

Viele, vermutlich sogar die meisten der hier besprochenen Beziehungen, die sich auf Energielieferungen gründen, sind zweifellos primär kommerzieller Natur. Noch ist nicht abzuschätzen, wie viele derjenigen, die sich auf Öl und Gas beziehen, sich auf Dauer entwickeln werden, vor allem dann, wenn sich die aktuelle Preisschwäche zu einem Dauerzustand entwickeln sollte.

Aus Russland entwickelt sich augenscheinlich – und das vermutlich für zumindest die kommende Dekade – eine Energiegroßmacht, deren Einflussmöglichkeiten weit über rein kommerzielle Aspekte hinausreichen. Zwar scheinen die langfristigen Auswirkungen dieser Entwicklung noch nicht klar zu sein, doch zeichnet sich hier ein Machtfaktor ab, den man tunlichst nicht auf die leichte Schulter nehmen, sondern nüchtern und mit kühlen Kopf analysieren sollte.

Denn unabhängig von der Frage, in welcher Form sich im Osten ein neues „Energieimperium“ herauskristallisieren sollte: Über Hebel für mehr Macht und Einfluss werden die Herrscher in Moskau auf jeden Fall verfügen. Als Nation, die dabei ist, sich selbst energiepolitisch bis herauf zum Bauchnabel zu kastrieren, wäre Deutschland gut beraten, mit diesem künftigen Kraftzentrum der Weltpolitik vorsichtig umzugehen. Die jetzige weitgehende Unterwerfung Deutschlands unter die geopolitische Interessen und Machtspiele eines außereuropäischen Landes, dessen Interesse sich nach eigenem Bekunden verstärkt auf den pazifischen Raum richtet, erscheint in diesem Umfeld riskant. Denn egal was wir uns wünschen mögen: Russland wird in jedem Fall unser naher Nachbar bleiben. Im Guten ebenso wie im Schlechten.

Fred F. Mueller

Quellen

[HUPO] http://www.huffingtonpost.com/the-conversation-us/russia-a-global-energy-po_b_9693032.html

[ROSA] http://wirtschaftsblatt.at/home/nachrichten/europa_cee/4981378/AtomExport_Rosatom-sieht-sich-technologisch-an-der-Weltspitze

[SPIE] http://www.spiegel.de/politik/ausland/russland-wird-nicht-wieder-in-g8-gruppe-aufgenommen-a-1090030.html

[SUED] http://www.iol.co.za/business/news/africas-big-nuclear-ambitions-lure-russia-2019026




Deutschland im 21. Jahrhundert – Von der Industriegesellschaft zum Ökosozialismus

Was für ein Vorhaben! Was für eine Hybris! Seit Bestehen der Erde ist ihre Atmosphäre von teils drastischen Klimaänderungen betroffen. Und jetzt sollen Änderungen der weltweit unterschiedli­chen Lufttemperaturen, die ja wesentliche Elemente des Klimas sind, vertraglich festgelegt werden, so etwa wie die Einstellung des Thermostaten an einer Zentralheizung. Dies ist angeblich möglich durch die als „Dekarbonisierung“ bezeichnete Beendigung aller durch die heutige Lebensweise (In­dustrie, Verkehr, Wohnen) verursachten Emissionen des Gases Kohlendioxid ( CO2).

Eine Wettervorhersage über mehr als drei Tage ist kaum möglich. Und jetzt wird behauptet, dass sich die langfristigen Mittel­werte dieses komplexen Geschehens durch Einflussnahme auf winzige Änderungen eines einzigen Parameters, der CO2 Konzentration nachhaltig regeln lassen.

Dennoch wurde dieses absurde Vorhaben auf der Klimakonferenz von 195 Ländern plus der EU be­schlossen.

Die auf Grund der Kli­maänderung beschworenen angeblichen Gefahren treffen hauptsächlich unter­entwickelte Länder, die kaum Beiträge zur CO2 Emission leisten und damit von der kostspieligen Dekarbonisierung ih­rer Lebensumstände kaum betroffen sind, an der ja angeblich die Industrielän­der „Schuld“ sind. Daraus wird ein Anspruch dieser Länder gegen die entwickelte Welt abgeleitet. Diesem Anspruch soll durch Gründung eines UN Klimaschutzfonds genüge geleistet werden, in den die Industrielän­der soviel einzahlen, dass daraus jährlich 100 Mrd. $ an die ärmeren Länder verteilt werden können, um diesen zu ermöglichen sich gegen die „Gefahren“ des Klimawandels rüsten zu können. Das wird diese anregen, irgendwelche Projekte zu erfinden, für die sie dann Geld beanspru­chen können. Was veranlasst die Geberländer bei dieser gigantischen Vermögensumverteilungs-Ma­schinerie mit zu machen?

Unerklärlicher Weise gehört das führende Industrieland Deutschland zu den aktivsten Verfechtern dieser Dekarbonisierungsstrategie. Die Angst vor einer die Menschheit bedrohenden Erderwärmung wird vor allem auch durch die links-grün dominierte deutsche Regierung Merkel geschürt.  Bereits auf der ersten Weltklimakonferenz COP 1 1995 in Berlin versprach die damalige Umweltministerin Angela Merkel, sich dafür einzusetzen, dass Deutschland stets den höchsten Beitrag aller Industrie­länder für den „Klimaschutz“ aufbringen soll. Dies ist eine der wenigen Konstanten in ihrer Politik. Merkel 2007: „Ein weiter so gibt es nicht. Der Klimaschutz ist die größ­te Herausforderung des Jahr­hunderts“. Und bei der G7 Konferenz in Elmau erneut ein Bekenntnis zum Zweigrad-Ziel: „Wir wissen, dass wir dafür tiefe Einschnitte bei weltweiten Treibhausgas-Emissionen brauchen und ha­ben uns deshalb dazu bekannt, dass wir im Laufe dieses Jahrhunderts eine Dekarbonisierung der Weltwirtschaft brauchen“.(Pressekonferenz Sender Phoenix, 8.6.2015)

Die Umweltministerin Frau Hendricks propagiert das Auslaufen der Produktion von Verbrennungs­motoren bis Mitte des Jahrhunderts.  Das Elektroauto soll dann offenbar die Basis für den Indivi­dualverkehr  werden. Eine abenteu­erlich Vorstellung. Ein teures Fahrzeug, mit dem man ohne Kli­maanlage jeweils ca. 100 km fahren kann, bis man an einer hoffentlich freien Ladestation in einer halben Stunde Energie für die nächs­ten 100 km laden kann. Ein solches Vehikel, dass selbstver­ständlich in einer Marktwirtschaft prak­tisch unverkäuflich ist, soll nun durch eine von der Allge­meinheit aufzubringende Subvention von 4000 € gefördert werden. Ein Fahrzeug, das keinen steu­erlichen Beitrag zu Ausbau und Erhalt der Verkehrsinfrastruktur leistet. Die technologischen Defizi­te sollen durch staatlich geförderte Ent­wicklungen überwunden werden, für die es aber derzeit über­haupt keinen erfolgversprechenden An­satz gibt.

Als naturwissenschaftlich ausgebildeter Ingenieur steht man diesen politischen Abenteuern fas­sungslos gegenüber und sucht nach einer Erklärung für eine solche de facto Selbstmord-Strategie.

Das von Angela Merkel auf der Vorkonferenz in Elmau maßgeblich konzipierte Programm der  COP 21 in Paris, bedeutet praktisch: 40.000 „Revolutionäre“ beschließen einen neuen Morgenthau­plan! 

Der Morgenthauplan war bekanntlich der nach Ende des zweiten Weltkriegs 1944 vom US Finanz­minister Mor­genthau entworfene Plan einer vollständigen Deindustrialisierung Deutschlands, das auf den Status eines Agrarlands zurückentwickelt werden sollte. Insbesondere sollte die Montanin­dustrie an Ruhr und Saar total beendet werden. Das Wort „Dekarbonisierung“ gab es damals noch nicht, aber es beschreibt genau das!

Exkurs

zu den naturwissenschaftlichen Grundlagen der Hypothese von der menschlich verursachten globa­len Erwärmung kurz AGW-Hypothese (Anthropogenic Global Warming).

Zur Begründung wurde  ein Gedanke herangezogen, den zuerst Jean Babtiste Fourier im Jahr 1824 beschrieben hat. Einfallendes Licht erwärmt den Erdboden, die vom Erdboden dadurch emittierte Wärmestrah­lung wird aber in der Atmosphäre irgendwie absorbiert und erwärmt (Fourier kannte die Strahlungsei­genschaften der Gase noch nicht).

Ausgehend von diesen Ideen beschrieb John Tyndall 1862 einen auf den Strahlungseigenschaften der Gase beruhenden Treibhauseffekt. Er erkannte, dass dafür im wesentlichen der Wasserdampf verantwortlich ist, aber auch CO2 eine Rolle spielt. Auf diesen Ideen aufbauend leitete der Physiko- Chemiker Svante Arrhenius (1859 – 1927) im Jahr 1896 ein Klimamodell ab, mit dem er versuchte, die Eiszeiten zu erklären.

Diese Thesen hatten nur ein kurzes Leben. Sie wurden bereits von den berühmten Physikern Gustav Kirchhoff (1824 – 1887) und Robert Bunsen (1811 – 1899) widerlegt. Kirchhoff und Bun­sen wie­sen anhand der von ihnen aufgestellten und noch heute Bestandteil des elementaren Physikunter­richts bildenden Grundlagen der Wärmeübertragung durch Strahlung nach, dass die Erdatmo­sphäre als offenes System nicht mit einem Treibhaus verglichen werden darf. Ein strahlender, annähernd schwarzer Körper kann von keiner nur selektiv Strahlung absorbierenden Schicht an seiner Abküh­lung gegen einen kalten Hintergrund behindert werden. Insbesondere ist auch eine Wärmeübertra­gung aus der kalten Hochatmosphär­e auf den warmen Erd­boden weder durch eine „Gegenstrahlung“ noch durch sonst einen Me­chanismus möglich, da dies dem 2. Hauptsatz der Thermodynamik widerspricht!

Die Erde kann nicht mit einem Treibhaus verglichen werden, da das für die Funktion eines Treib­hauses entscheidende Bauelement eines Glasdachs fehlt. Der reale Treibhauseffekt beruht nicht auf Strahlungswirkung sondern auf der Behinderung des konvektiven Wärmeaustauschs mit der Umge­bung. 1906 lieferte der amerikanische Physiker William R. Wood dafür auch einen experi­mentellen Beweis durch Vergleich zweier Treibhausmodelle mit ei­nem für Wärmestrahlung durchlässigen und einem undurchlässigen Glasdach. Beide erwärmen sich ungefähr gleich. Die Strahlung spielt keine Rolle.

Mehr ist dazu nicht zu sagen. So funktioniert Naturwissenschaft: Neue Ideen werden geboren und müssen ei­ner Prüfung anhand erprobter Gesetze, Messungen und Beobachtungen standhalten oder werden verworfenen. Das ist die naturwissen­schaftliche Methode, wie sie von dem bedeutenden Philoso­phen Karl Popper[1] in „Conjectures und Refutations“ beschrieben ist. Die letzte Instanz für die Ent­scheidung, ob eine The­se Anerkennung findet oder verworfen werden muss, ist immer die Beobach­tung.

Die klarste Antwort gibt in diesem Fall die Paläoklimatologie: Selbst unter Beachtung der Tatsache, dass derartige über Jahrmillionen gehende und auf verschiedene Proxydaten zugreifende Darstellun­gen eine vielleicht relativ große Unsicherheit aufweisen, zeigt das Diagramm eindeutig: Es gab und gibt keine Steuerung der globalen Temperatur der Troposphäre durch ihren CO2-Gehalt!

Abbildung 1. Verlauf der CO2 Konzentration und er globalen Mitteltemperatur über geologische Zeiträume.

Beide Größen zeigen aber extreme Werte, die weit über die aktuellen, alarmistisch diskutierten Wer­te hinausgehen. Insbesondere mit CO2 -Gehalten die mehr als 10 fach über den heutigen Werten lie­gen ohne dass lebensbedrohliche Temperaturen erreicht wurden.

Siehe Bild oben

Ausgangspunkt des gegenwärtig einen großen Teil der Industrieländer gefährdenden Ökowahns war wahrscheinlich die vom Club of Rom in die Vorstellung der Massen gerückte malthusianistische[2] Vorstellung von den Grenzen des Wachstums, die insbesondere der kapitalisti­schen Wirtschaft ein Ende bereiten werden. Dies ist der Vorläufer, der heute von der Umweltbewegung entwickelten Hy­pothese des „Ökologischen Fußabdrucks“[3].

Nach dieser in Deutschland vor allem durch Ernst Ulrich von Weizsäcker vertretenen These gibt es in den Industrieländern große „Nachhaltigkeitsdefizite“ gegenüber den Entwicklungsländern. Die Daten werden vom Global Footprint Network erhoben. Dabei wird die für einem Menschen durch­schnittlich verfügbare Land- und Wasserfläche (die sogenannte „Biokapazität“) der von diesem Menschen in Anspruch genommenen Fläche gegenüber gestellt. Die von den Bürgern der Industrie­länder in Anspruch genommene Fläche ist dabei im Vergleich zu der in den Entwicklungsländern pro Kopf verfügbaren Fläche zu groß.  Slogan: Wollten alle Menschen die von den Bewohnern der Industrie­länder beansprucht Fläche nutzen, brauchte man eine zweite Erde!

In diese Berechnungen werden nicht nur die reinen Produktionsflächen, etwa für die Lebensmittel­produktion  einbezogen, sondern z.B. auch Ansätze für die Müllentsorgung. Einen großen Teil nimmt die Energiewirtschaft ein, bei der etwa die Waldfläche berechnet wird, die not­wendig ist, um die auf eine Person entfallende Kohlendioxidemmission zu neutralisieren. Wie man leicht erkennt, bietet das Konzept eine große Anzahl von willkürlich anwendbaren Stellschrauben, die letztlich je­des gewünschte Ergebnis einstellbar machen.

Das Konzept ist sehr gut und einprägsam zu veranschaulichen. Das Global Footprint Network be­rechnet z.B. jährlich den „Earth Overshoot Day“, ab dem die von der Menschheit konsumierten Ressourcen die Kapazität der Erde übersteigen. Im Jahr 2012 war dies der 22.August!

Im Jahr 2009 wurden auf Grund dieser Konzepte von einem 28 köpfigen Wissenschaftlerteam soge­nannte „Planetary Bounderies“ als ökologische Grenzen der Erde definiert, die von einer künftigen Menschheit nicht überschritten werden dürfen. Zu diesem Team gehörte, man könnte fast sagen selbstverständlich, auch Hans-Joachim Schellnhuber vom Potsdam Institut für Klimafolgenfor­schung (PIK), der die Verbindung der malthusianistischen Ressourcenerschöpfungs-Theorie mit der Klimapolitik herstellte.  Auch die Atmosphäre wird zu einem knappen Gut. Die Treibhaus­gas-Hypothese wird wiederbelebt und behauptet, es dürften nur noch sehr begrenzte Mengen von CO2 in der Atmosphäre „abgelagert“ werden.

Dies wurde sehr offen bereits in dem oft zitierten Statement des Geschäftsführers des PIK[4], Otmar Edenhofer ausgesprochen.  Er sagte 2010 auf der Klimakonferenz in Cancun:

Der Klimagipfel ist keine Klimakonferenz, sondern eine der größten Wirtschaftskonferenzen seit dem zweiten Weltkrieg. Warum? Weil wir noch 11.000 Gigatonnen Kohlenstoff ..unter unseren Füßen haben..und wir dürfen nur noch 400 Gigatonnen in der Atmosphäre ablagern, wenn wir das Zweigrad-Ziel einhalten wol­len.“ Und weiter: „Zunächst haben wir Industrieländer die Atmosphäre der Weltgesellschaft quasi enteignet. Aber man muss klar sagen: Wir verteilen durch die Klimapolitik de facto das Weltvermö­gen  um“.

Er unterstellt damit, dass es den bereits widerlegten Zusammenhang zwischen Klima und CO2 Ge­halt der Troposphäre gibt und dass er sogar die diesbezüglichen quantitativen Verhältnisse kennt.

Hier wird jetzt eine der Quellen sichtbar, die zu dem gegenwärtigen allumfassenden Klimawahn ge­führt hat.

Es kann als gesichert gelten, dass  eine Gruppe von Aktivisten um den damaligen US Präsident­schaftskandidat Al Gore auf dieser Grundlage eine Geschäftsidee entwickelte.

Ein Maximalgehalt der Erdatmosphäre  an CO2 wird zu einer begrenzten Ressource definiert und damit zum Gegenstand einer Mangelverwaltung mit Hilfe von Kohlenstoffsteuern. Der „Spiegel“ (Heft 33, 1986) erscheint mit dem Titelbild des im Meer versinkenden Kölner Doms und der Unter­schrift: „Die Klimakatastrophe“. Durch die Rationierung der Erlaubnis Kohlendioxid zu emittieren wird ein neues knappes Gut erschaffen, das bezahlt werden muss.  ( Hartmut Bachmann, Die Lüge der Klimakatastrophe, 6. Auflage 2010). Durch die sehr guten Verbindungen dieser Clique findet diese Idee den Weg in den US-Senat und in die große Politik. AGW ist bei der UN angekommen.

Hier vermählt sich die Geschäftsidee mit der in den 70iger Jahren auf der oben beschriebenen Mal­thusianistischen Ideen allseits um sich greifenden antikapitalistischen Ideologie.

Als Hauptakteur fungierte James Hansen, bis 2013 Head of NASA Goddard Institute for Space Stu­dies und Freund Al Gores. Hansen war es, der das AGW-Konzept über den US-Senat zum Gegen­stand der UN machte, was zur Gründung des UNFCCC[5] und des IPCC[6] führte.

Eine weitere Zentralfigur war  der US Klimatologen Michael Mann[7], der aus Baumringdaten für die letzten 2000 Jahre nachzuweisen versuchte, dass allein menschliche CO2 Emissionen des letzten Viertels des 20. Jahrhunderts einen dramatischen Anstieg der Globaltemperatur verursacht haben.

In dieser Kurve zeigt er eine über die letzten 2000 Jahre gleichmäßige Temperatur in der Tropo­sphäre mit einem plötzlichen steilen Anstieg in dem letzten Quartal des 20. Jahrhunderts,  (die soge­nannte Hockeystick-Kurve).  Diese  Kurve unterschlägt die seit langem bekannten Perioden der „Mittelalterlichen Warmzeit“ und der „Kleinen Eiszeit“ .Sie  ist eine Fälschung[8]  wie von Steven McIntyre und Ross McKitrick (Universtiy of Guelpf) in einer detaillierten Analyse der von Mann benutzten statis­tischen Verfahren bewiesen wurde. Dieser Betrug war den Akteuren durchaus be­wusst, wie später aus dem gehackten Server der University of East Anglia öffentlich zugänglich ge­wordenen E-Mail­verkehr zwischen den Beteiligten hervorgeht.  Es handelt sich um den vielleicht größten Wis­senschaftsskandal der Neuzeit, der inzwischen als „Climate Gate“ in die Wissenschafts­geschichte ein­gegangen ist.

Die zweite, heute die Diskussion dominierende Quelle des allgemeinen Klimawahns ist vermutlich die oben geschilderte, vom Club of Rom wiederbelebte, Debatte über eine drohende Verknappung vieler Ressourcen,  eine Verteilungsgerechtigkeitsdebatte entsteht mit der Tendenz zu einer neuen Art von Sozialismus.

Ziel ist die Vernichtung der kapitalistischen Marktwirtschaft zugunsten einer angeblich gerechteren Welt. Ideologische Basis ist die angebliche Bedrohung der Welt durch eine von der menschlichen Industriegesellschaft verursachte, gefährliche, weltweite Erwärmung durch zu hohe Emissionen von Kohlendioxid CO2 .  Die AGW Hypothese wird nun zunehmend mit einem keine Diskussion dulden­den  Absolutheitsanspruch vom UNFCCC[9] vertreten. Sie hat inzwischen religionsartige Züge ange­nommen und den Status eines nicht mehr hin­terfragbaren Dogmas erreicht.

Die derzeitige Vorsitzende des UNFCCC, Christiana Figueres,

Zitat: „Das ist das erste Mal in der Geschichte der Menschheit, dass wir es uns absichtlich zur Aufgabe gemacht haben ,innerhalb ei­ner festgelegten Zeitspanne das seit der industriellen Revolution für mindestens 150 Jahre vorherr­schende Leitbild der wirtschaftlichen Entwicklung zu ändern“. Und weiter: “Dies ist wahrschein­lich die schwierigste Aufgabe, die wir uns je gegeben haben. Absichtlich das Leitbild der wirt­schaftlichen Entwicklung zu transformieren …“.  

Dazu bedient sich die UNFCCC u.a. der jeweils für politische Zwecke erstellten Zusammenfassun­gen der Berichte des IPCC[10],  dem oft als wis­senschaftliche Organisation missverstan­denen Weltkli­marat. Dieser wurde 1988 vom Umweltprogramm der vereinten Nationen (UNEP) und der Weltor­ganisation für Meteorologie (WMO) als zwischenstaatliche Organisation ins Leben gerufen, um für politische Entscheidungsträger den Stand der wissenschaftlichen Forschung zusammen zu fassen. Die „Rechtmäßigkeit der wissenschaftlichen Inhalte“ von IPCC Berichten erkennen Regie­rungen durch die Verabschiedung der jeweiligen „Zusammenfassung für politische Entscheidungs­träger“ an (Siehe z.B. Wikipedia).

Auftragsgemäß und allen anerkannten wissenschaftlichen Gepflogenheiten widersprechend wird da­bei die AGW These nicht auf ihre Gültigkeit geprüft, sondern es werden nur die These eventuell stützende Argumente gesammelt und flächendeckend in die öffentliche Mei­nung transportiert.

Wie oben bereits erläutert ist aus paläoklimatologischen Daten über Millionen von Jahren leicht nachweisbar, dass das in der Troposphäre vorhandene Kohlendioxid nie einen steuernden Einfluss auf die Temperatur gehabt hat.

Die AGW-Hypothese ist aber gegen auf naturwissenschaftlicher Basis vorgebrachte Argumente im­munisiert, da es den Vertretern dieser These erfolgreich gelungen ist, die Beweislast umzukehren.

Seit den bahnbrechende Arbeiten Sir Karl Poppers zur Theorie der Naturwissenschaften wissen wir, dass die Gültigkeit naturwissenschaftlicher Aussagen nicht beweisbar sondern nur gegebenenfalls falsifizierbar ist.

Es ist daher nicht Aufgabe der etablierten meteorologischen Wissenschaft zu beweisen, dass die Be­hauptungen des IPCC falsch sind, sondern es wäre Aufgabe des IPCC zu beweisen, dass die auf vie­len Beobachtungsdaten beruhende Nullhypothese: „CO2 hat keinen Einfluss auf das Klima“ falsch ist. Diesen Nachweis hat das IPCC in bisher 5 umfangreichen Berichten nicht geführt und letztlich nicht einmal ernsthaft versucht.

Speziell für die Beratung der deutschen Regierung wurde ein weiteres Gremium, der WBGU[11], ge­schaffen. Es wird nicht überraschen, dass der Vorsitzende auch hier der Gottvater der Klimareligion Hans-Joachim Schellnhuber ist. Dieser Rat wurde 1992 vor dem sogenannten „Erdgipfel von Rio“ als „unabhängiges“ Beratergremium gegründet, das von der Bundesregierung mit der Erstellung von Sondergutachten beauftragt werden kann. Die Mitglieder werden vom Bundeskabinett berufen (wodurch garantiert ist, dass der jeweilige Rat das gewünschte Ergebnis liefert).  Der Rat legt der Bundesregierung jährlich ein Hauptgutachten vor zum Thema „Welt im Wandel“.

Welche konkreten Vorstellungen Angela Merkels Berater dabei im Auge haben ist  beschrieben im   Hauptgutachten 2011 unter dem Titel:

„Gesellschaftsvertrag für eine Große Transformation“. In der Einführung heißt es: „Dieser Be­richt begründet die dringende Notwendigkeit einer post-fossilen Wirtschaftsweise, zeigt zugleich die Machbarkeit der Wende zur Nachhaltigkeit auf und präsentiert zehn konkrete Maßnahmenbün­del zur Beschleunigung des erfor­derlichen Umbaus. … Damit die Transformation tatsächlich gelin­gen kann, muss ein Gesellschaftsvertrag zur Innovation durch einen neuartigen Diskurs zwischen Regierungen und Bürgern innerhalb und außerhalb des Nationalstaats geschlossen werden.“

Und weiter:

„ …dass dies nur gelingen kann, wenn Staaten, Unternehmen und die gesamte Zivilge­sellschaft gemeinsam die richtigen Weichen stellen und alle Mittel der regionalen und globalen Zu­sammenarbeit ausschöpfen.“

Welche Weichen richtig sind entscheidet der WBGU zusammen mit dem Sekretariat der Klimarah­menkonvention der Vereinten Nationen UNFCCC. Für den noch unter dem Nationalsozialismus aufgewachsenen Autor klingt dies in Sprache und Diktion wie ein Auszug aus einem Kompilat von „Mein Kampf“ und dem „Kommunistischen Manifest“. Dieser Stil setzt sich dann auch in den hier speziell diskutierten Ausführungen zur Klima- und Energiepolitik fort.

Das in der gesamten Öffentlichkeit gefeierte Ergebnis der COP 21 in Paris war, dass man sich geei­nigt habe, den unterstellten Anstieg der Globaltemperatur bis 2050 auf deutlich unter 2° zu begren­zen und Anstrengungen zu unternehmen für eine Begrenzung auf 1,5°. Für Deutschland wird dazu ein klarer Auftrag abgeleitet, einen „konsequenten und ambitionierten Klimaschutzpfad einzu­schlagen“. Dieser muss gemäß den Autoren des WBGU einen Rückgang der Treibhausgas Emissionen gegenüber 1990 um mindestens 95% bis 2050 erreichen, Schlagwort: Dekarboni­sierung!

Man sollte erwarten, dass bei einem derart konkret formulierten Ziel eine klare Vorstellung zu Grunde liegt, wie viel CO2 das denn ist, was da eingespart werden muss und welchen Beitrag zur Vermeidung eines gefährlichen Temperaturanstiegs das denn bringt.  Das heißt, es müsste eine Kau­salfunktion der Abhängigkeit der Globaltemperatur vom CO2 Gehalt der Atmosphäre existieren in der Form:  delta TGlobal = f (CO2 Gehalt).

Eine mögliche Quelle, die hier Auskunft geben müsste, ist das 2014 erschienene Sondergutachten des WBGU: „Klimaschutz als Weltbürgerbewegung“.  Ein gewaltiger pseudo­wissenschaftlicher Schwulst im Auftrag des Bundesministeriums für Bildung und Forschung und des Bundesministeri­ums für Umwelt, Naturschutz, Bau- und Reaktorsicherheit. Dort heißt es auf Seite 1 (Hervorhebun­gen durch den Autor):

„Der 5. Sachstandsbericht des Weltklimarates (IPCC) macht unmissverständlich klar: Inakzeptable Klimafolgen, die sich jenseits der 2°C Leitplanke häufen dürften, können nur vermieden werden, wenn der weitere Anstieg der Treibhausgaskonzentration so bald wie möglich gestoppt wird. Der WBGU empfiehlt daher, die CO2 Emissionen aus fossilen Energieträgern  bis spätestens 2070 auf Null zu senken“. 

Und weiter:

„Der Weltgesellschaft als Ganzes steht ein eng begrenztes Kohlenstoffbudget zur Verfügung, so dass der Scheitelpunkt der Emissionen möglichst bis 2020, auf alle Fälle aber in der dritten Dekade er­reicht werden sollte.“

Als Begründung für diese, den Selbstmord des Industriestandorts Deutschland bedeuten würdenden Forderungen heißt es noch auf Seite 1:

„Die Aussagen des 5. IPCC Sachstandsberichts sind ein­deutig: Der Klimawandel findet statt und der Einfluss des Menschen ist unstrittig. Die Beweis­lage zur globalen Erwärmung ist überwältigend. Bei ungebremster Treibhausgasemission könnte bis Ende des Jahrhunderts ein globaler Temperaturanstieg von mehr 4°C erfolgen.“

Sucht man im Bericht nun nach den angeblichen Beweisen, findet man zunächst (Seite 5) ohne ir­gend eine über einen Hinweis auf das IPCC hinausgehende Quellenangabe die übliche bereits viel­fach widerlegte Behauptung:

„Es besteht kein Zweifel mehr: das Klimasystem erwärmt sich. Beobachtungen von Atmosphäre, Ozean und Eis zeigen eine fortschreitende Erwärmung der Erde…“.

Auf Seite 6 heißt es dann aber interessanter Weise:

„Der globale Temperaturtrend unterliegt einer starken Variabilität, die auf natürliche interne Schwankungen des Klimasystems zurückzuführen ist, z.B. auf Phänomene wie El Nino / südliche Oszillation (ENSO) oder die Pazifische Dekadische Os­zillation (PDO). Diese interne Variabilität des Klimasystems kann den langfristigen Klimatrend für kurze Zeit verstärken, abschwächen oder sogar umkehren. Solche Variationen sind häufig in Beob­achtungen zu finden, aber auch Klimamodelle sind in der Lage, solche Fälle zu simulieren. Aller­dings erlauben die Modelle keine genaue zeitliche Vorhersage von solchen Variationen auf einer Zeitskala von wenigen Jahren.“.

Nach diesen durchaus kritischen Feststellungen diskutiert der Bericht dann ausführlich viele teils sehr vage Vorstellungen, wo denn die glaubensgemäß ständig weiter zugeführte aber real nicht nachweisbare Wärme wohl ge­blieben sein könnte. Die Schwierigkeiten der Modellbildung werden erörtert, aber ein ständiger Fortschritt dabei festgestellt, der die neueren Modelle in die Lage ver­setzt zuverlässige Szenerien der Klimaentwicklung zu erstellen mit den geschilderten bedrohlichen Konsequenzen für die Erde.

Abbildung 2: "Nicht ganz perfekte" Klimamodelle im Vergleich zur Realität. Die Abweichung zwischen den Satelliten Mitteln und der Modell Mittel liegen heute bei ca. 0,5 K. Das ist mehr als die Hälfte des gesamten Anstiegs des letzten Jahrhunderts.

Auf Seite 11 heißt es:

„Obwohl sie noch nicht perfekt sind, gehören Klimamodelle sicherlich zu den besten Werkzeugen unserer Gesellschaft, um bestimmte Aspekte der Zukunft zu projizieren. Damit stellen sie eine solide Basis für Entscheidungsprozesse dar.

Die Basis sieht dann wie folgt aus:

Mit den laufend fortentwickelten Modellen wurden Szenarien erstellt, sogenannte „Representative Concentration Pathways (RCPs). Ausgehend von vorgegebenen von der Konzentration von Treib-h­ausgasen abhängigen „Strahlungsantrieben“ von 2.6, 4.5, 6.0 und 8.5 W/m² wurden Er­wärmungsszenarien gerechnet. Die niedrigste (RCP 2.6) hält die 2° Leitplanke mit 66% Wahr­scheinlichkeit ein. Mit den Klimamodellen wurden „die Antwortmuster des Klimasystems auf ver­schiedene indivi­duelle externe Anregungen“ untersucht. „Aus dem Vergleich dieser Experimente geht eindeutig her­vor, dass die beobachtete Erwärmung der letzten 50 Jahre weder durch interne Va­riabilität noch durch natürlich, externe Anregung zustande kommt, sondern nur durch den durch an­thropogene Emission erzeugten Anstieg im CO2 – Gehalt der Atmosphäre erklärt werden kann“ .

Daraus resul­tiert auch die Aussage im 5. IPCC Sachstandsbericht:

„Dass es „extrem wahrscheinlich (> 95%)ist, dass mehr als die Hälfte des beobachteten Anstiegs der Oberflächentemperatur der Erde von 1951 bis 2010 durch menschliche Aktivitäten zustand gekommen ist.“

Die Klimasensitivität wird definiert als die Änderung der Oberflächentemperatur der Erde bei einer Verdoppelung des CO2 Gehalts nachdem der Gleichgewichtszustand erreicht ist.

Abbildung 3:Entwicklung des CS Wertes gem. verschiedener Studien. Trend: Je jünger desto geringer. Zuletzt Harde [1] CS = 0.45K ± 30 %, andere 0,3 bis 1 K. Das IPCC schreibt dazu in der Summary for Policymakers, SPM auf Seite 16, aber nur als Fußnote"No best estimate for equilibrum climate sensitivity; d.h der Wert ist unbekannt, aber deutlich kleiner als 3 K

WBGU:

„Nach neuen, besser fundierten Abschätzungen durch den IPCC (Collins et. all) liegt der Wert mit > 66% Wahr­scheinlichkeit zwischen 1,5° und 4,5° C“.

Es wimmelt von Konjunktiven und „Wahrschein­lichkeiten“.

 

Wie man sofort sieht, sind diese Aussagen widersprüchlich in sich. Die gemäß AGW-These eindeu­tig und unstrittig auf die menschlichen CO2 Emissionen zurückführbaren Änderungen des Klimas werden mit Wahrscheinlichkeitsaussagen präzisiert.  Der dabei verwendete Wahrscheinlichkeitsbe­griff ist darüber hinaus falsch!

In der mathematischen Statistik versteht man unter Wahrscheinlichkeit die Häufigkeit, mit der ein bestimmtes Ereignis eintritt, als Ergebnis von Experimenten oder Beobachtungen mit verschiedenen prinzipiell nicht vorhersagbaren Ergebnissen. Als Beispiel dient oft der Wurf von Würfeln, bei dem die Wahrscheinlichkeit des Auftretens einer bestimmten Augenzahl angegeben wird.

Ein mit dieser Definition vergleichbarer Vorgang liegt aber hier nicht vor.  Es werden ja ausdrück­lich „Experimente“ mit Computermodellen beschrieben. Computersimulationen sind aber grund­sätzlich deterministisch und zeigen bei gleichen Eingaben immer die gleichen Ergebnisse. Den glei­chen elementaren Fehler machen die Studienautoren im Zusammenhang mit der sogenannten Kli­masensitivität. Auch dies ist definitionsgemäß keine stochastische Variable sondern eine determinis­tische Größe. Die Angabe einer Wahrscheinlichkeit, mit der diese Größe einen bestimmten Erwar­tungswert annimmt ist daher sinnlos. Die Temperaturzunahme, die von einer gegebenen Erhö­hung des CO2-Gehalts verursacht wird, sollte definitionsgemäß ein physikalischer Prozess sein. Dass die­se Größe schwer be­stimmbar ist, liegt an der Komplexität des Systems und nicht an einer prinzipiel­len Unbestimmbar­keit wie etwa beim Würfelspiel.

Die in Paris beschlossenen Maßnahmen zu einem vollständigen mit einer gigantischen Kapi­talvernichtung einhergehenden Umbau der gesamten Weltwirtschaft auf Basis letztlich völlig irrelevanter Computerspiele müssen daher als ein Gipfel der Inkompetenz und Verantwor­tungslosigkeit der daran beteiligten Regierungen angesehen werden.

Welche Ziele Angela Merkel eigentlich umtreiben, soll hier nicht im einzelnen analysiert werden. Klares Kennzeichen ihrer Politik ist, dass sie an einer an ordoliberalen Prinzipien orientierten Marktwirtschaft ebenso wenig interessiert ist, wie an einem Schutz privaten Kapitals oder verant­wortungsvollem Umgang mit Steuergeldern.

Ihren ersten offenbar aus einer Mischung von Macht- und Umweltpolitik motivierten Vernichtungs­schlag führt sie gegen die deutsche Atomindustrie. Es gelingt ihr das entsprechende entschädigungs­lose Enteignungs­verfahren mit offensichtlich fadenscheinigen Begründungen innerhalb weniger Tage durch den in­zwischen zu einer oppositionsfreien Volkskammer entarteten Bundestag zu drücken. Sie hat die Chuzpe sich diese bis dahin größte Vernichtung privaten Kapitals von einem Ethikausschuss ohne große Fachkenntnisse absegnen zu lassen. Das ist Mittelalter, vergleichbar mit der seinerzeitigen Ablehnung der Erbauung des Panamakanals, weil es Gott nicht wollen könne, dass die amerikani­schen Kontinente getrennt werden.

Dieser erste Eingriff in die Privatwirtschaft wird seither übertroffen durch die Folgen der mit dem Atomausstieg gleichzeitig eingeführten Gesetze zur Umstellung auf „erneuerbare Energie“.  Die jährlich den privaten Haushalten zugunsten einiger Profiteure entzogenen Mittel überschreiten in­zwischen 24 Mrd: EUR und die auf den Haushalten in diesem Zusammenhang lastenden Verbind­lichkeiten überschreiten 300 Mrd. EUR.

Dies alles sind die bereits eingetretenen Auswirkungen der aktuellen, am Klimawahn ausgerichteten Politik. Die derzeitigen Akteure können nicht mehr zur Verantwortung gezogen werden, wenn das jetzt für die Zukunft entworfenen Weltbild eines dekarbonisierten Deutschland Wirklichkeit werden sollte. Eine Zeit, nachdem die letzte Dampf­turbine aufgehört hat, sich zu drehen, die letzte Tankstel­le abgerissen wurde, der letzte Hochofen ausgegangen ist und die Tore des letzten Stahlwerks für immer geschlossen wurden. Der letzte Ferienflieger hat abgehoben. Die Hausfrau oder der Haus­mann besteigen ihr Lastenfahrrad, um den Einkauf in ihr kaltes Haus zu bringen ehe der Smartzäh­ler im Haus den ohnehin zu warm eingestellten Kühlschrank abschaltet.

Soll das wirklich die Welt sein, die wir unseren Kindern hinterlassen wollen? Wo bleibt die von Kant beschworene Vernunft. Gibt es wirklich in Politik und Wirtschaft nur noch angepasste Mitläu­fer auf dem Weg in den Untergang dieses einst erfolgreichen Landes?

Wie es scheint, ist die AfD die einzige politische Kraft, die sich diesem  Wahnsinnsvorhaben entge­genstellt. Wird sie stark genug sein, Deutschland von diesem Selbstmordprogramm abzubringen?


[1]   Sir Karl Popper * 1902 in Wien, gest. 1994 London. Einer der bedeutendsten Philosophen des 20. Jahrhunderts. Be­gründer der modernen Wissenschaftstheorie. In seinem Buch „Conjectures and Refutations, The Growth of Scienti­fic Knowledge“ erklärt er, wie naturwissenschaftlicher Fortschritt durch Versuch und Irrtum entsteht.

[2]   Thomas Robert Malthus, * 1766 bei Dorking, Grafschaft Surray, gest. 1834. Britischer Ökonom. Verfasste mehrere Werke zur Bevölkerungstheorie, nach der biologischen Gesetzen folgend die Bevölkerungszahl exponentiell zu­nimmt, während die natürlichen Ressourcen nur in arithmetischer Progression zunehmen und schließlich überhaupt nicht mehr erweiterbar sind.

[3]   Ökologischer Fußabdruck: 1994 von Mathis Wackernagel und William Rees entwickeltes Konzept der Berechnung des Flächenanteils der Erdoberfläche, die ein Mensch unter heutigen Produktionsbedingungen dauerhaft braucht, um seinen Lebensstil aufrecht zu erhalten. Die Daten werden vom 2003 gegründeten Global Footprint Network in Hektar pro Person und Jahr angegeben.

[4]   Potsdam Institut für Klimafolgenforschung PIK. 1992 unter Leitung von Hans-Joachim Schellnhuber gegründetes Institut zur Untersuchung von Fragen im Bereich Nachhaltige Entwicklung und Klimawandel als Grundlage für Ent­scheidungen im Bereich Politik, Wirtschaft und Zivilgesellschaft. Unter A. Merkel auf 300 Mitarbeiter aufgepäppelt.

[5]   United Nations Framework Conventionon Climate Change UNFCCC. Gegründet 1992 derzeitiger Sitz des Sekreta­riats ist Bonn. Veranstalter der jährlichen „Parteitage“, der Klimakonferenzen (Conference of the Parties (COP)). Auftraggeber für das IPCC.).

[6]   IPCC Intergovernmental Panel on Climate Change, der sogenannte Weltklimarat. Keine Wissenschaftseinrichtung also sondern eine Lobby. Herausgeber sogenannter Sachstandsberichte, die die Existenz eines vom Menschen verur­sachten Klimawandels nachweisen sollen.

[7]   Michael E. Mann, Professor of Meteorology, Director Earth System Science Center, Pensylvenia State University

[8]   Ross McKitrick, University of Guelph Ontario. Member of Global Warming Policy Foundation zeigte, dass Mann’s Darstellung grundlegende Fehler in der Datenbehandlung aufwies und letztlich bei Eingabe beliebiger Daten immer das gleiche Ergebnis zeitigte.

[9]   UNFCCC:  UNITED Nations framework Convention on climate change.

[10] IPCC = Intergovernmentel Panel on climate change. Eine Lobby also, keine wissenschaftliche Institution.

[11] WBGU = Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen. Lokalisiert beim PIK. 

[12] Hermann Harde  Was trägt CO2 wirklich zur globalen Erwärmung bei




Schon fünf Salomonen-Inseln sind durch den Klimawandel versunken – obwohl der Pegel dort nicht gestiegen ist

Schreckensmeldung des Portals für gesicherte AGW-treue Information: Fünf Inseln der Salomonen sind bereits durch den anthropogenen Klimawandel untergegangen:

[1] KLIMARETTER.INFO: Schon fünf Salomonen-Inseln versunken

Durch den Klimawandel steigt der Meeresspiegel. Dass kleine Inselstaaten dadurch akut in ihrer Existenz bedroht sind, ist nicht länger etwas, das erst in einigen Jahrzehnten passieren wird. Fünf Inseln der Salomonen im Pazifik sind bereits komplett vom Meer überflutet. Auf sechs weiteren ist die Erosion schon so weit fortgeschritten, dass Häuser im Meer versunken sind. Weitere 21 sind hoher Wellenenergie ausgesetzt, sodass ihnen ein ähnliches Schicksal wahrscheinlich bald bevorsteht. Das ergab eine australische Studie, die im Fachmagazin Environment Research Letters veröffentlicht wurde.

Dabei bezieht sich diese Meldung auf eine andere:

[2] ABC.net: Solomon Islands: Rising sea levels blamed for the disappearance of five reef islands

For the past 20 years, the Solomon Islands have been a hotspot for sea level rise.

Its seas have risen at almost three-times the global average — about 7-10 millimetres per year since 1993. This higher local rate is partly the result of natural climate variability. These higher rates were in line with what is expected across much of the Pacific in the second half of this century as a result of human-induced sea level rise.

[Übersetzung von Chris Frey: [2] ABC.net: Salomonen-Inseln: Steigender Meeresspiegel verantwortlich für den Verlust von fünf Riff-Inseln

Während der letzten 20 Jahre waren die Salomonen-Inseln ein Hotspot für den Anstieg des Meeresspiegels. Das Meer ist fast dreimal so stark gestiegen wie im globalen Mittel – etwa 7 bis 10 mm pro Jahr seit 1993. Diese höhere lokale Rate ist teilweise die Folge der natürlichen Klimavariabilität. Diese höheren Raten liegen auf einer Linie mit dem, was in der 2. Hälfte dieses Jahrhunderts im Pazifik zu erwarten ist als Folge des vom Menschen ausgelösten Meeresspiegel-Anstiegs]

Erst kürzlich hat der Autor in einer recht umfangreichen und wie er (immer noch meint) fundierten Recherche[4] festgestellt, dass Südseeinseln sicher sehr gefährdet sind – aber nicht durch den anthropogenen Klimawandel. Was ist also zwischenzeitlich dort geschehen?

In einem solchen Fall ist es am besten, sich den Verlauf der Tidenpegel in dieser Region selbst anzusehen. Vielleicht hat er sich seit der Zeit der letzten Sichtung dramatisch verändert, oder es wurden vorherige übersehen.

Bild 1 Salomonen-Inseln (Nr. 1) und Umgebung.

Quelle: PSMSL Catalogue Viewer, www.psmsl.org/data/obtaining/map.html

Von den im Bild 1 blau eingekreisten und benummerten Regionen sehen die Pegelverläufe wie folgt aus:

Salomonen selbst (1). Keine Pegelerhöhung des Jahres-Mittelwertes seit ca. 1995. Der Absolutwert hat sich nicht verändert, eher verringert. Keinerlei dramatischer Anstieg irgendwo erkenn- oder ahnbar.

Bild 2 (Region 1) Pegelverlauf Salomonen von 1994 – 2015 Quelle PSMSL Sea-Level www.psmsl.org/data/obtaining/map.html

Nauro (2). Max. 100 mm Pegelerhöhung des Jahres-Mittelwertes seit 1995. Der Absolutpegel hat sich wenn überhaupt nur geringfügig erhöht. Keinerlei dramatischer Anstieg irgendwo erkennbar.

Bild 3 (Region 2) Pegelverlauf NAURO-B von 1993 – 2015 Quelle PSMSL Sea-Level www.psmsl.org/data/obtaining/map.html

VANUATU Port Vila B (3). Keine Pegelerhöhung des Jahres-Mittelwertes seit 1995. Der Absolutpegel hat sich ebenfalls nicht verändert. Keinerlei dramatischer Anstieg irgendwo erkenn- oder ahnbar.

Bild 4 (Region 3) Pegelverlauf VANUATU Port Vila B von 1993 – 2015 Quelle PSMSL Sea-Level www.psmsl.org/data/obtaining/map.html

Bild 4 Australien Townsville I (4). Eine geringe Pegelerhöhung des Jahres-Mittelwertes seit 1960, seit ca. 1970 keine. Der Absolutwert ist niedriger als zum Jahr 1959. Keinerlei dramatischer Anstieg irgendwo erkenn- oder ahnbar. Eher sogar ein Beleg, dass etwas mit den regelmäßigen AGW-Pegeländerungsmeldungen nicht stimmen kann.

Bild 5 (Region 4) Pegelverlauf Australien Townsville I von 1959 – 2013 Quelle PSMSL Sea-Level www.psmsl.org/data/obtaining/map.html

Fazit

Es hat sich also zum Stand der damaligen Analyse[4] nichts verändert. Doch trotzdem gehen die Inseln nach der aktuellen Information reihenweise unter, obwohl sie nach anderen Meldungen an Fläche zugenommen haben und die Korallen problemlos mit einem (eventuell langsam steigenden) Meeresspiegel mit-wachsen. Was ist da geschehen?

Die Information auf der englischsprachigen Seite gibt deutliche Hinweise:

SCIENTIFIC AMERICAN[3]

… Choiseul, a township of around 1,000 people on Taro Island, a coral atoll in Choiseul Bay, is less than two meters (6,6 feet) above sea level. Its vulnerability to storm surges and tsunamis causes by earthquakes ist expected to be compounded in the future by rising sea.

… The Solomon Islands government would be looking for climate change funding from international donors to finance the relocation, he added.

… On a brief visist to the Solomon Island this week, U.S. Secretary of State John Kerry said the Pacific Island nation stands to benefit from U.S. funding programs to deal with the effects of climate change in the Asia-Pacific region.

[Übersetzung von Chris Frey: Die kleine Ortschaft Choiseul mit etwa 1000 Einwohnern auf der Taro-Insel, einem Korallenatoll in der Choiseul-Bucht liegt weniger als 2 Meter über dem Meeresspiegel. Es wird erwartet, dass dessen Verwundbarkeit gegenüber Sturmfluten und Tsunamis in Zukunft weiter zunehmen wird.

Die Regierung der Salomonen rufen nach Klimawandel-Finanzen von internationalen Geldgebern, um die Umsiedlung zu gewährleisten.

Bei einem Kurzbesuch auf den Inseln sagte US-Außenminister Kerry, dass die Pazifische Inselnation Anspruch auf Gelder aus US-Finanzierungsprogrammen hat, um mit den Auswirkungen des Klimawandels in der Region Asien-Pazifik umgehen zu können.]

Die Inseln gehen derzeit nicht wegen steigendem Pegel unter, sondern die (dort schon immer wütenden) Stürme, verheerenden Tsunamis und Erdbeben machen den Bewohner zu schaffen. Schließlich gibt es diese Inseln nur, weil sie auf der aktivsten Vulkan- und Erdbebenzone der Erde liegen (Pazifischer Feuerring). Und vielleicht ist an der Erosion auch Sandabtragung für Bauten und Dynamitfischerei nicht unbeteiligt, wie es ein paar Hinweise nahelegen.

Jedenfalls steht darin nichts von einem aktuellen Untergang, sondern dass er kommen könnte – wie üblich das Ergebnis geeigneter Simulationen. Und ein kompletter Schuh wird aus der Schlussmeldung daraus: Der Verteilungskampf um die Klimamilliarden beginnt!

KLIMARETTER.INFO war Hintergrundinformation aber nicht wichtig, sondern dass die Überschrift beim deutschen Bürger hängenbleibt – denn er wird ein Zahlmeister dieses Klimafolgen-Rettungsfonds.

Quellen

[1] KLIMARETTER.INFO 08. Mai 2016: Schon fünf Salomonen-Inseln versunken

http://www.klimaretter.info/forschung/nachricht/21194-schon-fuenf-salomonen-inseln-versunken

[2] ABC.net: Solomon Islands: Rising sea levels blamed for the disappearance of five reef islands

http://www.abc.net.au/news/2016-05-07/rising-sea-levels-blamed-for-wiping-out-five-islands/7392986

[3] SCIENTIFIC AMERICAN, August 15, 2014: Township in Solomon Islands Is 1st in Pacific to Relocate Due to Climate Change

http://www.scientificamerican.com/article/township-in-solomon-islands-is-1st-in-pacific-to-relocate-due-to-climate-change/

[4] EIKE 14.12.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang

http://www.eike-klima-energie.eu/news-cache/gehen-die-suedseeinseln-wirklich-wegen-des-klimawandels-unter-teil-3-die-marshall-inselgruppe-kein-beispiel-fuer-einen-untergang/

EIKE 26.11.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 2

http://www.eike-klima-energie.eu/climategate-anzeige/gehen-die-suedseeinseln-wirklich-wegen-des-klimawandels-unter-teil-2/

EIKE 17.09.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 1 Die Malediven

http://www.eike-klima-energie.eu/news-cache/ist-der-reiche-westen-wirklich-an-den-inselfluechtlingen-schuld-weil-er-co2-emittiert-teil1-die-malediven/




Umweltgutachten 2016 des Sachverständigenrates für Umweltfragen (SRU) der Bundesregierung

Aufgaben des SRU

[6] Der 1971 von der Bundesregierung eingerichtete Sachverständigenrat für Umweltfragen hat den Auftrag, die Umweltsituation in Deutschland zu bewerten und Handlungsempfehlungen zu aktuellen Fragen der Umweltpolitik zu geben. Er übergibt dem Bundesumweltministerium alle vier Jahre ein umweltpolitisches Gesamtgutachten und erarbeitet darüber hinaus Sondergutachten, Kommentare und Stellungnahmen.

Um sich die Orientierung des Sachverständigenrates klar zu machen reicht die Sichtung seiner Publizierungen:

SRU Homepage[5] (Beispiele):

— Pressemitteilung: Transformationen anstoßen, Zielkonflikte entschärfen: Umweltrat gibt Impulse für eine integrative Umweltpolitik

— Dieselgate als Chance für Elektromobilität

— Weg von der Kohle: Der SRU fordert einen "nationalen Konsens" über einen schrittweisen Ausstieg aus der Kohleverstromung

und zwei Folienseiten aus einem Vortragsfoliensatz des SRU[4]: „Die Energiewende braucht den gestalteten Kohleausstieg“.

In diesen Folien ist ein reines Wunschkonzert komponiert, welches alle Kosten- und physikalischen Betrachtungen unberücksichtigt lässt. Hintergrundinformation dazu [7] und: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3

Bild: Zwei Seiten aus dem Vortragsfoliensatz des SRU[4], Prof. Dr.-Ing. Martin Faulstich: Die Energiewende braucht den gestalteten Kohleausstieg .

Entsprechend liest sich das Gutachten.

Unbelastet von ökologischen oder technischen Zwängen, bzw. diese vollkommen in Abrede stellend werden die ausschließlichen Segnungen einer grünen – hier „nachhaltig“ genannten – staatlichen Reglementierungspolitik und der als absolut notwendig angestrebten „ökologischen Transformation“ dargestellt und präsentiert.

Es war zu erwarten, dass eine Frau Umweltministerin Hendricks dies begrüßt. Zudem hat sie dafür gesorgt, dass auch die neue Besetzung von dieser Linie nicht abweicht.

[6] Bundesumweltministerin Hendricks: "Die Zusammensetzung des neuen Rates entspricht in hervorragender Weise den Anforderungen, die sich an eine zukunftsfähige Umweltpolitik stellen, insbesondere vor dem Hintergrund des notwendigen Wandels von Politik, Wirtschaft und Gesellschaft in Richtung einer nachhaltigen Entwicklung.

In das neue Gremium wurden unter anderem berufen:

Frau Prof. Dr. Claudia Kemfert, DIW Berlin, für den Bereich Wirtschaftswissenschaften/Energie/Klimaschutz

— Herr Prof. Dr. Wolfgang Lucht, PIK Potsdam, für den Bereich Nachhaltigkeit/Erdsystemanalyse

Liest man das Umweltgutachten und die Äußerungen von Frau Hendricks dann stellt sich die Frage, warum neben den Grünen den Linken und Greenpeace eine SPD / CDU überhaupt noch erforderlich sind und nicht gleich zur Einheitspartei verschmelzen. Früher waren diese ein Garant gegen diktatorische Allüren, zu vielen sozialistischen (Wiederholungs-) Experimenten und Armut durch gezielte Verteuerung. Inzwischen bekommt man jedoch den Eindruck, auch diese Parteien sehnen sich geradezu danach.

SRU UMWELTGUTACHTEN 2016

[2] Einleitung

Die ökologischen Handlungsnotwendigkeiten in der EU und in Deutschland sind so groß, dass sie mit den bisherigen Ansätzen eines nachsorgenden oder selbst eines technisch-vorsorgenden Umweltschutzes alleine nicht mehr bewältigt werden können. Beim Klimaschutz und in vielen anderen Handlungsfeldern müssen Eingriffe in den Naturhaushalt substanziell vermindert werden, um wichtige Ökosystemleistungen aufrecht zu erhalten. Allerdings ist die Umweltpolitik mit starken Widerständen konfrontiert. Diese beziehen sich auf vermeintlich unnötige regulatorische Belastungen und Einschränkungen. So wird die Gefährdung der Wettbewerbsfähigkeit der deutschen Industrie oder der Landwirtschaft durch zu hohe Kosten befürchtet. Oder es werden soziale Fragen wie die aktuelle Wohnungsnot oder die Energiearmut gegen eine effektive Umweltpolitik angeführt.

Solche Einwände bedürfen einer differenzierten Bewertung und gelegentlich auch einer deutlichen Zurückweisung.

[2] Vorreiterpolitik für eine ökologische Transformation

Die Energiewende mit dem Ziel einer weitgehenden Dekarbonisierung in allen energieverbrauchenden Sektoren bis zur Mitte des Jahrhunderts ist das prominenteste Beispiel hierfür. Ähnlich grundlegende systemische Änderungen sind aber auch hinsichtlich der Kreislaufführung wichtiger Ressourcen, der Flächenschonung oder einer naturverträglichen Landwirtschaft und Ernährungsweise erforderlich.

Der SRU ist der Auffassung, dass Deutschland aus den folgenden Gründen bei einem solchen nachhaltigen Umbau der Industriegesellschaft eine Vorreiterrolle einnehmen sollte: ….

Die folgenden Ausführungen sind im Wesentlichen der Rezension auf KLIMARETTER.INFO entnommen.

Dekarbonisierung und zusätzlich auch CO2 von Konsumgütern zur Verteuerung mit einbeziehen

[1] Der SRU wirbt für eine "weitgehende Dekarbonisierung" aller Energie verbrauchenden Sektoren bis Mitte des Jahrhunderts.

Konsum in Emissionshandel einbeziehen

CO2-intensive Materialien wie Stahl oder Zement sollen danach nicht nur bei der Herstellung, sondern auch als Endprodukt für die verursachten Emissionen mit einer Abgabe belegt werden. Das soll beispielsweise für den Zement gelten, den ein privater Häuslebauer kauft, aber auch für den, der beim industriellen Bauen eingesetzt wird. Der Einsatz emissionsintensiver Materialien würde dadurch teurer werden.

Einkommensschwache Haushalte bekommen eine kostenlose Energieberatung gegen die steigenden Stromkosten

Unterstützung einkommensschwacher Haushalte

Der Umweltrat ist dafür, die – kürzlich verlängerte – Beratung einkommensschwacher Haushalte weiter zu stärken. Dies sei mit Programmen zum geförderten Austausch ineffizienter Haushaltsgeräte zu verknüpfen.

Steigende Strompreise sind zu begrüßen

Zwar seien, betonten die Experten, steigende Preise für Wärmeenergie zu begrüßen. Die heutigen mietrechtlichen Möglichkeiten könnten aber gerade für einkommensschwache Haushalte zu einer untragbaren Erhöhung der Kaltmiete führen, weil diese oft nicht durch geringere Wärmekosten ausgeglichen werde. Das Mietrecht solle daher deutlicher zwischen energetischer und wohnwertsteigernder Sanierung unterscheiden, fordert der Umweltrat.

Arme bekommen ein Stromkontingent zum Überleben, denn der Strompreis selbst soll hoch bleiben

Sorgen bereiten dem SRU offenbar auch die steigenden Strompreise. Zwar habe die Politik, heißt es im Gutachten, nur begrenzt Einfluss auf die Stromtarife – es sei aber möglich, die Zahlung des Grundpreises unmittelbar mit der Bereitstellung einer geringen Strommenge, eines "Inklusivkontingents", zu verbinden.

Mit einem "Inklusivkontingent" kann nach Ansicht des Sachverständigenrats die Situation einkommensschwacher Haushalte verbessert werden, ohne die ökologische Lenkungswirkung des Strompreises zu vermindern.

Strommessgeräte sollen den Armen (beim Rationieren) helfen

Strommessgeräte könnten ebenfalls helfen, weniger Strom in den Haushalten zu verbrauchen.

[2] Um den Flächenverbrauch deutlich zu reduzieren, müssen auf Bundesebene zentrale Weichen für eine wirksame Flächenpolitik gestellt werden:

Das Ziel sollte sein, den Flächenverbrauch bis 2030 auf netto null zu senken. Das bestehende Flächenziel der Nationalen Nachhaltigkeitsstrategie sollte in diesem Sinne fortgeschrieben werden.

Unbebaute Grundstück sollen zusätzlich besteuert werden

Es sollte geprüft werden, inwieweit bebaute und unbebaute Grundstücke zukünftig gleichmäßig mit Grundsteuer belastet werden können und daneben die Größe der Fläche einbezogen werden kann.

Ab 2030 soll keine neue Fläche mehr verbaut werden dürfen

[2] Um den Flächenverbrauch deutlich zu reduzieren, müssen auf Bundesebene zentrale Weichen für eine wirksame Flächenpolitik gestellt werden: – Das Ziel sollte sein, den Flächenverbrauch bis 2030 auf netto null zu senken.

Die Pendlerpauschale ist abzuschaffen weil sie den Flächenverbrauch unterstützt

Die Bundesregierung sollte bestehende Förderinstrumente überprüfen, um die Subventionierung des Flächenverbrauchs zu beenden. So wird beispielsweise der Flächenverbrauch durch die Pendlerpauschale indirekt gefördert.

Quellen

[1] KLIMARETTER.INFO 10. Mai 2016: Umweltrat will sozialen Stromtarif

[2] Sachverständigenrat für Umweltfragen (SRU): UMWELTGUTACHTEN 2016 Kurzfassung

[3] Sachverständigenrat für Umweltfragen (SRU) Umweltgutachten Langfassung

SRU-Umweltgutachten 2016: "Impulse für eine integrative Umweltpolitik" (PDF, 10 MB, Datei ist nicht barrierefrei)

[4] Sachverständigenrat für Umweltfragen, Berlin CUTEC Institut, Technische Universität Clausthal, Kassel, 25. Oktober 2014, Symposium »Energiewende – viele ungelöste politische und technische Fragen«. Prof. Dr.-Ing. Martin Faulstich Foliensatz: Die Energiewende braucht den gestalteten Kohleausstieg

[5] SRU Homepage

http://www.umweltrat.de/DE/DerSachverstaendigenratFuerUmweltfragen/dersachverstaendigenratfuerumweltfragen_node.html

[6] BMUB Nr. 094/16 | Berlin, 27.04.2016: Umweltministerin Barbara Hendricks beruft neuen Sachverständigenrat für Umweltfragen

http://www.bmub.bund.de/presse/pressemitteilungen/pm/artikel/umweltministerin-barbara-hendricks-beruft-neuen-sachverstaendigenrat-fuer-umweltfragen/?tx_ttnews[backPid]=82

[7] EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)

http://www.eike-klima-energie.eu/energie-anzeige/elektro-energiespeicherung-notwendigkeit-status-und-kosten-teil-3-abschluss/

EIKE 02.07.2015: Der Wind bläst stetig– die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus

http://www.eike-klima-energie.eu/energie-anzeige/der-wind-blaest-stetig-die-sonne-steht-still-wenn-mein-starker-arm-es-will-oder-warum-gehen-in-bayern-die-lichter-noch-nicht-aus/

EIKE 8.12.2015: Die neuen Energien im Jahr 2015 und im Jahr 2050 nochmals erklärt für Dummies Teil 1 Einspeise-Rückschau und Vorschau

http://www.eike-klima-energie.eu/news-cache/die-neuen-energien-im-jahr-2015-und-im-jahr-2050-nochmals-erklaert-fuer-dummies/




CO2-,Verschmutzung‘ lässt den Planeten ergrünen

Darin wurde berichtet, dass dank jenes „Verschmutzers“ der Planet viel mehr Pflanzenwachstum hervorbringt, was sogar die schärfsten ideologischen, nicht Fleisch fressenden und oberklugen planetarischen Heilsprediger wirklich feiern sollten.

Wie viel mehr Pflanzenwachstum?

Nun, den 32 Forschern aus neun Ländern zufolge ergab sich während der letzten 35 Jahre eine „persistente und weit verbreitete Zunahme“ der Ergrünung um 25 bis 50% der „globalen, mit Pflanzen bewachsenen Fläche“. Weniger als 4% des Globus‘ zeigten einen Rückgang. Die 85% der eisfreien Landmasse der Erde, die von Grün bedeckt sind, nahm um 32% jener Menge zu.

Das zusätzliche Laub würde, wenn man es sich als einen Teppich vorstellt, zweimal das US-Festland überdecken. Falls man jetzt den Atem anhält und sich fragt, wie das sein kann, dann beruhige man sich bitte … und man sei dankbar.

Auf der Grundlage simulierter Modelle des Ökosystems ordneten die Forscher 70% dieses grünen Zuschusses den Düngungseffekten von CO2 zu. Weiteren Anteil daran haben 9% Stickstoff-Dünger und 4% Veränderung der Landbearbeitung, jedoch können diese nicht das beobachtete zusätzliche Waldwachstum erklären.

Eine Studie aus dem Jahr 2013 zum Thema Wälder in der gemäßigten und der borealen Zone auf der Nordhemisphäre (ebenfalls in Nature veröffentlicht) fand eine substantielle Zunahme der Effizienz bzgl. des Wasserverbrauchs während der letzten 20 Jahre. Diese Zunahme war viel größer als von den Biosphäre-Modellen prophezeit.

Man ordnete dies der verstärkten Photosynthese auf dem Ökosystem-Level zu, der Gesamt-Kohlenstoffaufnahme und verminderter Verdunstung.

Und dann kommt der Teil, der für manche Autoren des jüngsten Berichtes sehr schwer verdaulich ist. Den drittgrößten vorteilhaften Einfluss – 8% – schrieb man dem „Klimawandel“ zu. Diese Erkenntnis muss besonders für den Mitautor Philippe Ciais vom Laboratory of Climate and Environmental Sciences in Frankreich schmerzhaft sein, der auch als Autor für zuverlässig alarmistische Berichte des IPCC fungierte.

Getreu seiner Linie sagte Ciais: „Der Trugschluss des konträren Argumentes ist zweifach. Erstens, die vielen negativen Aspekte des Klimawandels werden nicht berücksichtigt. Zweitens, Studien haben gezeigt, dass sich Pflanzen an steigende CO2-Konzentrationen anpassen und der Düngungseffekt mit der Zeit immer mehr abnimmt“.

Nun also – nein! Er liegt mit beiden Aussagen völlig falsch.

Zum ersten „Trugschluss“ hat Judith Curry, ehemals Vorsitzende von Earth and Atmospheric Sciences am Georgia Institute of Technology, darauf hingewiesen, dass „es unzulässig ist, die Argumente der so genannten Contrarians auszublenden, reflektiert doch ihre Ablehnung des Konsens‘ Wertekonflikte und Bevorzugung der empirischen Beobachtungen gegenüber hypothetischen Projektionen von Klimamodellen“.

Und was die Behauptung angeht, dass der Düngungseffekt vorübergehender Natur ist: die führende Kapazität bzgl. CO2 und Pflanzenwachstum Craig Idso, Leiter des Center for the Study of Carbon Dioxide and Global Change, findet keinerlei empirische Beweise, um eine modellbasierte Behauptung zu stützen, dass die zukünftige Aufnahme von Kohlenstoff durch Pflanzen infolge steigender Temperaturen abnimmt.

Tatsächlich wurde in der realen Welt genau das Gegenteil beobachtet. Während der letzten 50 Jahre hat sich die globale Kohlenstoff-Aufnahme verdoppelt. CO2 steigert die Effizienz des Wasserverbrauches erheblich. Gesteigerte CO2-Düngung ermöglicht es den Pflanzen, der Luft bei der Photosynthese mehr Kohlenstoff zu entnehmen – weniger Wasser zu verlieren – oder beides. Die Photosynthese ist der Prozess, der Sonnenlicht und Nährstoffe im Boden zu Zucker konvertiert, welche das Leben treiben. Viele Pflanzen können Hitze auch viel besser vertragen, wenn das CO2-Niveau höher ist, ein Umstand, der durch Satellitenbeobachtungen von Wüsten und Savannen bestätigt worden ist, wo die Zunahme der Ergrünung augenfälliger ist als in nassen Gebieten.

Leitautor Zaichun Zhu von der Peking University sagte der BBC: „Die Ergrünung, von der in dieser Studie die Rede ist, hat das Potential, den Kreislauf des Wassers und des Kohlenstoffes im Klimasystem fundamental zu verändern“.

In vielen Gebieten der Welt wird ein wärmerer Planet zu mehr Niederschlag und längeren Wachstumszeiten führen. Dies wiederum führt zu weniger Todesfällen durch Verhungern und winterlicher Unterkühlung.

Und ja, auch wenn er in jüngster Vergangenheit nicht zu beobachten war, ist der Klimawandel sehr real. Trotz eines „rekordhohen“ atmosphärischen CO2-Niveaus gab es abgesehen von den El-Nino-Temperaturspitzen der Jahre 1998 und 2015 laut Satellitenmessungen keine statistisch signifikante globale Erwärmung seit fast zwei Jahrzehnten.

Nichtsdestotrotz ereignet sich dieser „Stillstand“ innerhalb eines fast zwei Jahrhunderte langen natürlichen Erwärmungstrends, der längst schon im Gange war, als im Zuge der Industriellen Revolution fossile Treibstoffe verbrannt und SUVs entwickelt worden sind.

Die gleichen fossilen Treibstoffe ersetzten den Gebrauch von Feuerholz, was wiederum zum Erhalt der Wälder beitrug, die aus dem CO2 auch den Sauerstoff freisetzen, von dem wir und Bambi so abhängig sind und der auch zu zusätzlichem Pflanzenwachstum beiträgt.

Jesse Asubel, Direktor des Program for the Human Environment an der Rockefeller University, entwirft diese Perspektive: „Die globale Ergrünung ist heutzutage der wichtigste ökologische Trend auf der Erde. Die Biosphäre auf dem Festland erweitert sich um zwei Milliarden Tonnen Jahr für Jahr – vielleicht sogar noch mehr“.

Von dieser Art „Verschmutzung“ brauchen wir also noch viel mehr, und sie verdient eine ganze Welt voller Dankbarkeit.

Link: http://www.cfact.org/2016/05/09/co2-pollution-is-greening-the-planet/

Übersetzt von Chris Frey EIKE




Die UNEP* hat nachgerechnet und meldet: Der Klimafonds benötigt nicht 100 Milliarden Dollar jährlich, sondern 500 Milliarden

KLIMARETTER.INO berichtet[1] Klimafinanzierung wird fünfmal so teuer

Bislang gingen die Experten davon aus, dass dafür in den Entwicklungsländern pro Jahr bis zu 100 Milliarden US-Dollar nötig sind. Eine neue Untersuchung des UN-Umweltprogramms Unep in Nairobi zeigt nun, dass die Kosten voraussichtlich deutlich höher liegen werden. Bis 2030 steige die Summe auf 140 bis 300 Milliarden jährlich, bis 2050 sogar auf 280 bis 500 Milliarden.

Der neue UNEP-Report belegt, dass die Anpassungskosten über die nächsten Jahrzehnte deutlich steigen werden, und zwar auch, wenn das im Paris-Abkommen verankerte Erwärmungslimit von zwei Grad eingehalten wird. Bei stärkerem Anstieg lägen die nötigen Summen sogar noch höher, warnen die Experten. Ohne Klimaschutz-Maßnahmen wird eine Erwärmung um bis zu vier Grad erwartet.

Unep-Vizedirektor Ibrahim Thiaw sagte bei der Vorstellung des Reports in Rotterdam: "Es ist wichtig, dass die Regierungen verstehen, wie hoch die Kosten der Anpassung an den Klimawandel sind."

Es lohnt kaum, im Report[2] nach vernünftigen Belegen zu suchen. Ein Fußnotenhinweis darin sagt es jedoch klar: Dass es so kommt (sobald die Verträge einmal unterschrieben sind) wusste doch jeder:

The Adaptation Finance Gap Report 2016 [2]

The World Bank EACC study estimated the costs of planned adaptation at US$70 billion to US$100 billion a year in the period 2010–2050 for developing countries (World Bank 2010). This study was cited in the IPCC 5th Assessment Report (Chambwera et al., 2014), although the IPCC report noted there was little confidence in these numbers, and that there was strong evidence of important omissions and shortcomings in data and methods, rendering these estimates highly preliminary.

[Übersetzung von Chris Frey: Die Studie der Weltbank EACC schätzte die Kosten der geplanten Anpassung mit 70 Milliarden Dollar bis 100 Milliarden Dollar pro Jahr ein, und zwar während des Zeitraumes 2010 bis 2050 für Entwicklungsländer (Weltbank 2010). Die Studie wurde im AR 5 des IPCC angeführt (Chambwera et al. 2014), obwohl das IPCC anmerkte, dass es nur wenig Vertrauen in diese Zahlen gebe und dass es starke Hinweise auf Auslassungen und Unzulänglichkeiten bei Daten und den Verfahren gibt. Dies macht diese Schätzungen höchst vorläufig.]

Auf KLIMARETTER.INFO wird vermittelt, dass dies selbstverständlich alleine die Auswirkungen des allgegenwärtigen und immer schlimmer werdenden Klimawandels seien. Dazu ein Foto mit einem um mehrere Meter höheren (fiktiven) Meeresspiegel (wegen des Copyrights leider hier nicht abbildbar), Bildtext: Kunstaktion: Die blaue Linie zeigt, wie hoch der Meeresspiegel an den Küsten steigt, wenn die Welt untätig bleibt.

Derzeit gibt es keinerlei Anzeichen für einen (über dem natürlichen Wert) steigenden Meeresspiegel [4]. Klimawandel-bedingte Unwetter nehmen ebenfalls nicht zu, sondern eher ab [3] [5] – wie es selbst der letzte IPCC-Report zugibt.

Parallel zeigt sich immer deutlicher, auf welcher katastrophalen Datenbasis die Zukunftsszenarien basieren [6][7] und wer sich die geradezu inflationär verbreitenden Vulnerabilitätsberichte genauer anschaut, bemerkt darin vor allem die großen Fehler der Projektionsbänder und völlige Gleichgültigkeit, sie bemerken zu wollen[8].

Somit kann man die Darstellung[1] nur als eine den wirklichen Daten widersprechende Information bezeichnen.

Für eine so vorbildliche political correctness wurde die Blog (mit-)Betreiberin Prof. C. Kemfert deshalb auch ganz aktuell zusammen mit einem Vertreter des PIK in den Sachverständigenrat für Umweltfragen (SRU) berufen. Es lohnt sich also wieder, von der Politik vertretene Darstellungen ohne Wenn und Aber zu unterstützen.

Der Autor vermutet hinter der Kostenexplosion des Klimafonds jedoch ganz andere – aber bestimmt nicht vom sich stetig wandelnden Klima verursachte – Gründe. In der Artikelreihe über die (nicht) untergehenden Inseln [4] lassen sich welche nachlesen.

*United Nations Environment Programme

[1] KLIMARETTER.INFO, 11. Mai 2016: Klimafinanzierung wird fünfmal so teuer

[2] UNEP 2016. The Adaptation Finance Gap Report 2016. United Nations Environment Programme (UNEP), Nairobi

[3] EIKE 13.01.2016: Munich Re Presseinfo: Natur fordert mehr Opfer – Naturkatastrophen wie Erdbeben, Überschwemmungen und Hitzewellen haben 2015 deutlich mehr Menschenleben gekostet als im Vorjahr

http://www.eike-klima-energie.eu/news-cache/munich-re-presseinfo-natur-fordert-mehr-opfer-naturkatastrophen-wie-erdbeben-ueberschwemmungen-und-hitzewellen-haben-2015-deutlich-mehr-menschenleben-gekostet-als-im-vorjahr/

[4] EIKE 14.12.2015:

Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang

http://www.eike-klima-energie.eu/news-cache/gehen-die-suedseeinseln-wirklich-wegen-des-klimawandels-unter-teil-3-die-marshall-inselgruppe-kein-beispiel-fuer-einen-untergang/

[5] EIKE 27.03.2016: Nachgesehen: Anzahl Tornadoopfer in den USA fast auf dem niedrigsten Stand seit Beginn der Zählung um 1875

http://www.eike-klima-energie.eu/news-cache/nachgesehen-anzahl-tornadoopfer-in-den-usa-fast-auf-dem-niedrigsten-stand-seit-beginn-der-zaehlung-um-1875/

[6] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

http://www.eike-klima-energie.eu/news-cache/die-problematik-der-temperaturrekonstruktion-eine-beispielhafte-sichtung-dazu-anhand-des-projektes-pages-2k/

[7] EIKE 20.04.2016: Klimamodelle rekonstruieren Niederschlagsentwicklungen nur mit gröbsten Fehlern

http://www.eike-klima-energie.eu/news-cache/klimamodelle-rekonstruieren-niederschlagsentwicklungen-nur-mit-groebsten-fehlern/

[8] EIKE 07.02.2016: Der Himmel fällt uns auf den Kopf und ohne die Glaskugel im Computer würden wir es nie erfahren

Rezension: UBA Studie 24/2015 Die Vulnerabilität Deutschlands gegenüber dem Klimawandel

http://www.eike-klima-energie.eu/news-cache/der-himmel-faellt-uns-auf-den-kopf-und-ohne-die-glaskugel-im-computer-wuerden-wir-es-nie-erfahren/




Das ZDF zu Tschernobyl

Der ZDF-Bericht wäre anders ausgefallen, hätte man solche Informationsquellen genutzt. Statt dessen wurden nur die Ansichten eines russischen „Grünen“, Alexei Jablokow, und des Korrespondenten Winand Wernicke verbreitet. In der Sendung um 14.00 Uhr kam noch eine ganz obskure Person aus der alternativen Strahlenszene zu Wort, Prof. Lengfelder. Wieso stützt sich ein öffentlicher Sender nur auf Scharlatane und Laien, während Wissenschaftler, welche in der Tradition von nunmehr 100 Jahren ernsthafter Strahlenforschung stehen, nicht berücksichtigt werden?

  1. Videoauszug der ZDF heute Sendung vom 26.4.16 zu den Opfern von Tschernobyl
  2. ♦ Es gab in 25 Jahren über 1 Million Tote
  3. ♦ Es gab über 2 Millionen Fehlgeburten
  4. ♦ Unter den Folgen leiden Mensch und Natur bis heute
  5. ♦ Auf dem Reaktorgelände kann man sich nur einige Stunden lang aufhalten

Zu 1) Die Zahl von 1 Million Todesopfern:

Das wären dann fast so viele, wie die 1,25 Millionen Verkehrstoten der ganzen Welt pro Jahr. Wer gegenüber Zahlenangaben grundsätzlich misstrauisch ist, wird sagen: Auch diese 1,25 Millionen sind nicht plausibel. In Deutschland leben 1,1 % der Menschheit, also rund 1 %, und wir hatten 2015 fast 3.500 Verkehrstote. In der Welt müssten es dann weniger als das Hundertfache sein, da es in den meisten Ländern nicht so viele Autos gibt, also unter 350.000. Aber die Zahl 1,25 Millionen stammt von der Weltgesundheitsorganisation und lässt sich erklären. Anderswo fährt man rücksichtsloser. Iran z.B. hat etwa so viele Einwohner wie Deutschland, weit weniger Autos, aber 5 – 6mal mehr Verkehrstote pro Jahr.

Wollte man also vorzeitige Todesfälle vermeiden, müsste man die Verkehrssicherheit in der Welt auf unseren Stand bringen und nicht etwa Kernkraftwerke abschalten, selbst wenn das mit der Million stimmen würde.

Aber die Million ist völliger Unsinn. Alle Zahlen über 60 von Todesopfern wurden auf zweifelhafteste Weise berechnet, oft auch einfach nur behauptet. Berechnungen beruhen auf dem Konzept der Kollektivdosis. Eine Einwirkung könne noch so gering sein, wenn man sie mit einer entsprechend hohen Zahl von Personen multipliziert, wäre das Ergebnis wieder das gleiche.

Lässt sich solch eine einfache Vorstellung auf biologische Systeme anwenden? Wohl kaum. Jemand verliert 5 l, also 5.000 ml Blut und ist damit tot. 1.000 Personen verlieren je 5 ml, also gibt es unter den 1.000 genau einen Todesfall? Natürlich nicht. Bei Strahlen ist die Einwirkung auf die Zellen unspezifisch, das heißt, die Wirkung unterscheidet sich nicht von der Wirkung anderer Einflüsse, die sehr viel häufiger sind. Wie bei kleinen Wunden kann man davon ausgehen, dass alles repariert wird.

Aber selbst die unwahrscheinliche Vorstellung, dass kleinste Dosen noch eine Wirkung haben (LNT – linear no threshold) und nur mit einer genügend hohen Zahl von Betroffenen multipliziert werden müssen, führt nicht zu der Million Tschernobyl-Opfern. Im äußersten Fall, wenn man voraussetzt, dass jede messbare Dosis, auch wenn sie weit unter dem natürlichen Strahlenniveau liegt, noch eine Wirkung hat, ist das Ergebnis: 30.000 Tote.

Das „Chernobyl Forum“ von 2003 bis 2005, an dem u.a. WHO und UNSCEAR teilnahmen, berechnete mittels des Kollektivdosis-Konzepts 4.000 Todesfälle. Der Unterschied zu dem Wert 30.000 rührt daher, dass keine Personen einbezogen wurden, deren Dosen gegenüber dem natürlichen Strahlenpegel ganz geringfügig waren.

Man liest immer wieder: Wirkungen bis zu kleinsten Dosen sind erwiesen. Das geht gar nicht. Schon bei der relativ hohen Dosis von 100 mSv liefert die Rechnung 5 Krebsfälle pro 1.000 Personen. Da aber leider 200 bis 300 Menschen von 1.000 sowieso Krebs bekommen, sind die angeblichen 5 zusätzlichen darunter nicht zu entdecken.

Alle seriösen Arbeiten weisen darauf hin, dass diese hypothetischen Fälle gar nicht existieren müssen, es spräche viel dafür, dass die wirkliche Zahl Null ist.

Wie kommen aber nun Jablokow, wie auch Greenpeace, IPPNW (International Physicians for the Prevention of Nuclear War) und andere zu ihren extrem hohen Opferzahlen? Indem sie eben nicht von einer linearen Dosis-Wirkungs-Beziehung ausgehen, sondern, völlig aus der Luft gegriffen, eine verstärkte Wirkung gerade bei kleinen Dosen behaupten.

Zu 2) Fehlgeburten

Nach Jablokow gab es über 2 Millionen Fehlgeburten mehr durch Tschernobyl. Diese Zahl ist offensichtlich frei erfunden. Fehlgeburten werden nirgends vollständig erfasst.

Zu 3) Unter den Folgen leiden Mensch und Natur noch immer?

Am stärksten betroffen waren die Einwohner der bald nach dem Unglück evakuierten Gebiete. Deren Lebensdosis kann einige 100 mSv betragen. Nun sind unterhalb einer Schockdosis von 100 mSv keine biologischen Wirkungen nachweisbar. Einige 100 mSv, gestreckt über das ganze Leben, können daher keine Wirkung hervorbringen. Nur die künstlich erzeugte Angst macht Menschen krank. Da man Tieren und Pflanzen nichts vorlügen kann, zeigt die Natur heute keine Schäden mehr.

Zu 4) Aufenthalt auf dem Reaktorgelände

Nach Herrn Wernicke kann man sich nur einige Stunden auf dem Reaktorgelände aufhalten. Das gilt aber nur für ihn, vielleicht war er in Eile und musste noch von einem anderen Ort Unzutreffendes berichten. Die Strahlung war jedenfalls kein Grund, den Besuch zu verkürzen. Ich habe mich im Jahr 2014 mit einer kleinen Gruppe von 5 Leuten 7 Stunden im Sperrgebiet aufgehalten. Einer von uns kam aus USA.

Unser Aufenthalt brachte uns weniger Dosis als der Flug Amsterdam – Kiew. Allerdings gibt es kleine Stellen mit höherer Dosis. Hätten wir die 7 Stunden auf dem Gelände eines ehemaligen Kindergartens zugebracht, wäre unsere Dosis 35 µSv (Mikrosievert) gewesen, also etwas mehr, als unser Mitreisender ab Houston auf seinem Dosimeter durch den Flug hatte.

Abb. 1 Dosis in µS verschiedener Aktivitäten

Den absoluten Spitzenwert von 12 µSv pro Stunde fanden wir in einem Moospolster. Würde dort ein Käfer ständig leben, hätte er eine Jahresdosis von 105 mSv. Auf 1 Jahr verteilt ist das nicht schlimm, denn nur, wenn diese Dosis innerhalb kurzer Zeit einwirkt, können sich bei Säugetieren geringe biologische Effekte zeigen. Insekten vertragen mehr.

Die Behauptung, im Sperrgebiet von Tschernobyl könnte man sich nur ein paar Stunden aufhalten, zeugt von grenzenloser Unkenntnis oder grenzenloser Unehrlichkeit. Schließlich leben dort längst wieder Menschen.

O tempora, o mores! (Was für Zeiten, was für Sitten!) klagte Cicero im alten Rom. Dort lief einer namens Catilina herum, richtete großen Schaden für die Allgemeinheit an, konnte sich aber frei bewegen und Volksreden halten. Ein Staatsmann, eben Cicero, sorgte jedoch dafür, dass Catilina erledigt wurde. Wer dagegen bei uns Schaden anrichtet, sinnlos Angst erzeugt, unsere Stromversorgung ruinieren will, hat die „Staatsmänner“ hinter sich.

Man sagt manchmal: „Zustände wie im alten Rom“. Nein, schlimmer.




Zusammenbruch von SolarCity (SCTY) – wird Elon Musk jetzt überschätzt?

Angesichts des weiteren Rückgangs der Tesla-Anteile um 7% nach nicht eingetretenen Gewinn-Erwartungen hat Musks Netzwerk mit Sicherheit einen schweren Schlag erlitten. Natürlich haben wir keinerlei Mitleid mit dem Gründer, dem Nach-Wie-Vor-Milliardär von Tesla, SpaceX und Paypal, aber die Investoren fangen an, Fragen zu stellen über die wirkliche Realität des wahrgenommenen „Musk-Effektes“.

Eines wollen wir hier klarstellen: Elon Musk ist ein Genie. Der Mann war eine revolutionäre Kraft beim Vorankommen unserer Gesellschaft, und seine Luftschlösser über die Fähigkeit der Menschheit sind inspirierend. Nichtsdestotrotz wird immer klarer, dass Musks Rückhalt ein Unternehmen nicht automatisch zu einem Rendite-Garanten macht.

Das Tesla-Problem

Das vielleicht besorglichste Thema für Musk sind die unverändert bestehenden Schwierigkeiten von Tesla. Musk selbst hat am lautesten über Tesla geredet sowie Elektroautos allgemein. Dabei ging er sogar so weit zu sagen, dass das Unternehmen im Jahre 2025 genauso viel wert sein wird wie Apple heute. Jetzt fangen viele Kritiker an zu argumentieren, dass Musks Rhetorik den Wert von Tesla auf Jahre hinaus künstlich aufgebauscht hat.

Das Problem mit Tesla ist, dass das Unternehmen mit dem Verkauf von Autos einfach nicht genug Geld verdient. Vieles trägt zu den geringen Verkaufszahlen bei, von denen eines das lächerlich hohe Preisschild [price-tag] ist, das mit dem Kauf eines Tesla einhergeht. Aber keine Angst! Elon Musk und sein unter 30.000 Dollar teures Modell 3 kommen zur Rettung!

Außer dass es wirklich nicht so einfach ist, und das Modell 3 ist selbst ein wunderbares Beispiel dafür, wie mächtig Musks Worte sein können. Investoren sind über das Modell 3 regelrecht in Verzückung geraten, glaubten sie doch, dass Tesla endlich das bezahlbare Fahrzeug entwickelt hatte, das für einen normalen Menschen attraktiv ist und das die Verbrauchszahlen ankurbeln könnte. In Wirklichkeit würde Tesla mit der Produktion des Modells 3 nicht vor Ende 2017 anfangen. Bis dahin dürfte der von der öffentlichen Hand gewährte Steuervorteil, welcher den Preis des Autos unter 30.000 Dollar drückt, längst abgeschafft sein (hier).

Überbewertung von SolarCity

Was Investoren jetzt unbedingt erkennen sollten ist, dass es kein Bonus mehr sein sollte, in SolarCity zu investieren, nur aufgrund der Verbindung mit Musk. Während der jüngste Bericht des Unternehmens diesen Punkt unterstreicht, gab es schon den ersten Hinweis hierauf, als Tesla verkündet hatte, dass seine neue Solar-Batterie mit Solarpaneelen auf dem Dach einfach nicht zusammenpasste (hier).

Obwohl Musk den Vorsitz führt, hat sich SolarCity offiziell entschieden, die neuen Tesla-Batterien nicht zu verwenden. An diesem Punkt scheint die mögliche Verbindung zwischen SolarCity und Tesla, einst als der beste Trieb für SCTY-Anteile gepriesen, lockerer zu sein als je zuvor.

Wie viel für eine Idee?

Eindeutig unbestreitbar ist, dass Musk eine unglaubliche „Ideen-Fabrik“ ist. Sein noch nicht öffentliches Weltraumerkundungs-Venture, SpaceX, revolutioniert gerade den bemannten Raumflug, entwickelt er doch Raketen, die sicher wieder zur Erde zurückkehren und dann erneut verwendet werden können.

Natürlich wirft SpaceX nicht notwendigerweise sofort irgendwelche Profite ab. Allerdings glaubt Musk, dass das Unternehmen innerhalb der nächsten 10 bis 20 Jahre einen Mann zum Mars bringen wird, und falls es SpaceX gelingt, seine Rakete wieder zu verwenden, wird dies die Welt der Weltraumerkundung für immer verändern, und das Unternehmen wird zum Steuermann kommerzieller Raumfahrt.

Eine weitere grandiose Idee von Musk kam daher in Gestalt einer Herausforderung an Ingenieure im Jahre 2013, als er es wagte, jemanden von seinem Traum eines Hochgeschwindigkeits-Transportsystems zu überzeugen, das auf der Basis von unter Druck stehenden Röhren funktioniert. Ein Unternehmen, nämlich Hyperloop Technologies, sagt, dass es kurz davor stehe zu demonstrieren, dass diese Technologie funktioniert, und demnächst werde man in einem Live-Ereignis den Fortschritt belegen, gesponsert von SpaceX.

Unter dem Strich

SolarCity strampelt, Tesla strampelt. Elon Musk ist nicht der König Midas, der Unternehmen perfekt macht. Stattdessen werden diese Musk-Marken wie alle anderen Geschäftsbereiche, in denen öffentlich gehandelt wird, sich auf einen Weg konzentrieren müssen, die Profite steigen zu lassen und den Anteilseignern Werte zukommen zu lassen. Musks Zauberei kann nicht mehr alles richten.

Link: http://www.nasdaq.com/article/as-solarcity-scty-crashes-is-elon-musk-overrated-cm619241

Das Thema ist in den USA ziemlich verbreitet. Unter Anderem findet sich folgender Beitrag, der so zusammengefasst wird:

Das wirkliche Problem mit Tesla-Autos ist, dass eigentlich niemand sie kauft. Nun, nicht direkt. Deren Herstellung ist schwer subventioniert – und deren Verkauf ist schwer subventioniert. Tesla verdient auch kein Geld mit dem Verkauf von Autos. Es verdient Geld mit dem Verkauf von „Kohlenstoff-Zertifikaten“ [carbon credits] an reale Autofirmen, die funktional und ökonomisch zuverlässige Autos bauen, die sich den Erwartungen zufolge verkaufen – welche aber keine „Null-Emissionen-Fahrzeuge“ sind. Es wird geschätzt, dass Musks verschiedene Unternehmungen – einschließlich seines neuen Werkes SolarCity für Solarpaneele und SpaceX – den Steuerzahler bereits mindestens 4,9 Milliarden Dollar gekostet haben, wobei etwa die Hälfte davon an Tesla geflossen ist. – Eric Peters, The Detroit News, 9. Mai 2016

Übersetzt von Chris Frey EIKE