1

Extremes Winterwetter in Europa, der Wärmeinseleffekt und das Märchen vom CO2- Treibhauseffekt Teil 1: Die gegenwärtigen Witterungsextreme und wesentliche Hintergründe der Erwärmung in Deutschland

Bild rechts: Ein extrem milder Dezember 2015 ließ in Weimar erste Schneeglöckchen blühen, doch Eiseskälte setzte der Frühlingsherrlichkeit ein jähes Ende. Foto: Stefan Kämpfe

Selten bescherte uns ein Winter solche Temperaturkontraste, wie der gegenwärtige. Während man sich im November und Dezember über frühlingshafte Temperaturen in ganz Deutschland freuen konnte, vertrieb eisige Winterluft in den ersten Januartagen den „Dezemberfrühling“ aus Skandinavien und erreichte zeitweise auch Nordostdeutschland. Der Südwesten blieb noch vom Wintereinbruch verschont. Die um den 7. Januar gemessenen Temperaturen in Skandinavien waren sibirisch und ließen zeitweise eine markante Luftmassengrenze mit Temperaturgegensätzen von bis zu 15 Grad über Deutschland entstehen:

Über Deutschland stellte sich die Situation am 5. Januar so dar:

Beide Bilder Quelle wetteronline.de, ergänzt von Stefan Kämpfe

Eines wird bei der Betrachtung dieser beiden Abbildungen klar: Die annähernd überall gleiche CO2- Konzentration passt nicht zu den extremen Temperaturkontrasten. Und wie vertragen sich die deutlich gestiegenen CO2- Werte, die doch eigentlich wärmen sollten, mit den sibirischen Temperaturen in Skandinavien und Osteuropa? Gar nicht, wie ein kritischer Blick auf die Entwicklung der Wintertemperaturen an der Station Erfurt- Weimar zeigt:

Bleibt die spannende Frage, was statt CO2 diese Extreme verursacht hat und wie sich die Deutschland- Temperaturen zukünftig entwickeln könnten. Im Rahmen dieses Beitrages können wir die wichtigsten Ursachen nur kurz benennen und anreißen. Eine wesentliche Rolle spielt die Sonnenaktivität. Unser Zentralgestirn strahlt nicht immer gleich viel Energie ab. In aktiven Phasen, wie wir sie am Ende des 20. Jahrhunderts bis kurz nach der Jahrtausendwende erlebten, zeigen sich unter anderem mehr Sonnenflecken, die Sonne ist magnetisch aktiver ;sie sendet dann auch mehr Röntgen-, UV- und Teilchenstrahlung aus, was tendenziell die Luftströmungen beeinflusst und die Häufigkeitsverhältnisse der Großwetterlagen zugunsten westlicher Luftströmungen über Europa beeinflusst. Diese wirken im Winter tendenziell erwärmend (folgende Abbildung):

Eine wesentliche Voraussetzung für eine intensive Westströmung ist unter anderem ein möglichst ungestörter Polarwirbel (das im Winterhalbjahr vorhandene Kältereservoir über der Arktis, besonders in der mittleren Troposphäre). Ein solch annähernd kreisrunder Polarwirbel wird an seinem Südrand von einer Intensiven Ringströmung begrenzt, die von West nach Ost verläuft und mit der die milde Atlantikluft nach Europa gelangen kann. Ist der Polarwirbel hingen gestört, beispielsweise durch sogenannte „Stratosphärenerwärmungen“, so weicht die glatte Westströmung einer mehr oder weniger stark mäandrierenden Strömung, mit der warme Luft im Extremfall bis zum Nordpol, aber kalte Luft auch bis nach Nordafrika oder in die Türkei und in den Nahen Osten gelangen kann – wie gegenwärtig. Folgend ein nahezu idealer, wenig gestörter Polarwirbel aus dem milden Winter 2014/15:

Man erkennt eine vorwiegend westlich orientierte Strömung am Südrand des Polarwirbels, von der Europa durch besonders milde Luft (Atlantik, Golfstrom- Einfluss) profitiert (Rote Pfeile). Ganz anders zeigt sich die Modellrechnung für den 12. Januar 2016, welche einen stark mäandrierenden Polarwirbel vorhergesagt hat:

Es dominieren meridionale Strömungsmuster, welche Extremwetter fördern. Einem markanten Kaltlufteinbruch über dem Mittleren Westen der USA und über Westeuropa stehen mildere Südströmungen über der US-Westküste, Ostkanada und Osteuropa gegenüber (beide Bildquellen wetterzentrale.de, ergänzt von Stefan Kämpfe).

Mit den Faktoren Sonnenaktivität, Polarwirbel und Eisbedeckung der Arktis ist auch die AMO verknüpft, die sogenannte Atlantische Mehrzehnjährige Oszillation, eine etwa 50- bis 80-jährige Schwankung der Wassertemperaturen im zentralen Nordatlantik. KÄMPFE wies nach, dass die AMO die Großwetterlagenhäufigkeit und die Temperaturverhältnisse in Deutschland wesentlich beeinflusst:

Die Häufigkeitsspitzen der Süd- und Südwestlagen folgen den AMO- Warmphasen mit einer Verzögerung von 5 bis 15 Jahren, was erklärt, dass gegenwärtig, am Ende einer solchen Warmphase, gehäuft diese Lagen auftreten. Da die Wassertemperaturen des Nordatlantiks seit dem späten 19. Jahrhundert insgesamt gestiegen sind (mit hoher Wahrscheinlichkeit eine Folge der zunehmenden Sonnenaktivität), nahm auch langfristig die Häufigkeit der S- und SW- Lagen sowie die überwiegend erwärmend wirkender Hochdruckwetterlagen zu, was in Deutschland einen erheblichen Temperaturanstieg verursachte:

Und damit ist auch geklärt, warum hierzulande Spätherbst und Frühwinter 2015 so exorbitant warm ausfielen – es gab ungewöhnlich häufig warme südliche bis westliche Luftströmungen. Am Beispiel des Novembers sehen wir, dass dieser Monat auch langfristig wärmer wurde, weil die Häufigkeit der südlichen Luftströmungen zu- und die der (im Spätherbst schon sehr kalten) Ostwetterlagen abgenommen hat:

Abschließend sei noch darauf verwiesen, dass auch eine längere und intensivere Sonnenscheindauer, allerdings nur im Sommerhalbjahr, wesentlich erwärmend wirkte. Diese Entwicklung ist unter anderem auf Luftreinhaltemaßnahmen, die schon beschriebenen Häufigkeitsänderungen bei den Großwetterlagen, aber auch auf die Sonnenaktivität selbst (SVENSMARK- Effekt) zurückzuführen. Doch es gibt noch eine weitere Erwärmungsursache, die nicht unterschätzt werden darf: Wärmeinseleffekte im weitesten Sinne. Misst man an zwei gleich hoch gelegenen, ebenen, nicht allzu weit voneinander entfernten Orten die Lufttemperaturen unter standardisierten Bedingungen, so sollte man nahezu identische Messergebnisse erwarten. Wenn allerdings ein Messort im Zentrum einer Großstadt liegt, etwa in Berlin, und der andere ist eher ländlich, so zeigt sich folgendes Ergebnis:

Im dicht bebauten, versiegelten, nur wenig begrünten Zentrum einer Großstadt kann es also selbst im vieljährigen Mittel um fast 2 Kelvin (2°C) wärmer als in ländlichen Regionen sein! Und die Bebauungs- und Versiegelungstätigkeit nahm gerade nach 1945 massiv zu. Im folgenden zweiten Teil wollen wir daher diesen WI- Effekt genauer beleuchten.

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, Naturbeobachter und unabhängiger Klimaforscher




Klima-Finanzplan von Ban-Ki Moon: Dritte-Welt-Despoten zahlen mittels noch stärkerer Unterdrückung Schulden ab

[Alle Links zu Wikipedia. Anm. d. Übers.]

Bild rechts: Flag of the United Nations, Public Domain Image

Der Independent schreibt:

Der Erlass nationaler Schulden im Tausch gegen Maßnahmen bzgl. des Klimawandels könnte die Lösung sein, nach der wir gesucht haben.

Der Vorschlag des Commonwealth für einen multilateralen Tausch von Schulden gegen Klima-Maßnahmen, einhergehend mit grünen Investitionen und multilateralen Maßnahmen der entwickelten und der Entwicklungsländer sind die Dinge, die wir nach Paris zum Aufhalten des Klimawandels brauchen.

Das globale Klimawandel-Abkommen war ein bemerkenswertes Geschenk [Geschenk = auf Englisch ,gift‘. Daraus macht ein Kommentator unten ein wichtiges Wortspiel. Anm. d. Übers.] an die Welt und zukünftige Generationen. 188 Länder haben Intended Nationally Determined Contributions [etwa: Beabsichtigte national bestimmte Beiträge] eingereicht, in denen sie umreißen, was sie zur Reduktion von Emissionen und Vorsorge gegen Klima zu tun gedenken. Regierungen der entwickelten Länder haben erneut ihrer Verpflichtung Ausdruck verliehen, 100 Milliarden Dollar pro Jahr für Klimamaßnahmen aufzubringen, wobei kleine und verwundbare Länder an erster Stelle der Liste für Beistand stehen. Der Premierminister von Tuvalu – eine Inselnation im Pazifik, die durch einen katastrophalen Anstieg des Meeresspiegels bedroht sind – drückte es so aus: „Wenn man Tuvalu rettet, rettet man die ganze Welt“.

Jetzt hat das neue Jahr angefangen, und es ist an der Zeit, diese Resolutionen mit Leben zu erfüllen. Ein rapider und nachhaltiger Fluss von Klimafinanzen an verwundbare Entwicklungsländer steht im Mittelpunkt, den Klimawandel zu managen. Bislang war dieser Fluss von Klimafinanzierung weniger als ausreichend. Dies muss sich ändern. Klimafinanzierung sollte nicht zu einer Reduktion der traditionellen offiziellen Entwicklungshilfe führen.

Darum war die globale Erwärmung die oberste Priorität der Commonwealth-Führer auf ihrem jüngsten Treffen in Malta. Ihr Statement zum Klimawandel bot rechtzeitige, wichtige politische Impulse für die Pariser Konferenz. Und sie hatten ein paar Gute Gedanken, Gelder für Klimamaßnahmen freizusetzen.

Hier folgt einer dieser Gedanken: Schuldenerlass im Austausch für Klimawandel-Maßnahmen. Viele verwundbare Länder sind so hoch mit Schulden belastet, dass sie es sich einfach nicht leisten können, gegen die globale Erwärmung vorzugehen. Jamaika beispielsweise kämpft gegen einen öffentlichen Schuldenberg im Verhältnis zum BIP von etwa 140%. Für die Seychellen sind es 65%. Man denke mal daran, was geschehen könnte, wenn Länder wie diese ihre Schuldenlast verringern würden durch Maßnahmen gegen den Klimawandel: sie könnten gegen das Meer geschützte Gebiete ausweiten, den Küstenschutz verbessern, die Fischerei-Politik reformieren, Wasser sparen, in erneuerbare Energien investieren und Institutionen ins Leben rufen, die diese Pläne vorantreiben – während sie gleichzeitig den Weg aus den Schulden heraus finden.

Mehr: http://www.independent.co.uk/voices/swapping-national-debt-for-action-on-climate-change-could-be-the-solution-weve-been-looking-for-a6802561.html

Was für ein Plan! Falls ich nicht etwas übersehe, bedeutet der Plan von Ban-Ki Moon, dass man Despoten der Dritten Welt ihre Armeen und ihre Geheimpolizei finanziert sowie ihre auswärtigen Bankkonten füllt, während deren gewaltige nationale Schulden steigen. Dann „vergibt“ man ihnen ihre Schulden, so dass die Tyrannen sogar noch mehr Geld leihen können. Alles, was sie tun müssen ist, „neue Institutionen ins Leben zu rufen“ (d. h. viele mit den UN verbundene Bürokraten beschäftigen), Zugang zu Bewässerung verhindern, ihre heimische Fischindustrie zu ruinieren – und so tun, als ob sie gegen das Nicht-Problem „Klimawandel“ vorgehen.

Ich prophezeie, dass diese Leute diesen Plan lieben werden!

Bemerkung des Übersetzers: Das ist ja ein furchtbares Stück im Independent! Aber es gibt auch dort Kommentare, die an Deutlichkeit nichts zu wünschen übrig lassen. Die Zensur hat dort offenbar noch nicht so stark zugeschlagen wie auf deutschen Websites dieses Kalibers. Einer davon lautet:

Apocalypse Ora:

Gift? Only if you use what it means in German. Ein dummer Wahnsinns-Gedanke, eine panische Maßnahme gegen eine Bedrohung, die ein natürliches Phänomen ist, gegen das niemand etwas tun kann.

Das Ergebnis wird die Zerstörung der Weltwirtschaft sein sowie den Hungertod für Viele bedeuten, die teilweise noch nicht einmal geboren sind.

Falls diese Idioten etwas Sinnvolles tun wollen, sollten sie darüber nachdenken, wie man die globale Bevölkerung reduzieren könnte in jenen Gebieten, die derartige Schwierigkeiten haben.

Link: http://wattsupwiththat.com/2016/01/08/ban-ki-moons-climate-finance-plan-despots-paying-off-third-world-debt-with-more-oppression/

Übersetzt von Chris Frey EIKE




Zurück zu den Grundlagen

Damals im Jahre 1978 waren die Verantwortlichen an einer Sache besonders interessiert – nämlich wie zunehmende Mengen von CO2 in der Atmosphäre das Klima nachteilig beeinflussen. Aber Feuer ist mehr als Flammen. Und Wasser ist mehr als fließt. Es ist närrisch, das Große Ganze zu ignorieren.

Zu jener Zeit schrieb Dyson ein Memo und argumentierte darin, dass die positiven Aspekte von CO2 ebenfalls wichtig wären. Während ihn das gleiche Energieministerium ihn 15 Jahre später mit dem Enrico Fermi award auszeichnete in Anerkennung seiner „herausragenden Beiträge zum fundamentalen wissenschaftlichen Verständnis in vielen Bereichen von Physik, Biologie, Astronomie und Mathematik“ blieb sein Rat in dieser Sache unbeachtet. Er sagt:

Mein Protest erhielt keinerlei Aufmerksamkeit, und der Umfassende Plan blieb vorherrschend. Als Folge davon wurde die Ansicht der Öffentlichkeit in bezug auf Kohlendioxid dominiert von Computer-Klimamodell-Experten, die den (Forschungs-)Plan entwickelt hatten. Das gruppenspezifische Denken jener Experten wurde verstärkt und befeuert von einer unterstützenden politischen Bürokratie“.

Die Entscheidung, ein industriefeindliches Spotlight auf die Risiken von CO2 zu werfen, während man gleichzeitig blind gegenüber dessen Vorteilen war, verzerrte die wissenschaftliche Diskussion. Schockierend ist, wie wenige Wissenschaftler diesen begrenzten intellektuellen Horizont hinterfragt haben angesichts der Tatsache, dass das Große Ganze diesbezüglich eine total andere Geschichte erzählt.

Im Jahre 1978 gab es 335 ppm CO2 in unserer Atmosphäre (hier). Heute sind es 400 ppm. Diese marginale Zunahme hat Erstaunliches bewirkt. Unser Planet ist merklich grüner geworden als vor 40 Jahren – aus dem einfachen Grund, dass CO2 Pflanzenfutter ist – was auch immer sonst noch damit zusammenhängt. Es gibt einen Grund dafür, warum kommerzielle Gartenbaubetriebe dieses Gas in ihre Treibhäuser pumpen.

Ein CO2-Generator im Wert von 900 Dollar. Quelle

Wie Carbon Dioxide: The Good News eindeutig klar macht, haben sich die Lebensbedingungen für Pflanzen, Tiere und Menschen verbessert. Unsere Wälder sind jetzt widerstandsfähiger, unsere Wüsten ergrünen und unsere Äcker sind deutlich produktiver. Größere und stärkere Pflanzen bedeuten mehr Nahrung für die Tiere der Wildnis und reduzieren die Notwendigkeit, noch mehr Wildnis urbar zu machen, um die Menschen zu ernähren.

Aber das ist erst der Anfang. Wie Autor Indur Goklany in seinem von der in London ansässigen GWPF veröffentlichten Bericht betont:

Höhere landwirtschaftliche Erträge reduzieren allgemein die Preise für Nahrungsmittel. Dies bedeutet für die Menschheit eine doppelte Dividende. Erstens, chronischer Hunger wird reduziert, und zweitens ist eine Reduktion chronischen Hungers der erste Schritt in Richtung einer Verbesserung der Gesundheit der Öffentlichkeit.

Unglaublicherweise macht ein wenig mehr Kohlendioxid in der Luft auch die Pflanzen widerstandsfähiger gegen Dürren. Die Poren an der Unterseite ihrer Blätter müssen nicht so groß sein, was bedeutet, dass sie weniger Wasser verlieren. Das Wachstum gesünderer Pflanzen mit weniger Wasser ist ein enormer Gewinn für Gärtner, Landwirte und jedermann, der sich um nachhaltiges Leben kümmert. In einer gesunden Welt würde eine solche Mischung, dass all dies berücksichtigt, gefeiert werden.

Stattdessen aber wurde das CO2 dämonisiert. Aktivisten und Politiker reden nonstop über die Notwendigkeit, CO2 zu reduzieren. Verarmten afrikanischen Nationen wird der Zugang zu Kohlestrom verwehrt, und Kohlekumpel werden entlassen, weil CO2 jetzt der Öffentliche Feind Nummer Eins ist.

Die gegenwärtige diesbezügliche Sachlage ist sogar noch skandalöser, wenn man erkennt, dass die von Computermodellen erzeugten Prophezeiungen gefährlicher Klima-Konsequenzen den Zeittest nicht bestanden haben. Die mittlere globale Temperatur ist nicht einmal ansatzweise so stark gestiegen wie von den Computermodellen prophezeit. Der CO2-Gehalt in der Atmosphäre hat langsam, aber stetig zugenommen, und trotzdem war die Erwärmung der letzten 20 Jahre so gering, dass es wie ein Plateau aussieht – was all die Diskussionen um einen globalen Erwärmungs-Stillstand ausgelöst hat.

Es scheint derzeit unwahrscheinlich, dass es eine direkte Relation zwischen dem atmosphärischen CO2-Gehalt und der Temperatur gibt. Außerdem sind die Computermodelle noch schlechter, wenn sie prophezeien sollen, welche Auswirkungen CO2 auf die Regenmenge hat. In dem Report heißt es dazu:

Eine neue Studie jährlicher Änderungen des Niederschlags in Kalifornien mittels 25 Klimamodell-Projektionen zeigt, dass „12 Projektionen trockenere Bedingungen bis 2060 zeigen und 13 Projektionen nassere Bedingungen bis dahin“.

Das heißt, genauso gut könnte man auch eine Münze werfen, was viel billiger ist als Klimamodelle zu rechnen.

Zusammenfassend: Es gibt kaum überzeugende Beweise für die vorherrschende Sicht auf Kohlendioxid – dass es ein gefährliches Treibhausgas ist, dass man unbedingt verringern muss, um eine katastrophale Erwärmung zu verhindern. Trotzdem wird der überwältigend überzeugendere Standpunkt – dass die geringe Zunahme dieses Spurengases in der Atmosphäre Pflanzen, Vögeln, Tieren und der Menschheit Vorteile bringt – weiterhin von den Mächtigen dieser Welt geleugnet.

Die Verantwortung für diese absurde Situation trägt fest die wissenschaftliche Gemeinschaft. Dyson schreibt dazu in seinem Vorwort zu dem Report:

Die Menschen, die vorgeben, Experten zu sein und die behaupten, die Wissenschaft zu verstehen, sind genau die Menschen, die blind gegenüber den Beweisen sind … das steht für mich im Mittelpunkt des ganzen Mysteriums der Klimawissenschaft. Es ist kein wissenschaftliches, sondern ein menschliches Mysterium. Wie kann es dazu kommen, dass eine ganze Generation wissenschaftlicher Experten blind gegenüber offensichtlichen Fakten ist?

Ich empfehle dringend, diesen Bericht herunter zu laden und sich über die Wunder von CO2 zu informieren. Lesen und sich freuen!

Link: http://nofrakkingconsensus.com/2016/01/08/back-to-basics/

Übersetzt von Chris Frey EIKE




Der versteckte Haken von Paris: Warum die Klima-Schlacht jetzt vor Gericht geschlagen werden wird

Bild rechts: Demonstration in Vatikanstadt. Bild: Matt McDermott

Auf COP21 haben 195 Länder [1] über eine Entscheidung und ein Abkommen über internationale Politik bzgl. Klimawandel [2] debattiert. In bedeutendem Ausmaß überlappen sich Entscheidung und Abkommen und sprechen viele der gleichen Punkte an, wobei die Entscheidung oftmals detaillierter ist in einem Versuch, das Abkommen umzusetzen. Das Pariser Abkommen deckt Abschwächung, Anpassung ebenso wie ,Verluste und Schäden‘ ab, ein Prozess, der auf die durch Klimawandel verursachten Schäden zielt und Vorgehensweisen für die Finanzierung und den Technologie-Transfer etabliert. Hinsichtlich der Abschwächung setzt es sich die ambitionierte Objektive, den globalen mittleren Temperaturanstieg auf 2°C der sogar nur 1,5°C zu begrenzen [3]. Bei der Verfolgung dieser Objektive wird ein verfahrenstechnisches Rahmenwerk etabliert für die zukünftige Politik bzgl. Klima seitens der Teilnehmer.

Falls Regierungen den Kurs nicht vorgeben können, müssen Gerichte das für sie tun“.

Um die Konsequenzen von COP21 abzuschätzen ist es erforderlich zu analysieren, was das Pariser Abkommen tut, und was es nicht tut, sowohl hinsichtlich des Gesetzes als auch politischer Dynamik. Die Frage, wie sehr es bindend ist, hat keine einfache Antwort. Selbst falls das Abkommen in irgendeiner Weise legal bindend ist, was genau fordert es, und wie könnte einer der Unterzeichner irgendeinen Teil verletzen? Damit zusammenhängend: obwohl eine Vielfalt politischer Auswirkungen die Folge sein könnte – was sind die konkreten legalen Sanktionsmittel, um mit der Nichtbefolgung umzugehen?

Es steckt mehr hinter dem Pariser Abkommen als auf den ersten Blick ersichtlich. Die mehrdeutige Wortwahl und gesetzliche Kraft (oder das Fehlen derselben) sind nur die eine Seite der Story. Die andere Seite kann man erkennen mit der Frage, warum so viel Zeit und Mühe aufgewendet worden war, um nicht bindende Verpflichtungen und Proklamationen zu erzielen? Falls alles nicht bindend und in jedem Falle nicht durchsetzbar ist, warum also?

Teil der Antwort ist, dass die internationalen Klimaverhandlungen lange als Plattform gedient haben für Ideen zu Klimapolitik. Auch unterhalb der Vertragsebene kann ein gut formuliertes oder gut durchdachtes Konzept Einfluss auf nationale politische Führer und heimische Gesetzgeber ausüben. Vor Kurzem jedoch hat sich das United Nations Framework Convention on Climate Change (UNFCCC) selbst, dessen jährlich zum Jahresende stattfindenden Sitzungen regelmäßig einen Wust von Schlagzeilen auslösen, aus einem ziemlich durchschnittlichen, unparteiischen Vertrags-Sekretariat zu einer globalen politischen Pro-Klima-Bewegung entwickelt, die alle Arten von Aktivismus rund um den Klimawandel verstärkt und legitimiert.

Diese und andere Unterströmungen konspirieren, um Klimawandel mit an die Spitze der globalen politischen Prioritäten zu setzen, und zwar noch viele Jahrzehnte lang, mit bedeutenden Auswirkungen für nationale und lokale Politiker und politische Systeme.

Klima-Rechtsstreit

Nirgendwo wird das offensichtlicher als in der „von unten nach oben“-Natur des Pariser Abkommens. Indem man es bei den Verhandlungen individuellen Parteien gestattete, ihre eigenen Versprechungen, Ziele und Zeitplanungen zur Reduktion von Emissionen anzubieten, scheint das Pariser Abkommen sowohl praktikabel als auch erreichbar. Und doch, die Tatsache, dass die Gesamtsumme dieser Versprechungen zur Reduktion von Treibhausgasen hinter dem zurück bleibt, was die Parteien selbst mit Verweis auf die Wissenschaft als notwendig erachten, um einen gefährlichen Klimawandel zu verhindern, öffnet einen augenfälligen Graben zwischen Ambition und Verpflichtung. Das Pariser Abkommen wird zu einem periodischen Begutachtungsprozess, um zu versuchen, diese Lücke zu schließen, aber dessen Erfolg scheint abhängig zu sein von politischem Willen und technologischem Können. Tatsächlich gehen aus dem Abkommen keinerlei legale Ansprüche hervor, Emissionen zu reduzieren.

Das Pariser Abkommen wird die Behauptungen von Klimaaktivisten stützen hinsichtlich der Unzulänglichkeit der Klimapolitik von Regierungen.

Das Fehlen jeglicher Möglichkeiten, die Disparität zwischen Ziel und Verpflichtung zu überwinden wird vermutlich zu einem Scheitern bzgl. des Erreichens aller Ziele führen. Schließlich stehen Länder im (gesetzgeberischen) Wettbewerb und haben im Hinterkopf, so wenig wie irgend möglich zu tun.

Während die Teilnehmer glauben mögen, dass sie in diesem Falle zurück an den Verhandlungstisch gehen müssten, dürfte die Realität sehr viel anders aussehen. Falls die kollektiven Bemühungen die Objektiven des Pariser Abkommens offensichtlich nicht erreichen werden, ist es wahrscheinlich, dass stattdessen die Judikative in die Klimapolitik hinein gezogen wird. Klima-Aktivistengruppen oder exekutive Regierungen, die ambitionierte Maßnahmen unterstützen, werden danach trachten, den Gerichten zu helfen, „das Richtige zu tun“.

In diesem Zusammenhang überlegt sich beispielsweise Mike Burger, der geschäftsführende Direktor des Center for Climate Change Law an der Columbia University, das Ausbleiben angemessener Klima-Maßnahmen als illegal zu betrachten, und er warnt, dass „falls Regierungen keinen Weg finden können, die Gerichte dies für sie tun müssten“ [4].

Das in London ansässige Business & Human Rights Resource Centre sagte dazu, dass „inmitten der Unsicherheit, wie das bei COP21 erreichte Abkommen umgesetzt werden könnte, die zivile Gesellschaft mittels Rechtsstreit aktiv werden kann“ [5].

Dem holländischen Klima-Anwalt Roger Cox zufolge können nationale Gesetze sehr gut eine legale Verpflichtung für Staaten mit sich bringen, die nationale Klimapolitik auf eine Linie mit der Zwei-Grad-Objektive zu bringen, die unter internationalem Recht etabliert worden ist [6]. Falls diese Statements andeuten, was da kommen wird, werden die Gerichte mit einer gewissen Regelmäßigkeit über einige Vorschriften zur Klimawandel-Politik urteilen.

Folglich wird das Pariser Abkommen die Behauptungen der Klimaaktivisten stützen hinsichtlich der Unzulänglichkeit der regierungsamtlichen Klimapolitik. Um Rückhalt für ihre Anliegen zu bekommen, können sie verschiedene Dinge des Abkommens heranziehen einschließlich dessen Anerkenntnis der Notwendigkeit dringender Maßnahmen zum Kampf gegen einen gefährlichen Klimawandel.

Mit anderen Worten, juristische Klagen im Bereich Klimapolitik gegen Regierungen, um diese zu zwingen, schärfere Emissions-Reduktionen durchzusetzen, werden nicht zwingend verhindert durch das Fehlen bindender Reduktionsverpflichtungen im Pariser Abkommen. Erfahrungen in den Niederlanden und anderen Ländern einschließlich Pakistan haben gezeigt, dass Gerichtshöfe, die besorgt sind hinsichtlich des Scheiterns von Regierungen, angemessen auf den Klimawandel zu reagieren, gewillt sind, solche Verfahren durchzuführen und die Regierungen dazu zu verurteilen, ihre Klimapolitik nachzubessern, selbst wenn solche Vorschriften legal zweifelhaft sind [7].

Trojanisches Pferd

Das sich das Pariser Abkommen implizit auf politischen Aktivismus stützt sowie die damit zusammenhängende Nicht-Regierungs-Einmischung seitens der Gerichte – eine direkte Folge der Bemühungen, die Zustimmung der USA und anderer Groß-Emittenten zu gewinnen – reflektiert den hohen Preis, den die internationale Gemeinschaft zahlen musste, um einen Sieg bei COP21 verkünden zu können. Auf seinem fundamentalsten Level stellt dies eine Bedrohung für verfassungsgemäße Regierungen dar, die Gewaltenteilung und die repräsentative Demokratie. Es könnte gut zu einer nicht verfassungsgemäßen Usurpation der Macht durch Aktivistengruppen sowie nicht gewählte und nicht in der Verantwortung stehende Richter kommen, was folglich die legislative Macht und die Rolle positiver Gesetzgebung bei der Urteilsfindung in Rechtsstreitigkeiten unterminieren wird.

Dieses Risiko der Subversion der Rechtsstaatlichkeit haben Politiker und Regierungen nicht richtig verstanden. Falls sich dieses Risiko materialisiert, werden die nicht bindenden Teile des Abkommens, um die am wenigsten gefeilscht worden ist, die einflussreichsten legalen Verfügungen werden. Und, anders als exekutive Regierungen, haben Richter keinerlei Möglichkeit sicherzustellen, dass andere Nationen ihren fairen Anteil leisten. Sie können sich nur auf das aufgeklärte Denken ihrer Kollegen verlassen, welches nicht so weit verbreitet sein muss wie sie hoffen.

Unabhängig davon, ob diese Dinge Teil irgendeines beabsichtigten Designs sind, könnte sich das Pariser Abkommen folglich als ein Trojanisches Pferd erweisen. Mehrdeutige Verweise auf die Wissenschaft, die in jedem Falle Gefahr läuft, durch und durch politisiert zu werden, können dieses Defizit nicht beheben. Während das Abkommen wenig dazu beiträgt, die von ihm identifizierten Risiken zu reduzieren, erzeugt es Risiken von ganz anderer Art: es bedroht unsere Rechtsstaatlichkeit einschließlich der Gewaltenteilung. Bei der Entscheidung zur Ratifizierung sollten die Länder nicht nur die Notwendigkeit internationaler Zusammenarbeit bei der Klimapolitik betrachten, sondern auch den Schutz ihrer Verfassungen, ihrer repräsentativen Demokratie und der Rechtsstaatlichkeit. Im Besonderen, stimmen sie erst einmal der hohen kollektiven Ambition und den ambitionierten Forderungen zu, müssen die Länder das Risiko im Hinterkopf haben, dass die Judikative übernehmen könnte, wenn klar wird, dass die Welt nicht liefern wird [8].

Die Politiker sollten sich dessen bewusst sein: Die Kontrolle über die Klimapolitik hinweg zu unterschreiben und an unberechenbare und ungewählte Akteure zu übertragen, liegt nicht im öffentlichen Interesse. Auch ist es kein brauchbarer Weg zu einer rationalen, effektiven und nachhaltigen Klimapolitik.

Link: http://www.energypost.eu/hidden-trigger-paris-climate-battle-will-now-taken-courts/

Übersetzt von Chris Frey EIKE




Umfrage: 73% der Amerikaner weisen den sog. Klima-Konsens zurück…

Auf dem Blog The Hill findet man:

Umfrage: 70 Prozent glauben an den Klimawandel

Timothy Cama

Einer neuen Studie zufolge glauben 70% aller Amerikaner, dass sich das Klima ändert.

Die am Dienstag von der Monmouth University veröffentlichte Umfrage fand eine stark geteilte Meinung hinsichtlich der meisten Themen rund um den Klimawandel, einschließlich der Frage, ob er überhaupt stattfindet, wie ernst er ist und was man dazu tun müsste.

Die Forschungen, durchgeführt, bevor fast 200 Nationen im Dezember für einen internationalen Klimavertrag stimmten, fand heraus, dass Demokraten (63 Prozent) sehr viel wahrscheinlicher als Republikaner (18 Prozent) den Klimawandel als ein sehr ernstes Thema ansehen.

Die Umfrage liefert einen weiteren Baustein der Unterstützung für internationale Maßnahmen und Präsident Obama beim Kampf gegen den Klimawandel. Obamas wesentliche Klimapolitik, umstrittene neue Grenzwerte für Kohlenstoffemissionen von Kraftwerken, wird dieses Jahr seinen Weg vor die Gerichte finden.

Aber die Unterstützung ist kompliziert. Die Fragesteller fanden, dass nur 27 Prozent aller Antwortenden mit dem überwältigen wissenschaftlichen Konsens übereinstimmen, dem zufolge menschliche Aktivitäten der Hauptgrund für Klimawandel sind.

[…]

http://thehill.com/policy/energy-environment/264767-poll-70-percent-believe-in-climate-change?ref=yfp

Mann! 70% der Amerikaner glauben an den Klimawandel!!! Das ist genauso erstaunlich wie wenn man sagt, dass sie an Wetter glauben.

Die wirkliche Story ist diese hier:

Die Fragesteller fanden, dass nur 27% aller Antwortenden mit dem überwältigend marginalen wissenschaftlichen Konsens übereinstimmen, dass menschliche Aktivitäten der Hauptgrund für Klimawandel sind“.

Monmouth University Poll

100% – 27% = 73%

Ergo: 73% aller Amerikaner weisen den 57%-Konsens zurück. 

Bild oben rechts: Das von der Monmouth University auf Grundlage der Umfrage erstellte Kreisdiagramm.

Link: http://wattsupwiththat.com/2016/01/06/poll-73-of-americans-reject-agw-but-you-wouldnt-know-it-from-the-headline/

Übersetzt von Chris Frey EIKE




SolarCity und der Goldene Löffel [SolarCity and the Silver Spoon]

Falls man ein Gewerbe betreibt – vielleicht einen Tabakladen, ein Modegeschäft oder eine Versicherungs-Agentur – weiß man, dass es viel harter Arbeit bedarf, einer guten Marktanalyse, eines besseren Produktes oder einer besseren Dienstleistung als der Konkurrent sowie Werbung. Man füge noch ein wenig Glück hinzu, und man hofft, sein Geschäft wachsen zu lassen – obwohl aufgegebene Läden und leer stehende Gebäude in den Städten in ganz Amerika zeigen, dass das nicht immer ausreicht. Jede Geschäftsaufgabe repräsentiert den Tod von manch eines‘ Traums.

Falls man jedoch ein politisch bevorzugtes Geschäft betreibt – z. B. Solar – sieht es ganz anders aus. Das Wachstum hängt hier ab von der Großzügigkeit der Regierung. Und wenn Menschen, die niemals Ihr Produkt kaufen oder Ihren Service nutzen werden, Ihr Unternehmen bekämpfen und Ihren Kongressabgeordneten überzeugen, Ihnen die Großzügigkeit der Steuerzahler zu entziehen wie einem sich schlecht benommen habenden Bettler, dann drohen Sie Ihren Koffer zu packen und nach hause zu gehen – und ehemalige Mitarbeiter arbeitslos zurück- und Verbraucher ohne Service lassen.

Von dieser Art ist die Story von SolarCity – welche aus dem Begünstigten-Status Vorteile gezogen und Regierungsprogramme betrügerisch genutzt hat, um zum größten Installateur der Nation von Solarpaneelen auf Dächern zu werden. Aber trotzdem verliert SolarCity immer noch Millionen Dollar. SolarCity stellt Solarpaneele nicht selbst her – doch könnte sich dies bald ändern – dank einer Förderung in Höhe von 750 Millionen Dollar von den New Yorker Steuerzahlern.

Trotz „wesentlicher Änderungen und zunehmendem Wettbewerb in einer schon jetzt in scharfem Wettbewerb stehenden Industrie“, wie Associated Press das nennt, gibt Gouverneur Andrew Cuomo SolarCity eine staatseigene, mietfreie Fabrik – eine Entscheidung, von der Michael Hicks, ein Ökonomie-Professor und Direktor des Center for Business Research an der Ball State University sagt, dass sie „ein überwältigender Deal, eine sehr fragwürdige Verwendung von Staatsfonds, aber einen erheblicher und unverhoffter Gewinn für die Investoren von SolarCity“ ist.

 

Im Gegenzug verspricht SolarCity, „1460 Hochtechnologie-Jobs“ in der in Buffalo ansässigen Fabrik zu schaffen, in der der Betrieb planmäßig Ende dieses Jahres beginnen soll (siehe Abbildung). Das Unternehmen erwartet auch, 1440 weitere „Arbeitsplätze in der Zuarbeit und Dienstleistungen“ zu schaffen sowie mindestens 2000 andere Jobs im Staat – was Hicks‘ Behauptung zufolge „angesichts der Investitionen wenig ist“. Die New Yorker „Gigafabrik“ wird „einen völlig neuen Typ Solartechnologie“ erzeugen, welcher der MIT Technology Review zufolge „ein gewaltiges Risiko“ und „ein großes Lotteriespiel“ ist. Hinsichtlich von SolarCity’s geplanter neuer Fertigung stellt Review fest: „Die Beschleunigung des Produktionsprozesses bei gleichzeitiger Erhaltung der Effizienz der Module ohne steigende Kosten könnte schwierig sein. Und es gibt keine Garantien dafür, dass die Module, wenn sie sich mit der Zeit kommerziell rechnen, immer noch die besten des Planeten sind“.

SolarCity hat keinerlei Gewissensbisse, in einem Wutanfall einen Staat zu verlassen, der sich nicht seinen Spielregeln beugen will – so wie es zuvor schon in Arizona, Nevada und sogar in UK war. Jetzt ist das hypergrüne Kalifornien bedroht durch einen Exodus, und Staaten wie Washington und New Hampshire erhielten Warnungen, dass SolarCity nicht in diese Staaten kommen werde, falls die Subventionen dessen operationelles Modell nicht stützen.

Jüngst wurde Nevada zum letzten Staat, der seine „Strombetrug-Einspeisevergütung“ [ net-metering electricity scam] „zurückfährt“, wie es das Wall Street Journal (WSJ) nennt. „SolarCity reagierte mit der Ankündigung, dass es Verkäufe und Installationen in diesem Staat beenden werde“. Bereits im Jahre 2013 hat SolarCity mit viel Tamtam angekündigt, dass man nach Nevada kommen werde, „nachdem Anreize in Höhe von 1,2 Millionen Dollar vom Office of Economic Development des Staates und seinem Gouverneur sichergestellt worden seien“. Dies berichtete das Silicon Valley Business Journal. Wie in New York behauptete SolarCity, „hunderte Jobs“ nahe Las Vegas zu schaffen. Aber die Zeiten haben sich geändert.

Nevada ist lediglich einer von vielen Staaten, die sich Änderungen hinsichtlich der angebotenen Subventionen für Solarinstallationen auf Dächern überlegen. Arizona hat diese Änderungen bereits durchgeführt, was SolarCity veranlasste, seine Ressourcen in andere Staaten zu verlagern, wo die Profite höher waren. Im April hat die Arizona Republic angekündigt, dass SolarCity 85 Arbeiter aus dem Staat umsetzen werde. Der geschäftsführende Direktor von SolarCity Lyndon Rive nannte diese Änderungen „zu restriktiv“. Er erklärte, dass sie „das Potential für fast alle Verbraucher eliminieren, Geld mit Solar zu sparen“. Die Änderungen machten Arizona „zur größten Herausforderung für sein Unternehmen“.

Die Staaten fanden schließlich heraus, dass die zunehmende Implementierung von Solar zu höheren Kosten für Nicht-Solar-Verbraucher führt – welche der WSJ zufolge „eher die unteren Einkommensschichten repräsentieren“.

Die Politik der Einspeisevergütung steht im Mittelpunkt der Debatte. Kurz gesagt soll die Einspeisevergütung Solar-Verbraucher für die von ihnen erzeugte überschüssige Solarenergie entschädigen. Das Problem ist, dass diese individuellen Erzeuger für ihre Energie bezahlt werden, anstatt die Großmarktpreise zu erhalten, die die Unternehmen für die typische Energieversorgung erhalten. Als Folge davon umgehen Verbraucher mit Solarpaneelen vollständig Zahlungen an die Versorger – obwohl sie immer noch deren Energie sowie deren Überlandleitungen und Dienstleistungen nutzen. Staaten sehen sich damit konfrontiert, dass sich die Kosten von Solar-Verbrauchern verschieben hin zu jenen, die sich diese Kosten am wenigsten leisten können. Als Folge hiervon haben viele Staaten, darunter Nevada, Kalifornien und Washington, politische Änderungen angeordnet. Allgemein verringern diese Änderungen die Zahlung von Großmarktpreisen und fügen eine Abgabe für die Verbindung zum Netz hinzu.

Das WSJ nennt die Einspeisevergütung „eine regressive politische Umverteilung des Einkommens als Unterstützung für einen vermeintlich progressiven Grund“. Frank O’Sullivan, Direktor für Forschung und Analyse der MIT Energy Initiative, erklärt das: „Die Einspeisevergütung ist in ihrer reinen, einfachen Form sicher eine Subvention für Eigentümer von Solarpaneelen auf ihren Dächern. Offensichtlich muss es einen Transfer der Kosten geben an Andere, die keine Solarpaneele auf dem Dach haben“.

Als Reaktion der Schließung der Tochterfirma von SolarCity, Zep Solar, in UK infolge Streichung von Solarsubventionen sagt Energieministerin Amber Rudd, dass sie „besorgt sei hinsichtlich des Verlustes von Arbeistplätzen“, aber dass sie auch „die Kosten für die Verbraucher im Auge haben muss“.

Der Gouverneur von Nevada Brian Sandoval stellte fest: „Nevada hat der Solarindustrie gewaltige Unterstützung zukommen lassen“, aber seine Regierung muss sicherstellen, dass „Familien, die traditionelle Energiequellen nutzen, nicht für die Finanzierung des Marktes von Solarpaneelen auf Dächern zur Kasse gebeten werden“.

[Hier in D ist man wohl noch lange nicht so weit. Anm. d. Übers.]

In Arizona wahrten die Änderungen der Einspeisevergütung den Besitzstand der jetzigen Verbraucher*, fügten jedoch Abgaben für den Gebrauch des Netzes und die Nachfrage hinzu. In Nevada wurden Zahlungen an bestehende Verbraucher gestrichen und Verbindungs-Gebühren wurden erhoben. Der jetzt in Kalifornien zur Debatte stehende Vorschlag würde Zahlungen für überschüssigen Strom nahezu halbieren, und Solarverbraucher würden eine monatliche Abgabe zahlen müssen. In Washington drängen die Versorger auf eine Abgabe für Solar-Verbraucher.

[*Original: „ the changes to the net-metering policies grandfathered in current users“]

Die Solarindustrie geht inzwischen juristisch dagegen vor, denn, wie sie einräumt, „diese Vorschläge drohen die Ökonomie ihrer Systeme zu untergraben“. Das WSJ erklärt: „Das unternehmerische Wohlergehen begünstigt Abhängigkeiten und Ansprüche, die schwer zu knacken sind“.

Obwohl die Firma der größte Installateur von Dach-Solarpaneelen ist, ist SolarCity nicht profitabel – fuhr man doch Verluste in Höhe von 56 Millionen Dollar innerhalb eines Jahres und 293 Millionen Dollar kumuliert ein. Angesichts des Umstandes, dass immer mehr Staaten sich die Revision der generösen Solarsubventionen überlegen als einen Weg, die explodierenden Kosten aufzufangen und die Staatshaushalte auszugleichen, wurden Unternehmen wie SolarCity schlecht für Investitionen. Nachdem der Kongress die Steuervorteile für Solar als Teil des Haushaltes 2015 verlängert hatte, sah Solar City seine Aktienkurse „in den Himmel schießen“. Die Reichen werden reicher und die Armen werden geschröpft.

Repräsentant Jeff Morris, Sponsor der auf den Weg gebrachten Gesetzgebung in Washington, HB 2045, erklärte die Reaktionen der Industrie auf die sich ändernde Politik: „Der Grund, warum sie so auf die Barrikaden gehen ist, dass sie befürchten, dass sich diese Politik auf alle 50 Staaten erstrecken wird“.

Es sind der Staat und die öffentlichen Anreize, und nicht die freien Märkte, die zu einer aufkeimenden Solarindustrie geführt haben. Närrischerweise hat der Kongress die öffentlichen Nachlässe verlängert. Aber „mit jüngsten Verbesserungen hinsichtlich der Kosten und Effizienz von Solar“ sagt Lori Christian, Präsident der Solar-Installateure in Washington: „Es ist für alle Staaten an der Zeit, die gegenwärtige Struktur von Anreizen zu überdenken“.

Wenn selbst Kalifornien politische Änderungen anstrebt, die dazu führen würden, dass Solarenergie weniger kosteneffektiv für Privatleute und Firmenbesitzer ist, ist es an der Zeit zu erkennen, dass sich dieses Geschäftsmodell ändern muss. Und dazu gehört, den Goldenen Löffel aus dem Mund von SolarCity herauszunehmen. Auch wenn die Firma einen Wutanfall bekommt, ihre Koffer packt und geht, wird es den Steuerzahlern Millionen sparen und Solar zwingen, auf einem Niveau zu operieren, auf dem andere Geschäftsbereiche auch operieren müssen.

About the Author: Marita Noon. CFACT policy analyst Marita Noon is the author of Energy Freedom.,

Link: http://www.cfact.org/2016/01/04/solarcity-and-the-silver-spoon/

Übersetzt von Chris Frey EIKE




Die neuen Energien im Jahr 2015 und im Jahr 2050 nochmals erklärt für Dummies Teil 1+ Anlage mit Histogrammen

Warum erfolgt der Bezug immer auf die installierte Leistung?

Im Blog (zum Artikel T1) wurde moniert, dass die Relativ-Angaben auf die installierte Leistung bezogen sind.

Warum wird auf die installierte Leistung bezogen? Weil nur damit eine Effektivitätsbetrachtung möglich ist und deshalb auch alle „Anderen“ es so darstellen. Beispiel: 

SMA "Das leistet Photovoltaik in Deutschland":

 Hier wird die regionale, relative Leistung sichtbar, also die aktuelle Abgabeleistung im Verhältnis zur installierten Nennleistung der PV-Anlage …

Deshalb wird es vom Autor auch so gehalten. Zudem ist die installierte Leistung der Wert, auf  den die gesamte Verteilnetz-Infrastruktur ausgebaut werden muss.

Erklärung zu den Histogrammen

Y-Achse (% der Jahreszeit): 

Gibt den Zeitanteil des Jahres an, in dem die in der Klasse gelistete Leistung bereitgestellt wurde

X-Achse (Leistung bezogen auf den Anschlusswert):

Die installierte Leistung ist in n Klassen prozentual aufgeteilt. Damit zeigen die Balken an, wie oft im Jahr die Leistung innerhalb der Klassengrenzen bereitgestellt war.

Y-Neben-Achse (Häufigkeits-Summe):

Ist einfach die Summe der Häufigkeiten der Balken (auch Summenhäufigkeit). Hilft bei der Auswertung über mehrere Klassen. Wo die Linie ansteigt „passiert“ noch etwas, wird sie flach, kommt keine Einspeisung dazu.

Klassengrenzen:                                

Leider platziert Excel den Zahlenwert der oberen Klassengrenze in die Mitte der Klasse. Also einfach die Zahlen unter die rechte Klassengrenze platziert denken.

Histogramm der Summe Windkraft und Solar

Daten

Anschlussleistung:         80.528 MW (Mittelwert des Jahres wegen Zubau)

Max. Leistung:                   43.746 MW (54,3 % der Anschlussleistung)

Min. Leistung:                         343 MW (0,43 % der Anschlussleistung)

 

Bild 1  Histogramm des Leistungsangebotes von Windkraft + Solar von Dez 2014 – Nov. 2015

Histogramm der Windkraft

Daten

Anschlussleistung:         41.720 MW (Mittelwert des Jahres wegen Zubau)

Max. Leistung:                   32.666 MW (85,5 % der Anschlussleistung)

Min. Leistung:                            93 MW (0,22 % der Anschlussleistung)

 

Bild 2  Histogramm des Leistungsangebotes der Windkraft Dez 2014 – Nov. 2015

Histogramm Solar

Daten

Anschlussleistung:         38.812 MW (Mittelwert des Jahres wegen Zubau)

Max. Leistung:                   25.900 MW (66,7 % der Anschlussleistung)

Min. Leistung:                              0 MW (0,00 % der Anschlussleistung)

 

Bild 3  Histogramm des Leistungsangebotes von Solar Dez 2014 – Nov. 2015

Zum Vergleich das fiktive (ideale) Histogramm eines konventionellen Kraftwerkes, bei dem installierte Leistung und angebotenen Leistung gleich sind. Dies gilt auch für Biogas und im Ansatz für Wasserkraft.

Histogramm Biogas (entspricht dem konventioneller Kraftwerke, sofern man sie „lässt“)

(der komplette Absatz „Histogramm konventionelle Kraftwerke“ wurde gestrichen und durch den folgenden ersetzt 10.1.16).

Die installierte Leistung betrug 2014 laut statista 6867 MW. Das Klassenband der 80 % reicht demnach von 4.800 MW … 5.486 MW. Da die Biogasanlagen Einspeisevorrang haben, sieht man, dass diese praktisch rund um die Uhr mit Vollast fahren – eben ein Schlaraffenland, wenn man keine Rücksicht auf den Bedarf nehmen muss.

Dass der Klassenwert bei 80 % und nicht höher liegt, dürfte an einem Datenunterschied zwischen Agora und statista liegen.

Bild 4  Histogramm des Leistungsangebotes von Biogas im Jahr 2014

Fazit

Wie schon im Teil 1 ausgeführt, sieht man an den Histogrammen erschreckend deutlich, dass selbst ein exorbitanter Ausbau niemals zur Grundlastfähigkeit der „Neuen-Energien“ führen kann.

Diese Problematik ist im Detail bei VERNUNFTKRAFT in einer Publizierung ausgeführt: "Windkraft versus Würfeln"

Und man sieht mit dem gleichen Schrecken, welchen weitgehend nutzlosen Ausbauaufwand man für die Verteilnetz-Infrastruktur betreiben muss.

Trotzdem gibt es weiterhin „Energiefachleute“, einige sogar mit dem Titel „Wissenschaftler“, die unwidersprochen das Gegenteil behaupten – und dafür von unseren Medien und in den NGO-Blogs hofiert werden.

Mein EIKE-Artikel Teil 1

Die neuen Energien im Jahr 2015 und im Jahr 2050 nochmals erklärt für Dummies  Teil 1 Einspeise-Rückschau und Vorschau (hier)




Wir haben größere Probleme als den Klimawandel: Sprach das IPCC AR5

Das ist jetzt ein langer Bericht, es würde Wochen dauern, um sich durch alle Kapitel, die gefolterte Sprache durch zuarbeiten und in den Referenzen zu graben, von denen viele mit Bezahlschranke versehen sein werden. Also ging ich gerade zu den Abschnitten über die Wirtschaft. Nun bin ich kein Ökonom, aber man muss kein Genie sein, um herauszufinden, alles Schlechte, was auf globaler Ebene geschieht, sich negativ auf unsere globale Wirtschaft auswirken wird. Ich wollte wissen, ob die 97% der Wissenschaftler Recht [Anm. der Redaktion: Hier handelt es sich um sprachliche Schludrigkeit, wie sie auch Obama walten ließ: die 97 % beziehen sich auf die Zahl der Studien von denen  Cook et al behaupten, dass sie das AGW bejahen, nicht auf die Zahl der Klimawissenschaftler. Legates et al hatten das überprüft und festgestellt dass es nur 0,3 % waren] haben, wie schlimm wird es werden? Die Antwort hat mich umgehauen. Ich will Sie nicht hinhalten, ich gehe gerade direkt zum Geld Zitat (fett markiert im Original):

Für die meisten Wirtschaftssektoren, werden die Auswirkungen des Klimawandels im Verhältnis zu den Auswirkungen der anderen Treiber (mittlere Wahrscheinlichkeit, hohe Übereinstimmung) klein sein. Veränderungen in der Bevölkerung, Alter, Einkommen, Technologie, der relativen Preise, Lifestyle, Vorschriften, Verwaltungen und viele andere Aspekte der sozioökonomischen Entwicklung werden Auswirkungen auf Angebot und Nachfrage von Wirtschaftsgütern und Dienstleistungen haben, welche groß gegenüber den Auswirkungen des Klimawandels sein werden. {10.10}

Das ist die Einführung in der Zusammenfassung des IPCC AR5 WGII ​​Kapitel 10 (Wichtigste Wirtschaftszweige und Dienstleistungen).

Wie [der Umfrage nach] sich zeigt, bewertet die Öffentlichkeit den Klimawandel ganz unten auf der Liste von Bedenken. Die Gruppe von Experten der UN IPCC AR5 besagen, frei heraus, dass nicht nur Veränderungen in der Bevölkerung, Alter, Einkommen, Technologie, Lifestyle, Vorschriften, Verwaltungen, und viele andere Dinge einen größeren Einfluss auf unsere sozioökonomische Wohlbefinden haben, sie werden viel größer sein. Lesen Sie hier selbst:

https://ipcc-wg2.gov/AR5/images/uploads/WGIIAR5-Chap10_FINAL.pdf

In der Tat, Kapitel 10 geht in bemerkenswerte Details und zeigt, wie gering der Klimawandel uns beeinflusst. Basierend auf zwei Grad Temperaturanstieg in den nächsten 50 bis 100 Jahren, sprechen sie Punkt für Punkt an:

Tabelle 10-10  Zusammenfassung

Sektor Treiber des 
Klima Wandels
Sensitivität
auf
Klima
Wandel
Auswirkung andere
Treiber
Relative
Auswirkung
im Vergl.
zum
Klima W.
Winter
Tourismus
Temperatur
Schnee
negativ

Bevölkerung

Lifestyle

Einkommen

Alter

viel weniger
Sommer 
Tourismus

Temperatur

Regenfall

Bewölkung

negativ für Anbieter in niedrigen Lagen und Breitengraden

positiv für Anbieter in hohen Lagen und Breitengraden

neutral für Touristen

Bevölkerung

Lifestyle

Einkommen

Alter

viel weniger
Bedarf an 
Kühlung

Temperatur

Feuchtigkeit

Hitzperioden

positiv für Lieferanten

negativ für Verbraucher

Bevölkerung

Einkommen

Energiepreise

Technologie
Änderungen

weniger

Bedarf an Heizung

Temperatur

Feuchtigkeit

Kälteperioden

positiv für 
Verbraucher

negativ für 
Lieferanten

Bevölkerung

Einkommen

Energiepreise

Technologie
Änderungen

weniger
Gesund-
heitsdienst

Temperatur

Niederschläge

positiv für Lieferanten

negativ für Verbraucher

Lifestyle

Diät

Einkommen

Alter

weniger

Wasser,

Infra-
struktur

und 

Dienste

Temperatur

Niederschläge

Sturm
Intensität

Saisonale
Variabilität

positiv für Lieferanten

negativ für Verbraucher

räumlich
heterogen

Bevölkerung

Einkommen

Urbanisation

Verwaltung

weniger in Entwicklungs
ländern

gleich in
entwickelten
Ländern

Transport
[&Mobilität]

Temperatur

Niederschläge

Sturm
Intensität

Saisonale
Variabilität

Frost / Tau
Zyklen

positiv für Anbieter

negativ für Nutzer

Bevölkerung

Einkommen

Urbanisation

Verwaltung

Modalitäts-
verschiebung

Nutzer und
Pendler
Verhalten

viel weniger in Entwicklungs
ländern

weniger in
entwickelten
Ländern

Versicherung

Temperatur

Niederschläge

Sturm
Intensität

Saisonale
Variabilität

Frost / Tau
Zyklen

positiv für Anbieter

negativ für Verbraucher

Bevölkerung

Einkommen

Verwaltung

Produkt
Innovation

weniger oder gleich in Entwicklungs
ländern

gleich oder mehr in
entwickelten
Ländern

 Die Tourismusbranche (Winter und Sommer) wird viel weniger betroffen sein, durch den Wandel des Klimas, als durch Bevölkerung, Lifestyle, Einkommen und Alterung. Man könnte meinen, der Kühl- und Heizungsbedarf würde sich dramatisch mit dem Klimawandel ändern, aber nein, der Klimawandel wird von Bevölkerung, Einkommen, Energiepreise und Technologie übertrumpft. Gesundheitsdienste? Mit all den Katastrophen die über uns hereinbrechen, könnte man meinen, es gäbe große Belastungen für unsere Gesundheitsdienstleistungen. Es stellte sich heraus, dass auch die Diät den Klimawandel als Motor für Auswirkungen auf unser Wohlbefinden übertrumpft. (Seltsamerweise ist Technologie nicht auf der Liste der Treiber für Gesundheitsdienstleistungen zu finden!). Für den Transport wird der Klimawandel von nicht wenigem als einer Liste übertrumpft, die Bevölkerung, Einkommen, Urbanisierung, Regulierung, Modalitäts-Verschiebung des Verbraucher- und Pendlerverhalten umfasst. [Bei Mobilität bezeichnet Modalität die bevorzugte Benutzung von bestimmten Transportmitteln: Fahrrad, Auto, Bus, Bahn; warum? ist eine andere Frage, A.D.] Die Versicherungswirtschaft ist offenbar der einzige Sektor, in dem der Klimawandel andere Treiber rivalisiert und dann nur in den entwickelten Ländern.

 Also, wo ist der Alarm? Die Botschaft an die Regierungen ist ziemlich klar. Auf einer globalen Basis, gibt es mit der Planung der Wirtschaft Ihres Landes eine Menge mehr zu kümmern, als um den Klimawandel. Kapitel 10 macht einen tapferen Versuch, die Nachricht vorzubringen

Verluste beschleunigen sich mit größerer Erwärmung (begrenzte Wahrscheinlichkeit, hohe Zustimmung), aber nur wenige quantitative Schätzungen sind für zusätzliche Erwärmung um rund 3 °C oder darüber abgeschlossen.

Also…. Bei dem Versuch, die Angst und Unsicherheit auf einer Höhe zu halten (Verluste beschleunigen sich bei Erwärmung), gibt der IPCC stillschweigend zu, dass sie nicht wirklich wissen. Sie haben, in ihren eigenen Worten, begrenzte Wahrscheinlichkeiten, um diese Schlussfolgerung zu treffen. Trotzdem schmieden sie daran weiter und bestehen darauf, dass sie eine hohe Übereinstimmung aufweisen (in Ermangelung von Beweisen, glauben sie es dennoch!). Welche Beweise haben sie? Hier ist das Geld Diagramm aus dem gleichen Kapitel 10:

Quelle: IPCC; AR5, Kap. 10

Wie aus diesem Diagramm zu erkennen ist, sind fast ebenso viele Studien für 3 Grad durchgeführt worden, wie auch für 2,5 Grad, und sie kommen fast zu dem gleichen Ergebnis. Der Anspruch an ein "paar" Studien bei mehr als 3 Grad sind nur zwei Studien. Die eine ist eine durchgeführte Studie für 5,5 Grad – Angesichts der Einschränkungen für [CO2 ] Sensitivität in der aktuellen Literatur, dass große Temperaturänderungen nur durch natürliche Variabilität getrieben werden. Eine einzige Studie die für 3,25 Grad durchgeführt wurde, projiziert einen negativen Einfluss von mehr als 12% und scheint der Strohhalm zu sein, nach dem das IPCC greift, um das Potenzial für die Katastrophe am Leben zu halten. Es ist ein offensichtlicher Ausreißer aus dem Rest der Literatur, die der Bericht zu beschönigen versucht.

Lassen Sie uns jetzt für einen Moment darüber nachzudenken, wie gering diese negativen Auswirkungen tatsächlich sind. Die IPCC-Charts Ratingänderungen im Vergleich zu anderen Wirtschaftsfaktoren wie "weniger" oder "viel weniger" beschreiben das Bild nicht sehr gut. Wenn man bedenkt, dass 2% bei zwei Grad (und das ist der obere Bereich in der Schätzung) über den Zeitrahmen gespreizt sind, um diese Temperatur zu erreichen. Da das Zieldatum des Pariser Angst Festivals 2100 war, wir runden es ab zu 100 Jahren für eine einfache Überlegung.

Das sind 0,02% pro Jahr. Prognostizierte Wirtschaftswachstum für die meisten Länder der Welt liegt im Bereich von -5% bis + 5% pro Jahr. Mit anderen Worten, das IPCC sagt uns, dass die sozioökonomischen Auswirkungen des Klimawandels weniger sind als ein Rundungsfehler. Ich werde diesem Artikel unter Angabe der ursprünglichen Erklärung des IPCC wieder beenden. Die Öffentlichkeit und die Regierungen gleichermaßen haben viel mehr zu tun, als sich um den Klimawandel zu sorgen:

Für die meisten Wirtschaftssektoren, werden die Auswirkungen des Klimawandels im Verhältnis zu den Auswirkungen der anderen Treiber klein sein. 


Also sprachen die Vereinten Nationen, IPCC AR5 WG II Kapitel 10

I accept them at their word. [Ich stimme Ihren Worten zu]

Erschienen auf WUWT am 01.Jan. 2016

Übersetzt durch Andreas Demmig

http://wattsupwiththat.com/2016/01/01/we-have-bigger-problems-than-climate-change-so-sayeth-ipcc-ar5/




Namen von Hoch- und Tiefdruckgebieten: Wie man aus Nicht-Wissenschaft Wissenschaft macht

Bild rechts: Wie nennt man so etwas, wenn nicht Brandung? Vorschläge bitte! Bild: Gerhard Giebener  / pixelio.de

Tatsächlich muss man in der Geschichte weit zurückgehen, genauer bis etwa in die zwanziger Jahre des vorigen Jahrhunderts und ins National Hurricane Center in Miami, Florida. Dort war man für die Warnungen vor Hurrikanen im tropischen Atlantik und der Karibik zuständig (übrigens bis heute). Die Schifffahrt befand sich damals sehr im Aufwind, und die Warnung vor Hurrikanen war für die Kapitäne und ihre Schiffe überlebenswichtig. Gab es mehrere Hurrikane gleichzeitig, gab es leicht Verwechslungen, denn natürlich gibt es auf See keine Städte, die man namentlich erwähnen konnte. Anstatt also umständlich jeweils Länge und Breite des betreffenden Sturmes anzugeben war man auf die Idee gekommen, eben die Stürme mit Namen zu versehen. Es war keine Frage, dafür weibliche Namen zu wählen – und zwar dem Vernehmen nach deswegen, weil man den Kapitänen wenigstens eine kleine angenehme Assoziation in Bezug auf diese Stürme übermitteln wollte, die ihnen ja sonst sehr viel Probleme bereiteten.

So weit, so gut. Jetzt müssen wir eine Orts- und Zeitsprung machen, und zwar zum Institut für Meteorologie der Freien Universität Berlin. Dieses wurde Ende der vierziger Jahre gegründet. Erster Leiter des neuen Instituts war Prof. Dr. Richard Scherhag. Im Jahre 1951 begann man dann mit der Anfertigung regelmäßiger Wetterkarten.

Sie enthielt auch eine tägliche „Übersicht“, in der u. A. Verhalten und Eigenschaften von Hoch- und Tiefdruckgebieten beschrieben wurden und werden, die für Mitteleuropa Bedeutung erlangen. Rasch kam man dann auf die Idee, statt einer umständlichen Beschreibung, von welchem Tiefdruckgebiet gerade die Rede war, diese einfach alphabetisch mit Buchstaben zu kennzeichnen.

So weit, so gut. Dieses Institut wurde schon bald von den westalliierten Besatzungsmächten (Frankreich, UK, USA) mit der Wahrnehmung des Wirtschaftswetterdienstes im Westteil der Stadt beauftragt. Die Alliierten wollten nicht vom Meteorologischen Dienst der DDR in Potsdam abhängig sein, befand sich dessen Zentrale doch im Bereich der sowjetischen Verwaltung – im Kalten Krieg ein vermeintlich unhaltbarer Zustand. (Kuriosum am Rande: Nach Gründung des DWD im Jahre 1952, also deutlich später als die Gründung des Instituts durch Prof. Dr. Richard Scherhag war Wetterdienst eine hoheitliche Aufgabe, für die allein der Deutsche Wetterdienst DWD zuständig war. Zwischen der Institutsgründung und der DWD-Gründung gab es noch viele regionale Wetterdienste der einzelnen Besatzungszonen, gemischt mit alliierten und deutschen Meteorologen besetzt. Erst danach wurde der DWD zu einer „Bundes-Oberbehörde“. Der Zustand in Berlin war also dann irgendwann illegal. Aber in Berlin [West] herrschte eben Besatzungsrecht – bis zur Wiedervereinigung. Weil das alles irgendwie sakrosankt war, wurde nach dem Jahr 1952 das Scherhag-Institut von allen „geduldet“ – ein wenig im „rechtsfreien Raum“.)

Aber wir schweifen ab. Im Zuge des Wirtschaftswetterdienstes oblag dem Institut auch die Belieferung von Medien mit Wetterberichten. Die intellektuell am höchsten stehende Zeitung in Berlin war der „Tagesspiegel“. (Den gibt es heute auch noch, aber er ist nicht einmal mehr ein Schatten seiner selbst von damals). Man wollte dort eine Zeitungswetterkarte haben. Kein Problem – aber das mit der Buchstabenkennung gefiel der Redaktion nicht so recht.

Die rettende Idee kam dann von Frau Dr. Karla Wege – manch Älterem vielleicht noch bekannt, weil sie auch eine Zeitlang den Wetterbericht nach den ZDF-Heute-Nachrichten präsentiert hatte – , die damals am Institut beschäftigt war. Sie machte den Vorschlag, nicht Buchstaben, sondern Namen zu vergeben, denn sie wusste um die namentliche Benennung von Hurrikanen. Weil es sich bei diesen um Tiefdruckgebiete herrschte, bekamen entsprechend die hiesigen Tiefdruckgebiete weibliche, die Hochdruckgebiete männliche Namen. Einzige Vorgabe war eine alphabetische Reihenfolge.

Diese Praxis hätte man natürlich nun auch für das „Amtsblatt“, die Berliner Wetterkarte übernehmen können. Aber die dort arbeitenden Meteorologen wollten „die wissenschaftliche Seriosität gewahrt wissen“ und deswegen die Namen nicht übernehmen.

Viele Jahre herrschte dann wieder Ruhe – bis in die siebziger Jahre. Da geschahen sogar mehrere Dinge fast gleichzeitig. Ein Orkanwirbel [leider weiß ich nicht mehr, welcher genau; H.-D. S.] sorgte dafür, dass das mit den Namen praktisch über Nacht ein medialer Hype ohnegleichen wurde. Die Telefone (3 Anschlüsse) im Institut liefen heiß, Interviewer gaben sich die Klinke in die Hand. Die Mitarbeiter des Instituts waren völlig überrascht. Einwände, dass es doch eher um das Wetter als solches und nicht um die Namen ging, die doch ziemlich unwissenschaftlich seien, wurden nicht beachtet. [erinnert uns das heutzutage an etwas?]

Bald ging es noch runder. Feministinnen stießen sich plötzlich daran, dass Tiefdruckgebiete immer weibliche Namen bekamen, brachten die doch immer das „schlechte Wetter“. Hochdruckgebiete mit „schönem Wetter“ war dagegen den männlichen Namen vorbehalten. Etwa an dieser Stelle wurde dann aus der nicht-wissenschaftlichen Spielerei eine Pseudo-Wissenschaft. Es gab nun eine mehrjährige Diskussion darüber. Eingewendet wurde, dass doch Tiefdruckgebiete Feuchtigkeit und Fruchtbarkeit bringen, wohingegen eine alleinige Männerherrschaft (Stichwort „schönes Wetter“) zur Wüstenbildung führte. Die Analogie erschien vielen also als eigentlich angebracht.

Wer weiß, wie das Ganze ausgegangen wäre, wenn nicht ein weiterer Mitspieler aufgetaucht wäre. In den achtziger Jahren kamen die ersten privaten Wetterdienste auf. Der damals einzige ernst zu nehmende Anbieter in Berlin (West) war Jörg Kachelmann. Er erkannte sofort das Aufmerksamkeits-Potential bzgl. der Namensdiskussion, und da er auf Werbung in den Medien angewiesen war, stieg er sofort ein, auch gleich mit einem praktischen Vorschlag. Man sollte doch Hoch- und Tiefdruckgebiete immer abwechselnd mit männlichen und weiblichen Namen belegen. Das wiederum hätte nun zu einem gewaltigen Durcheinander geführt. Es gipfelte in der Drohung, dass Kachelmann dann eben andere Namen unter der Prämisse seines Vorschlags vergeben würde als die „amtlichen“ Wetterfrösche. Das aber hätte ein riesiges Durcheinander gegeben.

Es war also ratsam, sich zu beraten. Das tat man auch und kam dabei auf die bis heute praktizierte Regelung: In geraden Jahren erhielten Tiefdruckgebiete männliche und Hochdruckgebiete weibliche Namen, in ungeraden Jahren war es umgekehrt.

Die letzte Volte dieser ganzen Geschichte ereignete sich, nachdem Ende 1993 das Berliner Meteorologische Institut den Wettervorhersage-Dienst einstellten musste. Diese Volte schlägt indirekt nun tatsächlich einen Bogen zur Wissenschaft: Der „Verein Berliner Wetterkarte e. V.“ sah den wissenschaftlichen Betrieb im Bereich Synoptik nach dem Wegbrechen der Einnahmen aus dem Wirtschaftswetterdienst gefährdet und kam auf eine Idee, die wir, die Autoren, sehr begrüßenswert fanden: Man rief nach „Taufpaten“. Gegen eine Spende in Höhe von 200 Euro für Namen für Hochdruckgebiete (weil diese seltener mit Namen versehen werden) und 100 Euro für Tiefdruckgebiete kann sich jeder Spender einen Namen aussuchen. Dem Vernehmen nach ist die Liste ziemlich lang. Einzige Vorgabe ist wieder die alphabetische Reihenfolge der Namen. Mit den Einnahmen wird zu 100% der von Studenten ehrenamtlich betriebene Beobachtungsdienst (immerhin eine Wetterstation seit Anfang des 20. Jahrhunderts in einer Umgebung, die sich kaum verändert hat) finanziert.

Nicht nur Meteorologen haben sich bei der ganzen Sache insgeheim gefragt: Wo bleibt denn hier die Diskussion über Wetter – und seit neuestem auch über Klima?

Diese Frage möchten wir unbeantwortet im Raum stehen lassen!

Dipl.-Met. Hans-Dieter Schmidt, vormals im Wettervorhersage- und -warndienst tätig

Chris Frey, Schriftsteller und Übersetzer für das EIKE

Die Autoren bedanken sich bei Herrn Dipl.-Met. Klaus-Eckart Puls für wertvolle Korrekturen und Anmerkungen.




Globale mittlere Temperatur: bedeutungslos & irreführend

Bild rechts: Was bedeutet eine Änderung der globalen Temperatur um +2°C, falls es überhaupt irgendetwas bedeutet?

Parallel mit dem Klimaclown-Festival in Paris (COP21) schwafeln die Leute ständig darüber, den Klimawandel aufzuhalten und eine Erwärmung bis höchstens 2°C zuzulassen. Die Frage, die der gesunde Menschenverstand sofort stellen sollte, lautet: „2°C höher als was?“ Denn es ist doch so: falls man im Death Valley in Kalifornien lebt, würde man eine weitere Erwärmung um ein paar Gran vermutlich gar nicht bemerken. Die mittlere jährliche Temperatur im Death Valley beträgt der Wetterstation Furnace Creek zufolge 25,1°C, mit einem mittleren Maximum im Januar um 19°C und im Juli von 47°C. Von 1934 bis 1961 zeichnete die Wetterstation Cow Creek eine mittlere jährliche Temperatur von 25,1°C auf. Glaubt jemand wirklich, dass ein paar Grad mehr einen merklichen Unterschied machen?

Genauso gibt es natürlich andere Orte auf der Erde, wo es extrem heiß oder extrem kalt wird. Die kälteste gemessene Temperatur trat im Jahre 1983 mit -89,6°C an der Antarktis-Station Wostok auf. Die mittlere Wintertemperatur am Südpol beträgt etwa -49°C, und selbst im Sommer steigt die Temperatur kaum jemals über den Gefrierpunkt. Würden ein paar Grad mehr einen Unterschied hinsichtlich der Bewohnbarkeit dieser Orte ausmachen? Die Kaiserpinguine könnten eine solche Erwärmung vielleicht schön finden, doch dürfte dies kaum ein Game Changer sein.

 

Wo ist die Erwärmung um 2°C, die man uns versprochen hat?

Die höchste jemals auf der Erde gemessene Temperatur schlägt mit 70,7°C zu Buche, und zwar in der Wüste Lut in Iran. Würde der Unterschied zwischen 71 und 73 Grad so gewaltige Auswirkungen haben? Und nicht vergessen, es geht hier um einen Anstieg der mittleren Temperatur. Würde der gleiche Anstieg bzgl. der extremen Höchst- bzw. Tiefstwerte gelten? Ziehen wir noch einmal das Death Valley als Beispiel heran. Dort sind die Wintertemperaturen tagsüber mild in in tiefen Lagen, während in kühlen Nächten gelegentlich sogar der Gefrierpunkt erreicht wird. In höheren Lagen ist es kühler als im tief gelegenen Tal. Die Temperatur nimmt alle 300 m jeweils um 2 bis 3°C ab. Wäre es eine Katastrophe, wenn die Temperaturen in der hoch gelegenen Wüste nicht so stark zurückgingen?

Dies bringt jetzt das Thema Seehöhe allgemein ins Spiel.

Sind die Auswirkungen jener so gefürchteten 2°C auf Höhe des Meeresspiegels genauso gefährlich wie auf den Bergen? Schließlich kann die Seehöhe bedeutende Auswirkungen auf die Temperatur haben. Patrick Moore drückt es so aus: „2°C ist wie das Herabsteigen vom Eiffelturm oder wenn man von San Francisco über die Bucht nach Berkeley fährt. Lächerlich!“

Wie in der ersten Abbildung gezeigt, stimmen die anerkanntesten wissenschaftlichen Organisationen selbst noch nicht einmal überein hinsichtlich der Historie der magischen globalen mittleren Temperatur. Wenn sie von einer Temperatur-„Anomalie“ reden – ein Terminus, den Klimawissenschaftler gerne verwenden, weil er wissenschaftlicher und gelehrter klingt als Differenz oder Variabilität – gelten dann die hinzugefügten 2°C für alle Temperatur-Regimes, egal ob hoch, niedrig oder alles dazwischen an allen Stellen der Erde?

Was die meisten Menschen nicht wahrhaben wollen ist, dass die Verwendung von Mittelwerten Informationen vernichtet. Wenn verschiedene Zahlen addiert werden und auf eine einzelne Zahl reduziert werden, kann man diesen Prozess nicht umkehren und die individuellen Messungen aus ihrem Mittelwert extrahieren. Beispiel: Nehmen wir die Zahlenfolge (2, 7, 1, 8, 7). Deren Mittelwert ist 5, aber es gibt noch viele andere Zahlenfolgen, deren Mittelwert ebenfalls 5 ist: (5,5,5,5,5), (1,9,5,9,1) usw. Die einfache Kenntnis des Mittelwertes reflektiert eine Zahlenfolge nur ungenau. Man beachte auch, dass ein einzelner Ausreißer die Zahlenfolge verzerren kann: (4, 4, 4, 9, 4) mittelt sich genauso zu 5 wie (1, 9, 5, 9, 1). Folglich geht nicht nur die Variabilität verloren, sondern auch mögliche Extreme werden hinweg gemittelt. Jetzt stellen wir uns mal vor, alle diese Zahlen seien Temperaturwerte.

Am 6. Dezember beträgt die mittlere Höchsttemperatur in Conway in Arizona 9,7°C, die mittlere Tiefsttemperatur -2,6°C und die Mitteltemperatur +3,6°C. Gerade in diesem Moment zeigt mir mein Computer eine Außentemperatur von 17,2°C an (verflucht sei die globale Erwärmung!), was aus den gegebenen Mittelwerten keineswegs vorhersagbar ist. Ist das also normal? Oder ist es für diesen Tag des Jahres besonders warm? Noch einmal, es ist einfach zu viel Information verloren gegangen. Statistiker würden sagen, dass wir die Standardabweichung mit erwähnen müssen oder einige höhere statistische Angaben wie Neigung und Amplitude [skew and kurtosis], aber auch dies würde uns nicht zurückführen zu den Originaldaten dieses Tages, geschweige denn, dass man damit die tatsächliche Temperaturkurve des Tages vorhersagen kann.

Genauso ist es mit der Jahresmitteltemperatur für meinen Heimatort. Der Mittelwert der Höchsttemperatur beträgt 22,1°C, derjenige der Tiefsttemperatur 9,4°C, die gesamt-Mitteltemperatur 15,8°C. Also liegt die Temperatur draußen derzeit über dem Mittelwert. Aber ich kann aus Erfahrung sagen, dass es bei uns oftmals Tage gibt, an denen die Temperatur nicht über den Gefrierpunkt steigt und auch Tage, an denen die Höchsttemperatur bis fast 38°C steigt. Würde man dies aus der Angabe der mittleren jährlichen Temperatur erwarten?

Jetzt stelle man sich vor, dass Temperaturdaten von Tausenden Orten auf der ganzen Welt für jeden Tag des Jahres kombiniert werden und daraus eine globale mittlere Temperatur gebildet wird – was würde diese Zahl bedeuten? Not a damned thing!

[Kursiv vom Übersetzer. Das muss man nicht übersetzen!]

Jetzt stelle man sich vor, man addiere 2°C zu unserer nutzlosen globalen mittleren Temperatur, was würde dies bedeuten? Werden 2°C alle Gebiete des Globus‘ in gleichem Maße betreffen? Natürlich nicht, und es gibt keine mathematische Macht in der Zahl der globalen mittleren Temperatur, die uns die wahre Auswirkung einer solchen Änderung vermitteln kann. In Wahrheit können wir mit jener erbärmlichen Einzelzahl nicht sagen, wie heiß oder kalt es auf unserem Planeten ist oder sein könnte. An einigen Orten ist es heiß, an anderen kalt, und doch leben Menschen an allen solchen Stellen. Vom gefrorenen Norden bis zu den dampfenden Tropen wohnen Menschen und andere Lebensformen.

Weitere 2°C werden keine Stelle auf der Erde unbewohnbar machen, die auch jetzt schon unbewohnbar ist. Tatsächlich wird es an vielen Stellen attraktiver und komfortabler, dort zu wohnen. Die Menschen fliehen aus kalten Orten wie Nordeuropa und Kanada. Sie begeben sich an heiße Orte wie Mallorca und Cancun. Die involvierten Temperaturunterschiede sind viel größer als 2°C, und doch scheinen Urlauber in sonnigen, warmen Klimaten nicht tot umzufallen. Die globale mittlere Temperatur ist nicht nur eine bedeutungslose Statistik, sondern ist auch irreführend, weil die zu deren Berechnung herangezogenen Daten von Forschern im Namen von „Wissenschaft“ verfälscht worden sind.

Als Erstes müssen wir also fragen, woher diese Zahl kommt. Der NOAA zufolge, einer Agentur der US-Regierung, wird eine Reihe von Datensätzen herangezogen, um die globale mittlere Temperatur zu berechnen:

Temperaturdaten vom Festland sind verfügbar aus dem Global Historical Climate Network-Monthly (GHCN-M). Wassertemperaturen werden berechnet mittels einer Analyse der erweiterten rekonstruierten Ozean-Wassertemperatur (ERSST). Für ERSST werden der jüngste verfügbare International Comprehensive Ocean-Atmosphere-Datensatz (ICOADS) herangezogen sowie statistische Verfahren, die auch bei dünner Datenlage stabile Rekonstruktionen ermöglichen. Die monatliche Analyse fängt im Januar 1854 an, aber wegen der nur sehr spärlich vorhandenen Daten werden vor dem Jahr 1880 keine globalen Mittelwerte berechnet. Mit mehr Beobachtungen nach 1880 ist das Signal stärker und mit der Zeit konsistent.

Man beachte die Erwähnung sowohl von Festlands- als auch von Wassertemperaturen (SST). Diese werden auf ziemlich unterschiedliche Art und Weise ermittelt. Dann werden sie mittels statistischer Verfahren „korrigiert“, das ist der wissenschaftliche Ausdruck für manipuliert. Das Ergebnis sieht so ähnlich aus wie das hier:

Jetzt beachte man den Bezug auf „dünne Datenlage“, was bedeutet, dass in vielen Gebieten tatsächliche Messungen nur an wenigen, weit auseinander liegenden Stellen durchgeführt werden. Dies gilt sowohl für das Festland als auch für die Ozeane. Man beachte beispielsweise den gewaltig breiten Streifen vor Südamerika, der als der „rekordwärmste“ apostrophiert worden ist. Und worauf basiert diese Aussage? Hier folgt eine Graphik der NOAA selbst, die den Datenmengen in manchen Gebieten zeigt:

Es fällt auf, dass das gleiche Gebiet in dieser Darstellung zeigt, dass es keine Daten für jenes Gebiet aus Brasilien gibt! Im Grunde sind die „rekordwärmsten“ Temperaturen in Brasilien und benachbarten Ländern fabriziert. Die Tatsache, dass sie durch ein Computerprogramm fabriziert worden sind, macht sie nicht weniger schwindlerisch. Das Gleiche gilt für andere Gebiete wie z. B. die warme Blase über Grönland, die von anderen NOAA-Daten diskreditiert wird. Mehr dazu schreibt Paul Homewood hier.

Also können wir nicht einmal dieser bedeutungslosen Historie bedeutungsloser Zahlen vertrauen, um auf irgendetwas hinzuweisen, das mit Klimawandel zu tun hat. Und doch fahren Wissenschaftler mit Eigeninteresse daran, dass der Klimawandel eine herauf dämmernde Krise ist, fort, Daten zu manipulieren, um es so aussehen zu lassen, als ob die globalen Temperaturen weiterhin steigen. Erst jüngst haben NOAA-Forscher unter Führung von Thomas R. Karl eine neue Studie veröffentlicht mit dem ziemlich cleveren Titel „Possible artifacts of data biases in the recent global surface warming hiatus.” Darin geben sie vor zu beweisen, dass der gut dokumentierte Stillstand von über 18 Jahren lediglich eine Folge schlechter Daten ist und dass sie in der Lage waren, dies zu bereinigen. Aus dem Abstract:

Viele Studien wurden bzgl. der möglichen Gründe einer augenscheinlichen Abnahme des Anstiegs der globalen Temperatur seit 1998 durchgeführt, ein Phänomen, dass als „Stillstand“ der globalen Erwärmung bezeichnet wurde. Hier präsentieren wir eine aktualisierte Analyse der globalen Temperatur, die enthüllt, dass die globalen Trends höher sind als jene, die das IPCC nennt, vor allem während der letzten Jahrzehnte, und dass die zentrale Schätzung der Erwärmungsrate während der ersten 15 Jahre des 21. Jahrhunderts mindestens genauso stark war wie in der zweiten Hälfte des 20. Jahrhunderts. Diese Ergebnisse stützen nicht die Präsenz einer „Verlangsamung“ der Zunahme der globalen Temperatur.

Viel wiederum wurde auch geschrieben zu diesem jüngsten Versuch der Temperatur-Taschenspielerei, und das möchte ich hier nicht alles wiederholen. Jene, die das interessiert, können hier schauen in einem exzellenten Artikel auf dem Blog von Judith Curry. Hier folgt der Kern dessen, was Zeke Hausfather und Kevin Cowtan über Karls Reanalyse zu sagen haben:

Beträchtliche mediale und politische Aufmerksamkeit konzentrierte sich auf die neue NOAA-Aufzeichnung der Temperatur, welche deutlich mehr Erwärmung zeigt als deren Aufzeichnung zuvor im Zeitraum von 1998 bis zur Gegenwart. Der Hauptfaktor hinter diesen Änderungen ist die Korrektur der Ozean-Wassertemperaturen, die vorgenommen wurde anlässlich des Übergangs von Messungen von in Schiffsmaschinen einströmendem Kühlwasser zu Messungen durch Bojen. Es ergab sich eine Differenz zwischen beiden. Hier wollen wir die Änderungen an den NOAA-Wassertemperatur-Aufzeichnungen evaluieren, indem wir eine neue, nur auf Bojenmessungen basierende Aufzeichnung dieser Temperaturen konstruieren. Wir kommen zu dem Ergebnis (ohne irgendwelche Adjustierungen vornehmen zu müssen), dass eine Aufzeichnung ausschließlich durch Bojen effektiv identisch ist hinsichtlich des Trends zur neuen NOAA-Aufzeichnung und deutlich höher als in der alten Aufzeichnung.

Interessant ist hier, dass Hausfather und Cowtan behaupten, dass die Temperatur des in Schiffe einströmenden Kühlwassers hinsichtlich der viel neueren Bojendaten verzerrt ist. Unglücklicherweise reichen die Schiffsdaten viel weiter zurück als die Daten von Bojen, die den größten Teil historischer Aufzeichnungen ausmachen. Außerdem weist Dr. Curry darauf hin, dass es einen weiteren SST-Datensatz gibt – OISSTv2 – für den Zeitraum seit den achtziger Jahren. Dieser Datensatz hat eine höhere horizontale Auflösung dank der Verwendung von Satellitendaten sowie des Vergleichs zwischen Satelliten- und Schiffsbeobachtungen einerseits zu den Bojendaten andererseits. Curry schreibt: „Unter dem Strich scheint zu stehen, dass der Trend im NOAA ERSSTv4-Datensatz von 1998 bis 2014 etwa doppelt so hoch ist wie der Trend in den Datensätzen HADSST3 und OISSTv2.” Welcher ist korrekt? An diesem Punkt schreit jemand „die Wissenschaft ist settled!“

Dr. Curry und ihre Mitarbeiter stehen nicht allen, wenn sie die überarbeiteten NOAA GISS-Daten hinterfragen. Der Geologe und Berechnungs-Experte Prof. Dr. Friedrich Karl Ewert hat angefangen, sich näher mit den Daten hinter den Behauptungen der globalen Erwärmung zu befassen, und besonders die Datensätze von NOAA GISS erregten sein Interesse. Er kam ebenfalls zu der Schlussfolgerung, dass die Temperaturaufzeichnung entwertet worden war. „Massiv verändert“, hieß es in einem Online-Report.

Am aussagekräftigsten von all dem ist vielleicht, dass es andere Datensätze gibt, die nicht auf räumlich sehr spärlichen Daten von weit auseinander liegenden Temperaturstationen oder umstrittenen Daten von fahrenden Schiffen basieren. Jene Daten stammen von Infrarot-Satellitenmessungen. Hier folgt ein Vergleich der RSS-Satellitendaten und GISS:

Man erkennt, dass die Temperaturen den RSS-Satellitendaten zufolge im Zeitraum 1979 bis 2001 mit praktisch der gleichen Rate wie bei GISS gestiegen sind. Seitdem zeigt sich eine bedeutende Divergenz, wobei GISS eine Rate zeigt, die praktisch genauso hoch ist wie im Zeitraum zuvor. Im Kontrast dazu bestätigt RSS (und auch UAH, eine weitere, auf Satelliten basierende Historie) dass, wenn überhaupt, die Temperaturen eher zurückgegangen sind.

Zweitens, wir müssen nachfragen, woher diese Zahl von 2°C kommt, falls Wissenschaftler nicht nur die Gewässer vermanschen, aus denen diese bedeutungslose Temperaturzahl stammt, und sie darüber hinaus auch die Bücher fälschen. Welche mögliche Rechtfertigung haben sie für ihre Behauptung, dass diese 2°C unsere Welt unbewohnbar machen werden? Es gibt keine! Einem Artikel in der Huffington Post zufolge ist der Hintergrund dieser 2°C-Zahl Folgender:

Zusammen mit den Nachrichten über COP21 hören wir immer wieder von der Notwendigkeit, den globalen Klimawandel unter dem 2°C-Ziel zu halten. Allerdings wissen nur wenige Menschen, woher dieses 2°C-Ziel kommt. Der Grund dafür ist, dass das 2°C-Ziel eines der am meisten freiwillig verschlammten Themen in der Debatte um den Klimawandel ist. Warum ist das so? Weil dieses spezielle Ziel keine wissenschaftliche, sondern eine politische Zahl ist.

Dazu muss man wissen, dass die HuffPo eine Sammlung wahrer grüner Gläubiger und Klimaalarmisten allererster Güte ist.

Da also haben wir es. Die mittlere globale Temperatur ist eine vermanschte, bedeutungslose Zahl, die nur für Nachrichten-Artikel, Presseerklärungen und Forderungen nach Geldern von Regierungsseite nützlich ist. Sachkundige Wissenschaftler wie Roger Pielke Sr. werden sagen, dass keinerlei prophetische Macht dahinter steckt. Die gefürchtete 2°C-Barriere ist kein wissenschaftlich etablierter Kipp-Punkt, der das Ende der Welt einläutet, sondern politischer Unsinn.

Hier steht im Original eine Karikatur, deren Copyright eine Wiedergabe hier verbietet. Anm. d. Übers.]

Während also wissenschaftliche Dunkel-Lichter [dim bulbs] wie Präsident Obama, John Kerry und Prinz Charles ernste Warnungen ausgeben, dass die Apokalypse unmittelbar bevorsteht [wobei diesen die Medien zumindest bei uns in D tatkräftig unter die Arme greifen! A. d. Übers.], räumen selbst Klimaalarmisten mit Wurzeln in realer Wissenschaft wie James Hansen ein, dass das 2°C-Erwärmungslimit „crazy“ ist und „nicht auf Wissenschaft basiert“. All das Klima-Sturm-und-Drang*, das von der COP21-Konferenz in Paris nach außen dringt, ist viel Lärm um nichts. Mein Rat an alle da draußen lautet, alles Gefasel von Apokalypse seitens der Klimaalarmisten zu ignorieren und sich an der Holiday Season zu erfreuen, welche Temperatur auch immer dort herrscht, wo Sie gerade sind.

Bleiben Sie sicher, erfreuen Sie sich des Interglazials und bleiben Sie kritisch.

[*Im Original steht: All the climate change sturm und drang…]

Link: http://theresilientearth.com/?q=content/global-average-temperature-meaningless-misleading

Übersetzt von Chris Frey EIKE




OPEC: Investitionen von 10 Billionen Dollar sind nötig, um einen massiven Sprung des Ölpreises zu vermeiden

Längerfristige Projektionen sind notorisch ungenau, und Ölpreise sind fast unmöglich auch nur für ein paar Jahre im Voraus vorherzusagen, geschweige denn auf ein paar Jahrzehnte in die Zukunft. Preismodulationen involvieren eine ganze Palette von Variablen, und geringe Veränderungen bei einigen Hypothesen – wie etwa das globale BIP oder das Tempo des Bevölkerungswachstums – können zu dramatisch anderen Ergebnissen führen. Daher sollten diese Schätzungen lediglich als ein Bezugspunkt betrachtet werden und nicht als einen ernsthaften Versuch, die Rohölpreise 25 Jahre im Voraus vorherzusagen. Nichtsdestotrotz zeigt die Schätzung der OPEC, dass man glaubt, noch ziemlich lange über eine ausreichende Menge Öl zu verfügen – genug, um Preisausschläge wie während der letzten Jahre zu verhindern.

Teilweise hat das mit etwas zu tun, das die OPEC als eine graduelle Verschiebung hin zu Effizienz und Alternativen zu Öl ansieht. Der Report enthält Schätzungen zur Steigerung der Nachfrage während fünf Jahren insgesamt, wobei die Nachfrage graduell sinkt. Beispiel: Die Welt wird zusätzliche 6,1 Millionen Barrel (MB) Öl pro Tag verbrauchen zwischen heute und dem Jahr 2020. Danach verlangsamt sich die Nachfrage jedoch: 3,5 MB zwischen 2020 und 2025, 3,3 MB zwischen 2025 und 2030, 3 MB von 2030 bis 2035 und schließlich 2,5 MB zwischen 2035 und 2040, jeweils pro Tag. Die Gründe hierfür sind vielfältig: langsameres wirtschaftliches Wachstum, abnehmende Bevölkerungsraten, und – ein entscheidender Punkt – Bemühungen bzgl. Effizienz und Klimawandel, die alle den Verbrauch verringern. Tatsächlich hat die OPEC seine Projektion zur Nachfrage nach Öl im Vergleich zum vorigen Bericht WOO 2014 um 1,3 MB pro Tag erniedrigt, weil sie deutlich mehr ernsthafte politische Maßnahmen zur Klima-Abschwächung [climate mitigation] sieht als im vorigen Jahr.

Natürlich könnte man nun argumentieren, dass selbst diese Schätzung – dass nämlich die Welt im Jahre 2040 110 MB pro Tag verbrauchen wird – noch viel zu optimistisch ist. Aus einer ganzen Reihe von Öl exportierenden Ländern kann man das erwarten. Energie-Übergänge sind schwer im Voraus abzuschätzen, aber wenn es dazu kommt, tendieren sie dazu, rapide Änderungen hervorzurufen. Jede Maßnahme [any shot] zur Erreichung der offiziell festgesetzten Klimaziele wird wesentlich ambitioniertere Bemühungen erfordern. Während Regierungen seit Jahren hin und her schwanken, scheinen deren Bemühungen aber jetzt ernsthafter zu werden. Mehr auf den Punkt gebracht: Die Kosten für Elektroautos werden mit der Zeit nur in wirklichen Dollartermen sinken, und die Anpassung sollte weiterhin in nicht-linearer Manier erfolgen. Dies stellt eine bedeutende Bedrohung langfristiger Ölverkäufe dar.

Gleichzeitig hat die OPEC aber auch in dem Report zur Vorsicht gemahnt. Während die Ölmärkte in naher und mittlerer Zukunft noch mit einer Überversorgung konfrontiert sind, werden massive Investitionen in Erkundung und Erzeugung immer noch gebraucht, um die Nachfrage langfristig decken zu können. Die OPEC glaubt, dass dazu 10 Billionen Dollar während der nächsten 25 Jahre ausgegeben werden müssen, um angemessene Ölpreise sicherzustellen. „Werden die richtigen Signale hier nicht jetzt gesetzt, besteht die Möglichkeit, dass der Markt herausfinden könnte, dass es nicht genug neue Kapazität und Infrastruktur gibt, um zukünftig steigende Nachfragen zu decken. Dies hätte offensichtlich eine ruckartige Auswirkung auf die Ölpreise“, heißt es bei der OPEC. Etwa 250 Milliarden Dollar pro Jahr müsste aus Nicht-OPEC-Staaten kommen.

In einer ähnlichen, aber noch beunruhigenderen Schlussfolgerung kam die in Oslo ansässige Rystad Energy jüngst zu dem Ergebnis, dass der gegenwärtige Zustand der Überversorgung „sich schon während der nächsten paar Jahre in sein Gegenteil umkehren könnte“. Wegen der drastischen Kürzungen bei den Investitionen heute wird es innerhalb weniger Jahre zu einer Verknappung kommen. Um die Dinge ins richtige Verhältnis zu setzen, sagt Rystad, dass die Ölindustrie „34 Milliarden Barrel Rohöl in jedem Jahr fördern muss – ähnlich des gegenwärtigen Verbrauchs“. Aber als eine Folge des Preiskollapses hat die Industrie ihre Investitionen in allen Bereichen zurückgefahren, und „im Jahre 2015 wurden nur Investitions-Beschlüsse für lediglich 8 Milliarden Barrel Öl getroffen. Diese Menge ist weniger als 25% dessen, was der Markt langfristig erfordert“. Im Jahre 2015 wurden die Investitionen um 250 Milliarden Dollar zurückgefahren, weitere 70 Milliarden Dollar könnten es in diesem Jahr 2016 sein. Letzteres hat noch nicht den jüngsten Beschluss der OPEC berücksichtigt, wonach die OPEC ihr Produktionsziel aufgeben will, was die Ölpreise auf eine weitere Talfahrt schickt.

Was bedeutet das alles nun für uns? Es könnte massenhaft Ölvorräte in Zukunft geben, aber wie es jetzt aussieht, tätigt die Industrie massiv viel zu wenig Investitionen. Dies illustriert eine besorgliche Spannung innerhalb der Ölindustrie. Ölpreise werden durch marginale Kosten der Erzeugung gesetzt, und Fortschritte bzgl. Effizienz in letzter Zeit haben trotz der marginalen Kosten allgemein zugenommen. Erzeugung zu niedrigen Kosten läuft aus, und die Industrie wird abhängiger von Öl aus der Tiefsee, aus Schiefer oder aus der Arktis, welche allesamt höhere Investitionen erfordern. In vielen Fällen ist diese Art von Projekten bei den jetzigen Preisen nicht profitabel. Die Preisspitzen im Zeitraum 2011 bis 2014 legten den Grundstein für die gegenwärtige Krise, aber der Rückzug heute könnte Bedingungen für eine weitere Preisspitze in der Zukunft schaffen. Die OPEC könnte ein wenig zu optimistisch sein hinsichtlich seiner Forderung nach 95 Dollar für Öl im Jahre 2040.

Gleichzeitig enthalten zukünftige Preisspitzen die Möglichkeit wesentlich stärkerer Einbrüche bzgl. der Nachfrage, besonders falls Alternativen machbarer werden. Dies ist die schwierige Balance, mit der sich die Industrie während der nächsten paar Jahrzehnte befassen muss.

Article Source: OilPrice.org

Oilprice.com by Nick Cunningham

Link: http://canadafreepress.com/article/77796

Übersetzt von Chris Frey EIKE




Die Klimaente zum Jahreswechsel Der Nordpol taut mitten im Winter

Das neue Jahr hatte noch nicht einmal begonnen, da kam schon eine neue Klima-Hiobsbotschaft in allen gängigen Medien: Der Nordpol taut und das mitten im Polarwinter.

Video: Ex-Moderator Uli Wickert zur Lügenpresse

Video: Entwicklung der Medienente von 50 ° am Nordpol in verschiedenen Fernsehsendern. Mit Dank an R. Hoffmann für den Zusammenschnitt

 

Bild 1[1] Screenshot der Artikel-Überschrift von „DIE WELT“

DIE WELT Textauszug

Es ist ein Sturmsystem von historischen Ausmaßen und Werten: Was sich derzeit östlich von Grönland zusammenbraut und weiter nördlich zieht, könnte dem Nordpol Temperaturen von bis zu 30 Grad über den normalen Werten bescheren. Am derzeit 24 Stunden lang dunklen Pol wäre es dann wärmer als in Südkalifornien.

Eigentlich herrscht derzeit am Nordpol Winter mit minus 30 bis minus 40 Grad Celsius. Tatsächlich ist es aber zwei bis vier Grad warm. Entwickelt sich der Sturm weiter wie berechnet, könnte in den nächsten Tagen die Abweichung von 50 Grad erreicht werden, schreiben die Forscher des amerikanischen Wetterdienstes NOAA.

dpa/ds

Und zum Schluss gleich eine Ergänzung „DER WELT“, um den Leser passend einzustimmen:

Hochwasser in England, Tornados in den USA, Schnee in Mexiko, der Nordpol 30 Grad wärmer als üblich. Weltweit spielt das Wetter verrückt. 2015 wird meteorologisch in die Geschichtsbücher eingehen. Quelle: Die Welt

Bild 2[2] Screenshot der Überschrift von „Bild“

Was ist da passiert? Hat das PIC recht und das Klima kippt direkt zum Jahreswechsel um – noch viel schneller, als es alle Simulationen vorhergesagt haben?

Zum Glück nicht, denn die dpa hat etwas ganz Wichtiges übersehen

Auf einen Bericht hin hat die dpa, das Deutsche Wahrheitsministerium für Klima und EEG wie üblich die offizielle, regierungsamtliche Meldung für Gesamtdeutschlands Bürger verfasst und durch unsere  Qualitätsmedien publizieren lassen.

Doch leider passierte der dpa ein schwerwiegender Fehler: Sie übersah, dass die Original-Meldung die Stadt NORTH POLE  in Alaska betraf und nicht den geografischen Nordpol. Dummer Weise steht das im Original auch nicht und die Schreibweisen sind leider gleich. Anbei dazu ein Kommentareintrag zur Meldung von FOX NEWS[4]: 

Leser-Kommentar unter der FOX NEWS_Meldung:

The temperature in the Fairbanks, Alaska suburb of North Pole earlier today was apparently in the low-40s Fahrenheit. It was then that Alexandra Sifferlin at Time.com reported the Alaska town’s temperature as if it came from the North Pole. The only current evidence of Sifferlin’s original grievous error at Time.com is a deliberately vague correction at the bottom of her post telling readers that „This article originally misidentified a temperature reading as belonging to the North Pole.

Bild 3 Screenshot: Homepage-Auszug der Stadt NORTH POLE in Alaska

Wo diese Stadt liegt, zeigt das folgende Bild

Bild 4 Geografische Lage der Stadt NORTH POLE in Alaska 

Und wenn man auf den typischen Temperaturverlauf für diese Stadt klickt (Bild 5) sieht man, dass dort +2 … 4 °C, also 35, 6 … 39,3 ° Fahrenheit selbst um diese Jahreszeit gar nicht ungewöhnlich sind. 

Noch etwas hat die dpa übersehen. Die Angaben sind in Grad Fahrenheit. Die bei der WELT gemeldeten 50 Grad sind deshalb umgerechnet nur ca. 27 °C Temperaturdifferenz. Und ca. 30 °C Temperaturdifferenz zwischen Min- und Max-Wert sind im klimagemäßigten Deutschland die normale Temperaturspanne für ein Datum, welche öfters von einem Jahr zum anderen erreicht wird.

Bild 5 (neu 10.1.16) Tagestemperaturverlauf  vom 26.12.15 der Temperatur Messboje NPEO 2015 Airborne eXpendable Ice Buoy (AXIB ) ID 132472, die dem Nordpol z.Zt. am nächsten ist (Original siehe hier  und hier  ). Mit Dank an Spürnase G. Kramm (Fairbanks Alaska)

 

Aber es wäre halt gar zu schön gewesen, wenn der Nordpol mitten im Polarwinter schmelzen würde. Dass das absolut unwahrscheinlich ist und man deshalb bei so einer Meldung hätte hellhörig sein sollen, kommt der dpa und auch unseren Qualitätsmedien nicht in den Sinn (man ist vom PIK ja viel Schauerlicheres gewohnt) – und dass man die Leser  danach vielleicht über den Fehler informieren könnte – schon gar nicht. 

Etwas fällt noch auf. Bei DER WELT werden in der Artikelüberschrift 50 °C gemeldet. In der Ergänzung nach dem Artikel stehen dann jedoch 30 Grad. Hat man dort zumindest den Fehler mit den Fahrenheit erkannt, in der Meldung „fürs Volk“ aber nicht korrigiert? 


Bild 6. Temperaturverlauf der Stadt North Pole in Alaska

Hinweis: Die Info zu dieser Meldung kam von „Der Klimarealist“ http://www.derklimarealist.de/

* Anmerkung der Redaktion

Unter Earth Weather Extreme (hier) und Ocean DMI hier findet man die realen Temperaturen für die fragliche Zeit um den Nordpol herum

Ort: (80°N-90°N), Uhrzeit jeweils 19:00 Uhr UTC.

28.12.2015 244 K (-29 °C)

29.12.2015 246 K (-27 °C)

30.12.2015 257 K (-16 °C)

31.12.2015 253 K (-20 °C)

Mit Dank an Spürnase R. Berberich

Weitere Hinweise auf die Temperaturentwicklung der arktischen Region finden Sie hier, z.B. auch den dass heftige sehr kurzzeitige Temperatursprünge von 12 bis 14 K in manchen Teilen der Arktis völlig normal sind und in den letzten 58 Jahren über 70 mal vorkamen.

Disclaimer

Hinweis: Im oben stehende sehen Sie das Rechercheergebnis des Autors zu dieser Meldung welche erhärtet, dass es sich um beim North Pole um eine Namensverwechslung handelt. Leider hat der Autor keinen definitiven Quellenbeleg gefunden (z.B. nur einen wie diesen hier), womit ein geringes Restrisiko bleibt. Aber die These der Namensverwechslung ist so wahrscheinlich, dass sie hiermit veröffentlicht wird.

Quellen

[1]

DIE WELT 30.12.15:  Am Nordpol wird es bis zu 50 Grad wärmer als üblich

http://www.welt.de/vermischtes/article150454609/Am-Nordpol-wird-es-bis-zu-50-Grad-waermer-als-ueblich.html

[2]

Bild 30.12.2015: Nordpol bald wärmer als Kalifornien?

http://www.bild.de/news/ausland/globale-erwaermung/nordpol-bald-waermer-als-kalifornien-43964744.bild.html 

[3]

Deutschlandfunk 30.12.2015: Extreme Temperaturvorhersagen für den Nordpol

http://www.deutschlandfunk.de/wetter-extreme-temperaturvorhersagen-fuer-den-nordpol.1818.de.html?dram:article_id=341134 

[4]

FOX NEWS, January 01, 2016: Temperatures spike almost 50 degrees in North Pole

http://www.foxnews.com/science/2016/01/01/temperatures-spike-almost-50-degrees-in-north-pole.html

 




Medienmeldung am 3.1.16: Kraftwerke stoßen zu viel Quecksilber aus – doch kein Wort zu den zig Millionen „Energiesparlampen“ deren Quecksilber jedes Jahr in die Umwelt gelangt.

Die Grünen landeten mal wieder einen Coup. Darauf vertrauend, dass ihre willigen Vollstrecker in allen Medien auch für älteste Nachrichten-Hüte verfügbar sind, jedenfalls solange sie von den Grünen kommen und auf die Tatsache bauend, dass bei diesen gewohnt selektive Berichterstattung gute Berichterstattung ist, ließen sie über die olle Kamelle, dass bei der Verbrennung von Kohle auch geringe Mengen Quecksilber freigesetzt werden, eine neue „Studie“ von einem ihrer „Öko-Institute“ (namens Ökopol hier) anfertigen. Die versetzte prompt sämtliche Medien in Aufregung.  

Videoausschnitt einer Sendung des heute Journals vom 14.12.15 in der Chefmoderator Claus Kleber sein Erstaunen darüber äußert, dass man ihm und seinen Kollegen unterstellt, dass sie „von oben“ gesteuert würden. Dabei hätte ihn bis zum nämlichen Tage nie jemand „von oben“ angerufen, um ihm zu sagen, was er zu berichten hätte. Kommentar: Allein dieser Monolog zeigt mit erschreckender Deutlichkeit die Abgehobenheit vieler Mitglieder der journalistischen Klasse, die nicht mehr die bereits erfolgte Konditionierung ihrer selbst erkennen können. Die sie dazu bringt nur noch solche Meldungen zu verbreiten und für den richtigen Sprachgebrauch zu sorgen, die ihnen für als richtig erkannte Methoden und Mittel der Volkserziehung geboten scheinen. Auch die rbb Intendantin Dagmar Reim ist völlig mit sich und den Ihren im Reinen, wie sie hier verlauten lässt. Alexander Wendt hat hier auf ACHGUT einige besonders markante Beispiele des gewollt erzieherischen jedoch nur voreingenommenen Journalismus vorgestellt.

„Deutsche Kohlemeiler stoßen tonnenweise Quecksilber aus“ trompetet zuverlässig Hiwi Stefan Schulz vom SPON.

Die Tagesschau stößt ins selbe Horn und berichtet  Grüne fordern niedrigere Quecksilber-Grenzwerte“. Vor lauter Begeisterung über diese schlechte Nachricht hatte der zuständige Tagesschau Redakteur aus den in der „Studie“ für deutsche Kraftwerke genannten  7 t, , mal eben 10 t (Anm. immer p.a. gemeint) gemacht, von denen aber die Studie zu wissen vorgibt, dass dies die emittierte Gesamtmenge aller Quellen sei.

Auch das ZDF lässt sich nicht lange bitten und bringt diesen alten Hut unter der Schlagzeile „Quecksilber aus Kohlekraftwerken“ im heute Journal vom 3.1.16 (ab Minute 11:06) als wichtige Nachricht und lässt ausführlich den als erbitterten Kohlekraftwerksgegner bekannten,  grünen „Energieexperten“ das MdB Oliver Kriescher (studierter Biologe; ob mit oder ohne Abschluss ist nicht bekannt, vermutlich ohne, zudem Mitglied des Vorstandes von Eurosolar.) zu Wort kommen, der seine Litanei auch prompt herunterbetet.  Kriescher verbrachte übrigens sein ganzes Berufsleben in der Politik und lernte sein Metier bei der Mitautorin des EEG Frau Michaele Husted.

Das RTL Journal, ebenso wie sämtliche überregionalen Tageszeitungen melden diesen alten Hut ebenso an prominenter Stelle.

Weglassen ist auch Lüge

Doch keiner dieser Journalisten machte auch nur die leiseste Andeutung darüber, dass es die Grünen waren, die über die mit ihnen verbündete Hilfstruppen, wie Greenpeace, dafür sorgten, dass das Nerven-Gift Quecksilber erst so richtig breit und fein verteilt in sämtlichen Haushalten und Betrieben der Republik incl. der Kinderzimmer vorhanden ist. Forderten sie doch als Erste das Verbot der Glühlampe.

Hierbei – wie auch auf anderen Feldern- taten sich die grünen Helden H.J. Fell und J- Trittin besonders hervor. So findet man im Spiegel vom 20.2.2007 die folgenden Aussagen.

Umweltschutz: Grüne sagen Glühlampen den Kampf an

..Fell sprach sich aber auch für ein Ende von herkömmlichen Glühlampen in Deutschland aus. Denkbar sei ein Auslaufen des Verkaufs bis 2012, sagte Fell. Zunächst sollte die Bundesregierung mit den Herstellern nach einem gemeinsamen Weg suchen, um die ineffizienten Lampen vom Ladentisch verschwinden zu lassen. „Wenn das nicht klappt, wäre auch ein gesetzliches Verbot denkbar“, sagte Fell.

Auch Jürgen Trittin, Grünen-Bundestagsabgeordneter und früherer Umweltminister, begrüßte Australiens Glühbirnen-Verbot: „Solche technischen Standards für Energieeffizienz bräuchten wir weltweit noch viel mehr. Wir würden sie uns für sämtliche Elektrogeräte wünschen, etwa für ineffiziente DVD-Player, für die vielen australischen Klimaanlagen oder auch für beheizte Klodeckel, wie es sie in Japan gibt“, sagte Trittin zu SPIEGEL ONLINE.

Und der aktivistische Arm der Grünen, der Medienkonzern Greenpeace, sorgte im selben Jahr dann gleich für die entsprechenden Bilder und Videos und ließ vor dem Brandenburger Tor in Berlin mit einer Straßenwalze 10.000 Glühlampen zerstören. Alle Medien waren natürlich dabei und berichteten was das Zeug hielt.

Das Glühlampenverbot verursachte die weite Verbreitung von Quecksilber in alle Haushalte und Betriebe

Kurze Zeit später legte der damalige Umweltminister Siegmar Gabriel (SPD) nach und forderte ultimativ von der EU ein Glühlampenverbot, was diese kurze Zeit später über das willige EU-Parlament auch beschließen ließ. 

Schon zu dieser Zeit war völlig klar, dass die als Ersatz verfügbaren und empfohlenen Energiesparlampen (im Grunde miniaturisierte Leuchtstoffröhren) jeweils bis zu 5 mg hochgiftiges Quecksilber enthalten würden.  In der oben angezogenen Studie nehmen die Autoren auch ausdrücklich -allerdings verharmlosend – auf die Energiesparlampen Bezug, denn so liest man in der Zusammenfassung

Zitat:

Das (die 7 t jährlich aus deutschen Kraftwerken) entspricht der jährlichen Freisetzung von sämtlichem Quecksilber aus 3,5 Millionen Energiesparlampen.

Legt man diese Werte auf den jährlichen Eintrag an Quecksilber durch kaputte Energiesparlampen um, dann zeigt eine einfache Hochrechnung, dass von den inzwischen rd. 850 Mio bis 2,3 Mrd (wenn man von 80 % Ersatz aller Glühbirnen in Haushalten und Betriebsgebäuden ausgeht) Energiesparlampen, die in deutschen Haushalten und Betrieben incl. Verwaltungen inzwischen in Gebrauch sind, zwischen 42 bis 112 Mio Stück[1], also ca. 5 %, jährlich ersetzt werden.  Rd. 80 % davon landen – so meinen Experten- im Hausmüll, der Rest wird ggf. fachgerecht entsorgt. Das bedeutet, dass rd. 34 bis 90 Mio Energiesparlampen jährlich ihr Quecksilber – weit und fein verteilt- an die Umwelt abgeben. Das ist .gem. der Studie- rd. 10 bis 26 x mehr als sämtliche Kraftwerke[2] zusammen. Die Überschrift der Meldungen, die sich auf die Studie bezogen, hätte dann lauten müssen:

„Deutsche Kraftwerke emitieren nur Bruchteile der Quecksilbermengen in die Umwelt, die von Energiesparlampen eingebracht werden. „

Eine solche Meldung wäre jedoch mit Sicherheit nicht gebracht worden. Siehe oben. Allerdings wäre auch sie nicht korrekt, siehe Fußnote 2. Im Grunde wäre es eine Nichtmeldung gewesen.


[1] Dabei wird von einer Austauschrate von 5 % ausgegangen, was einer rechnerischen Gebrauchsdauer von 20 Jahren entspricht. Das ist sicherloch zu optimistisch.

[2] Die Behauptung der Studie, dass 3,5 Mio Energiesparlampen rd. 7 t Quecksilber enthalten bzw. auch freistzen könnten, zeigt nur wie schlampig die Studie erstellt wurde, und lässt damit auf ihre Gesamtqualität schließen. Sie ist nämlich um 3 Größenordnungen zu hoch.  Denn nach den in der Studie angegebenen Werten enthielte jede Energiesparlampe rd. 2 g Quecksilber. Real sind es jedoch nur 2 bis 5 mg. Was die Berechnungen oben zwar kräftig verringern würde, aber an der grundsätzlichen Problematik der Freisetzung bei gleichzeitig feinster – auch in Kinderzimmern- Verteilung großer Mengen Quecksilber durch Energiesparlampen, nichts ändern würde. Real enthalten die bisher eingesetzten Energiesparlampen alle zusammen zwischen 2 und 8 t Hg. Also in etwa genauso viel wie alle Kraftwerke zusammen emitieren.




Willkommen in einer neuen geologischen Ära – dem Idiozän

Bild rechts: Link siehe unten! Bildinschrift: Eine neue geologische Ära wurde in Paris eingeläutet! Diese neue Ära erstreckt sich vom 30. November bis zum 13. Dezember 2015. Alle, die geholfen haben, diese Ära hoher intellektueller Errungenschaften und dauerhafter Visionen von Wohlstand in elysischen Gefilden zu definieren, sind unten im Bild zu sehen.

Wir sollten diese Ära in Zukunft als das Idiozän in Erinnerung behalten!

[Ende Bildinschrift]

Am 5. Dezember 2015 haben etwa 178 Länder bei der Pariser Klima-Scharade ein Abkommen unterzeichnet, dem zufolge die CO2-Emissionen gekappt werden sollen mit dem Ziel, die zukünftige globale Erwärmung unter 2°C zu halten.

Dieser UN-Vertrag basiert auf freiwilliger Teilnahme und ist praktisch nicht durchsetzbar. Er enthält freiwillige Emissions-Reduktionen, freiwillige Aufstellungen von Berichten bzgl. des Fortschritts in dieser Hinsicht, keine internationale Übersicht über irgendwelche freiwilligen Fortschritte und freiwillige Einzahlungen in den von den UN verwalteten Schmiergeldfonds zur Abschwächung des Klimawandels.

Außenminister John Kerry hat gesagt:

Tatache ist, dass falls jeder amerikanische Bürger mit dem Fahrrad zur Arbeit fahren würde; Car Sharing für die Wege zur Schule betrieben würde und Solarpaneele zur Energieversorgung der Wohnungen verwendet werden würde; falls wir jeder ein Dutzend Bäume pflanzen würden und irgendwie alle unsere heimischen Treibhausgas-Emissionen eliminieren würden, dann – raten Sie mal! Das würde immer noch nicht ausreichen, die aus der übrigen Welt kommende Kohlenstoff-Verschmutzung zu kompensieren.

Falls alle industrialisierten Nationen es schaffen würden, zu Null-Emissionen zu kommen – und man achte darauf, was ich sage – wenn alle industriellen Emissionen Null erreichen würden, wäre das immer noch nicht genug; jedenfalls nicht, wenn über 65% der globalen Kohlenstoff-Verschmutzung aus den Entwicklungsländern kommt.

[Puh! Das zu übersetzen kostete mich Überwindung! Anm. d. Übers.]

Ich frage mich, wenn eine Reduktion um 35% keine vorteilhaften Auswirkungen hat, warum sollen dann zusätzliche Reduktionen solche Auswirkungen haben?

Einige Beispiele des Spektakels:

UK kappt Subventionen für erneuerbare Energie (Daily Mail).

Indien plant eine Verdoppelung seiner Kohleerzeugung bis zum Jahr 2020 und wird sich auch während der Jahrzehnte danach auf diese Ressource verlassen (The Guardian).

Japan und Südkorea haben sich zu CO2-Reduktionen verpflichtet, aber dennoch treiben beide massiv Pläne voran, neue Kohlekraftwerke zu bauen (Japan Times)

China hat die Errichtung von 155 neuen Kohlekraftwerken erlaubt (Daily Caller)

Die sehr grüne Regierung von Kalifornien verstärkt ihre Angriffe auf erneuerbare Energie (Quelle).

Ein Professor aus Belgien nennt das Pariser Abkommen eine „Große Illusion“, ein „nachhallendes Scheitern“ und eine Frucht von „Wunschdenken“ seitens der reichen Länder. Er nennt das 2°C-Ziel „unrealistisch“ – ganz zu schweigen vom 1,5°C-Ziel, welches er in dem Interview als „lachhaft“ bezeichnete (NoTricksZone blog).

Dr. Craig Idso schreibt im Washington Examiner:

Eine der bizarrsten Behauptungen aus der Konferenz ist die Erklärung, dass verhindert werden muss, die globalen Temperaturen um 0,75°C über die heutigen Werte steigen zu lassen (sie müssen unterhalb einer Zunahme um 1,5°C gehalten werden seit vorindustriellen Zeiten) oder es wird zum Klima-Armageddon kommen. Dieses Narrativ umfasst schmelzende Gletscher und Eisschilde, steigenden Meeresspiegel, häufigere und stärkere Hurrikane, Dürren, Überschwemmungen und andere Arten von Extremwetter, Ernteverluste, Aussterben von Pflanzen und Tieren sowie weit verbreitete menschliche Leiden, Krankheiten und Todesfälle.

Eine solche Behauptung ist absurd. Sie existiert nur in den geistesgestörten Outputs von Computermodell-Projektionen, die aus den extremsten und wildesten Zukunftsszenarien abgeleitet sind. Daten und Beobachtungen geben keinen Hinweis irgendeiner Art, dass es zu einer solchen Katastrophe kommen wird, falls sich die Welt um weitere 0,75°C oder mehr erwärmen würde. Während der Mittelalterlichen Warnzeit vor 1000 Jahren war es zumindest schon genauso warm, wenn nicht noch wärmer als heute, und noch einmal 1000 Jahre davor während der Römischen Warmzeit. Außerdem war es vor rund 5000 Jahren zum Höhepunkt des gegenwärtigen Interglazials etwa 2°C wärmer als heute. Und keines dieser Ereignisse hat auch nur ansatzweise so etwas wie Klima-Armageddon ausgelöst.

Der Gottvater der globalen Erwärmung James Hansen hat die Konferenz und deren Ergebnisse sogar einen Betrug genannt. Der Ökonomie-Experte Björn Lomborg schrieb auf Twitter, dass das Abkommen „außerordentlich teuer“ sein und „wenig dazu beitragen wird – falls überhaupt etwas – die globale Erwärmung zu beeinflussen“ (NoTricksZone blog).

Obama preist das Abkommen an als „die beste Chance, die wir haben, um den einen Planeten zu retten, den wir haben“.

Der PhysikerLubos Motl schreibt: „überwältigender wissenschaftlicher Analphabetismus“.

Das „finale“ COP21-Paris-Abkommen ist 31 Seiten stark, und dieser wahnhafte Text wird in die Geschichte eingehen als ein Zertifikat von Verrücktheit und Hysterie.

Vor 14 Monaten haben Victor und Kennel in Nature einen Artikel veröffentlicht, in dem sie einige der Gründe erklären, warum man sich von „Temperaturzielen“ wie etwa das 2°C-Ziel verabschieden sollte, weil diese Art der Zielsetzung schlecht definiert, bedeutungslos, inkonsequent und unerreichbar – und einfach rundweg idiotisch ist. Die Hauptklage von Victor und Kennel war, dass die globale mittlere Temperatur in keinerlei brauchbarem Sinn mit der Gesundheit unseres Planeten korreliert war.

Aber die Klimahysterie hat jeden Kontakt zur Wissenschaft verloren. Die hunderte dummen Säugetiere aus allen Ecken der Welt, die sich in Paris versammelt hatten, lesen Nature nicht. Aber natürlich ist es noch viel schlimmer. Sie reden auch mit niemandem, der auch nur etwas Ahnung von Wissenschaft hat. Sie haben sich selbst gehirngewaschen in dem Glaube, dass die globale-Erwärmung-Temperatur eine hoch präzise, gut definierte Zahl sein muss – und, sogar noch schlimmer, eine Zahl, die man in jede Richtung drehen und wenden kann, in die sie die ihnen folgenden Säugetiere dirigieren möchten, und zu der man bedeutungslose, arrogante Deklarationen unterzeichnen kann.

Unnötig zu sagen, dass vergleichende Temperaturziele mit einer Genauigkeit von weniger als 1 Grad nicht als Grundlage für irgendein menschliches oder wirtschaftliches nationales Verhalten oder die Planung dienen kann. Diese Art der Planung ist sinnfrei aus mindestens 5 fundamentalen Gründen. Mehr und sehr ausführlich bei Lubos Motl.

Siehe auch hier [Dieser Beitrag ist in Arbeit und wird demnächst in deutscher Übersetzung auf dieser Website erscheinen].

Das ist das neue Idiozän.

Der Terminus „Idiozän“ wurde von der Carbon Sense Coalition kreiert. Siehe die Graphik oben rechts! Quelle

Link: http://www.climatechangedispatch.com/welcome-to-a-new-geologic-era-the-idiocene.html

Übersetzt von Chris Frey EIKE




Strom und CO2: Deutschland im Treibsand der Illusionen

Bild rechts Windkraftanlagen sind potenzielle Brandherde mitten in unseren Wäldern

Deutschland will den „Klimawandel“ bekämpfen und deshalb seine CO2-Emissionen stark senken. Das betrifft auch die Stromerzeugung. Entscheidendes Instrument hierfür ist das im Jahr 2000 eingeführte und mittlerweile von Kanzlerin Merkel ideenreich weiterentwickelte Erneuerbare-Energien-Gesetz (EEG). Dieses soll den Durchbruch zur Umstellung der landesweiten Stromerzeugung auf vorgeblich CO2-freie erneuerbare Energien bringen. Mit Hilfe einer zwanzigjährigen Abnahmegarantie werden privaten Geldgebern Anreize geboten, ihr Kapital in normalerweise unrentable Technologien zu investieren, die Strom aus Wind oder Fotovoltaik oder durch das Verbrennen von Lebensmitteln („Biomasse“) erzeugen. Die entsprechenden Kosten wachsen immer schneller, Bild 1. Je nach Wohnlage bekommt man für den Preis von drei Kilowattstunden Strom inzwischen schon fast eine Kugel Eis.

Bild 1. Die EEG-Umlage kennt im Prinzip nur eine Richtung: Immer steiler nach oben (Grafik: Chstdu, [COMM])

Trotz geschönter Statistiken…

Doch was hat das angeblich zu rettende Klima jetzt davon? Fragt man nach dem Erfolg, so sehen die präsentierten Zahlen rein äußerlich betrachtet zunächst beeindruckend aus, Bild 2.

Bild 2. Im Jahre 2015 erreichte der Anteil der „erneuerbaren“ Energien an der Stromproduktion angeblich bereits 30 % (Grafik: Autor, Daten [AGEB])

Bei näherer Betrachtung erweist sich diese Statistik allerdings als massiv geschönt. Geschummelt wird vor allem bei drei Faktoren: Der Biomasse, dem Wasser und dem Müll. Zur Biomasse ist zu sagen, dass es sich hier nicht nur um eine Schummelei, sondern sogar um ein Verbrechen handelt, denn hier werden im großen Stil Lebensmittel wie Mais oder Weizen verheizt. In einer Welt, in der Millionen hungern, ist dies nichts weiter als ein Verbrechen gegen die Menschlichkeit. Zudem wird verschwiegen, dass in unserer modernen Landwirtschaft die Produktion von Lebensmitteln einen so hohen Einsatz von Primärenergie u.a. in Form von Erdöl bedingt [ROZS], dass es vermutlich sogar sinnvoller wäre, die entsprechenden fossilen Rohstoffe direkt in Kraftwerken zu verwenden. Strom aus Biomasse ist weder ökologisch noch CO2-neutral.

Ähnlich gelogen wird auch im Bereich der Müllverbrennung, wobei in der Statistik angeblich nur deren „biogener“ Anteil aufgeführt wird. Unterschlagen wird dabei jedoch der Aufwand, der in die Gewinnung und Verarbeitung dieses Materials vom Holzschlag und dem Transport bis zur Möbelfabrik gesteckt wird. Das gilt auch für die energetischen Aufwendungen für Sortierung und Separierung des Mülls, die Abluftbehandlung und die sogenannte „Stützbefeuerung“ mit Erdöl oder Erdgas, wenn der Energieinhalt des Abfalls mal wieder nicht ausreicht, um ausreichend Druck im Kraftwerkskessel zu erzeugen. 

Selbst im Bereich der Wasserkraft wird immer mehr geschoben und gelogen. Da die seit langem existierenden Wasserkraftwerke nicht unter die EEG-Förderung fielen, wurden zunächst meist Klein- und Kleinstwasserkraftwerke gefördert. Diese sind den Fischern ein ständiger Stachel im Fleische, weil sie ihre Fische gerne am Stück und nicht als unbrauchbares Shreddergut aus dem Wasser holen würden. Da Deutschland so gut wie keine geeigneten weiteren Standorte hat, ist die Stromproduktion aus Wasserkraft im Prinzip seit Jahrzehnten stabil und wird sich auch in Zukunft nicht weiter steigern lassen. Die einzigen „erneuerbaren“ Stromerzeugungsverfahren, die in einigen Jahren noch verfügbar sein werden, sind Wasser-, Wind- und Solarenergie. Biomasse und Müll dürften in wenigen Jahren vom Markt verschwinden.

Interessant ist beim Blick auf Bild 2 zudem, dass die Bundesregierung es trotz erheblicher Widerstände geschafft hat, dem krebsartigen Wuchern der extrem unwirtschaftlichen Solarenergie einen Riegel vorzuschieben. Doch ist dies angesichts des ebenso krebsartigen Wucherns bei der Windenergie nur ein schwacher Trost.

Nur geringer Rückgang der konventionellen Stromerzeugung…

Dennoch bleibt festzuhalten, dass selbst bei einer Bereinigung der Statistik um die Schummelanteile bei Biomasse und Müll immerhin noch eine merkliche Steigerung insbesondere beim Wind (von 9,1 auf 13,3 %) festzustellen ist. Auch der Anteil der Fotovoltaik stieg moderat (von 5,7 auf 5,9 %), während Wasserkraft nur leicht (von 3,1 auf 3,0 %) zurückging. Zusammen kamen diese drei Energieerzeugungsarten auf immerhin 22,2 % der Stromerzeugung des Jahres 2015.

Dennoch hatte dies auf die Stromproduktion der konventionellen Kraftwerke (zu denen aus den genannten Gründen auch Müll und Biomasse gezählt werden müssen) keinen nennenswerten Einfluss, Bild 3.

Bild 3. Anteile konventioneller Kraftwerke an der deutschen Stromerzeugung in Terawattstunden (TWh) (Grafik: Autor, Daten [AGEB])

Wie man sieht, konnten die konventionellen Kraftwerke ihre Gesamtproduktion in den letzten 15 Jahren weitgehend halten. Erst mit dem massiv vorangetriebenen Ausbau der Wind- und Sonnenenergie sowie dem Abschalten zahlreicher Kernkraftwerke in den Jahren ab 2011 sank die Produktion ab 2014 auf etwas unter 500 TWh/ Jahr. Vergegenwärtigt man sich im Vergleich dazu die enormen Investitionen in „erneuerbare“ Energien, so kommt einem sofort der bekannte Spruch von dem kreißenden Berg in den Sinn, der am Ende lediglich eine Maus gebar.

Bei genauerem Hinsehen ersieht man aus Bild 3 sofort, wer bei den konventionellen Kraftwerken die Gewinner und wer die Verlierer sind. Die größten Rückgänge musste erwartungsgemäß die Kernenergie hinnehmen, deren Jahresproduktion seit dem Ende der 90er Jahre von 170 TWh um 44 % auf nur noch 91,5 TWh im Jahr 2015 zurückging. Weiterer großer Verlierer sind die Erdgaskraftwerke, denen man eigentlich eine große Zukunft als schnelle, flexible und zudem CO2-ärmere Reserveenergie für den Ausgleich von Schwankungen der Stromproduktion aus Wind- und Solarkraftwerken prophezeit hatte. Diese krasse Fehleinschätzung unterstreicht einmal mehr, wie wenig die Architekten der „Energiewende“ samt ihrer von den Medien gehätschelten Sprachrohre wie eine gewisse blondierte Professorin mit Kassenbrille von den tatsächlichen Grundlagen der Stromproduktion verstehen. Erdgas ist ein viel zu teurer Brennstoff, als dass er am Markt mithalten könnte. Auch gibt es viel zuwenig Erdgaskraftwerke, um das Netz im Falle des Falles stabil zu halten. Und ganz sicher findet sich nach den wiederholten Wort- und Rechtsbrüchen der Bunderegierung zurzeit wohl kaum noch ein Investor, der bereit wäre, sich auf Zusicherungen der deutschen Politik zu verlassen. Das wird sich vermutlich dann ändern, wenn Gabriel das von ihm heißersehnte TTIP-Abkommen mit den USA unter Dach und Fach bekommt. Dann werden US-amerikanische Heuschrecken über Deutschland herfallen und dafür sorgen, dass der Verbraucher eine neue Form der Mathematik erlernt: Statt den Preis einer Kugel Eis in Kilowattstunden auszudrücken, wird man dann in Kugeln Eis pro kWh rechnen.

Nahezu unverändert gehalten haben sich dagegen die Grundlast-Braunkohlekraftwerke, die nach wie vor mit ihren riesigen Turbinen das Netz trotz aller Störeinflüsse der Stotterstromproduzenten Wind und Sonne stabil halten. Selbst die häufig in der Mittellast eingesetzten Steinkohlekraftwerke mussten nur vergleichsweise geringe Einbußen hinnehmen.

und des Ausstoßes an CO2

Als nächstes interessiert nun die Frage, wie sich der ganze bisher getriebene Aufwand auf das aktuelle Hauptziel der Politik, die sogenannte „Klimarettung“, ausgewirkt hat. Schließlich hat ja die Regierung das Ziel vorgegeben, die CO2-Emissionen bis 2020 gegenüber 1990 um 40 % zu verringern. Weil das nicht klappt, wütet Bundesumweltministerin Hendricks zurzeit gegen die Braunkohle und beklagt, dass „unsere Klimaschutzfortschritte beim Ausbau der erneuerbaren Energien…..leider durch die anhaltend hohe Produktion von Kohlestrom zum Teil zunichtegemacht“ werden [HEND]. Schauen wir uns daher an, in welchem Umfang sich die „Energiewende“ auf den CO2-Ausstoß bei der Stromerzeugung ausgewirkt hat, Bild 4. Dazu wurden die mit verschiedenen Stromerzeugungsverfahren produzierten CO2-Mengen mithilfe der von Prof. H. Alt ermittelten spezifischen Kennzahlen [ALT] ausgerechnet.

Bild 4. CO2-Ausstoß der deutschen Kraftwerke in Mio. t CO2/ Jahr (Grafik: Autor, Daten [AGEB])

Wie man sofort erkennen kann, konnte trotz des ganzen bisher getriebenen Aufwands keinerlei Verringerung des CO2-Ausstoßes bei der deutschen Stromproduktion erreicht werden. Im Gegenteil, dieser ist seit 2000 sogar um knapp 10 % angestiegen. Damit wurden im Bereich der Stromproduktion die selbst gesteckten Ziele deutlich verfehlt.

Gefangen im ideologischen Treibsand…

Seitens der grünlinken Ideologen, die uns die „Energiewende“ eingebrockt haben, wird dagegen strahlenden Blickes auf den enormen Zuwachs im Bereich „erneuerbarer“ Energien verwiesen und behauptet, dass man ja bereits in diesem Jahr mit diesen umweltfreundlichen Verfahren der Stromerzeugung einen Anteil von 30 % an der Gesamtstromerzeugung erreicht habe. Dass diese 30 % geschummelt sind und es sich in Wirklichkeit nur um 22,2 % handelt, wurde weiter oben ja bereits aufgedeckt. Wobei man dazu sagen muss, dass 2015 vor allem im Bereich der Windenergie gleich zwei wichtige Faktoren eine Rolle spielten, die sich in den Folgejahren so nicht wiederholen dürften. Zum einen war 2015 ein außergewöhnlich gutes Windjahr mit Erträgen, die weit über dem bisherigen Durchschnitt liegen. Bei landgestützten WKA lag das Erzeugungsplus gegenüber 2014 bei satten 39 %, obwohl der Zubau an Anlagenkapazität bei lediglich 21 % lag. Hinzu kam, dass zahlreiche Offshore-Anlagen in Betrieb genommen wurden, wodurch die entsprechende Stromerzeugung gegenüber 2014 um volle 580 % nach oben schoss [AGEB].

Dennoch haben die Verfechter der Energiewende in Wirklichkeit ein im Prinzip unlösbares Problem: Der Zubau im Bereich Wind und Solarstrom wird in den nächsten Jahren bei weitem nicht ausreichen, um den Wegfall an CO2-arm erzeugtem Kernkraftstrom zu ersetzen, siehe Bild 5

Bild 5. Der Zubau im Bereich Wind und Solar wird bei weitem nicht ausreichen, um den Wegfall an Kernkraftstrom zu kompensieren. Selbst bei weiterhin konstantem Zubau wird die Menge an CO2-arm erzeugtem Strom ab 2017 bis 2022 immer weiter abnehmen (Grafik: Autor, Daten [AGEB])

Den Trendzahlen zufolge dürfte es nach Stilllegung des letzten Kernkraftwerks im Jahre 2022 vermutlich weitere neun Jahre – also bis 2031 – dauern, bis man das Niveau CO2-armer Stromerzeugung des Jahres 2006 auch nur wieder erreichen kann. Bis 2030 will die Bundesregierung allerdings bereits 6 Millionen E-Autos auf die Straßen bringen und bis 2050 den Verkehr sogar komplett auf E-Mobilität umstellen. Diese Fahrzeuge werden jedoch Strom aus dem öffentlichen Netz brauchen, und zwar in der Größenordnung von rund 3.000 kWh/ Fahrzeug und Jahr. In Summe kommt man bis 2050 auf einen zusätzlichen Strombedarf von mindestens 130 TWh. Bisher ist allerdings nicht ersichtlich, ob und wie dieser künftige Strombedarf in den derzeitigen „Energiewende“-Planungen überhaupt berücksichtigt wurde.  

wird die Elektrizitätsbranche zur Strecke gebracht

Während man sich ernsthaft fragen muss, wie die derzeitigen Planungen im Energiesektor mit den Erfordernissen einer modernen Industriegesellschaft noch in Einklang zu bringen sein könnten, trachten die in die Zange genommenen Stromerzeuger danach, ihre Kapazitäten im Bereich konventioneller Stromerzeugung immer massiver abzubauen, Bild 6.

Bild 6. Von den Stromerzeugern mit Stand vom 16.11.2015 zur Stilllegung angemeldete Kraftwerkseinheiten (Grafik: [STILL])

Wer jedoch glaubt, eine Entscheidung zur Stilllegung sei in unserer freien Marktwirtschaft etwas, das im Ermessen des betroffenen Unternehmens liege, der irrt. Während die Stromerzeuger bezüglich ihres Absatzes sowohl von den Mengen als auch von den Preisen her durch die privilegierten und subventionierten Betreiber von Wind- und Solaranlagen gnadenlos an die Wand gedrückt werden, kann der Staat ihnen andererseits vorschreiben, unrentabel gewordene Bestandsanlagen trotz aller Verluste weiter am Laufen zu halten. Geplante Stilllegungen müssen nämlich bei der Bundesnetzagentur angemeldet und von dieser genehmigt werden. Die Genehmigung kann verweigert werden, wenn das Kraftwerk als systemrelevant eingestuft wird. Den aktuellen Zahlen zufolge haben die deutschen Kraftwerksbetreiber per November Stilllegungsanträge mit einer Gesamtkapazität von rund 14.360 MW eingereicht. Davon wurden bisher lediglich 4.958 MW genehmigt und inzwischen auch tatsächlich stillgelegt, darunter das Kernkraftwerk Grafenrheinfeld. Von 9.185 zur endgültigen Stilllegung angemeldeten MW wurde bei 4.227 MW die Stilllegung abgelehnt wegen „Systemrelevanz“ abgelehnt, d.h. die Betreiber müssen diese Verlustbringer weiter am Laufen halten. Zum Vergleich: Im August 2014 waren rund 8.700 MW angemeldet, wovon lediglich 2.650 MW als systemrelevant eingestuft wurden. Das ist binnen etwas mehr als Jahresfrist eine Steigerung um gut 60 %!

Diese Zahlen belegen, wie dramatisch sich mit fortschreitender Stilllegung von Kernkraftwerken die Sicherheit der Stromversorgung verschlechtert hat. Während die Regierung in Richtung Medien vollmundig „Nieder mit dem CO2“ schreit, bleibt der zuständigen Behörde auf der anderen Seite nichts anderes übrig, als den verabscheuten „Dreckschleudern“ die Stilllegung zu verweigern. Das spricht Bände.

Auffallend ist beim Blick auf Bild 6, dass mit Gas- und Steinkohlekraftwerken vor allem diejenigen flexiblen Einheiten stillgelegt werden sollen, die für die Aufrechterhaltung der Versorgung bei schwankendem Aufkommen von Wind- und Solarstrom eigentlich besonders dringend benötigt würden. Rote Alarmlichter sollten insbesondere angesichts der Tatsache aufflackern, dass mittlerweile sogar ein Pumpspeicherkraftwerk zur Stilllegung ansteht. Dabei sind es doch gerade diese Einheiten, die bei günstigem Wetter Energie aus EE-Überproduktion aufnehmen sollen, um sie bei Mangel als Reserve wieder abzugeben. Deutschland versinkt offenkundig immer tiefer im Treibsand der eigenen „Klima“-Illusionen. Die Versorgungssicherheit ist auf Dauer gefährdet.

Massiver Flurschaden in Europa

Da Deutschland mit seinen europäischen Nachbarn durch ein gemeinsames Stromverbundnetz engstens verknüpft ist, bleibt die deutsche Energiepolitik nicht ohne Folgen für die Nachbarländer, denn dort müssen die immer massiveren Schwankungen der deutschen Stromerzeugung aufgefangen und ausgebügelt werden. Wenn Windbarone und Solarkönige bei entsprechender Wetterlage ihren subventionierten Strom in Deutschland nicht mehr loswerden, wird er zu jedem Preis ins Ausland „entsorgt“. Immer öfter kommt es dabei zu der grotesken Situation, dass man den Abnehmern dieser Überproduktion sogar noch Geld draufzahlt, Bild 7.

Bild 7. Am 6. September 2015 wurde zuviel produzierter deutscher „Öko“-Strom mit Geldgeschenken von bis zu 30 €/ MWh in die europäischen Märkte gedrückt (Grafik: Rolf Schuster) 

Für die Stromwirtschaft in den umliegenden Ländern hat dieses Dumping, das in seiner Rücksichtslosigkeit an die schlimmen Zeiten des „Nanjiing-Kolonialismus“ gemahnt, teils desaströse Konsequenzen. So verzichten Schweizer Wasserkraftwerke wegen mangelnder Wirtschaftlichkeit inzwischen immer häufiger auf die Realisierung entscheidungsreifer Ausbauprojekte. Bei immer mehr Verantwortlichen in den Nachbarländern schlägt daher das ursprünglich wohlwollende Interesse am deutschen „Öko“-Weg immer mehr in Entsetzen um [LIM2]. Länder wie Polen und Tschechien schützen ihre Netze inzwischen durch Sperrtransformatoren. In vielen Nachbarländern, die Kernreaktoren betreiben – darunter die Schweiz, Frankreich und Belgien –, geht man dazu über, ältere Kraftwerke durch Ertüchtigung weit über den ursprünglich vorgesehenen Stilllegungstermin weiter zu nutzen. Entsprechende Attacken aus Deutschland werden inzwischen nur noch mit kühlem Lächeln zur Kenntnis genommen.

Das schlimme an dieser Entwicklung ist die Tatsache, dass Deutschland damit auf einem weiteren entscheidenden Gebiet darangeht, Europa von innen heraus zu zerstören. Euro-Rettung, Flüchtlingskrise, eine auf Konfrontation basierende Ostpolitik – das bisherige Konsensprinzip wird immer häufiger durch „Koalitionen der Willigen“ bis hin zu einsamen Zweier-Entscheidungen unterlaufen. In den letzten Jahren hat die Merkel-Regierung – gestützt auf die derzeitige wirtschaftliche Macht Deutschlands – so das Land immer mehr vom Musterknaben zur Witz- und Hassfigur der europäischen Politik gemacht. Viele befürchten, dass es mehr als eine Generation brauchen wird, um all das zerschlagene Porzellan halbwegs wieder zu kitten.

Fred F. Mueller

Quellen

[ALT] Alt, H.: CO2 – Emissionen von Stromerzeugungsanlagen im Lebenszyklus D:FHHilfsb 75, CO2 Emissionen im Lebenszyklus.doc. Aachen.

[AGEB] http://www.ag-energiebilanzen.de/viewpage.php?idpage=139

[COMM] https://commons.wikimedia.org/wiki/File:EEG-Entwicklung.svg

[LIM1] Kapitel 23 aus Limburg, M.; Mueller, F. F.: Strom ist nicht gleich Strom, ISBN/EAN: 9783940431547

[LIM2] Kapitel 21 aus Limburg, M.; Mueller, F. F.: Strom ist nicht gleich Strom, ISBN/EAN: 9783940431547

[HEND] http://tinyurl.com/znslw74

[ROZS] Dr. Sándor Rózsa, Mihály Földi: Energiebilanzen der Landwirtschaft und der Ernährung. Sanfte Energie Hefte 5, Sanfte Energie Stiftung Budapest. Budapest, 2014.  

[STILL] http://tinyurl.com/nddurkc     Abgerufen am 30.12.2015