1

Klimapolitik grotesk: Deutsche Diesel fahren jetzt in Polen

Allein Rumänien hat über 30.000 unserer Dieselfahrzeuge importiert. 63 Prozent der in Tschechien angebotenen Import-Gebrauchten kommen aus Deutschland – 60 Prozent davon Diesel.

Die Dieselmaschinen der Hightech-Autos mit ihren hervorragenden Filtern und Verbrennungseigenschaften, die lediglich den unrealistischen Mittelalter-Grenzwerten hiesiger Ökogläubiger und Abmahn-Abzocker nicht genügen, halten jetzt die Luft in östlichen Städten rein.

Für die NOx– und CO2-Ängstlichen wahrscheinlich trotzdem kein Grund zum Jubeln, weil  z.B. Polen nur 50 Kilometer von Berlin entfernt ist und somit die Autofahrer in Slubice den Grün*innen in Prenzlauer Berg die Atemluft mit „toxischen“ Klimagasen verpesten können. Ein Spötter bei Facebook meinte deswegen, hoffentlich bleibe es nun windstill. Weit gefehlt: nullter Hauptsatz Thermodynamik; die „gefährlichen“ Ausdünstungen der verbannten deutschen Diesel diffundieren auch dann herüber.

Umwelt-Lobbyisten stört das konservative Kaufverhalten der Osteuropäer natürlich. „Süd- und Mittelosteuropa darf nicht zur Müllhalde alter, nicht mehr benötigter und dreckiger, die Luft verschmutzender Produkte werden“, sagte ein Aktivist aus Prag. Nur scheinen seine Landsleute nicht so recht an seine Worte zu glauben……




* Vortrag von Prof. Reto Knutti vom 29.01.2019 in Lenzburg, AG (Schweiz)*

Sehr geehrter Herr Limburg,

ich hatte die Gelegenheit am obigen Vortrag teilzunehmen und möchte Ihnen kurz meine Eindrücke schildern.
Obwohl mir der Vortragende aus unseren Medien und dem Internet bekannt ist, war für mich der, aus meiner Sicht unwissenschaftliche Stil der Präsentation, sehr befremdend. Ein wahres Feuerwerk von Schlagworten, eher geeignet für den Biertisch!

Hier kurz ein paar Beispiele:

– “ 1.5° bzw. 2° Ziel, 2/3 sind bereits weg…“
– Eisbohrkerne aus der Antarktis, Analyse zeigt CO2 und Methan über lange Zeit auf und ab und dann raketenartig nach oben….
– Zeigt Bilder vom schwindenden Rhone Gletscher und dann von 2 Eisbären, Frage an das Publikum: „Wem von Euch wäre es gleichgültig wenn diese Tiere verschwinden würden?“
– „Wir müssen auf 0 dekarbonisieren…“

In der Fragerunde habe ich ihm dann 2 Fragen gestellt:

1. Gletscher sind das Klimagedächtnis der letzten 12’000 Jahre. Temperatur Rekonstruktionen zeigen: es war 2/3 der Zeit wärmer
als heute und Temperaturänderungen erfolgten z.T. schneller als in den letzten 150 Jahren. Natürliche Variabilitäten haben wir auch heute noch.
Frage: */Welches ist der wissenschaftliche Beweis für den anthropogenen/**/Anteil?/*
Antwort: */Gletscher global nicht repräsentativ./*2. */Welche ist der numerische Basiswert für das 2° Ziel und wie wurde dieser Wert/**//*
*//* */wissenschaftlich ermittelt?/*
Antwort:*/verschwurbelt, wollte keine Zahl nennen/**  Fazit: eine Frage falsch und die andere nicht beantwortet!*Ich muss mich fragen, ob ich stolz sein soll ein Absolvent der ETH zu sein, einer Institution, die es offenbar zulässt, dass ein Professor mit einer politischen Agenda als apokalyptischer Scharfmacher dem Volk Angst einjagen darf.mit freundlichen Grüssen aus der Schweiz
NNNNNNNNN
XXXXXX
CH-XXXXXXX, Schweiz

und im Nachgang schrieb derselbe Leser
Ich erinnere mich soeben, was mal Prof. Reto Knutti in einer Vorlesung händeringend sagte (s.youtube) zu einer Zeit als der Hiatus offensichtlich war:

„…diese natürlichen Variabiltäten die wir nicht so richtig verstehen…“

 

Am Di. 12.3.09 bin ich beim lokalen Stadtwerk an einem Vortrag zum Thema „Energiewende – der Nutzen, die Kosten“ eingeladen.
Der ETH Dozent Anton Gunzinger, Buchautor von „Kraftwerk Schweiz“ wird referieren über:

„Kraftwerk Schweiz: Ist die Energiewende möglich und was würde sie kosten?“

Vor ca. 1 Jahr habe ich ihn an einer Forumsdiskussion gefragt, welche Errungenschaften der deutschen Energiewende in Anbetracht der Faktenlage
für uns als Orientierungshilfe dienen könnten. Er ist gar nicht auf die Frage eingegangen und hat nur verschwurbelte Allgemeinplätze von sich gegeben.Zu etwa der gleichen Zeit hielt Benoît Revaz, der damals neue Direktor des BFE (Bundesamt für Energie) an einem Treffen des Nuklearforums
einen Vortrag über die Energiewende 2050.
Ich habe ihm die genau gleiche Frage gestellt. Die Antwort war von der Substanz her ähnlich wie oben. Er sagte, dass /halt jedes Land für sich schauen soll/, und man staune: /“ … in Norditalien gibt es noch viele freie Kapazitäten…“ /
Nun, bei uns läuft die Wende seit einem Jahr und offiziell sind wir gut auf Kurs. Und gelernt von Euch hat sicher unsere damalige Bundesrätin Doris Leuthard.
Gelernt von  Jürgen Trittin wie man es dem Volk verkauft. Nur, die Kugel Eis wurde auf unsere Verhältnisse angepasst: Wenn ich mich richtig erinnere waren es 40 CHF!
In diesem Sinne
mit freundlichen Grüssen



Der Januar kennt keine Klimaer­wärmung: Der Hochwinter­monat wird seit über 30 Jahren wieder kälter

Der Januar 2019 zeigte sich in Mittel- und Süddeutschland als kalter Wintermonat. In den Alpen und im Vorland sogar mit reichlich Schnee, wobei die Mediensondermeldungen mit „Schneechaos“ mal wieder übertrieben waren. Es war halt ein Wintereinbruch mitten im Winter. Der DWD gibt den Monat mit 0,6°C für ganz Deutschland an, damit fast gleich wie der 30-jährige Schnitt von 1981–2010.

In weiten Teilen Süddeutschlands war der Januar jedoch kälter. (BaWü hatte – 0,3°C, Bayern gar – 0,9°C) und damit deutlich unter dem Vergleichsschnitt. Im Norddeutschen Tiefland fiel dieser Januar generell milder aus, z.B. Helgoland mit + 4,5°C gute 2 K über dem eigenen Stationsschnitt. Spätestens angesichts dieser Tatsache wird klar, dass die überall fast gleich hohe CO2-Konzentration von mehr als 405 ppm diese gravierenden Temperaturunterschiede nicht erklären kann.

Wir fragen uns natürlich, wo sich dieser Januar 2019 im langen Geschehen Deutschlands einreiht und wie sich der Monat über einen längeren Zeitraum entwickelt hat. Aus unseren Vorartikeln über die anderen Monate weiß der Leser bereits, dass die Temperatur Deutschlands im letzten Jahrhundert in Form einer sinusähnlichen Schwingung verläuft mit Wellenbergen und Wellentälern. Wir wählen als Betrachtungszeitraum die letzten 120 Jahre, weil in der zweiten Hälfte des 18. Jahrhunderts die Kleine Eiszeit erst zu Ende ging und sich das heutige Temperaturniveau in Mitteleuropa einstellte. Einzuwenden wäre natürlich, dass um 1900 ein ganz anderes Deutschland mit anderen Grenzen bestand und die Wetterstationen an ganz anderen Plätzen mit ganz anderen, nämlich viel kälteren Umgebungsbedingungen standen wie heute. Beim Monat Januar ergeben die vom Deutschen Wetterdienst aneinandergereihten jährlichen Durchschnitte so aus:

Grafik 1: Die letzten 122 Januarmonate zeigen das gewohnte Bild. Warme Jahrzehnte wechseln sich mit den kalten ab, wir haben zwei Wärmeberge und 1 Wellental. Extrem kalt waren die Januare 1940 und 1942, während sehr milde Januare außer in den 1970er bis 2000er Jahren auch in der ersten Hälfte des 20. Jahrhunderts gehäuft auftraten – ein eindeutiger, signifikanter Erwärmungstrend blieb über diesen langen Betrachtungszeitraum bislang aus.

Auch wenn die polynome Trendlinie den Anfang und das Ende überbetont, zeigt sie uns doch sehr gut den Verlauf. Das Wellental und damit die Kältedepression begann unmittelbar vor 1930 und endete abrupt 1974 und 75 mit zwei warmen Januarjahren hintereinander und der Ausbildung eines neuen Plateaus, auf dem wir uns derzeit befinden. Auffallend ist, dass es seitdem keine extrem kalten Januare mehr gibt wie zu Kriegszeiten. Heizen wir die kalten Nächte einfach raus aus unseren Städten?

Der ganze Betrachtungszeitraum befindet sich innerhalb der Industrialisierung mit einem CO2-Anstieg in der Atmosphäre. Angeblich soll dieser Anstieg zu einer Erwärmungskatastrophe führen, so die Glaubensüberzeugung der Angsttrompeter-Wissenschaftler. Aus der Grafik 1 erkennt jeder, dass der Januar keinesfalls diesem vereinten Orakel folgt.

Wir fragen uns nun: Wie entwickelt sich der Monat ab dem Temperatursprung 1974, als er das heutige Temperaturplateau in Deutschland erreicht hat. Wir nähern uns der Antwort mit der nächsten Grafik, gezeichnet nach den Originaldaten des Deutschen Wetterdienstes.

Grafik 2: 1974/75 erreichte der Januar mit einem Temperatursprung ein höheres Wärmeniveau, ein Plateau, das seitdem anhält. Drei Januare waren zu Beginn der Grafik nochmals besonders kalt, deshalb der leichte Anstieg der Trendlinie.

Man kann aber auch feststellen: Seit 1974 hat sich laut linearer Trendlinie der Januar nicht mehr signifikant erwärmt. Trotz intensiver Kohlendioxidzunahme in diesen viereinhalb Jahrzehnten hat das angebliche Treibhausgas CO2 in Deutschland keine Erwärmung mehr bewirkt. Eine Tatsache, die einmal mehr zeigt, dass dieses für das Leben auf der Erde notwendige und saubere Gas kaum oder nichts erwärmen kann. Auch misslingt jeder Nachweisversuch. Der Januar 2019 war zudem leicht unter der Trendlinie.

Der Mensch wirkt mit bei der Klimaveränderung durch Wärmeinseleffekte (WI). Klima verändert sich immer aus vielerlei Gründen. Von Interesse wäre der Temperaturverlauf ohne die wärmenden menschlichen Veränderungen bei den Stationen. In diesen mehr als vier Jahrzehnten hat sich Deutschland in die einst freie Fläche hinein erweitert, derzeit um 70 Hektar täglich und innerhalb der Städte und Gemeinden werden Baulücken weiter geschlossen, damit die Flächenerweiterung ins Umland –eigentlich eine Naturzerstörung – rein statistisch geringer ausfällt, was die Politik uns dann wieder als Naturschutz andrehen will. Im Winter wärmt zusätzlich die Abwärme der Industrie, der Haushalte und des Verkehrs, die Siedlungen und deren näheres Umfeld auf. Im Umland heizen „Biogas“-, Solar- und Windkraftanlagen ebenfalls. Insgesamt sind die WI- Effekte nach unseren bisherigen Untersuchungen im Winter aber etwas geringer als in den Frühjahrs- und Sommermonaten.

Kurzum, bei den Messstationen des DWD hat der Wärmeeintrag, bedingt durch die Bebauungsveränderungen zugenommen und die Thermometer der Stationen messen diese Zusatzwärme aus den sich vergrößernden Wärmeinseln mit. Natürlich gibt es auch Stationen mit geringen wärmenden Veränderungen. Eine solche wäre in Amtsberg-Dittersdorf südlich von Chemnitz, deren Temperaturverlauf wir in der Grafik 3 wiedergeben.

Grafik 3: Die Wetterstation in einem Vorort von Amtsberg, am Fuße des Erzgebirges zeigt seit 1974 keinerlei Januarerwärmung.

Ergebnis: Der Januar zeigt in Amtsberg am Fuße des Erzgebirges keinerlei Erwärmung und ganz außerhalb der Ansiedlung, also in der freien unbebauten Landschaft bestimmt auch nicht. Seit 1974 hält der Januar trotz CO2-Zunahme in Deutschland sein Niveau.

Selbst auf der Zugspitze wurde der Januar nicht wärmer, obwohl auf Deutschlands höchstem Berg die Bebauung und der Tourismus in diesem Zeitraum wesentlich zugenommen haben. Aber unabhängig davon auch der Kohlendioxidanteil in der Atmosphäre. Das Thermometer der Wetterstation lässt sich davon nicht beeinflussen.

Abb. 4: Die Wetterstation Zugspitze zeigt keinerlei Januarerwärmung, seit dieser Monat durch einen Temperatursprung auf das heutige Temperaturplateau gehoben wurde

Wohin geht der Januartrend?

Die letzten drei Jahrzehnte: Aus diesem Grunde betrachten wir nun die Temperaturentwicklung seit 1988 anhand der Originaldaten des Deutschen Wetterdienstes.

Grafik 5: Der Januar wird kälter in Deutschland. Bereits seit über 30 Jahren wird es trotz der 2 warmen Januarmonate der Jahre 2007 und 2008 laut DWD-Trendlinie sichtbar kälter. Allerdings ist dieser Trend in Richtung Abkühlung wegen der enormen Streuung der Einzelwerte (noch) nicht signifikant.

Ergebnis: Die Januartemperaturen des Deutschen Wetterdienstes zeigen in den letzten 30 Jahren eine leichte Abkühlung und das trotz weiter zunehmender CO2-Konzentrationen überall auf der Welt. Abkühlung ist das Gegenteil von Erwärmung. Ob der Abkühlungstrend sich fortsetzen wird? Wir wagen keine Prognose. Aber: Ein Wonnemonat Januar oder gar eine bevorstehende Erwärmungskatastrophe mitten im Winter ist überhaupt nicht in Sicht. Die Trendlinie lässt eher gegenteiliges vermuten. Das Klimamonitoring des DWD zusammen mit den zwei Umweltministerien Bayerns und Baden-Württembergs im Herbst 2016 war ein Treffen der Märchenerzähler, genauso wie das Falschorakel eines Mojib Latif, dass Deutschland keine Winter mehr erleben wird. Oft argumentiert die meist nicht naturwissenschaftlich ausgebildete Führungsriege des DWD gegen die eigenen Daten. Wie lange werden sich das die Fachleute in der 2.ten Reihe des DWD und all die Stationsleiter außerhalb der Städte noch gefallen lassen müssen? Wohl alle der weit über 2000 Wetterstationen in Deutschland dürften einen mehr oder weniger fallenden Trend seit 1988 haben. Als Beispiel wählen wir den Hohenpeißenberg aus.

Grafik 6: Ländliche Stationen zeigen deutlich einen kälter werdenden Januar seit 1988

In Stadtnähe wirkt sofort die Wärmeinsel Großstadt auf die Messstation.

Grafik 7: Die WI-ärmere Station Gießen erwärmte sich seit 45 Jahren im Januar kaum; Frankfurt/Main hingegen merklich. Die Qualität der DWD-Daten ist jedoch oft so mangelhaft (Stationsverlagerungen, Wechsel der Messverfahren), dass die Ergebnisse nur bedingt interpretiert werden können. WI-Effekte sind außerdem sehr verschieden; sie hängen stark von Großwetterlage, Besonnung und eventuellen Stau- oder Föhneffekten ab; tendenziell sind sie bei klarem, windschwachem Wetter am stärksten.

Ist vielleicht Deutschland eine Ausnahme oder gar ein Sonderfall? Wird nur bei uns der Januar kälter? Wir werfen einen Blick in die USA, zur Dale-Enterprise Weather Station in Virginia, der ältesten Wetterstation in diesem Bundesstaat. Die Station hat den Vorteil, dass sie noch ländlicher und noch einen Tick wärmeinselärmer ist als deutsche Stationen. Das Wetterhäuschen steht unverändert bei einer einsamen Farm.

Grafik 8: Ähnlich wie in Deutschland, kühlte sich das WI-belastete Washington D.C. kaum, das ländlichere Dale Enterprise, westlich der Bundeshauptstadt in den Ausläufern der Appalachen gelegen, stärker ab.

Virginia befindet sich in einer zwar auch gemäßigten, aber zu viel stärkeren Schwankungen neigenden Klimazone als Deutschland, zwar ist der Januar dort ähnlich kalt im Durchschnitt wie bei uns, aber die einzelnen Jahre entsprechen sich nicht. So war der Januar 2017 in Deutschland kalt und in Virginia eher warm. Umso erstaunlicher ist der gleichartig fallende Trendlinienverlauf über die jüngste Klimavergleichseinheit. Auch in Ostasien finden sich immer wieder Stationen ohne Januar-Erwärmung; abschließend zwei Beispiele aus Ostasien:

Grafik 9: Keinerlei Januar-Erwärmung im kältesten, dauerhaft normal besiedelten Ort der Welt, Oimjakon/Ostsibirien.

Grafik 10: Im ehemaligen Winter-Olympiaort Sapporo wurde der Januar minimal kälter.

Fazit: Gerade der Monat Januar zeigt, dass Kohlendioxid keine oder fast gar keine Wirkung auf den Temperaturverlauf haben kann. Sogar stark Wärmeinsel-geprägte Orte wie Frankfurt zeigen eine – wenn auch kleinere – Temperaturabnahme.

Die Kohlendioxidzunahme hat in den letzten 30 Jahren beim Januar keine Erwärmung bewirkt, für die leichte Abkühlung gibt es hingegen viele Gründe.

Die ständige Zunahme der Wärmeinseleffekte sind der einzige menschengemachte Temperaturtreiber. Eine Einwirkung mittels CO2 gibt es nicht, das zeigen alle wissenschaftlich sauber durchgeführten Versuche.




Kälte in den USA: Das muss wohl der Klimawandel sein, oder?

Wir berichteten unlängst darüber. Nun also ein Kaltluftausbruch aus der Arktis bis weit südlich hinunter in die USA, auch das ist Klimawandel. Hier zitiert ein TV- Sender unter vielen Medien aus einer Agenturmeldung von DPA. Professor Stefan Rahmstorf (SR) erklärt. Wer könnte es besser? Wir wollen prüfen, was dran ist. Zunächst schauen wir bei der NOAA, die es vielleicht am besten wissen sollte. Der Polarwirbel schwächelt im Winter oft, der Begriff „Vortex“ dafür wird in den USA schon seit 1853 gebraucht. SR behauptet nun: Das passiert immer öfter:

“ …dies sei nach einer Datenauswertung des PIK aber in den vergangenen Jahrzehnten um ein Mehrfaches häufiger geworden.“

Wir wollen das prüfen und stoßen auf eine Statistik von Roy Spencer und John Christy von der Universität Huntsville in Alabama:

Abb.1: Die Häufigkeit von „Vortex“-Ereignissen in den USA. Quelle.

 

Keine Zunahme, auch keine signifikante Abnahme, der lineare Trend in Abb. 1 ist eher Ausdruck einer Zufälligkeit. Wir finden keine Bestätigung für die „Datenauswertung des PIK“. Was „erklärt“ uns SR weiter?

“Mehrere Studien gehen davon aus, dass das mit der schwindenden Meereisdecke auf dem arktischen Ozean zu tun hat, insbesondere auf der Barents-Kara-See”

Jetzt wechselt SR nicht unbemerkt den Schauplatz: Was er meint, ist eine vermutete Erscheinung: eine wärmere Arktis mit weniger Eis  im Winter erzeugt kältere Temperaturen auf den nördlichen Kontinenten. Das war es aber im Januar 2019 mit Sicherheit nicht:

 

Abb. 2: Die Temperaturen in der Kernarktis nördlich 80°N zu Beginn des Jahres 2019 (rot) und das langjährige Mittel (grün). Völlig normal! Quelle.

 

Eine andere Auswertung für die gesamte Arktis im fraglichen Zeitraum stellt fest: Temperaturabweichung für 66-90°N: 0,0. Es zeigt sich: SR hat keine belastbare Klima-Erklärung für das Ereignis zwischen dem  20. und 29. Januar 2019. Was er uns anzubieten hat, sind umstrittene Studien, die eine Zirkulationsänderung durch eine wärmere, eisärmere Arktis erkennen, mit dem Ergebnis, dass es auf den Kontinenten im Winter tendenziell kühler wird. Es gibt Arbeiten die das vermuten und es gibt welche, die das zurückweisen, von SR natürlich nicht erwähnt. Keinesfalls taugt der Stand der Forschung  für die Zuweisung des aktuellen „Vortex“ in den USA oder sonstwo zum Klimawandel. Es kam schon immer vor, und es häuft sich auch nicht. Das ist Wetter. So reagiert denn auch ein Meteorologe recht harsch:

„Damit hat das PIK definitiv den Boden der wissenschaftlichen Community verlassen und versucht nur noch, auf einer Seite Kohle zu sammeln. Frei erfunden, dass es eine Häufung schwacher Polarwirbel gäbe. Das passiert schon immer fast jeden Winter.“  Quelle.

Jörg Kachelmann ist kräftig genervt von dem Blödsinn. Wir auch. Und wir fragen uns: Warum wird so viel unbewiesener und umstrittener Stoff zur Erklärung auch jedes aktuellen Ereignisses in die Welt gesetzt? Sind echte Argumente (es wird global wärmer mit einer Rate von ca. 0,125 °C/ Dekade seit 1950 (nach der Reihe von Cowtan&Way) zu schwach? Ist der Klimawandel etwas, wofür es eines hohen Werbe-Etats bedarf, um ihn zu verkaufen? Dann allerdings entpuppen sich diese PR-Aktionen als Rohrkrepierer: Jede zu oft laufende Werbung nervt den Konsumenten nur noch. Der Hintergrund ist nicht Wissenschaft, wie der Konsument glauben soll. Statdessen spielen wohl politische Ambitionen die Hauptrolle. Wahrhaft dünnes Eis!

Der Beitrag erschien zuerst bei die kalte Sonne hier




TESLA ON THE ROCKS Kälte in den USA lässt Tesla-Autos stillstehen

Kalt, kälter, am kältesten. Alles friert wie nie, auch die Batterie. Das merken viele Autofahrer, deren Wagen morgens nicht anspringen, wenn in der Kälte die Batterie schlapp gemacht hat.

Kälte wirkt allerdings auch negativ bei modernen Lithium-Ionen Akkus, die neben Smartphones unter anderem Elektroautos antreiben. Bei minus fünf Grad verfügt die Batterie nur noch über die Hälfte ihrer Kapazität, haben beispielsweise Tests der DEKRA ergeben. Bittere Folge für Elektrofahrzeuge: Die Reichweite bricht dramatisch ein.

Das führt gerade in den USA zu massiven Problemen. Die Eiseskälte, die ein arktischer Kaltlufteinfall mit sich brachte, legt hunderte Teslas lahm, berichtet die Lippische Landes-Zeitung lz.de und beruft sich dabei auf das Techportal Mashable.

Dort beschweren sich viele Tesla-Kunden, weil ihre Autos nicht sehr weit kommen. Das Tesla Modell X 100D soll in der Regel 290 Meilen bewältigen können. Jetzt bei dem arktischen Eislufteinfall schimpfen Fahrer, dass sie nur noch 120 Meilen weit kommen. Einige Fahrer berichten sogar, daß sie nicht in ihr Auto einsteigen können, weil die Türgriffe zugefroren seien und die Automatik nicht öffnen könne.

Bei tiefen Temperaturen laufen die chemischen Reaktionen beim Laden und Entladen der Batterie deutlich langsamer ab als bei höheren Temperaturen. Das ist Natur der Batterie, da läßt sich nicht viel dagegen tun. Die Tesla-Konstrukteure lassen zwar die Batterie im Stillstand immer ein wenig heizen. Das kostet allerdings wiederum Energie, die die Batterie liefern muß.

Deswegen entleert sie sich auch im Stillstand. Stellt man den Tesla mit knapper Ladung ab, erscheint der Warnhinweis »Bei kalter Witterung liefert die Batterie deutlich weniger Energie. Wir empfehlen, die Batterie jetzt zu laden.« Was, wenn keine Ladestation in der Nähe ist?

Tesla geht zwar rabiat vor, packt massiv Akkuzellen nach dem Motto »viel hilft viel« in seine Autos hinein und kann daher ein wenig mehr Reichweite als andere Elektroautos bieten. Manche Elektroautos bewältigen bei tiefen Temperaturen gar nur noch 60 bis 70 Kilometer.

Einigermaßen exakte Daten sind schwer zu bekommen. Tesla-Fans rechnen die Reichweite eher schön, Kritiker tendenziell runter. Es hängt von vielen Faktoren ab, wieviel ein Akku bei Kälte noch liefern kann: Wie neu ist er? Wie viele Ladezyklen hat er bereits hinter sich? Denn das Altern ist ein generelles Problem bei Akkus. Vor allem: Wie schnell fährt man? Denn bei einigermaßen schnellem Tempo steigt der Stromverbrauch der Elektromotoren dramatisch an.Ein BMW-i3 Fahrer mit 94 Ah Batterie kommt bei Temperaturen etwas unter Null gerade mal auf 130 Kilometer Reichweite. Ein Tesla Model S 85-Fahrer rechnet im Winter bei schlechten Bedingungen mit 320 km Reichweite – wenn der Wagen bereits in der Garage vorgeheizt wurde und während des Fahrens nur sehr wenig gewärmt wird.

Das ist auch im gelobten Land der Elektromobilität Norwegen so.

Der TÜV Süd erzählt, dass in Norwegen Elektromobiliät auch bei Minusgraden kein Problem sei. Dort sei sie erfreulich fortgeschritten. Das ist angesichts horrender Zuschüsse vom Staat und vieler Privilegien wie Vorfahrt für E-Autos auch kein Wunder. Der Strom kommt zum überwiegenden Teil aus Wasserkraftwerken, von denen es in Norwegen viele gibt.

Der Tesla wird nachts in der Garage am Ladekabel geladen und schön warm gehalten. Das reicht dann für die Fahrt ins nicht zu weit gelegene Büro.

Dennoch dient er meist nur als Zweitauto. Die gut verdienenden Norweger können sich das locker leisten. Für die längeren Strecken in dem langgestreckten Land nehmen sie ohnehin das Flugzeug und für längere Autofahrten ins Wochenendhaus den Diesel-SUV.

Der TÜV gibt schon einmal den nützlichen Tip, das E-Auto in der Garage zu parken. Das schone den Akku. Allerdings ist es kritisch, ein Elektroauto in einer öffentlichen Garage abzustellen. Brandschutzsachverständige schlagen die Hände über dem Kopf zusammen angesichts der hohen »Brandlast« eines Elektroautos. Wenn die Batterie losgeht, ist nicht mehr viel mit Löschen. Ein Benziner kann auch brennen, allerdings hat es hier die Feuerwehr leichter zu löschen.

Mit dem weiteren Ratschlag des TÜV, das Auto solle aufgewärmt werden, wenn es noch am Ladestrom hängt, können die vielen Laternenparker ebensowenig etwas anfangen.

Tesla-Eigentümer Elon Musk hatte immerhin angekündigt, in die Fortentwicklung zu investieren und die Kältetauglichkeit zu verbessern.

Es zeigt sich, daß es mit Vorsicht zu genießende Worte sind, wenn es heißt, Tesla, Google, Apple und die Computergiganten steigen groß in das Autobauergeschäft ein. Alte Autobauer – zieht euch warm an. Was soll denn schon so schwierig am Autobau sein? Ein wenig Blech, Kunststoff und einen Elektromotor zusammenzubauen, kann kein Problem sein. Der Rest ist Software. Theoretisch nicht, praktisch schon, wissen erfahrene Autobauer.

Allein der Elektromotor ist auf dem Stand des Verbrenners der fünfziger Jahre und benötigt noch viel Entwicklungsarbeiten im Detail, sagen Wissenschaftler der TU München. Allein wie die Elektrobleche gefertigt werden, läßt noch viel Luft nach oben. In ihnen werden die Magnetfelder erzeugt, die den Motor durch Anziehungs- und Abstoßungskräfte in Bewegung setzen. Diese Bleche werden aus großen Rollen gestanzt und anschließend zu kompakten Paketen verbunden. Großen Einfluß haben Schneidwerkzeuge; werden sie langsam stumpf, schneiden sie ähnlich wie eine stumpfe Schere beim Papier die Blechkanten nicht mehr sauber ab. Folge: Die magnetischen Eigenschaften der Bleche werden schlechter, der Wirkungsgrad des Motors sinkt um bis zu 30 Prozent.

Es zeigt sich, dass es auf die vielen Details ankommt. Nicht umsonst hat Tesla eine erfahrene deutsche Firma für Produktionsanlagen gekauft, das Maschinenbauunternehmen Grohmann Engineering aus Prüm in der Eifel.

Von einem früheren Mercedes- Entwicklungschef geht die Rede, dass er auf dem Testzentrum am Polarkreis im tiefsten Winter mit offenem Cabrio fuhr. Fror er dabei, war die Heizungsanlage nicht gut genug, die Konstrukteure mussten nachsitzen. Autos werden auf ihre Hitzetauglichkeit zum Beispiel im Death Valley im Hochsommer getestet, ob sie bei 50 Grad auch noch einwandfrei funktionieren.

Ob Tesla wirklich die Welt verändert, wie das Tesla-Chef Elon Musk immer wieder betont, muss sich erst noch zeigen. Für viele Autofahrer würde es schon reichen, wenn die Türgriffe ihres Elektroautos auch bei Kälte aufgingen und sie weiter fahren könnten.

Der Beitrag erschien zuerst bei TICHYS Einblick hier




Kernkraft gegen Sonne

Im Mai 2017 hat das Schweizer Volk mit der Zustimmung zum Energiegesetz im Prinzip ja gesagt zur sogenannten Energiestrategie 2050 (ES 2050), die einen Ersatz der Kernkraft primär durch Solar- und Windenergie vorsieht. Damals war heftig umstritten, wie teuer dieser Totalumbau werden würde. Die im Abstimmungsbüchlein offiziell dargestellten Kosten von 40 Franken pro Jahr und Haushalt kontrastierten stark mit unseren Berechnungen von 2014. Diese ergeben Investitionskosten von 100 Milliarden Franken. Noch greller war der Kontrast zu den 3200 Franken pro Jahr und Haushalt, die das Nein-Komitee als Kosten der Energiewende errechnet hatte. Weiss man heute mehr?

Natürlich sind solche Langzeitprognosen mit extremen Unsicherheiten verbunden. Die enorme Spannweite der Kostenschätzungen hätte jedoch dem Stimmvolk erklärt werden müssen. Alt Bundesrätin Leuthard betonte einfach immer wieder, die Kernkraft sei kostenmässig längst von Wind und Sonne verweht. Aus heutiger Sicht ist klar, dass der offizielle Betrag von 40 Franken pro Jahr und Haushalt nicht eine statistische Fehlleistung (wie bei der Heiratsstrafe) war, sondern eine bewusste Fehlleitung der Bevölkerung.

Wir legen hier die Grundzüge einer vernünftigen Kostenschätzung dar und beschränken uns dabei auf den Vergleich der Kernkraft mit der Solarenergie und einem geringen Anteil Windkraft (11 Prozent), welche wegen des riesigen Platzbedarfs, der schwachen Winde und des Landschaftsschutzes in der Schweiz eine Nische bleiben wird. Bis 2035 werden Geothermie sowie Biomasse und Wasser kein oder kaum zusätzliches Potenzial haben. Die folgenden Investitionsvergleiche stützen sich auf praxisbewährte Fakten und nicht auf Modellsimulationen. Die Datenbasis kann auf unserer Homepage abgerufen werden (www.c-c-netzwerk.ch).

Weniger für mehr

Direkte Kostenvergleiche zwischen verschiedenen Technologien zur Stromproduktion sind nur zulässig für die plan- und steuerbare Grundlast-Stromproduktion rund um die Uhr. Dazu eignen sich Energieträger wie Erdgas, Erdöl, Kohle, Kernkraft und Geothermie – aber nicht Solarenergie. Die reinen Produktionskosten (sog. levelized costs) sind für den Solarbereich nicht massgebend, weil dieser weitestgehend durch eine variable und nicht steuerbare Produktion geprägt ist, die pro eingesetzten Franken einen viel geringeren Wert für das Versorgungssystem aufweist. Anders gesagt: Solarenergie ist völlig instabil, wetterabhängig und erst noch «leistungsdünn». Aus gesamtwirtschaftlicher Perspektive sind Anlagen mit derart unsteter Produktion – bekannt auch als Flatterstrom – viel weniger wert als etwa gleich teure Investitionen, die eine konstante Grundlastenergie erbringen. Für die Verbraucher im Stromnetz heisst das: Entweder müssen sie mit Stromausfällen leben, oder eine einigermassen sichere Versorgung kostet viel mehr als vorher.

Die Lücke zwischen dem Marktwert von Solaranlagen und jenem von verlässlichen Energiequellen ist krass und wird zudem umso grösser, je höher der Anteil der unzuverlässigen Flatterkapazitäten im System ist – da können die Solarzellen noch so billig werden. Weil die Leistungsdichte der Sonne (bei uns rund 10 Watt pro Quadratmeter, über das Jahr gemittelt) nicht erhöht werden kann, braucht es eine steigende Unterstützung aus flexiblen und steuerbaren Ersatzkraftwerken oder aus Speicherkapazitäten. In Deutschland sind die Subventionszahlungen deutlich höher als die Markterlöse aus Solar- und Windstrom. Übers Jahr gerechnet, erreicht diese Differenz inzwischen über 25 Milliarden Euro, Tendenz steigend. Dabei sind die deutschen Konsumentenpreise für Strom schon heute doppelt so hoch wie im kernkraftgeprägten Frankreich und dreimal höher als in den auf fossile Energieträger ausgerichteten USA.

Was heisst das für die Schweiz? Entweder verdoppeln wir wie die Deutschen die Produktionskapazitäten mit «fossilen» Kraftwerken, um trotz Dunkelflauten dennoch eine stabile Produktion zu garantieren – oder wir setzen voll auf Solarenergie und ersetzen die Jahresproduktion der Kernkraftwerke durch eine etwa zwölfmal grössere Solarleistung und speichern die Überschüsse. Denn das wäre nötig, um trotz Flatterhaftigkeit eine gewisse Verlässlichkeit zu erreichen. Wir nehmen Frau Leuthard beim Wort und legen die Voll-Solar-Lösung unseren Schätzungen zugrunde.

Dieses Szenario lässt sich so zusammenfassen: Ausgehend vom erwarteten landesweiten Stromverbrauch für 2035, schätzen wir die Nuklearproduktion, die zu ersetzen ist, auf 20 550 GWh pro Jahr (nur noch das KKW Leibstadt wird aktiv sein). Aus konventioneller Sicht könnte ein thermischer Kraftwerkspark (Betrieb mit Kohle, Öl, Gas oder Nuklearenergie) mit 2600 MW nomineller Leistung diese Lücke füllen. Aber die Energiestrategie 2050 verbietet Kernkraftwerke, und die CO2-Emissionsziele schliessen fossile Energie aus. Ohne den Ersatz aus thermischen Kraftwerken müssten deshalb die Solaranlagen bis 2035 pro Jahr 18 350 GWh und Windräder 2200 GWh ins Netz pumpen, um den Kernkraftausfall zu kompensieren.

Und was kostet das? Die Investitionskosten würden sich auf 93,8 Milliarden Franken für Sonnen- und Windanlagen summieren – gigantisch im Vergleich mit der Summe für neue Kernkraftwerke der modernen dritten und vierten Generation, die auf 18,7 Milliarden Franken zu stehen kämen, oder für Gaskraftwerke, die für 2,6 Milliarden Franken zu haben wären.

Woher kommen diese gewaltigen Unterschiede? Der Hauptgrund dafür sind die sogenannten Lastfaktoren. Bei Solaranlagen beträgt die in der Praxis tatsächlich produzierte Energie nur etwa 10 Prozent der gemäss Nominalleistung möglichen Jahresproduktion, thermische Anlagen dagegen kommen auf 90 Prozent – das Neunfache von Solar. Bei Windanlagen sind es auch lediglich 19 Prozent. Verlustleistungen für die Speicherung bei Solar- und Windanlagen sowie der Wirkungsgradabfall über die Betriebszeit der Solarpanels sind da mit eingerechnet.

Zwingend damit verbunden ist auch die Notwendigkeit der Speicherung der kurzzeitigen Produktionsüberschüsse zur Überbrückung von Dunkel- und Windflauten und vor allem auch für den saisonalen Ausgleich. In die genannten 93,8 Milliarden Franken sind diese Zusatzkosten für die solar- und windbedingten Pumpspeicheranlagen verursachergerecht als kostengünstigste Lösung mit einbezogen. Die bestehenden Pumpspeicheranlagen sind allerdings für die neue Betriebsart der Solarspeicherung ungeeignet und etwa achtmal zu klein.

Der Ausgleich über den Jahresverlauf ist deshalb entscheidend, weil zwei Drittel des Solarstroms im Sommerhalbjahr anfallen, der Stromkonsum im Winterhalbjahr aber 55 bis 60 Prozent des ganzen Jahresverbrauchs ausmacht, so dass schon heute steigende Importquoten im Winter die Versorgung sichern müssen. Ob aber auch 2035 mit Importen in noch grösserem Umfang gerechnet werden darf, ist mehr als fraglich, weil Deutschland den Kern- und eventuell sogar den Kohlekraftausstieg zu bewältigen hat und die Produktionsprognosen für Frankreich und Österreich ebenfalls auf eine Verknappung hindeuten. In Italien hat die Stromknappheit Tradition. Ein Stromabkommen Schweiz–EU hilft da wenig bis nichts.

Für Speicherung von Energie via Pumpspeicher-Stauseen rechnen wir mit einem Wirkungsgrad von 78 Prozent und für die alternative Speichermethode Power-to-Gas-to-Power (P2G2P) mit lediglich 25 Prozent, also einem massiven Verlust. Das heisst: Wenn wir statt der Pumpspeicherung im Sommer die Stabilisierung mit der Methode P2G2P wählen, also aus Strom Gas erzeugen und dieses im Winter wieder in Strom umwandeln, steigen die Investitionskosten für das Konzept «Solar und Wind» von 93 Milliarden auf 130 Milliarden Franken, und zwar ohne spezielle Investitionen in Gasspeicherung oder Ähnliches einzukalkulieren. Zur Erinnerung: Würden wir die erforderlichen Solarinvestitionen durch erdgasbetriebene Kombikraftwerk-Anlagen ersetzen, würden sich die Kosten auf 2,6 Milliarden Franken reduzieren.

Kernkraftwerke der vierten Generation

Das Fazit lautet somit: Solar- und Windkraftkapazitäten als Ersatz der Kernkraft würden rund fünfmal höhere Investitionskosten verursachen als neue Nuklearanlagen – die gegenüber Solaranlagen übrigens nur einen Siebtel an anrechenbarem CO2-Ausstoss brächten. Energie aus Erdgas käme nur auf etwa einen Dreissigstel der Solar-Lösung zu stehen, allerdings mit schwierig abschätzbaren Kosten für den CO2-Ausstoss.

Wie sind nun die vom Bund in die Welt gesetzten 40 Franken pro Haushalt und Jahr für die Energiewende zu beurteilen? Dieser Betrag wäre etwa am Platz, wenn Erdgasenergie als Kernkraftersatz eingerichtet würde. Etwas mehr, also über 200 Franken pro Haushalt, würde die Kernkraft kosten und rund 1600 Franken die Lösung mit Solar- und Windenergie mit der billigsten Speichervariante. Nach der Abschaltung von Leibstadt, aber mit zusätzlichen Netzausbaukosten sind 2000 Franken pro Jahr unsere vorsichtige Schätzung für eine durchschnittliche Familie. Das ist etwa fünfzigmal mehr, als der Bund vor der Abstimmung im Mai 2017 dem Stimmvolk vorgegaukelt hat. Dabei haben wir die Immobilienkosten, den Landverschleiss sowie andere Belastungen aus negativen Nebenwirkungen noch gar nicht berücksichtigt, weil diese schwierig abschätzbar sind.

Warum sind Investitionen in neue Nuklearanlagen kein Thema und im deutschsprachigen Europa (noch) nicht durchsetzbar? Der Grund liegt nicht in der Rentabilität, sondern im politischen Umfeld mit den schier unüberwindbaren Bürokratiehürden und den milliardenschweren Subventionen für Solar- und Windanlagen. Zudem wehrte sich unsere staatsnahe Strombranche bisher zu wenig.

Im heutigen Öko-Mainstream wäre auch das Wasserwerk auf der Grimsel chancenlos geblieben. Aber anderswo ist anderes möglich. In China wie auch in Russland sind kürzlich die ersten Kernkraftwerke der vierten Generation ans Netz gegangen. In den nächsten Jahren werden besonders in China weitere folgen, ebenso in den Golfstaaten. Im Gegensatz zu den wegen verlorengegangener Projekterfahrung und ständiger Regeländerungen pannenbelasteten Einzelprojekten in Europa wird sich die Bauzeit von chinesischen Werken deutlich verkürzen. Die Kosten werden entsprechend sinken.

Sobald diese Reaktortypen konstruktiv und auch bautechnisch standardisiert sind, werden unsere Kostenschätzungen rasch sehr viel realistischer als der ES-2050-Zauber dastehen. Und unsere Enkel werden sich die Augen reiben über die solare Verblendung und politische Naivität der sogenannten Energiewende.

============================================================
Emanuel Höheren, Dipl. Ingenieur ETH, und Silvio Borner, emeritierter Ökonomieprofessor der Universität Basel, sind im Vorstand des Carnot-Cournot-Netzwerks, einer Plattform für politische und wirtschaftliche Fragen.

============================================================

)**  Anmerkung der EIKE-Redaktion: Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich : Kernkraft gegen Sonne | Die Weltwoche, Nr. 3 (2019) | 17. Januar 2019,  http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und den Autoren Emanuel Höhener und Silvio Borner für die Gestattung der ungekürzten Übernahme des Beitrages.

============================================================




Neues dunkles Zeitalter: Debakel mit Erneuerbaren lähmt die Wirtschaft und bestraft die Haushalte

Ein paar warme Tage in der letzten Woche – gepaart mit dramatischen Einbrüchen bei Wind – und Sonnenenergie (der erste war vom Wetter abhängig, der zweite vom Sonnenuntergang) – erlebten Dutzende energiebedürftige Unternehmen, denen zusammen mit 200.000 viktorianischen und 30.000 südaustralischen Haushalten ohne Vorwarnung der Strom abgeschaltet wurde.

Nicht nur die Sommertemperaturen stiegen – sondern auch die Wut des Proletariats, nicht zuletzt deshalb, weil sie von den Verantwortlichen des Chaos für dumm gehalten wurden.

Lily D’Ambrosio (Ministerin für Energie, Umwelt und Klimawandel) leitet Victorias Klimakult und die Abteilung für die Zerstörung zuverlässiger und erschwinglicher Energie.

Am Freitag, dem 25. Januar, versicherte Lily – offenbar im festen Glauben, dem Wetter befehlen zu können – dass es an diesem Tag keine Stromausfälle geben würde.

Quelle: https://www.flagsaustralia.com.au/StateFlags.html

Übersicht der australischen Bundesstaaten

 

An einem Tag, an dem das Quecksilber auf 45 ° C anstieg, waren mehr als 200.000 Haushalte ohne Klimaanlagen und es waren Dutzende von großen Energieverbrauchern gezwungen, ihren Betrieb einzustellen – allesamt Opfer der Energierationierung – al‘a „Nachfragemanagement“.

Quelle AEMO Australian Energy Market Operator

Es folgte die übliche Mischung aus Anschuldigungen und Bestrafung der Unschuldigen. Solche Irren wie Mrs. Lily D’Ambrosio teilten ihre Zeit auf, um entweder die Kohlekraft oder sich gegenseitig zu beschuldigen.

Was das erstere betrifft, so verringerte sich die verfügbare Kohlekapazität im östlichen Netz um 7% . im Vergleich zu einer 80% igen Reduktion der 1.740 MW angeschlossenen Nennleistung der Windkraft in Victoria – um weitere 20-25% Reduzierung dieser Kapazität, als die Viktorianer sie zwischen 12.00 und 15.00 Uhr am meisten benötigten. Aber kein Pips von Lily & Co über diesen dramatischen Zusammenbruch. Anscheinend sind es nur bestimmte Arten von Fehlern, die eine Erwähnung wert sind.

Quelle AEMO Australian Energy Market Operator

Die Strompreise stiegen in schwindelnde Höhen, als die Eigentümer von Peaking-Plant (open cycle gas turbines und Dieselgeneratoren) aus dem Erneuerbaren-Chaos Einnahmen machten und mehr als 14.000 USD pro MWh für etwas kassierten, das von Kohlekraftwerken rund um die Uhr gewinnbringend mit 50 $ geliefert werden könnte.

Und wenn Sie glauben, dass damit die untere Grenze der Kalamitäten für die Australier erreicht wäre, so denken Sie noch einmal darüber nach.

Bill Shorten, Oppositionsführer der Labor Partei ist der Favorit der Buchmacher, um die Bundesregierung im Mai zu übernehmen. Und wenn er das schafft, wird das, was letzte Woche in Victoria und Südaustralien vorgekommen ist, in ganz Australien zur Normalität.

Shortens drohende Labor-Grüne Koalition verfolgt ein Ziel von 50% für erneuerbare Energien – das gleiche Maß an RE-Target -Wahnsinn wie in Südaustralien und Victoria.

Mit dem Versprechen von Labor und den Grünen, Kohlekraftwerke zu zerschlagen – so wie Jay Weatherill & Co das letzte Kohlekraftwerk in Südafrika zerstört hat – können sich die Australier auf weitere Sommer in Hitze und im Dunkeln freuen.

Damit, so Nick Cater vom The Austrailan, sind die Australier auf dem Weg zu einem neuen Leben im dunklen Mittelalter.

 

Die Verlockung des dunklen Mittelalters mit Grün-Linker Energiepolitik

The Australian, Nick Cater, 28 January 2019

Es kann eine Krise brauchen, um den wahren Charakter zu zeigen. Der Führer des australischen Grünen, Richard Di Natale, forderte die Viktorianer auf, sich angesichts der Bedrohungen der Versorgung auf die reduzierte Nutzung elektrischer Haushaltsgeräte einzustellen, zeigt, dass er die Schwere der Energiekrise erkennt und bereit ist, sich den Kosten zu stellen.

„Können Sie sich die Opfer vorstellen, die die Menschen in Kriegszeiten gebracht haben?“, fragte er letzte Woche die Zuschauer von Sky News. „Und wir sind nicht bereit, ein kleines Opfer zu bringen, wie zwei Stunden am Tag mal keine Spülmaschine zu benutzen. Bitte! Verschonen Sie mich damit!“

Die Hervorhebung des Geistes zu Zeiten Churchills war nicht völlig unangemessen. Damals im Ersten Weltkrieg befahl Winston den wahrscheinlich ersten durch die Regierung angeordneten Blackout, um die deutsche Marine davon abzuhalten, die englische Südküste zu beschießen.

Der heutige Feind ist nicht der Kaiser, sondern das Wetter. Die viktorianische Ministerin für Energie, Umwelt und Klimawandel Lily D’Ambrosio warnte am vergangenen Donnerstagmorgen, der Bundesstaat sei von einem „außergewöhnlichen Hitzeereignis“ getroffen worden, was das Energiesystem „unter extremen Druck und Stress“ setzte.

Sie ermutigte die Viktorianer, die Nutzung von Waschmaschinen und Spülmaschinen nach Möglichkeit zu verschieben und gesunde Menschen sollten erwägen, ihre Klimaanlage auf 24 ° C [anstatt tiefer] einzustellen.

Stinkende heiße Tage, wie früher mal Hitzeereignisse genannt wurden, verursachten kaum eine Welle im Energiesystem des Bundesstaates, bis das Kraftwerk Hazelwood im März 2017 vorzeitig abgeschaltet wurde. D’Ambrosio, so erinnern sich die Leser, war eine der lautesten Stimmen der Kampagne „Schalten Sie Hazelwood ab“ und beschrieb die Versuche der damaligen liberalen Regierung es zu retten, als „schändlich“.

„Unser Staat muss nach Möglichkeiten suchen, um unsere Abhängigkeit von Braunkohle zu verringern und neue Wege zu finden, um Energie zu erzeugen“, trug sie vor.

Victoria hat in der Tat neue Wege gefunden, um Energie zu erzeugen, aber keiner davon man kann in einer Krise trauen. Der Kapazitätsausfall der letzten Woche war kaum unvorhersehbar. Tatsächlich hat der australische Energiemarktbetreiber die Abfolge der Ereignisse vom Donnerstag in einem Bericht von der Mitte des vergangenen Jahres mit bemerkenswerter Schärfe vorweggenommen.

Die AEMO-Prognose hatte die Chancen auf eins-zu-drei geschätzt, dass in Victoria während der Sommermonate der Strom ausgeht, für Südaustralien stehen die Chancen auf eins-zu-fünf.

Ein Lastabwurf, eine freundliche Umschreibung für Stromausfälle, würde auftreten, wenn die Temperaturen gegen Ende des Tages auf über 40 ° C ansteigen, während die Unternehmensnachfrage noch relativ hoch ist, die Nachfrage nach Kühlung der Wohnungen ansteigt und die Solarmodule auf dem Dach einschlafen. Die langfristigen Prognosen des AEMO zeigen, dass die Zuverlässigkeitslücke, die Differenz zwischen verfügbarer Kapazität und Nachfrage zu Spitzenzeiten, im nächsten Jahrzehnt stark ansteigen wird, wenn nicht mehr Kraftwerke gebaut werden.

Die Versorgungslücke wurde zuerst in Südaustralien offenbar, als das letzte Kohlekraftwerk des Bundesstaates in Port Augusta im Mai 2016 abgeschaltet wurde. Die Lücke in Victoria wurde mit der vorzeitigen Schließung von Hazelwood 10 Monate später aufgerissen, als 1600 Megawatt Stromerzeugung vom Netz genommen wurden

AEMO erwartet in den nächsten beiden Sommern eine kleine Erholungsphase, bevor sich die Zuverlässigkeitslücke mit dem Abschalten der AGL-Gasturbinen in Torrens Island A in SA wieder vergrößert.

Dies ist jedoch nur ein Vorgeschmack auf den Alptraum des Energiemarktes, der beginnen wird, wenn das Liddell-Kraftwerk von AGL in NSW mit der Kapazität von 1800 MW im Jahr 2022 vom Netz genommen wird.

In vier Jahren wird NSW nach Einschätzung von AEMO unser am stärksten von Energiemangel betroffener Staat sein. Die 380-MW-Ausfälle werden in diesem Jahr so groß sein wie die Ausfälle in SA und Victoria. Bis 2024-25 wird das auf 885 MW steigen und seine südlichen Nachbarn überholen.

In den Jahren 2027-28 werden in NSW 1220 MW fehlen. Die Gesamtdefizite auf dem nationalen Energiemarkt werden mit 2200 MW sechsmal so groß sein wie heute.

Dieser Mangel an Kapazität ist nicht auf fehlende Investitionen zurückzuführen. Mindestens 15 Milliarden US-Dollar wurden für erneuerbare Energieprojekte bereitgestellt, die noch gebaut werden müssen.

Allerdings wird der Kapazitätsausfall durch Wind und Sonne nicht verringert, da denen an schlechtem Tag niemandem vertrauen kann.

Was benötigt wird, ist der Anreiz, in Energieerzeugung zu investieren, die rund um die Uhr abrufbar ist. Angesichts des derzeitigen Standes der Technik, des Moratoriums für [nicht] Uran und des wasser- und klimawandelbedingten Klimas und der Topografie Australiens, kann die erschwingliche und verlässliche Energie, die benötigt wird, nur aus Kohle oder Gas kommen, möglicherweise ergänzt durch gepumpte Wasserkraft oder Batterien.

Ob rechtzeitig genug stabile Energieerzeugung aufgebaut werden kann, um den sich nähernden Energiemangel abzuwenden, hängt im Wesentlichen vom Wahlergebnis ab.

Die Investitionsanreize der Koalition für eine zuverlässige Stromerzeugung haben die von Labor mit Mangel an klarem Verstand eingeführten politischen Einstellungen rückgängig gemacht, welche erneuerbare Energien begünstigten.

Die Anzahl der bereits eingegangenen Interessenbekundungen, sowie die Zielsetzungen und der Umfang der vorgeschlagenen Investitionen, dürften die Herzen derjenigen brechen, die darauf bestehen, dass Kohle keine Zukunft haben wird.

Die Anreize der Koalition werden sicherlich von einer kommenden Shorten-Regierung abgeschafft, die sich dazu verpflichtet hat, die Anreize für Investitionen in erneuerbare Energien weiter zu erhöhen und die Investitionen in zuverlässige Energie zu reduzieren. Labor hat sich politisch im Jahr 2005 an eine unmögliche Reduzierung der Emissionen um 45 Prozent bis 2030 gebunden, Zielsetzung sind 50% für erneuerbare Energien.

Es ist noch nicht bekannt, wie viele unserer verbleibenden 18 Kohlekraftwerke abgeschaltet werden oder wie die wachsende Zuverlässigkeitslücke geschlossen werden soll.

Auch man uns nicht gesagt, wie die Ziele von Labor die Wirtschaft dämpfen oder wie viele Arbeitsplätze verloren gehen. Bill Shorten und sein Sprecher für Klimawandel und Energie, Mark Butler, möchten, dass wir glauben, dass ihre Phantasien für erneuerbare Energien kostenlos sind. Sie haben noch nicht den Mut gefunden, zu erklären, wie hoch die Strompreise steigen werden oder wie viele Unternehmen an die Wand gefahren werden.

Di Natale, der Führer der Grünen, ist zumindest bereit zuzugeben, dass die Ökologisierung des Netzes Kosten verursacht. Er verbirgt sich nicht vor der moralischen Verpflichtung, dass diejenigen, die eine solche Politik unterstützen, bereit sein müssen, die Folgen zu tragen.

Im Krieg gegen die schlechte Energiepolitik haben wir Dünkirchen noch nicht erreicht. Es ist nicht einmal der Anfang vom Ende. Aber wenn weise Köpfe die Oberhand haben, ist es das Ende des Anfangs.

Nick Cater ist Geschäftsführer des Menzies Research Center .
The Australian

Gefunden auf stopthesethings vom 29.01.2019

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2019/01/29/new-dark-age-renewable-energy-debacle-crippling-business-punishing-households/

***

Australiens Befürworter Erneuerbarer Energien, haben ihre Ziel hier zusammengestellt:

Zielsetzungen der Bundesstaaten (Territories) und Hauptstädte,  von 100% EE bis hin zu Null-CO2 reicht die Bandbreite.

Kann man auch ohne Übersetzung gut erkennen, was gemeint ist. – Vorsicht, hoher Übelkeitsfaktor!

http://100percentrenewables.com.au/australian-states-territories-local-governments-leading-way-renewables-climate-commitments/

 




Broders Spiegel: Kohle und Klimaleugner

Da herrscht in der deutschen Politik eine große Glaubensfestigkeit. Nur die sogenannten Klimaleugner, also Menschen, die nicht glauben, dass sich der seit Urzeiten vollziehende Klimawandel durch einen deutschen Kohleausstieg nennenswert beeindrucken ließe, stören diese Glaubensgemeinschaft. Um deren destruktiven Geist hinreichend zu beschreiben, gibt es kaum die richtigen Worte. Oder vielleicht doch?

mit freundlicher Genehmigung von HM Broder/ Achgut.Pogo




Elektromobilität „Erfolg“ nur durch staatliche Marktverzerrung

Vor etwas über einem Jahr hatte ich das Thema Elektromobilität ausführlich kritisch unter die Lupe genommen;[i]Seitdem hat sich, zumindest was die öffentliche Darstellung angeht, wenig geändert. Der Hype um die vermeintliche Zukunftstechnologie wird weiterhin am Köcheln gehalten, parallel mit dem sogenannten Diesel-“Skandal”.

Weiterhin katzbuckeln die Automobil-Manager brav vor der Politik und bekunden untertänigst ihren Willen zur Vernichtung der ihnen anvertrauten Unternehmen. So verkündete VW, man werde bis 2026 jegliche Neuentwicklungen von Autos mit Verbrennungsmotoren einstellen.[ii]Es ist natürlich schwer zu sagen, inwiefern solche Verlautbarungen wirklich ernst gemeint sind und inwiefern sie lediglich politisch korrekte Lippenbekenntnisse an die obrigkeitlichen Vorgaben sind. Aber alle Anzeichen deuten darauf hin, dass diese selbstmörderische Strategie tatsächlich durchgezogen wird – so sind laut VW-Entwicklungsvorstand Frank Welsch etwa 40 Prozent der Konzernentwicklungskapazität allein damit ausgelastet, eine neue Architektur speziell für Elektrofahrzeuge zu entwerfen.[iii]Man kann sich vorstellen, was das für Auswirkungen auf die Entwicklung neuer Verbrennermodelle haben wird.

Die Bezeichnung “selbstmörderisch” ist keineswegs übertrieben, denn an den massiven Nachteilen, welche Elektroautos im Vergleich mit solchen mit Verbrennungsmotoren aufweisen, hat sich nichts geändert. Die Reichweite ist selbst bei Verwendung einer 100 Kilowattstunden Riesenbatterie mit mehr als einer halben Tonne Gewicht jedem normalen Auto klar unterlegen. Daran wird sich in absehbarer Zeit nichts ändern, denn die Lithium-Ionentechnik ist bereits seit einem Jahrzehnt leistungsmäßig weitgehend ausgereizt. So ist etwa die im Model 3, dem neuesten Modell des Elektro-Vorzeigeherstellers Tesla verwendete Batteriechemie immer noch weitgehend dieselbe wie in den beiden Vorgängermodellen, welche von Panasonic und Sumitomo bereits 2006 eingeführt wurde.[iv]Der Unterschied besteht lediglich darin, dass man den Gehalt an teurem Kobalt um 2 Prozent reduzierte, für eine Kostenersparnis von etwa 2 Dollar pro Kilowattstunde. Die Leistung wurde nicht verbessert, wie man an der Tatsache sieht, dass sich das Leistungsgewicht der Gesamtbatterie im Vergleich zum Vorgängermodell von 170 auf 150 Wattstunden pro Kilogramm verschlechterte.[v]

Auch an den langen Ladezeiten wird sich nicht viel ändern, ungeachtet solcher angekündigter neuer Monster-Ladetechnologien wie die von Porsche, welche mit 800 Volt und 350 Kilowatt auch größere Batterien innerhalb einer Viertelstunde auf 80 Prozent laden soll.[vi]Denn hohe Ladeströme schädigen die Batteriezellen und setzen die Lebensdauer stark herab, weshalb etwa Tesla ab 100 Kilowatt die möglichen Schnellladezyklen softwaremäßig beschränkt, um den Schaden an der Batterie in Grenzen zu halten.[vii]Man kann sich lebhaft ausmalen, was dann erst 350 Kilowatt anrichten würden. Da es auch Porsche wohl kaum schaffen wird, die Grundlagen der Elektrochemie aushebeln, ist, wer nicht jedes halbe Jahr seine Batterie tauschen will, wohl gut beraten nicht zu viel Gebrauch von dem neuen Feature zu machen (Wenn es denn erst einmal verfügbar sein sollte).

Das größte Problem ist jedoch der enorme Preisnachteil der Elektroautos aufgrund der erforderlichen massiven Batterie. Diese kostet, wie der bei BMW für Elektromobilität zuständige Vorstand Klaus Fröhlich beklagte, alleine so viel, dass man dafür ein normales Auto bauen könnte.[viii]  Zwar werden Elektro-Evangelisten nicht müde, die erheblichen Kostenfortschritte der letzten Jahre zu betonen. So haben sich laut einer Statistik des Informationsdienstes Bloomberg NEF die durchschnittlichen Kosten für Lithium-Ionen-Batterien von 1160 Dollar pro Kilowattstunde im Jahr 2010 auf “nur” noch 176 Dollar 2018 reduziert.[ix]Geht man von der üblichen Faustregel aus, dass die Kosten der Gesamtbatterie etwa 30 Prozent höher sind als die der darin verbauten Batteriezellen, kann man also von einem Zellenpreis von etwa 135 Dollar ausgehen. Aber gesunder Menschenverstand und Erfahrung sagen, dass solche Kostensenkungen nicht ewig fortgesetzt werden können. Irgendwann sind bei jeder Technologie die durch erhöhte Massenproduktion möglichen Einsparungen ausgereizt – danach wird es nur noch die üblichen kleinen Schritte kontinuierlicher Rationalisierung geben.

In der Automobilindustrie wird dies auch zumeist anerkannt. So setzt etwa Lee Ki-sang, Vizepräsident des koreanischen Herstellers Hyundai, den Zeitpunkt für das Ende signifikanter Preissenkungen bei Lithium-Ionen-Batterien auf 2020.[x]Es könnte sein, dass auch dies noch zu optimistisch ist, denn die Anzeichen mehren sich, dass der Punkt bereits jetzt erreicht ist. Bei der vorher genannten Zahl von 176 Dollar ist zu bedenken, dass Tesla schon im April 2016 mit Kosten auf Gesamtbatteriebasis von weniger als 190 Dollar prahlte.[xi]Nennenswerte Fortschritte bei der Senkung der Produktionskosten hat es also seitdem nicht gegeben, es ist jetzt nur so, dass aufgrund der erhöhten Gesamtstückzahlen mehr Kunden in den Genuss derselben Preise kommen, die vor einigen Jahren einer Handvoll Großabnehmer wie Tesla vorbehalten waren. Von Tesla gab es seitdem zwar großspurige Ankündigungen über angeblich bevorstehende weitere Durchbrüche, aber nichts über tatsächlich erreichte Fortschritte.

Auch neu auf den Markt kommende Elektrofahrzeuge bestätigt den (Nicht-)Trend. Ein Datenpunkt ist etwa eine neue Version des Nissan Leaf, bei welchem die Batterie von 40 auf 60 Kilowattstunden vergrößert wird. Dafür muss man aber auch entsprechend 5.800Euro mehr hinblättern, macht also (ohne Mehrwertsteuer) 245 Euro pro Kilowattstunde.[xii]Auch wenn von diesem Betrag noch etwas für die gleichzeitige Erhöhung der Motorleistung von 110 auf 149 kW weggeht, sollte klar sein, dass dies definitiv kein Indiz für eine Senkung der Batteriepreise ist, eher im Gegenteil.

Ein anderes Beispiel ist der von einem Münchner Startup entwickelte elektrische Kleinwagen Sion welcher 2019 in Serienproduktion gehen soll. Dieser sollte ohne Batterie 16.000 Euro kosten, die dazugehörige 35 Kilowattstunden Batterie mit “nur” 4000 Euro zu Buche schlagen. Jetzt musste man den Batteriepreis auf 9500 Euro (Also 230 Euro pro Kilowattstunde) mehr als verdoppeln.[xiii]Die Begründung:

„Seitdem hat sich die Situation jedoch grundlegend verändert: Emissionsskandale, Dieselfahrverbote und Klimaveränderungen haben den Druck auf Politik und Automobilhersteller zum Ausbau der Elektromobilität enorm erhöht. Dies führt zu einer steigenden Nachfrage auf dem EV-Markt und auch dazu, dass die Zellpreise nicht so stark gesunken sind wie erwartet.“

Dies scheint die Standardausrede für das sich immer deutlicher abzeichnende Ende des Batterie-Preisverfalls zu sein. Mit derselben Begründung hat auch der allgegenwärtige Medien-Verkehrs-„Experte” Ferdinand Dudenhöffer schon sicherheitshalber einmal den Termin für weitere Batteriekostensenkungen auf bis nach 2025 verschoben.[xiv]Plausibel ist sie keineswegs.

So etwa wäre unter diesen Umständen das Verhalten des Automobilherstellers Nissan kaum zu erklären: Dieser hatte mit AESC eine eigene Tochtergesellschaft aufgebaut, um die Batteriezellen für dessen Leaf Elektroauto herzustellen. Diese wurde jedoch von Nissan im August des letzten Jahres an die chinesische “Alternativ”-Energiefirma Envision Energy verkauft, nachdem man vorher bereits mehr als zwei Jahre lang versucht hatte, den Bereich loszuwerden.[xv]Für neue Versionen des Leafs werden jetzt stattdessen Batteriezellen des koreanischen Herstellers LG Chem zugekauft. Wenn auf dem freien Markt Batteriezellen wirklich so knapp und im Vergleich zu den Produktionskosten überteuert sind, wäre ein solches Verhalten absurd.

Und es gibt keine Anzeichen dafür, dass Batteriezellenhersteller sich an besonders üppigen Margen erfreuen können, oftmals ist eher das Gegenteil der Fall. So wird beispielsweise der Verlust von LG Chem im Batteriebereich für 2018 auf umgerechnet 53 Millionen Euro geschätzt[xvi]und auch die Batterieabteilung des Tesla-Lieferanten Panasonic erntete bislang vorwiegend rote Zahlen aus dem Geschäft.[xvii]Als Volkswagen unlängst mit Samsung SDI und LG Chem Lieferverträge für Batteriezellen abschloss, war dies zu einem Preis, bei welchem die Hersteller in Kauf nehmen müssen, lange Zeit hohe Verluste zu schreiben. SK Innovation entschied sich dafür, nicht an der Ausschreibung teilzunehmen, da man Bedenken hatte bei dem von VW geforderten Preis überhaupt jemals aus den roten Zahlen herauszukommen.[xviii]Diese Verteilung der Verhandlungsmacht hört sich kaum danach an, als ob es sich um einen Markt handelt, welcher besonders von Knappheit geprägt ist.

Im Übrigen sind, nach teilweise starken Spekulationszugewinnen, die Preise für wichtige Rohstoffe für die Batterieproduktion wie Lithium, Nickel und Kobalt seit etwa einem halben Jahr deutlich im Sinken begriffen.[xix]Auch das ist ein klares Indiz gegen eine Mangelsituation.

Es ist kaum verwunderlich, dass unter diesen Umständen der Enthusiasmus der deutschen Industrie, in das vermeintliche Zukunftsgeschäft einzusteigen nicht besonders ausgeprägt ist. Wie üblich sollen es Steuergelder richten – das Bundeswirtschaftsministerium stellt als Anschubfinanzierung eine Milliarde Euro zur Verfügung.[xx]Es bleibt abzuwarten, ob sich selbst mit solch üppiger Subventionierung Unternehmen locken lassen, in das prekäre Geschäft zu investieren.

Natürlich gibt es immer noch vollmundige Ankündigungen über zukünftige Preissenkungen. So verkündete im Juni letzten Jahres Tesla-Zampano Elon Musk, dass man die Preise für Batteriezellen “vielleicht” im Laufe des Jahres auf unter 100 Dollar drücken werde (und 2020 unter 100 Dollar auf Gesamtbatteriebasis).[xxi]Als Musk aber unlängst bei der Tesla Finanzanalysten Telefonkonferenz für das Geschäftsjahr 2018 nach den aktuellen Batteriekosten gefragt wurde, zeigte er plötzlich eine ganz uncharakteristische Zurückhaltung: ”Streng geheime Zahl; Wir können sie nicht bekanntgeben.”[xxii]Das war wohl eher nichts. Und Lei Zhang, Vorstandsvorsitzender der schon genannte Firma Envision Energy verkündete, dank der neu erworbenen Batterietochter werde man in der Lage sein, Preise auf Gesamtbatteriebasis von 100 Dollar bereits 2020 und von möglicherweise sogar von 50 Dollar 2025 zu erreichen.[xxiii]Man stellt sich die Frage, welchen Teufel die Verantwortlichen bei Nissan geritten hat, angesichts dieses unmittelbar bevorstehenden Durchbruchs diese Wunderklitsche zu verkaufen und stattdessen künftig Batterien zu einem anscheinend wesentlich höheren Preis einzukaufen?

Trotz jahrelanger massivster Propaganda und Subventionen zugunsten der Elektrovehikel – bei gleichzeitiger Diskriminierung von Verbrennerfahrzeugen – befinden sich in Deutschland laut Kraftfahrt-Bundesamt (KBA) unter über 47 Millionen gemeldeten Pkw gerade einmal 100.000 reine Elektrofahrzeuge und 60.0000 extern ladbare Hybridfahrzeuge.[xxiv]

Als Ursache wird insbesondere ein bislang noch mangelndes Angebot an Elektrofahrzeugen verantwortlich gemacht. Tatsächlich gibt es jedoch aktuell bereits mehr als zwanzig PKW-Elektromodelle auf dem deutschen Markt, welche ein breites Spektrum abdecken.[xxv]Es ist nicht zu erkennen, was neue Modelle hier wesentlich besser machen sollen. Für die im Vergleich zu Verbrennern hohen Kosten, geringe Reichweite und lange Ladezeiten ist die Batterietechnologie verantwortlich, woran sich, wie erläutert, auf absehbare Zeit nichts ändern wird.

Eine andere wohlfeile Ausrede für den mäßigen Erfolg der Elektromobilität ist die angeblich mangelnde Zahl öffentlicher Ladestationen – so verkündete die “Nationale Plattform Elektromobilität” das für das kommende Jahr nicht weniger als 70.000 öffentliche Stromladepunkte – zusätzlich zu der ohnehin mehr oder weniger obligatorischen Heimladestation – erforderlich seien um den vermeintlich unersättlichen Bedarf zu decken.[xxvi]Die Realität sieht so aus, dass es Anfang des Jahres nach Angaben der Bundesnetzagentur – insbesondere dank der regen Installationstätigkeit der von Wirtschaftlichkeitsbelangen unbelastete kommunale Stromversorger – bereits 7.342 Ladesäulen in Deutschland gab, mehr als halb so viel als wie die 14.478 konventionellen Tankstellen.[xxvii]Auch wenn diese Stromtankstellen im Schnitt nur über zwei Ladepunkte verfügen, ist dies angesichts der kümmerlichen Bestandszahlen immer noch eher über- als unterdimensioniert.

Es bleibt also dabei: Nennenswerte Marktanteile können Elektroautos nur bei wirklich extremer staatlicher Marktverzerrung erreichen, welche nur sehr schwierig dauerhaft aufrechterhalten werden kann.

Dies gilt auch für China, welches aufgrund des riesigen Marktes als besonderer Hoffnungsträger für den Durchbruch der Elektromobilität gehandelt wird: Im letzten Jahr wurden dort eine Million Elektro-PKWs verkauft, was einem Marktanteil von 4,6 Prozent entspricht. Der Grund dafür ist eine Subventionierung von durchschnittlich umgerechnet mit etwa 9.000 Euro pro Fahrzeug; [xxviii]Ein weiterer wichtiger Treiber für den steigenden Absatz ist die Bevorzugung bei der Zuteilung von Fahrberechtigungen für chinesische Großstädte.

Aber es ist eher nicht damit zu rechnen, dass die chinesischen KP-Funktionäre, welche – im Gegensatz zu ihren bundesdeutschen grün-kommunistischen Kollegen – immerhin ein klein wenig seit den Tagen von Maos Hinterhof-Hochöfen während des “Großen Sprung nach vorn[xxix]dazugelernt haben, dies wirklich bis zum bitteren Ende durchziehen (Bei der Subventionierung der Solarenergie wurde vor kurzem energisch auf die Bremse getreten.[xxx]). Berichten zufolge sollen die Subventionen bereits dieses Jahr um ein Drittel reduziert und Ende 2020 ganz gestrichen werden.[xxxi]

Auch die großzügige Vergabe von Nummernschildern welche das Fahren in Großstädten erlauben, dürfte wohl nicht lange so weitergehen. Denn der Grund für die Fahrbeschränkungen sind ja nicht die Abgase – alte Kraftwerke und Fabriken ohne moderne Filteranlagen und nicht Autos sind die Hauptursache für die schlechte Luftqualität in chinesischen Städten[xxxii]– sondern vielmehr die Überlastung des Straßennetzes. Dummerweise jedoch verstopfen Elektroautos die Straßen genau so stark, wie es ganz normale Fahrzeuge tun, weshalb auch diese Art der Privilegierung selbstbegrenzend ist.

Anteilsmäßiger Spitzenreiter ist Norwegen, wo allein die beim Erwerb eines normalen Autos fälligen Steuern ohne weiteres das Vierfache des eigentlichen Verkaufspreises betragen können.[xxxiii]Aufgrund der Befreiung von diesen Steuern und zusätzlicher Begünstigungen (z.B. keine Maut, keine Parkgebühren, kostenloses Laden, Benutzung von Busspuren) hat man es geschafft, das die Hälfte der verkauften Autos dort elektrisch sind – einen derartig obszön verschwenderischen Luxus kann sich nur ein Wohlfahrtsstaats-Ölscheichtum (Erdöl ist für ein Drittel der Exporteinnahmen verantwortlich) wie Norwegen leisten. Aber selbst hier bleibt abzuwarten, wie lange die Politiker dort noch die mit der steigenden Zahl der Elektroautos parallel steigenden staatlichen Einnahmeverluste akzeptieren; Bereits mehrmals wurde eine Reduzierung der Privilegierung geplant, aber immer wieder verschoben wegen der wohlbegründeten Angst, dass dann, wie zum Beispiel in Dänemark oder Hongkong, der Absatz der Elektrofahrzeuge massiv einbrechen würde.

Um noch einmal zu unserem “Experten” Dudenhöffer zurückzukommen, dieser hat eine, um es milde zu sagen, eigenwillige Begründung für den von ihm als unvermeidlich bezeichnetem baldigen Durchbruch der E-Mobilität: Da sei bereits so viel Geld hineingepumpt worden, dass es einfach ein Erfolg werden müsse.[xxxiv]Leider ist diese Mentalität, wie ich selbst feststellen musste, auch in der Industrie weit verbreitet. So antwortete etwa ein leitender Verantwortlicher bei meinem Arbeitgeber aus dem Automobilzulieferbereich auf kritische Fragen zu der Entscheidung, in E-Mobilitätsthemen wie Lade- und Batteriesysteme einzusteigen: ”Ja, zuerst war ich auch skeptisch, aber da wird so viel gemacht und investiert, das kommt jetzt, keine Frage.”

Was natürlich ein fataler Fehlschluss ist – noch sind wir nicht ganz in der BRDDR 2.0 angekommen, wo es keine Alternativen zu den Elektro-Trabbis gibt. Schon viele Unternehmen haben schmerzlich feststellen müssen, dass es den Kunden, diesen verzogenen Lümmel, nicht im Geringsten interessiert wieviel man in ein Produkt investiert hat, wenn es nicht konkurrenzfähig ist. Da tut es auch nichts zur Sache, wie viele von ihnen bei Umfragen brav bekunden, wie wichtig und toll sie “ökologisch korrekte” Produkte und Technologien finden oder dass sie überwiegend ihr Kreuzchen bei staatstragenden Parteien machen. Denn, wie Libertäre nicht müde werden hinzuweisen, fehlt den meisten Menschen die Fähigkeit, oder zumindest die Motivation, außerhalb ihres unmittelbaren Erfahrungsbereiches liegende Zusammenhänge zu analysieren, weshalb sie in der Regel einfach das dominierende Narrativ gedankenlos übernehmen – aber bei Dingen wo sie direkten Einblick und Kontrolle haben, handeln sie im Großen und Ganzen rational. Beim Thema Elektromobilität scheinen interessanterweise nicht einmal sehr viele ein Bedürfnis zum “virtue signaling” zu verspüren; So gaben bei einer Umfrage gerade einmal sieben Prozent der Befragten an, für ihren nächsten Autokauf ein Elektroauto in Erwägung zu ziehen.[xxxv]

Wenn die Blase platzt, werden solche Unternehmen als Gewinner dastehen, welche ihre Ressourcen am wenigsten mit den Elektrospielzeugen verzettelt haben. Dies dürften insbesondere japanische Firmen sein, welche sich, mit der teilweisen Ausnahme von Nissan, von dem Hype kaum beeinflussen lassen und nur das absolute Minimum tun, um dem politischen Druck zu genügen. Toyota hat zwar 1997 mit dem Prius den ersten Serienhybrid der Welt auf den Markt gebracht, erklärt jedoch unverblümt, dass die Technologie für praktikable reine Elektrofahrzeuge noch nicht vorhanden ist.[xxxvi]Mazda will noch in diesem Jahr als erster Hersteller einen Motor auf den Markt bringen, welcher die Vorteile von Benzin- und Dieselmotor vereint;[xxxvii]auch deutsche Firmen hatten einst an dem Konzept unter der Bezeichnung “Diesotto” geforscht.

Aber solche Investitionen in die Weiterentwicklung in die Technologie von Verbrennungsmotoren wurden im Zuge des Elektrowahns abgewürgt; die deutsche Automobilindustrie wird schwer, vielleicht vernichtend. getroffen werden. Ohne Zweifel würden viele Links-Grüne ein solches Schicksal mit hämischer Schadenfreude bejubeln. Sehr gut wird ihre Denkweise in einem im Internet kursierenden angeblichen Zitat des früheren grünen Außenministers Joschka Fischer ausgedrückt: “Deutschland ist ein Problem, weil die Deutschen fleißiger, disziplinierter und begabter als der Rest Europas (und der Welt) sind. Das wird immer wieder zu ‘Ungleichgewichten’ führen. Dem kann aber gegengesteuert werden, indem so viel Geld wie nur möglich aus Deutschland herausgeleitet wird. Es ist vollkommen egal wofür, es kann auch radikal verschwendet werden – Hauptsache, die Deutschen haben es nicht.”[xxxviii]

Egal ob er dies wirklich wörtlich so gesagt hat (Ich vermute eher nicht – ein Joschka Fischer würde wohl kaum die Deutschen als “begabter” bezeichnen), es ist eine weitverbreitete Haltung unter der Rot-Grün versifften “Intelligenz”. Diese ist zumeist entweder direkt beim Staat beschäftigt oder hält sich im Dunstkreis staatlicher Subventionen auf, weshalb sie sich von der Schädigung der realen Produktivwirtschaft nicht betroffen sieht; die dort Beschäftigten werden ohnehin vorwiegend als ideologisch suspekt betrachtet – möglicherweise gar AfD-Wähler! – denen es vermutlich nur recht geschieht. Freilich, auch viele von diesen werden erkennen müssen, dass es für die Bewahrung ihrer komfortablen Parasiten-Existenz vielleicht doch nicht so klug ist, den Wirt abzutöten. In Anlehnung an den bekannten alten Greenpeace-Aufkleber könnte man es so ausdrücken: Erst wenn die letzte Automobilfabrik geschlossen, das letzte Atomkraftwerk heruntergefahren, der letzte Hochofen erkaltet und das letzte Kohlekraftwerk abgeschaltet ist, werdet ihr erkennen, dass man Genderstudien-Diplome nicht essen kann.

 

[i]Politiker-Beschwichtigungs-Karossen

Elektromobilität? Politiker-Beschwichtigungs-Karossen!

[ii]VW: Letzte neue Plattform für Verbrenner ab 2026

[iii]VW-Entwicklung beschäftigt sich “zu rund 40 Prozent mit den I.D.-Modellen”

[iv]Tesla’s Cobalt Blues; Spin, Fake News or Deception?

[v]Tesla’s First Decade Of Battery Pack Progress – Much Ado About Nothing

[vi]Neue Möglichkeiten durch Laden mit 800 Volt

[vii]Why Tesla Is Limiting Supercharging Rates On Some Frequent Users

[viii]BMW-Manager: Elektroautos bleiben teurer als vergleichbare Verbrenner

[ix]2018 Battery Price Survey

[x]Hyundai: Preise für Elektroauto-Batterien stabilisieren sich ab 2020

[xi]Tesla confirms base Model 3 will have less than 60 kWh battery pack option, cost is below $190/kWh and falling

[xii]60-kWh-Leaf kommt ohne Flüssigkeitskühlung

[xiii]Sono Motors erhöht den Preis für sein solarbetriebenes Elektrofahrzeug Sion

[xiv]Dudenhöffer: 2019 könnte für E-Auto den Durchbruch bringen

[xv]Nissan finally sells its battery cell manufacturing division

[xvi]LG Chem’s EV battery business expected to become profitable in Q4

[xvii]Panasonic expects to turn a profit on Model 3 battery cells by next year

[xviii]Orders from Volkswagen Give a Breakthrough to Korean Battery Makers

[xix]https://tradingeconomics.com/commodity/lithium

http://www.infomine.com/investment/cobalt/

http://www.infomine.com/investment/metal-prices/nickel/

[xx]Altmaier stellt eine Milliarde Euro für Batteriezellenfabrik in Aussicht

[xxi]$100/kWh Tesla Battery Cells This Year, $100/kWh Tesla Battery Packs In 2020

[xxii]Tesla earnings call – live blog

[xxiii]Chinese Company Says It Will Soon Cross $100 Battery Threshold, Slaying The Gasoline Car

[xxiv]Bestandsüberblick 2018

[xxv]Diese Elektroautos gibt es auf dem Markt

[xxvi]Ladeinfrastruktur

[xxvii]Ladesäulenkarte

Tankstellenbestand

[xxviii]What China’s Shifting Subsidies Could Mean For Its Electric Vehicle Industry

[xxix]Wikipedia: Großer Sprung nach vorn

[xxx]China: Keine Wind- und Solarenergie mehr, solange sie nicht billiger wird als Kohle

[xxxi]China Expected To Slash EV Subsidies By 30% Next Year

[xxxii]„Kohlefreie Zone“ Peking

[xxxiii]How and why cars are expensive in Norway (tax examples)

[xxxiv]Experte: Elektroauto mit Batterie nicht mehr aufzuhalten

[xxxv]Umfrage: Deutsche Autokäufer neigen wenig zu Elektroautos

[xxxvi]Toyota: Wartezeit auf günstige Elektroautos wird “noch einige Zeit dauern”

[xxxvii]Mazda Skyactiv X: Der Diesel-Benziner kommt 2019

[xxxviii]Zitate ungeprüft

Der Beitrag erschien zuerst bei eigentümlich frei




Georgetown war Al Gores leuchtendes Beispiel für 100% grüne Energieversorgung. Nun steht die Stadt vor großen Verlusten

Georgetowns wettete auf steigende Preise für fossile Brennstoffe, jedoch allein in diesem Jahr verlor der städtischen Stromversorger fast sieben Millionen US-Dollar und veranlasste die Beamten, nach einem Weg zu suchen , um aus ihren langfristigen Verträgen für Solar- und Windenergie auszusteigen.

„Es dauerte seine Zeit“, sagte der Vice President of Research der Texas Public Policy Foundation (TPPF), Bill Peacock, dem Daily Caller in einem Interview. „Es ist nicht das erste Mal, dass sie dabei Geld verloren haben, nur ist der Verlust inzwischen so groß, dass sie nicht mehr umhin kamen, die Öffentlichkeit zu informieren.“

Georgetown bekam nationale Aufmerksamkeit, nachdem es in Al Gores Film „Eine unbequeme Fortsetzung“ vorgestellt wurde. Veröffentlich wurde der Film im Jahr 2017, nachdem die Vorhersagen von Al Gores Klimamärchen von 2006: „Eine unbequeme Wahrheit“, nicht eintrafen.

„Ich denke, Georgetown ist bereits ein Wegbereiter„, sagte Gore bei seinem Besuch im Jahr 2016, um mehr über Georgetowns Plan zu erfahren, 100 Prozent seiner Energie aus Wind- und Sonnenenergie zu beziehen. (RELATED: UN Climate Talks Cost Us $2 Billion. What Have We Gotten For Our Money?) (Die UN-Klimagespräche kosteten uns zwei Milliarden Dollar. Was haben wir für unser Geld bekommen?)

„Georgetown zeigt damit anderen Orten, die gerade erst darüber nachdenken, dass die Stromversorgung nicht nur erschwinglicher ist, sondern dass die Kosten für mindestens 25 Jahre in der Zukunft und darüber hinaus vorhersehbar sind“, sagte Gore.

Der republikanische Bürgermeister der Stadt, Dale Ross stand gerade neben Al Gore, als dieser seine Bemerkung zu Georgetown macht. Das Smithsonian Magazine bezeichnete Dale Ross als den „unwahrscheinlichsten Helden der grünen Revolution“.

„Dies ist eine langfristige Angelegenheit, die sich auf die Finanzmittel auswirkt“, sagte Ross im August. „Es ist ein Gewinn für die Wirtschaft und ein Gewinn für die Umwelt. Die Entscheidung beruht auf Dollar und Cent, nicht auf Umweltbelange“ Jetzt aber versucht die Stadt, die langfristigen Verträge für „umweltfreundliche Energien“ neu zu verhandeln.

Der Daily Caller hatte für den Samstag einen Termin mit Bürgermeister Ross. Der Bürgermeister ließ das Telefoninterview stornieren. Er reagierte auch nicht auf die Nachfrage vom Daily Caller zur Umschuldung.

Seit der Vorstellung in Gores Film haben andere Medien gefragt, ob Georgetown die „Zukunft“ der US-amerikanischen Städte darstellt. Bill Peacock meinte jedoch, Georgetown werde immer mehr zur Warnung, wie man es nicht machen sollte.

„Sie setzten „alles auf eine Sache“ [Analogie zum Glücksspiel]. Jedoch, aus finanzieller Sicht betrachtet, hätte man diese Probleme vorhersehen können. Und es sieht auch nicht aus, als ob es besser werden könnte.“

TPPF verklagt Georgetown wegen der Details seiner langfristigen Solarverträge. Energiekontrakte gelten als vertraulich und müssen nach texanischem Recht durch die [Landes-] Regierung genehmigt werden.

Georgetown begann vor einigen Jahren mit der Umstellung auf 100-prozentige Wind- und Solarenergie und nachdem die Solaranlage Buckthorn im Juli in Betrieb ging, hat die Stadt dieses Ziel erreicht. Das städtische Versorgungsunternehmen kaufte bei Buckthorn und dem Windpark Spinning Spur 3 den gesamten Strombedarf.

Georgetown Utility Systems (GUS – städtischer Energieversorger) kaufte Wind und Solarstrom zu festen Preisen bis 2035 bzw. 2043. Georgetown verpflichtete sich, aus grünen Kraftwerken etwa doppelt so viel Strom zu kaufen, wie [anfänglich] benötigt wird. Georgetown ist die erste Stadt in Texas und die zweitgrößte in den USA, die zu 100 Prozent erneuerbaen Strom bezieht.

Die Idee war, dass Georgetown ausreichend Ökostrom zu festen Preisen bekommt, wodurch die Marktschwankungen und die steigenden Kosten für fossile Brennstoffe vermieden werden. Zukünftiges Wachstum wurde eingeplant, in der Zwischenzeit würde Georgetown den überschüssigen Strom mit Gewinnaufschlag wieder an den Strommarkt von Texas verkaufen können.

In den letzten Jahren brachen die Energiepreise jedoch ein , insbesondere für Erdgas. Dies bedeutete, dass die Stadt Geld verlor, wenn sie die Energie wieder am Markt verkaufen musste. Paul Diaz, Stadtkämmerer von Georgetown, teilte den Stadträten Ende November mit, dass das Versorgungsunternehmen 6,84 Millionen Dollar verloren habe. Beamte der Stadt suchen nach Wegen, um den Rückstand auszugleichen.

„Unser Energieversorger GUS ist gerade dabei, Verhandlungen mit unseren derzeitigen Energielieferanten aufzunehmen, um die Vertragsbedingungen anzupassen“, schrieb Stadtrat Steve Fought in einer E-Mail an die Mitglieder.

„Darüber hinaus arbeiten wir daran, unsere Strategie für den täglichen Energiemarkt zu ändern“, schrieb Fought in seiner E-Mail vom 26. November. „Wir müssen außerdem Maßnahmen zur Kostenreduzierung bei unserem Stromversorger ergreifen und Mittel verschieben, um die GUS-Konten auszugleichen.“

Die Energiekosten von Georgetown Utility Systems erreichten 2016 und 2017 mehr als 23 Millionen US-Dollar gegenüber dem Budget, sagte Lisa Linowes, Gründerin der Anti-Wind-Power-Gruppe „Wind Action“.

Stadtrat Fought reagierte nicht auf die Anfrage vom Daily Caller nach Stellungnahme. Auch die Vertreter von Al Gore reagierten nicht auf die Anfrage vom Daily Caller.

Gefunden auf The Daily Caller News Foundation vom 18.12.2018

Übersetzt durch Andreas Demmig

https://dailycaller.com/2018/12/18/texas-city-al-gore-inconvenient/

 

***

Hintergrund:

Die örtlichen Energieversorger (Stadtwerke) in USA kaufen bei den Stromproduzenten Kontingente, bzw. Zertifikate. D.h, der Lieferant verpflichtet sich, eine bestimmte Menge Strom je Woche, …. Monat zu liefern, dafür sind die Stadtwerke verpflichtet, eine bestimmte Menge abzunehmen (zu bezahlen). Da es sich hier um „grüne Stromproduzenten“ handelt, also Wind und Solar, wird alles „100% grün“. Wie die Stromproduzenten gewährleisten, dass Strom in genügender Menge und Zuverlässigkeit beim Verbraucher ankommen, ist deren Sache. Bei Flauten wird halt Strom z.B. aus Kohlekraft oder gar von Dieselgeneratoren angekauft und weitergegeben.

(prominentes Beispiel ist das riesige Ivanpah solar power plant, wo auch mit Dieselgeneratoren beigefüttert wurde. Berichte auf Eike übersetzt)

 

Wen es interessiert, hier die Mitteilung der Stadt Georgetown an ihre Bürger

Die Stadt passt die Energieabgabe der Kunden an

Die Stadt Georgetown wird die Stromkostenanpassung (PCA = power cost adjustment) für Stromrechnungen der Kunden ab dem 1. Februar erhöhen. Die PCA ermöglicht es der Stadt, die mit dem Kauf von Energie verbundenen Kosten zu decken.

Kunden werden einen Anstieg von 0,0113 USD pro Kilowattstunde erleiden, was zu einem neuen PCA von 0,0175 USD pro Kilowattstunde bis September führt. Der durchschnittliche Kunde verbraucht 949 Kilowattstunden pro Monat und das wird seine monatliche Rechnung um 12,82 $ erhöhen.

In Texas hat sich der Energiemarkt in den letzten Jahren grundlegend verändert. Prognosen des Electric Reliability Council of Texas, des staatlichen Netzbetreibers, haben sich als unzuverlässig erwiesen. Was in den Jahren 2016 und 2017 als Anomalien wahrgenommen wurde – wie reduzierter Verbrauch, unvorhersehbare Preise und ungewöhnlich kaltes Wetter, verdeckte die tatsächlichen Auswirkungen eines gedrückten globalen Energiemarktes. Die Auswirkungen der gesunkenen Energiepreise wurden 2018 deutlich.

In den Jahren 2016, 2017 und 2018 begegnete die Stadt diesen fortlaufenden Herausforderungen mit einmaligen Lösungen, einschließlich der Anpassung der Finanzierung elektrischer Infrastrukturprojekte durch die Stadt, z. B. Budgetbereitstellung oder Hypotheken, der Anpassung des Zeitpunkts von Projekten und der Erhöhung der PCA für Stromrechnungen und Abschluss einer Tarifstudie. Alle diese Bemühungen sollten das lösen, was zuvor als einmalige Probleme wahrgenommen wurde.

In diesem Jahr, in dem sich eine grundlegende Verschiebung des Energiemarktes vollzieht, besteht die Priorität der Stadt darin, die laufenden finanziellen Verpflichtungen des Elektrofonds zu ändern. Dies könnte bedeuten, die Energiemenge zu reduzieren, die sich Georgetown zum Kauf verpflichtet hat, einen Teil der Energie an einen Dritten verkaufen, die Bedingungen einiger finanzieller Verpflichtungen oder eine Kombination all dieser Anstrengungen anpassen. Die Stadt prüft auch Möglichkeiten, das tägliche Energieportfolio besser zu managen.

Die aktuelle Herausforderung bezieht sich nicht auf erneuerbare Energiequellen. Während die Stadt für ihre Umstellung auf erneuerbare Energien nationale Anerkennung erhielt, war sie ursprünglich eine Entscheidung aus wirtschaftlichen Gründen, die langfristigen Stromtarife durch Festpreisverträge zu stabilisieren und gleichzeitig die mit fossilen Brennstoffen verbundenen regulatorischen Risiken zu reduzieren.

Die Stadt hat ihre aktuellen Energieverträge auf der Grundlage einer 20-jährigen Prognose des weiteren Wachstums der Stadt ausgeführt. Wie die meisten städtischen Energieversorger buchte Georgetown mehr Energie, als derzeit benötigt wird. Georgetown ist nach wie vor eine der am schnellsten wachsenden Städte in Texas, und die Stadt muss bereit sein, die Nachfrage von Verbrauchern und Unternehmen zu bedienen. Die Krux der aktuellen Herausforderung hängt von der großen Menge an Energie ab, die die Stadt auf dem Markt verkaufen muss, weil sie derzeit in Georgetown nicht verbraucht wird.

Das PCA ist ein Instrument, um die finanzielle Stabilität des Elektrofonds zu gewährleisten, während die Stadt an ihren derzeitigen Finanzvereinbarungen arbeitet.

 




Eine Historie von Dr. Ben Santer und seinem IPCC-„Betrug“

Die Arroganz seiner Bemerkungen vor dem Hintergrund der Historie macht diese besonders ungeheuerlich. Noch schlimmer ist, dass er sie in seiner öffentlichen, vom Steuerzahler finanzierten Stellung aus macht. Er hat das Recht auf eigene Meinungen zum Thema Klima, aber er macht etwas, von dem ich glaube, dass er es während seiner gesamten beruflichen Laufbahn gemacht hat und dass seine politischen Ansichten es zuließen, seine Wissenschaft zu färben und zu verzerren. Er stand nicht allein, wie das Groupthink der gesamten Mannschaft an der Climatic Research Unit (CRU) an den Tag legte und wie es aus den durchgesickerten E-Mails hervorging. Noch schlimmer, er war einer der Haupt-Strippenzieher in etwas, das ich den größten Betrug aller Zeiten nenne.

Ein Kommentar zu seinem jüngsten arroganten Sermon steht in einem Beitrag von Eric Worrall mit dem Titel „Ben Santer: We Need Understanding, Not Physical walls, to Address Climate Change.:

Heute sagt man uns, dass Amerika eine Mauer an seiner südlichen Grenze braucht. Man sagt uns, dass wir die Mauer brauchen, um uns vor Vergewaltigern und Terroristen zu schützen; vor jenen, die nicht so sind wie wir, welche anders sprechen oder nicht so aussehen wie wir“.

Nein, das ist nicht das, was man uns sagt. Es stimmt, dass sie sagen, die Mauer dient zum Schutz der Amerikaner vor Vergewaltigern und Terroristen; natürlich sind das Kriminelle, die versuchen, illegal einzureisen, und man sperrt sie entweder ein oder aus. Es stimmt nicht, dass die Mauer dazu dienen soll, all jene, die nicht so sind wie wir, die anders sprechen oder anders aussehen als wir abzuwehren. Sogar Trump höchstselbst sagt, dass alle willkommen sind, sofern sie legal einreisen.

Einschub: Das meiste übrige Material wurde in einem früheren Beitrag auf meiner Website im Jahre 2011 beschrieben. Ich habe das Original hinzugefügt und modifiziert, um meine Argumentation klarer zu machen.

Frühe Anzeichen einer CRU/IPCC-Korruption und Vertuschung

Jüngst haben über 5000 weitere durchgesickerte E-Mails der CRU – bezeichnet als Klimagate 2* – Klarheit geschaffen bzgl. dessen, was vor sich ging. Sie fügen dem Skelett der korrumpierten Klimawissenschaft, wie sie in den 1000 E-Mails von Klimagate 1 offenbar geworden waren, Fleisch hinzu. Sie zeigen, wie und warum man erreicht hatte, was man erreicht hat, und warum intelligente Menschen so verblendet worden sind durch etwas, das Michael Mann „the cause“ nannte. Frühe Anzeichen dessen, was vor sich ging, wurden rasch durch eine meisterhafte PR-Strategie verschleiert.

[*Gab es wirklich so etwas wie Klimagate 2? Warum hat man davon noch nie etwas gehört? Anm. d. Übers.]

Viele können nicht glauben, dass eine kleine Gruppe von Wissenschaftlern eine so massive Auswirkung hervorrufen konnte. Edward Wegman identifizierte in seinem Bericht an den Vorsitzenden des Committee on Energy and Commerce mittels einer Analyse sozialer Netzwerke:

43 Individuen, alle mit engen Beziehungen zu Dr. Mann“.

Er erwartet auch Probleme mit dem Peer Review.

Eine der interessantesten Fragen hinsichtlich der ,Hockeyschläger-Kontroverse‘ ist die nach den Beziehungen der Autoren und Begutachter untereinander und als Folge davon, wie sehr man Vertrauen in den Begutachtungsprozess haben kann“.

Wegman machte noch eine andere Art und Weise aus, wie sie es erreicht haben:

Vor allem ist es so, dass Autoren von Dokumenten mit Bezug zur Politik, wie es beim IPCC-Bericht 2001 der Fall war (Titel: The Scientific Basis), nicht die gleichen Personen sein sollten wie diejenigen, welche akademische Studien durchführen.

Maurice Strong wählte die UN und hier im einzelnen die World Meteorological Organization (WMO), um die Bürokratie innerhalb jeder nationalen Regierung zu kontrollieren, abseits jeder legislativen Überwachung. Jene Bürokratien leiteten Forschungsgelder auf die eine Seite der Debatte und ernannten Personen zur Mitarbeit im IPCC. Die Forschung war einzig auf allein vom Menschen verursachte Änderungen limitiert und mit vorbestimmten Ergebnis. Das politische Ziel wurde eingekleidet in das United Nations Environment Program (UNEP) und hier im Besonderen in die Agenda 21, welche auf der Rio-Konferenz 1992 erstellt wurde, organisiert und geleitet von Maurice Strong.

Mit der Grundlage der Agenda 21 auf Klima und Umwelt verlieh man dieser die moralische Überlegenheit, mit der sie Kontrolle ausübten und Macht zentralisierten. Vaclav Klaus erkannte dies, als er in seinem Buch „Blauer Planet in grünen Fesseln“ (hier) schrieb:

Die heutige Debatte um globale Erwärmung ist im Wesentlichen eine Debatte um Freiheit. Die Umweltaktivisten würden gerne jeden einzelnen und alle möglichen (und unmöglichen) Aspekte unseres Lebens lenken“.

Es ist wahrscheinlich die Agenda 21, über die als „The Cause“ in den durchgesickerten E-Mails diskutiert wird.

Man kann gar nicht den GEWALTIGEN Umfang politischer Interessen in dem Projekt überschätzen, dem Projekt der Botschaft der Regierung bzgl. Klimawandel. Sie wollen, dass diese Story eine sehr starke ist und wollen nicht dumm dastehen“.

Peter Thorne fühlte, was vor sich ging, und gab folgende Warnung aus:

Ich denke außerdem, dass die Wissenschaft manipuliert ist, um ihr einen politischen Anstrich zu geben, was um unser aller Willen langfristig nicht allzu klug ist“.

Die allgemeine Haltung, vorgegeben durch Kommentare und Maßnahmen zeigt, dass das Ziel die Mittel rechtfertigt.

Offensichtlich hat die demonstrierte Fähigkeit, unbesonnen für das vorgegebene Ziel agierende Wissenschaftler zu schützen, diese weiter dazu ermutigt.

Die erste Maßnahme, welche den modus operandi offenbar machte, kam mit dem zweiten IPCC-Bericht 1995. Benjamin Santer ist ein CRU-Absolvent. Tom Wigley war sein Doktorvater. Wigley folgte Hubert Lamb als Direktor der CRU, aber Lamb erkannte seinen Fehler, wie er in seiner Autobiographie 1997 deutlich machte (Titel: Through all the Changing Scenes of Life: A Meteorologists Tale), und zwar als er erklärte, wie eine große Zuwendung von der Rockefeller Foundation gescheitert ist, weil:

…es eine verständliche Differenz der wissenschaftlichen Beurteilung gab zwischen mir und dem Wissenschaftler Dr. Tom Wigley, den wir mit der Koordinierung der Forschung betraut haben“.

Wenn man die durchgesickerten Klimagate-Mails so durchsieht, erfährt man, dass Wigley die relevante Person in Streitfällen war, der Gottvater.

Santers These mit dem Titel „Regional Validation of General Circulation Models“ zog drei Spitzen-Computermodelle heran in dem Versuch, die Bedingungen im Nordatlantik nachzustellen – eine Art der Validierung. Offensichtlich hat er diese Region gewählt, weil es trotz unzureichender Daten die am besten verfügbare Region war. Die Modelle konnten bekannte allgemeine Luftdruck-Verteilungen nicht abbilden. Stattdessen erzeugten sie massive Druckgebilde, die in der Realität niemals existieren. Santer wusste also besser als alle anderen um die ernsten Grenzen und Unfähigkeiten der Modelle bei der Nachbildung der Realität.

Er vervollständigte seine These im Jahre 1987 und wurde ein paar Jahre später beauftragt, Leitautor des 8. Kapitels im IPCC-Bericht 1995 zu werden. Das Kapitel war betitelt mit „Detection of Climate Change and Attribution of Causes“. In dieser Position erzeugte Santer das erste belegbare Beispiel der Manipulation der Wissenschaft seitens des IPCC für eine politische Agenda. Er nutzte seine Stellung, um die Schlagzeile zu etablieren, dass Menschen ein Faktor bzgl. der globalen Erwärmung seien, indem der die Bedeutung dessen, was das Komitee beschlossen hatte, bei einer vorbereitenden Tagung in Madrid als Ganzes veränderte.

Kommentare, die Zustimmung gefunden hatten:

1. Keine der erwähnten Studien hat klare Beweise dafür gefunden, dass wir den beobachteten Klimaänderungen Änderungen der spezifischen Zunahme von Treibhausgasen in der Atmosphäre zuordnen können.

2. Während einige der hier diskutierten Studien die Entdeckung eines signifikanten Klimawandels proklamierten, hat keine Studie bis heute den gesamten oder teilweisen Klimawandel anthropogenen Ursachen zuordnen können.

3. Jedwede Behauptungen einer positiven Erkennung und Zuordnung eines signifikanten Klimawandels werden wahrscheinlich kontrovers bleiben, solange die Unsicherheiten bzgl. der natürlichen gesamt-Variabilität des Klimasystems nicht reduziert werden.

4. Während keine dieser Studien das Thema Zuordnung im Einzelnen angesprochen hatte, ziehen sie doch oftmals Schlussfolgerungen bzgl. Zuordnung, für die es aber kaum eine Rechtfertigung gibt.

Die ersten beiden Punkte änderte Santer still und heimlich folgendermaßen:

1. Es gibt Beweise einer zum Vorschein kommenden Verteilung der Reaktion des Klimas auf Antriebe durch Treibhausgase und Sulfat-Aerosole … aus der geographischen, jahreszeitlichen und vertikalen Verteilung von Temperaturänderungen … Diese Ergebnisse deuten auf einen menschlichen Einfluss auf das globale Klima.

2. Die Gesamtheit statistischer Hinweise in Kapitel 8 ergibt jetzt, wenn man sie im Zusammenhang mit unserem physikalischen Verständnis des Klimasystems betrachtet, einen erkennbaren menschlichen Einfluss auf das globale Klima.

Avery und Singer schrieben dazu im Jahre 2006:

Santer kehrte eigenmächtig die ,Klimawissenschaft‘ des gesamten IPCC-Berichtes um und damit auch den politischen Prozess bzgl. globaler Erwärmung! Der vermeintlich vom IPCC entdeckte ,erkennbare menschliche Einfluss‘ wurde seitdem tausendfach in den Medien auf der ganzen Welt erwähnt und war der ,Aufhänger‘ in Millionen Debatten unter Nicht-Wissenschaftlern.

Bald wurde klar, dass die Bloßstellung eine rasche Vertuschung erforderte. Am 4. Juli 1996 veröffentlichte das offensichtlich als Komplize fungierende Journal Nature einen Beitrag mit dem Titel „A Search for Human Influences on the Thermal Structure of the Atmosphere“ mit einer Autorenliste bekannter Namen – Santer, Wigley, Jones, Mitchell, Oort und Stouffer. Darin fanden sich beobachtete Hinweise, die bewiesen, dass die Modelle richtig waren. Eine Graphik ist so viel wert wie 1000 Worte, wie der Mann’sche ,Hockeyschläger‘ zeigte. Gleiches gilt für Santers ,erkennbaren menschlichen Einfluss‚. John Daly vollzog die Graphik von Santer et al. (Abbildung 1) eines aufwärts gerichteten Temperaturtrends in der oberen Atmosphäre nach:

Abbildung 1

Dann erzeugte Daly eine Graphik mit dem umfangreicheren Datensatz in Abbildung 2 und erklärte:

man erkennt, dass die in Santers Version gezeigte Erwärmung ausschließlich das Produkt der gewählten Daten ist(Hervorhebung von Daly):

Abbildung 2

Zum einfacheren Vergleich sind hier beide Graphiken überlagert:

Abbildung 3

Fehler wurden rasch erkannt, aber Nature hat über die Offenbarung derselben erst 5 Monate später berichtet (am 12. Dezember 1996). Ein Fehler beruhte auf Rosinenpickerei, der andere darauf, dass es eine natürliche Erklärung gab. Allerdings war die PR-Kampagne da schon weltweit im Gange.

Am 25. Juli 1996 sandte die American Meteorological Society (AMS) einen verteidigenden Brief an Santer. Der Brief scheint ein Beweis zu sein für den Einfluss der CRU und ein PR-Meisterstück. In dem Brief wurden zwei Fragen angesprochen: die Wissenschaft und was die Gesellschaft tun muss hinsichtlich der wissenschaftlichen Ergebnisse und der dadurch ausgelösten Debatte. Wissenschaft sollte ausschließlich in ,begutachteten wissenschaftlichen Publikationen – und nicht in den Medien‚ diskutiert werden. Diese Strategie wurde in einer durchgesickerten E-Mail von Michael Mann bestätigt:

Das war die Gefahr, die Skeptiker immer dafür zu kritisieren (sic), die ,begutachtete Literatur‘ nicht zu veröffentlichen“.

Dazu schrieb die AMS:

Was bedeutende wissenschaftliche Informationen sind und wie diese in der politischen Debatte interpretiert werden, ist ein wichtiger Bestandteil unserer Arbeit“. – „Damit sind die ureigenen Gründe der Mischung von Wissenschaft und Politik im IPCC gemeint“.

Nein, das stimmt nicht! Die Mischung ist das ureigene Zentrum des Problems, wie Santer zeigt. Daly bezeichnete dies korrekt als „Scientism“.

Dem Vernehmen nach räumte Santer später ein, „… Abschnitte des IPCC-Kapitels gelöscht zu haben, in welchen es geheißen hatte, dass Menschen nicht für Klimawandel verantwortlich seien“.

Er räumte diese Veränderungen aber nicht zu jener Zeit ein und erreichte sein Ziel, die Botschaft des erkennbaren menschlichen Einflusses weltweit zu etablieren. Er wurde durch die Gruppe geschützt, welcher die Kontrolle über die Begutachtung, über Journale, Fachgesellschaften und Medien oblag – und zwar bis zu dem Zeitpunkt, an welchem die E-Mails durchgesickert waren (November 2009) und dann noch einmal 2011.

In ihrem Buch mit der Zusammenfassung der E-Mails (hier) schrieben Mosher und Fuller:

Man sorgte aktiv dafür, die Forderung von Steve McIntyre im Rahmen des Informationsfreiheits-Gesetzes zu umgehen, indem man E-Mails, Dokumente und sogar Klimadaten einfach löschte.

Man versuchte, die Prinzipien der Begutachtung zu korrumpieren, welche ein Eckpfeiler moderner Wissenschaft sind. Man begutachtete ihre Arbeiten gegenseitig, sabotierte Bemühungen von Opponenten, ihre eigene Arbeiten zu veröffentlichen und bedrohte die Herausgeber von Journalen, welche sich nicht ihren Forderungen beugten.

Man veränderte die Ansichten ihrer eigenen Daten in Materialien, welche den Politikern vorgelegt wurden, damit diese sich daran machen können, die Welt zu verändern und den ,Stillstand zu verschleiern‘, welcher zeigte, dass man ihren Daten nicht vertrauen konnte.

Selbst wenn nur die Hälfte dieser Vorwürfe zuträfe – dann sind das immer noch Aktivitäten, die zu akademischen, wissenschaftlichen und legalen Tadeln führen oder hätten führen sollen, wenn nicht sogar zu Vorwürfen krimineller Akte. Man stelle sich vor, sein eigener Name steht im Zusammenhang mit diesen Dingen. Man würde sich nicht moralisch ergehen bzgl. anderer Wissenschaftler hinsichtlich deren Untätigkeit. Bishop Hill legte eine umfassende Zusammenfassung der E-Mails vor, worin er Personen und Kommentare identifizierte.

[Im Original folgt hier das Bild des Trios, das jedoch wegen urheberrechtlicher Bedenken nicht wiedergegeben wird. Übersetzter Kommentar im Original zu dem Bild: „Hier ist die Bande, bevor der Deckel vom Kochtopf ihrer schändlichen Perversion der Wissenschaft in die Luft flog“. Anm. d. Übers.]

Das gesamte Debakel illustriert meine Bedenken von Anfang an. Wissenschaftler wie Santer sind ihren wissenschaftlichen Stellungen verpflichtet sowie der damit einher gehenden Verantwortung. Meiner Ansicht nach werden sie dieser Verantwortung nicht gerecht. Ebenfalls meiner Ansicht nach legen sie eine unentschuldbare Haltung an den Tag, aber das zu beurteilen ist Sache von Anderen. Ich sage das, weil es genau der Grund ist, warum sich Gerichtshöfe nicht an wissenschaftlichen Streitereien beteiligen. Sie argumentieren zu recht, dass es eine Causa ,deine Studie‘ vs. ,meine Studie‘ ist, und hier ein Urteil zu fällen sind sie nicht qualifiziert. Jetzt wird ein vollständig neuer Satz von Verantwortlichkeiten angeordnet, von denen die Glaubwürdigkeit deiner ,Studie‘ und deiner Maßnahmen nicht die kleinste ist. Jetzt wird es zu meiner ,Studie‘ vs. deiner ,korrumpierten Studie‘.

Santers scheinheilige Kommentare zeigen eindeutig, dass er unfähig ist, seine Politik von seiner Wissenschaft zu trennen. Es ist diese Konfusion und dieser Missbrauch von Klima für eine politische Agenda, welche die wirkliche Bedrohung bzgl. Klimawandel ist – auf beiden Seiten der Mauer.

Link: https://wattsupwiththat.com/2019/01/24/a-history-of-dr-ben-santer-and-his-ipcc-trick/

Übersetzt von Chris Frey EIKE




„Wir sind dümmer geworden“ -Medien setzen Rekordkälte mit globaler Erwärmung gleich

Die New York Times zum Beispiel berichtet auf ihrer Website über die Gefahren von Frostbeulen im Winter, einschließlich eines reißerischen Artikels , der die Rekordhitze in Australien und die Rekordkälte in den USA als zwei Seiten der globalen Erwärmung bezeichnet.

„Ganz allgemein erlebt ein heißer Planet extremes Wetter häufiger und intensiver“, heißt es in dem Artikel der Times, in dem er vor dem „Zeitalter der Wetterextreme“ gewarnt wird.

Auch die Chicago Times, Axios, The Washington Post und andere verbreiten die Theorie, dass die globale Erwärmung den Jet-Stream schwächte, so dass der „Polarwirbel“ nach Süden wandern und Rekordkälte bringen konnte.

(Bill Nyes, [ein bekannter Alarmist] entwarf apokalyptische Szenarien für die ultimativ stattfindende globale Erwärmung: „Die USA müssen ihr Gemüse in Kanada anbauen“)

Viele Experten halten dies nicht für richtig und sagen, es sei ein Hype der Klimamedien. Tatsächlich werden Wetterereignisse, die früher als üblich angesehen wurden, nunmehr der globalen Erwärmung zugeschrieben, die sich über Jahrzehnte abspielt und in Trends gemessen wird, und nicht in kurzfristigen Wetterschwankungen.

Sehen Sie hier das Original auf Twitter

“Klimawandel“ bezog sich einst auf Statistiken, die das gemessene Wetter über Jahrzehnte hinweg zusammengefasst hatten“, bemerkte Roger Pielke Jr, Professor der University of Colorado, auf Twitter.

Heutzutage wird Klimawandel meist als ursächlicher Faktor bei der Zuordnung von Ereignissen über Stunden, Tage oder Wochen verwendet“, sagte Pielke. „Wir sind dümmer geworden.“

 

Literaturausschnitte

Diese zweite Art von Verwirrung liegt sichtbar vor, wenn der Ausdruck „Klimawandel“ selbst als kausaler Faktor verwendet wird. Kommt es beispielsweise zu einem ungewöhnlichen [in einem maximalen Zeitraum von drei Jahren, Meinung des Übersetzers] Ereignis, wird in vielen Medienberichten unweigerlich gefragt: Hat der Klimawandel dieses Ereignis verursacht?

Diese Frage ist von Natur aus unsinnig.

[Der Rest beschreibt am Beispiel eines Baseballspielers, dessen durchschnittliche Performance für sich keinen Grund darstellt, welche Leistung er heute auf dem Platz zeigt]

Unglücklicherweise, drehen sich viele Diskussionen im Kreise und sind gleichermaßen inhaltsleer. Klimawandel an sich verursacht nicht mehr Wetterereignisse. Es kann angenommen werden, dass die Phrase „Klimawandel“ gleichgesetzt wird mit „Kohlenstoff Emissionen“ [und sofort mit „anthropogen“]. In dem Maße, in dem ein solcher Euphemismus in Diskussionen verwendet wird, schafft er Hindernisse für glaubwürdige Diskussionen um Beweise im Zusammenhang mit extremen Wetterereignissen

Winterwetter provoziert oft eine Flut von Artikeln darüber, warum kaltes Wetter die globale Erwärmung nicht widerlegt, aber jetzt bringt die Kälte „Wissenschaftler“, Aktivisten und Experten hervor, die behaupten, dass Erwärmung hinter der Kälte steckt. Sogar Greenpeace-Aktivisten machten mit, hier ist es Mike Hudema:

Sehen Sie hier das Original auf Twitter

Klimawandel bedeutet schwere Hitze, Wirbelstürme, Brände und Luftströmungen und auch extreme Kälte #cold.

Wir spüren bereits die Auswirkungen der #climate Krise. Werden wir etwas dagegen unternehmen? #ActOnClimate #energy #cdnpoli #PolarVortex #Renewables #GreenNewDeal #PanelsNotPipelines

Ergibt das einen Sinn? Natürlich nicht, und viele Wissenschaftler haben darauf hingewiesen.

„Ehrlich gesagt, ist es ein langer, verschwurbelter Weg, um eine solche Verbindung herzustellen“, sagte Kevin Trenberth, Klimaforscher am Nationalen Zentrum für Atmosphärenforschung.

„Über der Arktis ist in einer Polarnacht immer kalte Luft. Die Frage ist, ob sie dort bleibt oder weiterwandert“, sagte Trenberth. „Das alles liegt im Bereich des Wetters. Das ist kein Klima. “

Mehrere Studien haben eine Korrelation und sogar eine Verbindung zwischen der Erwärmung der Arktis und dem Wetter in der mittleren Breite gefordert, einschließlich einer im Jahr 2018 veröffentlichten Studie, in der festgestellt wurde, dass Kälteeinbrüche wahrscheinlicher sind, wenn die Arktis ungewöhnlich warm ist .

Diese Studie litt jedoch unter gravierenden Mängeln, dh. es wurden weder Hypothesen geprüft noch wurde versucht, eine Kausalität zwischen der globalen Erwärmung und den Kälteeinbrüchen festzustellen. Auch die offiziellen Datensätze der Regierungsorganisationdeuten deuten auf weniger Kälteeinbrüche hin, nicht auf mehr.

Gefunden auf The Daily Caller News Foundation vom 30.01.2019

Übersetzt durch Andreas Demmig

https://dailycaller.com/2019/01/30/media-global-warming-polar-vortex/

 




Reichliche Winter­nieder­schläge 2018/19 in Mittel­europa – ein Grund zur Besorgnis?

Langfristig etwas feuchtere Winter in Deutschland

Das DWD-Flächenmittel des Winterniederschlages für Deutschland liegt seit 1881/82 vor. Bei genauerer Betrachtung erweist sich die langfristige Niederschlagszunahme als moderat, denn sie liegt innerhalb der einfachen Standardabweichung; seit etwa 25 Jahren ist keine weitere Zunahme erkennbar, und der nasseste Winter dieser Reihe liegt mit 1947/48 schon über 70 Jahre zurück:

Abbildung 1: Etwas feuchtere Winter in Deutschland; doch könnten dazu in den Anfangsjahren auch Messfehler beigetragen haben, etwa durch Abschirmung der Beobachtungsorte oder unvollständiges Auffangen und nicht sachgerechtes Auftauen fester Niederschläge. Die pinkfarbene Linie kennzeichnet den Mittelwert der Reihe (172mm); die beiden rotbraunen Linien die Grenzen Mittelwert plus und minus einfache Standardabweichung. Der laufende Winter 2018/19 wurde optimistisch auf 285mm geschätzt; hierzu müsste der Februar aber ähnlich nass wie Dezember und Januar verlaufen, was ungewiss ist.

Die Ursachen der reichlicheren Winterniederschläge – ein Dilemma für die Klimaforschung

Ein möglicher Grund für die langfristig höheren Winterniederschläge könnten höhere Wassertemperaturen des zentralen Nordatlantiks sein. Ein grobes Maß hierfür ist die AMO (Atlantische Mehrzehnjährige Oszillation), welche langfristig anstieg und außerdem eine etwa 60ig- bis 80ig- jährige Rhythmik aufweist (die gegenwärtige AMO-Warmphase begann um 1990 und scheint momentan zu enden). Doch der gefundene Zusammenhang zwischen AMO und Winterniederschlagsmengen in Deutschland ist äußerst dürftig und nicht signifikant:

Abbildung 2: Die Gesamtvariabilität der Winterniederschläge in Deutschland wurde im Zeitraum 1881/82 bis 2017/18 nur zu kümmerlichen 3,5% von der AMO beeinflusst; auch während der AMO-Warmphasen waren die Winter nur undeutlich feuchter. Um beide, zahlenmäßig sehr unterschiedlichen Größen in einer Grafik zu veranschaulichen, wurden die AMO- und Niederschlagsdaten in Indexwerte umgerechnet.

Wesentlich besser lässt sich das winterliche Niederschlagsverhalten durch die langfristige Häufung der Großwetterlagen mit westlichem Strömungsanteil in Mitteleuropa erklären:

Abbildung 3: Mit der langfristigen Häufigkeitszunahme von Großwetterlagen mit westlichem Strömungsanteil wurden die Winter feuchter; in Phasen mit häufigerem Westwetter gab es auch häufiger nasse Winter. Über 30% der Niederschlagsvariabilität werden von der Westlagenhäufigkeit bestimmt; das ist signifikant. Am Ende des 20. Jahrhunderts erreichten Westlagenhäufigkeit und nasse Winter ihr Maximum seit Aufzeichnungsbeginn; seitdem verharren sie auf hohem Niveau. Um beide, zahlenmäßig sehr unterschiedlichen Größen in einer Grafik zu veranschaulichen, wurden nur die Niederschlagsdaten in Indexwerte umgerechnet.

Doch warum häuften sich die winterlichen Westwetterlagen? Das lässt sich bislang nicht umfassend und vollständig erklären. Als Ursachen kommen die schwankende Sonnenaktivität und die NAO (Nordatlantische Oszillation, ein Maß für das Luftdruckgefälle zwischen Azoren und Island) in Betracht; vor allem jedoch ist es das Temperaturgefälle zwischen den niederen und den hohen Breiten. Ist dieses groß (warme niedere und kalte nördliche Breiten), so intensiviert sich der Jet-Stream und mit ihm die Westströmung. Deshalb sind auch winterliche Stürme in Mitteleuropa viel häufiger, ausgedehnter und intensiver als im Sommer, denn während es in den Tropen ganzjährig annähernd gleich warm bleibt, erwärmt sich die Arktis im Sommer auf um oder knapp über Null Grad; während im Winter dort zweistellige Minusgrade herrschen. Aber genau letzterer Zusammenhang bringt die Klima-Aktivisten und Alarmisten in Erklärungsnöte, denn mit der Arktis-Erwärmung und der flächenmäßigen Abnahme des Arktischen Meereises müsste das Temperaturgefälle zwischen niederen und hohen Breiten auch im Winter abnehmen und dann zu weniger Westlagen in Deutschland führen – aber bislang lässt sich kein eindeutiger Zusammenhang finden:

Abbildung 4: Keine Abnahme der Westlagenhäufigkeit in Deutschland trotz schrumpfender, winterlicher Arktiseisfläche. Hier musste zur besseren Veranschaulichung die Westlagenhäufigkeit in Indexwerte umgerechnet werden. Leider liegen die Daten der Meereisbedeckung erst seit Ende der 1970er Jahre vor (Satelliten-Technik). Während seitdem die eisbedeckte Fläche deutlich sank, was aber auch natürliche Ursachen, wie Sonnenaktivität und AMO-Warmphase, haben kann, blieb die Häufigkeit der winterlichen Westlagen in Deutschland seit 1979/80 unverändert.

Gibt es eine Häufung sehr nasser Wintermonate?

Als objektives Maß für einen nassen Wintermonat kann die schon in Abbildung eins dargestellte einfache Standardabweichung dienen – alle Winter oder Wintermonate, welche ihre jeweilige Summe aus Mittelwert und einfacher Standardabweichung überschreiten, können als sehr nass gelten. Es lag also nahe, einmal alle Januar-, Februar- und Dezembermonate eines jeweiligen Jahres in dieser Hinsicht zu untersuchen; anschließend wurde dekadenweise die Häufigkeit der sehr nassen Wintermonate gezählt und grafisch für Deutschland und das vom „Schneechaos“ besonders betroffene Bundesland Bayern dargestellt. Die Ergebnisse sind nicht eindeutig. Zwar ergab sich eine leichte Häufung der pro Dekade nassen Wintermonate; jedoch ohne Signifikanz, und deren größte Häufung trat auch nicht in den wärmsten zwei letzten Dakaden auf, sondern in den 1980er und 1990er Jahren:

Abbildung 5: Die meisten sehr nassen Wintermonate gab es im Deutschen Flächenmittel in den 1980er und 1990er Jahren.

Abbildung 6: Mit 10 sehr nassen Wintermonaten fällt im Flächenmittel für Bayern die Dekade von 1981 bis 1990 auf.

Starke Häufung sehr nasser Wintermonate nur in den Nordalpen – warum?

Wegen der jüngsten starken Schneefälle in Südbayern und dem nördlichen Österreich war es naheliegend, einmal einzelne Orte der Alpenregion zu untersuchen. Leider gibt es nur wenige, langfristig lückenlose Niederschlagsmessreihen, denn die sich anbietende Zugspitze weist kriegsbedingte Lücken auf; und sie beginnt erst 1901. Die HISTALP-Daten sind ebenfalls mit Vorsicht zu genießen – anhand früherer Temperaturuntersuchungen zeigten sich beispielsweise bei der Zugspitze große Diskrepanzen vor 1975 zwischen dem Original-DWD-Datensatz und dem HISTALP-Zugspitzdatensatz. Aber mit dem Säntis am Nordrand der Schweizerischen Alpen fand sich dann doch eine Messreihe mit guter Aussagefähigkeit für den Alpennordrand, wenngleich erst seit 1883/84; außerdem wurde Lugano auf der Alpensüdseite zum Vergleich herangezogen.

Abbildung 7: Merkliche winterliche Niederschlagszunahme auf dem etwa 2.500m hohen Säntis (Alpennordseite), kaum Zunahme in Lugano (Alpensüdseite).

Nun verwundert es kaum, dass auf dem Säntis auch die Anzahl der sehr nassen Wintermonate stark zunahm; in Lugano fehlt hingegen jeglicher Trend:

Abbildung 8: Viel mehr nasse Wintermonate auf dem Säntis; besonders in der aktuellen Dekade.

Abbildung 9: Keinerlei Häufung nasser Wintermonate in Lugano.

Hier stellt sich die Frage nach diesem unterschiedlichen Verhalten – es sind die Häufigkeitsverhältnisse der Großwetterlagen im Winter. Den Nordstau begünstigende Lagen mit nördlichem Strömungsanteil wurden im Winter langfristig häufiger, solche mit südlichem hingegen seltener.

Abbildung 10: Bei starker Fluktuation wurden winterliche Großwetterlagen mit nördlichem Strömungsanteil häufiger. Aktuell tragen sie zu erhöhter Wahrscheinlichkeit starker Niederschläge auf der Alpennordseite ganz wesentlich bei; doch in Zukunft kann auch nicht ausgeschlossen werden, dass sie wieder seltener auftreten.

Schon im Dezember 2018, besonders aber in den ersten zwei Januardekaden 2019, traten Nordwest- und nördliche Troglagen, verbunden mit höhenkalter Luft und starken West- bis Nordwinden, immer wieder in Erscheinung. Sie lenkten feuchte Atlantikluft heran, was im Stau der Alpennordseite zu den massiven Schneefällen führte, eine Lage, die trotz ihrer beeindruckenden Schneemassen so immer wieder mal bei der großen Variabilität unserer Winterwitterung auftreten kann. Ein gutes Beispiel war die Lawinenkatastrophe von Galtür im Februar 1999; die Wetterlagen von damals und heuer ähneln sich sehr:

Abbildung 11a und 11b: Ähnliche Wetterlagen – ähnliche Ereignisse. Oben die Lage vom 05.02.1999; eine Häufung derartiger Lagen führte im Winter 1998/99 zur Lawinenkatastrophe von Galtür. Unten die vom 14.01.2019. Jeweils kräftiges Skandinavien-Tief mit höhenkalter Nordluft und einem kräftigem Ostatlantik-Hoch; zwischen beiden kräftige NW-Strömung mit Stau und starken Schneefällen in den Nordalpen.

Zusammenfassung: Trotz insgesamt leichter langfristiger Zunahme der Winterniederschläge in Mitteleuropa bewegen sich die im Dezember 2018 und Januar 2019 aufgetretenen Niederschlagsereignisse im Rahmen der natürlichen Schwankungsbreite; sie wurden durch intensive, so immer wieder gelegentlich zu beobachtende nordwestliche Großwetterlagen ausgelöst. Die momentane Häufung sehr niederschlagsreicher Wintermonate in den Nordalpen ging mit einer langfristigen Häufigkeitszunahme westlicher bis nördlicher Großwetterlagen einher; ein eindeutiger Zusammenhang mit dem Rückgang der Fläche des Arktiseises oder den hohen AMO-Werten in der jüngeren Vergangenheit lässt sich nicht nachweisen; außerdem fehlen eindeutige Häufigkeitszunahmen sehr niederschlagsreicher Wintermonate außerhalb der Nordalpen. Niederschläge schwanken ohnehin räumlich-zeitlich sehr stark; ihre Erfassung ist oft fehlerhaft, und sie lassen daher kaum Rückschlüsse auf einen möglichen Klimawandel zu.

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Planungssicherheit für Jobverlust – Absurdes Theater im Deutschen Bundestag

Jedes Mitglied der Bundesregierung schwört bei Amtsantritt „alles zu tun, um Schaden vom Deutschen Volke abzuwenden“, sie schwören nicht „alles zu tun um Schaden von der Welt abzuwenden“, sie schwören auch nicht „alles zu tun größtmöglichen Schaden dem Deutschen Volke zu bringen“.

Aber genau das war es, was die Regierung -und mit einer Ausnahme – alle im Parlament vertretenen Parteien am letzten Donnerstag in Angriff nahm. Die Regierung tat es, indem sie einen vorher festgelegten Ausstiegsbeschluss aus der Kohleverstromung zunächst von einer fachfremden, schwer ideologisierten Kommission (Details dazu z.B. hier) heiligen, und dann deren bereits vorher feststehendes Ergebnis vom Parlament pauschal per „Diskussion“ genehmigen ließ. Natürlich allein dem hehren Zweck dienend, die Welt vor einer Klimakatastrophe zu bewahren.

Wäre der Bundestag eine reale Theaterbühne, müsste der Zuschauer glauben, er wohne einer besonders teuren Aufführung des absurden Theaters bei. Bei der der Autor, um dessen Absurdität auch den begriffsstutzigsten Zuschauern klarzumachen, auch vor irrwitzigsten Pointen nicht zurückscheute. Zum Beispiel indem er allen Protagonisten vorschrieb– wohl gemerkt mit der Pointe einer Ausnahme- fast im Chor und fast synchron den eigenen wirtschaftlichen Niedergang zu fordern. Es bleibt müßig zu erwähnen, dass, bis auf eine Minderheit grüner Fanatiker, niemand in diesem Land der Regierung das Mandat erteilt hat, die Welt zu retten. Schon gar nicht mit dem Preis des wirtschaftlichen Untergangs des eigenen Landes.

„Die weltweit dümmste Energiepolitik“, so bewertete das Wall Street Journal am 30. Januar die Energiewende samt Ausstiegsplan, wobei es unerheblich ist, ob Dummheit, Überheblichkeit oder Fanatismus, vielleicht sogar Absicht, die Leitmotive dieser Regierung und der sie tragenden Parteien sind. Allein an ihren Taten müssen und werden wir sie messen.

Was war geschehen?

Auf Antrag der FDP fand am 31.1.19 eine aktuelle Stunde zum Bericht der Kohleausstiegskommission – aufgehübscht  „Kommission für .„Wachstum, Strukturwandel und Beschäftigung“…“ genannt, im Deutschen Bundestag statt. Die aktuelle Stunde lief unter dem schönen heuchlerischen Titel: „Kohlekommission: Klimaschutz sichern- Steuerzahler schützen“

Wie immer bei solchen Themen durften alle Parteien in kurzen Beiträge a 5 Minuten darlegen, was sie von den Ergebnissen halten.

Und wie nicht anders zu erwarten, war die SPD dafür. Wobei es ihr Geheimnis blieb, wie sie ihren immer weniger werdenden Wählern erklären will, warum sie für deren Jobvernichtung ist.

Es ist zu vermuten, das ihre Abgeordneten immer noch nicht begriffen haben, dass  man eingespartes CO2 – zumal in deutschen Mikromengen- nicht essen kann. Dann sollen sie eben Kuchen essen, mögen einige gedacht haben.

Auch die Union war dafür, nur zwei Abgeordnete der Union (Lämmel und Koeppen), die ihre Wahlkreise zufälligerweise in den ostdeutschen Ländern haben, waren – man ahnt es-  auch nicht richtig dagegen, aber für eine sorgfältige Überprüfung der Ergebnisse. Sie warnten -vernünftigerweise- man solle doch nicht den zweiten oder gar dritten Schritt vor dem ersten gehen, und meinten damit, dass man zunächst für brauchbaren Ersatz sorgen müsse, bevor man eine sichere Stromversorgung ausknipst.

Natürlich waren sie nicht richtig dagegen, aber so können sie vor ihren Wählern behaupten, sie hätten ihre Bedenken kundgetan.

Die FdP ist dagegen, weil sie dafür ist

Eine andere Nummer zog der FDP Chef Lindner für seine Partei ab. Man sei ja auch unbedingt für den Klimaschutz und dafür sei nun mal die CO2 Absenkung unbedingt erforderlich – Mist, aber was soll man machen- aber dies bitte marktwirtschaftlich.

Darunter versteht Herr Lindner und mit ihm seine vermeintlich liberale Partei, die Stärkung des staatlichen Monopols, bisher freie Güter, wie die Luft zum Atmen, bzw. das Anreichern derselben mit CO2 Emissionen, einer Besteuerung zu unterziehen. Diese ist inzwischen EU-weit eingeführt, was die FDP toll findet, und fordert, man möge doch durch drastische Verknappung der zugeteilten teuer zu erwerbenden Emissionszertifikate, dafür sorgen, dass den Kohleverstromern von selbst die Luft ausgeht. Und mit ihnen, was natürlich sehr bedauerlich ist, rund hunderttausend,  zum Glück Nicht-FDP Wählern, die Arbeitsplätze kosten würde. Nur das sei marktwirtschaftlich, so Lindner – und benötige keine vom Steuerzahler gepamperten Ausstiegspfade- und daher lehne man das Kommissionsergebnis ab.

Grüne und Linke sind dafür, aber schneller

Grünen und Linken hingegen war das alles noch nicht schlimm genug. Sie forderten mehr und vor allem schnelleren Ausstieg und mehr Steuerzahlergeld.

Besonders aktuell zeigte sich dabei der abgebrochene Biologiestudent und „Bienenpate“ seiner Fraktion, Oliver Krischer von den Grünen, der den Kreuzzug ideologisch von ihren Lehrern missbrauchter Kinder, mit ihrem Schuleschwänzen für das Klima, zum Anlass nahm – aus Rücksicht auf diese weitsichtige Jugend, Greta lässt grüßen- mehr und schnelleren Ausstieg zu fordern. Ist ja klar, mag sich Krischer gedacht haben, je dümmer diese Schüler bleiben, umso eher wählen sie die Grünen, denn, so formulierte es die Dichterin Marie-Louise Ebner Eschenbach mal treffend: „Wer nichts weiß muss alles glauben!“

Wer Maoschist ist, oder mal ein schauriges Deja Vu erleben möchte, dem sei die Rede des wortgewaltigen Krischer empfohlen. Ab Minute 27:46

Videoausschnitt der Rede des Grünen MdB Oliver Krischer

Nur die AfD wagte es – mal wieder – auf den Kaiser zu zeigen und zu rufen „der ist ja nackt“. Bemerkenswert dabei die Stille im Plenum, als der AfD Abgeordnete Karsten Hilse erneut darauf hinwies, dass selbst nach vollständiger Dekarbonisierung, Deutschlands Beitrag zur Absenkung der globalen Mitteltemperatur und nach IPCC Regeln maximal 0,000.653 °C betrüge. Selbst den Blödesten unter den Anwesenden müsste spätestens jetzt klar geworden sein, dass bei diesem Ergebnis die gesamte deutsche „Klimaschutzpolitik“ völlig absurd ist. Absurdes Theater eben.

Videoausschnitt der Rede von Karsten Hilse zum Kohleausstieg.

Nun soll noch Milton Friedman, der große US Ökonom, das letzte Wort(1) haben: Dieser hat einmal über den Umgang mit Geld folgendes gesagt:

Es gibt vier Arten, Geld auszugeben.

Erstens: man gibt sein Geld für sich selber aus. Dabei ist man besonders sparsam.

Zweitens: Man gibt sein Geld für andere aus. Da werden die Menschen bereits großzügiger.

Drittens: Man gibt fremdes Geld für sich aus. Da fallen schon die meisten Schranken.

Und viertens: Man gibt fremder Leute Geld für andere aus. Da gibt es kein Halten mehr.

QUED

(1) Diese Bonmot habe ich in einem Artikel des FDP MdB Frank Schäffler bei TE gefunden hier. Obwohl auch Frank Schäffler in Klimafragen inzwischen recht weichgebürstet zu sein scheint, ist nach wie vor lesenswert, was er schreibt.




Nachrichten aus dem Paralleluniversum

Ältere Menschen erinnern sich noch, wie es war, als das Wetter sich noch einigermassen normal verhielt. Es hat im Winter geschneit, manchmal und ausnahmsweise noch in den Frühling hinein. Der Sommer zeigte sich mal nass, zuweilen trocken, mal kühl und zwischendurch auch heiss. Es schien uns nicht ungewöhnlich, wir kleideten uns entsprechend und wurden durch das Auftreten der Jahreszeiten nicht weiter überrascht. Es gab Kalender, und wir ahnten, was es bedeutete, wenn wir uns im Januar befanden.

Disentis als «Geisterstadt»

Heute sind diese früheren Selbstverständlichkeiten («Was das Grosi noch wusste») verlorengegangen. Herrschen völlig jahreszeitengemässe 5 Grad unter null am Morgen, erschreckt einen ein grosser Aufmacher im Online-Teil der früher ehrwürdigenFrankfurter Allgemeinen Zeitungmit dem Titel «Deutschland muss frieren». Die kürzlich in den Wintersportgebieten sehr willkommenen Schneefälle erfuhren ein Upgrade zur Schneekatastrophe, ein Schweizer Gratisblatt machte Disentis, das wegen Lawinengefahr für sehr kurze Zeit von aussen nicht mehr erreichbar war, zur «Geisterstadt», und wer regelmässig Radio hört, wird von sturzbetroffenen jungen Menschen an milden Wintertagen vernehmen, dass es draussen «frostige [plus] 10 Grad» kalt sei.

Vor allem Online-, immer häufiger auch Printmedien kreieren so ein Paralleluniversum, das wir jeden Tag bewundern dürfen. Zuletzt, als den staunenden Deutschen am vergangenen Wochenende beschieden wurde, sie würden vor einer vier Wochen dauernden Periode «sibirischen Winters» stehen. Das war von Anfang an frei erfundener Blödsinn, nur für den Klick, für den Augenblick.

Die moderne Medienwelt, in welcher das Anklicken einer Geschichte zum Mass aller Dinge und zur Basis der Bezahlung durch Werbekunden geworden ist, hat bei den meisten Journalisten jegliche Hemmungen fallen lassen, was den Umgang mit der Wahrheit angeht. Es gibt keinen Tag, an dem nicht im Zusammenhang mit Wetter und Klima völliger Humbug zu lesen ist. Die Spannweite reicht von grotesken Übertreibungen über falsche Einordnungen eines Ereignisses bis zu – wie bei den «sibirischen Wochen» – freien Erfindungen von Nachrichten. Diese werden häufig mit alliterationsaffinen Attributen garniert, die mit der Gründung des medialen Paralleluniversums einhergehen: «Russenpeitsche», «Kältekeule», «Schneeschelle».

Diese Wettergeschichten heute unterscheiden sich deutlich von den Zeiten boulevardesker Zuspitzungen, als etwa ein damaliger Chefredaktor mich beim Schlagzeilenmachen fragte, ob der von ihm bevorzugte Titel noch «im Streubereich der Wahrheit» sei.

Die Mehrheit der abgedruckten oder online gestellten Geschichten zum Thema Wetter oder Klima ist heute falsch.

Oder man könnte deutlicher formulieren : erlogen.

Erlogene Sibirien-Story

In diesem Klima des «anything goes» ist die Wissenschaftlichkeit auch beim wichtigen Thema des Klimawandels völlig auf der Strecke geblieben. Ein Teil derWeltwoche-Leserschaft muss kurz tapfer sein: Ja, es gibt einen Klimawandel, und Menschen haben auch einen Anteil daran. Inzwischen sind die Schützengräben des Stumpfsinns auf beiden Seiten so weit ausgehoben, dass auch beim Klimawandel jeder Stuss salonfähig geworden ist. Auf der einen Seite wird die Tatsache, dass einmal ein Elefant über die Alpen kam, als valides Argument gegen die Existenz eines menschenbeeinflussten Klimawandels betrachtet (als ob es etwas bedeutete, dass es auch früher schon mal warm war – was niemand bestreitet).

Schwerer als diese mittelmässig bahnbrechende Erreger-Software aus schwitzenden Facebook-Foren wiegt allerdings die Tatsache, dass Politiker, bei denen wir hofften, dass noch ein Hauch Ratio in ihnen wohnen möge, unwissenschaftlichen Unsinn aller Art absondern, sobald es ums Klima geht. Als sei ein Zetteli an jeder Wetterlage angeheftet, weil wir auf der Erde herummarodieren würden, gibt es inzwischen eine völlig abseitige Inflation an Zuordnungen alltäglichen Wetters zum Klimawandel :

Schneit es im Winter nicht:  Klimawandel.                                                                                                                                                                    Schneit es viel:  Klimawandel.                                                                                                                                                                                           Ist es kalt:  Klimawandel.                                                                                                                                                                                          Ist es warm: Klimawandel.

Die deutsche Grünen-Politikerin Bärbel Höhn lieferte diesbezüglich vor wenigen Tagen einen traurigen Höhepunkt durch ihren persönlichen Urknall, indem sie die vier Wochen «sibirischer Kälte», die an sich schon frei erfunden waren, einem nicht existierenden Schwächeln des Golfstroms zuordnete. Dadurch wurde das Paralleluniversum, das Medien erfunden haben, perfekt: Eine erlogene Sibirien-Story führte zu einer Reaktion tiefbestürzten Politiker mit völlig absurdem Inhalt, die wiederum die Sibirien-Story stützte. Der Hysterie-Fahrplan konnte so nach dem vorgeschriebenen Schema ablaufen:

1. Ein Wetterdienst kündet an, es bleibe nicht länger so mild wie zurzeit.

2. Online-Medium: «Sibirische Wochen drohen.»

3. Hilfsorganisationen warnen vor den Folgen für Obdachlose.

4. Online-Medien berichten über die Warnungen der Hilfsorganisationen.

5. Politiker ordnen die Wetterveränderung dem Klimawandel zu.

6. Es herrschen morgens minus 2 Grad. Radiomoderatoren erzählen, wie bitterkalt es auf dem Weg ins Studio gewesen sei.

7. Online-Medien verwenden die herrschende Temperatur auf der Glattalp (dort immerhin minus 20 Grad; bisheriger Temperaturrekord, der verschwiegen wird: minus 53 Grad), damit sie schreiben können, dass klirrende Kälte herrsche, Temperaturen «bis zu minus 20 Grad».

8. Ein Weltwoche-Kolumnist fragt, wo jetzt nun der Klimawandel sei.

9. Eine Doomsday-Sirene aus der Klimahysterie-Szene, die uns vor zwanzig Jahren sagte, dass es im Winter nie mehr Kälte und Schnee geben würde, sagt, dass es nun öfter so extreme Sachen gebe.

10. Am Nachmittag steigen die Temperaturen bis knapp über den Gefrierpunkt. Die OnlineMedien warnen vor gefährlicher Glätte abends und starten einen Sibirien-Liveticker.

11. Behörden ordnen an, dass man auf Seen die durch die «sibirische Kälte» entstandene Eisschicht von fünf Millimetern nicht betreten solle. Es wird ein Archivfilm von der Eisrettung eines Hundes von 1986 gezeigt und der Enkel des Besitzers interviewt.

Mediale Wettermärchen

An dieser Stelle ist es den Medien bereits gelungen, das sibirische Paralleluniversum vollständig auszustatten. Durch die Perfektionierung der potemkinschen alternativen Wahrheit, aufgrund der immer mehr Menschen auf etwas reagieren, was es nicht gibt, aber gleichzeitig so tun, als ob es da wäre, bleibt die freierfundene «sibirische Kälte» so lange erhalten, bis die Anzahl Klicks beim Liveticker deutlich sinkt und die «sibirische Kälte» durch ein neues Paralleluniversum ersetzt wird.

Dieses Verfahren wird heute von vielen Medien routinemässig angewandt und gibt Anlass zu höchster Besorgnis, weil es zeigt, dass Medien bereit sind, absichtlich und in vollem Wissen über die andersgeartete Realität völligen Blödsinn zu schreiben, und dass andererseits die Zeitgenossen in ihrer eigenen Wahrnehmung durch diese Lügengeschichten substanziell beeinflusst werden. Vor allem junge Menschen, die mit solchen medialen Paralleluniversen aufgewachsen sind, glauben inzwischen im Ernst, dass Frost und Schnee im Winter aussergewöhnlich seien, wie man in den Leserkommentaren zu Sibirien-Livetickern und in Sozialforen feststellen kann. Das hat dazu geführt, dass viele Leute nicht mehr wissen, dass die durchschnittliche Höchsttemperatur an einem Hochsommertag im Schweizer Mittelland bei rund 24 Grad liegt. Inzwischen werden, nach 734 Geschichten zur Frage, wo denn der «richtige Sommer» bleibe, 30 bis 35 Grad als Normalität angesehen, wobei die klickschlampesken Medien den Übergang zur unziemlichen «Sahara-Peitsche» bei über 35 Grad genau im Auge haben.

Die Bereitschaft der Medien, für Klicks geradeheraus zu lügen und dies konsequent und über längere Zeit durchzuziehen, besorgt einen insofern, als Menschen auf diese Lügengeschichten hereinfallen. Das mag bisher auf Wetter- und Klimathemen beschränkt sein, weil das Wetter sich vor Gericht nicht gegen die freierfundene Berichterstattung wehren kann. Es rüttelt dennoch an den Grundfesten des Journalismus, wenn Wettermärchen heute zur Normalität geworden sind.

Ich möchte nicht aufgeben, zu hoffen, dass die Paralleluniversen eines Tages nicht mehr da sein werden. Wehret den Anfängen.

========================================================

Jörg Kachelmann ist Unternehmer und Meteorologe für kachelmannwetter.com

=========================================================

)** Anmerkung der EIKE-Redaktion :

Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich : 

Nachrichten aus dem Paralleluniversum | Die Weltwoche, Nr. 4 (2019) | 24. Januar 2019 / http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Jörg Kachelmann für die Gestattung der ungekürzten Übernahme des Beitrages.

==========================================================

Bei EIKE sind zu dem von Jörg Kachelmann behandelten Thema                                                „Mediale Wettermärchen“ jüngst erschienen: 

()  https://eike.institute/2019/01/12/alarm-sirenen-unter-wasser/

()  https://eike.institute/2018/09/05/sommer-witterung-2018-eine-maerchen-stunde-der-klima-alarmisten/

==========================================================