1

Die ökonomischen Auswirkungen von Treibhausgas-Emissionen

Energiegleichgewichts-Klimasensitivität

Der wichtigste Parameter bei der Berechnung der ökonomischen Auswirkung des Klimawandels ist die Sensitivität des Klimas gegenüber Treibhausgas-Emissionen. Der Klimatologe Nicholas Lewis gebrauchte ein Energie-Gleichgewichts-Verfahren, um die Gleichgewichts-Klimasensitivität ECS zu schätzen. Er kam auf ein Best Estimate von 1,45°C bei einer Verdoppelung des atmosphärischen CO2-Gehaltes mit einer wahrscheinlichen Unsicherheits-Bandbreite (17% bis 83% Vertrauen) von 1,2°C bis 1,8°C.

ECS ist die globale Temperaturänderung als Folge einer CO2-Verdoppelung, nachdem man den Ozeanen Zeit gegeben hat, Temperatur-Gleichgewicht zu erreichen, was etwa 3000 Jahre dauert.

Ein für die Politik wichtigerer Parameter ist die Transiente Klima-Reaktion TCR, welche die globale Temperaturänderung zur Zeit der CO2-Verdoppelung ist. Eine derartige Verdoppelung würde bei der heutigen Rate der Zunahme von 55% etwa 126 Jahre dauern. Die Analyse ergibt ein Best Estimate bei 1,21°C mit einer wahrscheinlichen Bandbreite (17% bis 83%) zwischen 1,05°C und 1,45°C.

Die beiden analysierten Zeiträume sind 1859 bis 1882 und 1995 bis 2011. Sie wurden gewählt, weil sie sich durch die längste frühe bzw. späteste Periode ohne signifikante vulkanische Aktivität auszeichnen. Dies bietet die größte Änderung des Antriebs und folglich die geringste Unsicherheits-Bandbreite. Der lange Zeitraum zwischen den beiden Perioden hat zur Folge, dass sich kurzfristige Ozean-Oszillationen wie die AMO und die PDO heraus mitteln, berühren aber nicht Ozean-Oszillationen im Maßstab von Jahrtausenden oder indirekte solare Einflüsse.

Aerosole sind der dominante Beitrag zur Unsicherheit bei Schätzungen der Klima-Sensitivität. Nicholas Lewis schreibt: „In diesem Zusammenhang sind Schätzungen des Aerosol-Antriebs in einer überzeugenden neuen Studie von Björn Stevens mittels Verfahren, die auf der Physik basieren und mit Beobachtungen überprüft wurden, eine grundlegende Veränderung“. Stevens ist Experte bzgl. Wolken-Aerosol-Prozesse. Er leitete eine neue, längere Schätzung des Aerosol-Antriebs ab. Lewis verwendete die neue Schätzung für den Aerosol-Antrieb und verwendete Schätzungen anderer Antriebe, wie sie im 5. Zustandsbericht des IPCC beziffert worden waren.

Adjustierungen für Jahrtausend zyklische Erwärmung und Stadtwärme

Diese Analyse von Lewis berücksichtigt nicht die langfristige natürliche Erwärmung seit der Kleinen Eiszeit LIA, wahrscheinlich ausgelöst durch indirekte Sonnenaktivität. Die Temperatur-Historie zeigt eine offensichtliche Temperatur-Oszillation im Jahrtausend-Maßstab, was zeigt, dass natürliche Klimaänderung einen bedeutenden Anteil an der Erholung der Temperatur seit der LIA hat.

Abbildung 1: Außertropische Temperaturänderung auf der Nordhemisphäre, modifiziert übernommen von Ljungquist 2010 mit einem Polynom-Fit 6. Ordnung und Linien-Segmenten. Römische Warmzeit AD 1 bis 300; Kaltzeit der Dark Ages AD 300 bis 900; Mittelalterliche Warmzeit 800 bis 1300; Kleine Eiszeit 1300 bis 1900; moderne Warmzeit 1900 bis heute.

Frederik Ljungquist erstellte eine Temperatur-Rekonstruktion der außertropischen Nordhemisphäre (ETNH) während der letzten beiden Jahrtausende mit einer dekadischen Auflösung aufgrund von 30 Temperatur-Proxys. Anthropogene Treibhausgas-Emissionen haben bis zum Jahr 1990 keine signifikante Temperaturänderung ausgelöst, weil kumulative CO2-Emissionen bis 1900 nicht signifikant waren. Das Mittel der absoluten natürlichen Temperaturänderung über die vier Perioden in Abbildung 1 betrug 0,095°C pro Jahrhundert.

Die Ljungquist-Studie nennt zahlreiche Gründe, warum die Rekonstruktion wahrscheinlich die Temperatur-Variabilität „ernstlich unterschätzt“. Aber er nimmt an seiner Rekonstruktion keinerlei Korrekturen vor. Die Baumring-Proxys sind hin zur sommerlichen Wachstumsperiode verzerrt. Falls die Abkühlung der LIA in den Wintermonaten ausgeprägter war, wäre die Jahresschätzung zu warm verzerrt. Die großen Datierungs-Unsicherheiten in Sediment-Proxys haben den Effekt der „Verflachung“ der Temperaturen, so dass die wirkliche Größenordnung zwischen Warm- und Kaltperioden unterschätzt ist.

Die Proxy-Temperatur ist während des 20. Jahrhunderts nicht so stark gestiegen wie die mit Thermometern gemessene Temperatur. Dies zeigt, dass die instrumentelle Temperatur zum Wärmeren verzerrt ist infolge des nicht korrigierten städtischen Wärmeinsel-Effektes UHI und/oder unterschätzten rekonstruierten Temperaturvariationen aus den Proxys.

Die jährlichen Temperaturen zeigen 23% mehr Variabilität als die Temperaturvariabilität von Bäumen während der Wachstumssaison, gewichtet nach Wachstumsraten der Bäume. Dies zeigt, dass die Baumring-Proxys die Temperaturvariabilität unterschätzen. Acht der 30 Proxys haben diesen jahreszeitliche Baumring-Bias. Unter der Annahme der Datierungs-Unsicherheit der 12 Sediment-Proxys verbreitert sich die Auflösung über 100 Jahre. Damit wurde geschätzt, dass diese Proxys die Temperaturvariabilität um 12% unterschätzen. Der gewichtete mittlere Bias der 30 Proxys wurde mit 11% geschätzt.

Die Temperaturvariabilität der Tropen und der Südhemisphäre ist geringer als auf der extratropischen Nordhemisphäre, was dem größeren Ozeangebiet geschuldet ist. Betrachtet man die kühlste und wärmste Zwei-Dekaden-Periode, variieren die globalen Temperaturen nur um 80% der ETNH. Die globale natürliche Erholung aus der Kleinen Eiszeit wird mit 0,084°C pro Jahrhundert geschätzt, wobei der Proxy-Bias und die globalen Adjustierungen berücksichtigt sind.

Zahlreiche Studien haben gezeigt, dass der UHI die Temperaturmessungen mit Thermometern kontaminiert. Eine Studie von McKitrick und Michaels 2007 zeigte, dass fast die Hälfte der Erwärmung auf dem Festland seit 1980 in den Instrumenten-Datensätzen auf den UHI zurückzuführen ist. Der UHI auf dem Festland macht etwa 0,14°C pro Dekade aus oder 0,042°C pro Dekade auf globaler Basis seit 1979.

Die Jahrtausend-Erwärmung und UHI-Korrekturen reduzieren die Temperaturänderung zwischen den beiden Perioden der Analyse aufgrund von Treibhausgasen von 0,72°C auf 0,51°C. Der Best Estimate des ECS unter Einbeziehung des Jahrtausend-Erwärmungszyklus‘ und dem UHI liegt bei 1,02°C, und der Best Estimate von TCR bei 0,85°C.

Zusammenfassung der Klimasensitivitäts-Schätzungen

Tabelle 1 listet die Best Estimates von ECS und TCR sowie die wahrscheinlichen und höchst wahrscheinlichen Vertrauensintervalle in 5 Fällen. Alle auf Antriebe basierenden Schätzungen verwenden jeweils initiale und finale Perioden von 1859 bis 1882 und 1995 bis 2011. Die Bandbreiten liegen nahe 0,05°C.

Tabelle 1: Die Best Estimate der TCR von 0,85°C impliziert, dass die globale Temperatur von 2016 bis 2100 infolge anthropogener Treibhausgas-Emissionen nur um 0,57°C steigen wird, falls der atmosphärische CO2-Gehalt weiter mit der gegenwärtigen Rate von 0,55% pro Jahr zunimmt. Tatsächliche Temperaturen werden abhängig vom natürlichen Klimawandel steigen oder sinken.

Soziale Kosten von Kohlenstoff

Die Interagency Working Group (IWG) der US-Regierung zu sozialen Kosten von Kohlenstoff (SCC) nutzt drei integrierte Assessment-Modelle (IAM), um die sozialen Kosten und Vorteile von Treibhausgas-Emissionen zu bestimmen. In zwei dieser Modelle, DICE und PAGE, sind die Vorteile der Düngung durch CO2 und andere Vorteile der Erwärmung nicht enthalten, ebensowenig wie die Berücksichtigung von Anpassung.

In das FUND-Modell gehen diese Vorteile ein, doch unterschätzt es die Vorteile der CO2-Düngung. Idso (2013) kam zu dem Ergebnis, dass die Zunahme der atmosphärischen CO2-Konzentration während des Zeitraumes 1961 bis 2011 verantwortlich war für die zunehmenden landwirtschaftlichen Erträge im Wert von 3,2 Billionen Dollar (in constant 2005 US$).

Das FUND-Modell zeigt, dass Kanada aus den Emissionen den Vorteil von 1,9% des BIP bis zum Jahr 2100 erzielen wird, äquivalent zu einem Vorteil von 109 Milliarden Dollar jährlich, wenn man eine ECS von 3°C annimmt. Anthropogener Klimawandel wird in Kanada ausschließlich positive Auswirkungen haben, die während des gesamten 21. Jahrhunderts zunehmen.

Abbildung 2: Die Gleichgewichts-Klimasensitivität ECS wie von N. Lewis berechnet mit dem Aerosol-Antrieb von Stevens, anderen Antrieben und Wärmeaufnahme laut AR 5 des IPCC sowie globale Temperaturen, die adjustiert wurden, um der natürlichen Jahrtausend-Zyklus-Erwärmung sowie der städtischen Erwärmung seit 1980 Rechnung zu tragen. Die Best Estimate von ECS wird durch das rote Quadrat repräsentiert, Unsicherheits-Bandbreiten durch die roten Linien. Die sozialen Kosten von Kohlenstoff ach dem FUND-Modell zeigt die blaue Linie.

Abbildung 2 zeigt die SCC (blaue Linie) als eine Funktion von ECS. Die Best Estimate von ECS zeigt das rote Quadrat. Die dicke rote Linie zeigt die 17% bis 83%-Bandbreite der Wahrscheinlichkeit und die dünne rote Linie zeigt die Wahrscheinlichkeits-Bandbreite der ECS-Schätzung von 5% bis 95%. Die SCC-Werte zeigen einen realen Diskontsatz von 3%.

Projiziert man die ECS-Werte vertikal auf der blauen SSC vs ECS-Kurve, erhält man die Best Estimate und die Vertrauensintervalle von SCC, wie in Abbildung 3 gezeigt. Die Analyse zeigt, dass auf globaler Basis die Best Estimate von ECS mit 1,02°C ein SCC von -17,7 US-Dollar pro Tonne CO2 ergibt, was wirklich sehr vorteilhaft ist. Die Wahrscheinlichkeits-Bandbreite beträgt -19,7 bis -13,6 US-Dollar pro Tonne CO2, und es ist extrem wahrscheinlich, dass es unter -7,7 US-Dollar pro Tonne CO2 liegt. Diese Ergebnisse zeigen, dass man auf fossile Treibstoffe keine Kohlenstoff-Steuer erheben sollte, sondern man sollte jede Tonne CO2 mit etwa 18 US-Dollar subventionieren.

Die Vorteile durch CO2-Düngung, einer geringeren, von kaltem Wetter verursachten Sterblichkeit, geringere Industriekosten wie Kosten für Konstruktion, mehr urbare Landflächen und geringere Heizkosten übersteigen eventuelle schädliche Auswirkungen durch Erwärmung bei Weitem auf globaler Basis.

Abbildung 3: Soziale Kosten von Kohlenstoff in US-Dollar pro Tonne CO2 einschließlich Best Estimate, wahrscheinliche (17% bis 83%) und extrem wahrscheinliche (5% bis 95%) Unsicherheits-Bandbreiten. Die Unsicherheits-Bandbreiten enthalten nicht die Unsicherheit in Verbindung mit dem Milleniums-Erwärmungszyklus oder dem UHI.

A longer, technical version of this article, with a section on Alberta’s climate plan, and references is available in PDF format at http://www.friendsofscience.org/index.php?id=2205

The data and calculations are at http://www.friendsofscience.org/assets/files/SCC_Lewis_CS_2.xls Excel spreadsheet.

Link: https://wattsupwiththat.com/2016/05/21/the-economic-impact-of-greenhouse-gas-emissions/

Übersetzt von Chris Frey EIKE




Lenz 2016 in Deutschland- zeitweise deutlich unterkühlt – wo bleibt die „Klimaerwärmung“?

Bild rechts: Launischer, zeitweise kalter Lenz 2016: In Streifen fällt der Graupel aufs Land. Foto: Stefan Kämpfe

Zunächst werfen wir einen Blick auf die Entwicklung der Frühlingsmitteltemperatur in Deutschland und in Zentralengland während der letzten 30 Jahre mit 2016:

Abb. 1: In Deutschland wurde der Lenz seit 1987 etwas wärmer, in Zentralengland ist fast kein Erwärmungstrend erkennbar, obwohl selbstverständlich auch dort die Kohlendioxid- Konzentration merklich angestiegen ist. Es muss also andere Ursachen für das unterschiedliche Temperaturverhalten geben. Die Werte für 2016 sind geschätzt und können um +/- 0,2°C abweichen, was auf den Trend und die Gesamtaussagen keinen Einfluss hat.

Nun umfassen 30 Jahre zwar einen laut WMO- Definition klimatisch relevanten Zeitraum und eine ganze menschliche Generation, trotzdem sind sie wegen der relativ großen Streuung zu kurz, um völlig sichere Aussagen zu treffen. Deshalb sollte zur Ermittlung der wesentlichen Einflussgrößen auf die Frühlingstemperaturen ein längerer Zeitraum betrachtet werden. Es zeigt sich ein deutlicher Anstieg der Frühlingswerte sowohl in Deutschland als auch in Zentralengland. Eine erste, mögliche Einflussgröße auf das Temperaturverhalten im Frühling liefert die Abbildung 2 gleich mit:

Abb. 2: Die Atlantische Mehrzehnjährige Oszillation (AMO, eine Schwankung der Wassertemperaturen im Nordatlantik, oberste Kurve), stieg seit 1856, dem Beginn ihrer Erfassung, merklich an und weist außerdem eine etwa 70ig jährige Rhythmik mit Maxima von den späten 1930er bis 1950er und den 1990er bis in die 2000er Jahre auf. In den AMO- Maxima waren auch die Frühlingstemperaturen in Zentralengland (Mitte) und in Deutschland (unten) tendenziell erhöht. Seit etwa 2010 deutet sich eine Stagnation oder gar ein Rückgang aller Werte an; doch muss die weitere Entwicklung noch abgewartet werden.

Als weitere Erwärmungsursachen sind weiterhin die allgemeine Erholungsphase der Lufttemperaturen seit dem Ende der „Kleinen Eiszeit“ um 1900 sowie der Wärmeinseleffekt (durch zunehmende Bebauung und geänderte Landnutzung wurde es insgesamt deutlich wärmer) zu nennen. In früheren Artikeln hatten wir festgestellt, dass vor allem der April einen hohen WI-effekt aufweist. Vor allem aber kommen auch eine zunehmende Sonnenscheindauer sowie ein gehäuftes Auftreten wärmerer Großwetterlagen, das sind im Frühling Zentralhochlagen und solche mit südlichem Strömungsanteil, in Betracht. Verlässliche, langjährige Aufzeichnungen sind bezüglich der Sonnenscheindauer leider nur selten. Mit Potsdam fanden wir aber eine Station, deren Reihe bis ins späte 19. Jahrhundert zurückreicht:

Abb. 3: Die Frühlingstemperaturen in Potsdam (grün) stiegen gemeinsam mit der Häufigkeit erwärmend wirkender Großwetterlagen (rot, Mitte) und der Sonnenscheindauer (gelb, unten). Um die sehr verschiedenen Messgrößen in einer Grafik veranschaulichen zu können, wurden Indexwerte berechnet.

Tendenziell nahm die Sonnenscheindauer im Frühling in Potsdam um fast 60 Stunden zu, und die schon hoch stehende Sonne wärmt in dieser Jahreszeit kräftig. Ursachen der gestiegenen Sonnenscheindauer sind neben einer höheren Sonnenaktivität, welche weniger Kondensationskerne, tiefe Wolken und Nebel entstehen lässt, vor allem auch die Luftreinhaltemaßnahmen (ebenfalls weniger Lufttrübung und Kondensationskerne) sowie WI – Effekte, weil diese die absolute und die relative Luftfeuchtigkeit senken. Die Häufigkeitsentwicklung der Großwetterlagen in Mitteleuropa lässt sich noch etwas weiter, mit einiger Sicherheit bis 1881, zurückverfolgen. Die nächste Abbildung veranschaulicht die Häufigkeitsabnahme kalter Nord- und die Zunahme warmer südlicher und Zentralhochlagen:

Abb. 4: Seit 1881 nahm die Häufigkeit nördlicher Lagen in Mitteleuropa im Frühling um fast 8 Tage ab, die der südlichen aber um 13 und die der Zentralhochlagen (Großwettertyp HM) um 6 Tage zu.

Nicht wegen der gestiegenen CO2- Konzentrationen, sondern einhergehend mit der höheren Sonnenscheindauer und den häufigeren südlichen Wetterlagen sowie der zunehmenden Verstädterung (WI- Effekte), nahm die Zahl der Frosttage im Frühling insgesamt leicht ab. Leider sind hierüber keine deutschlandweiten Zahlen seit 1881 verfügbar. In Oldenburg soll die Zahl der Frosttage im Lenz zwischen 1954 und 2010 um 7,2 Tage abgenommen haben. (Quelle http://www.norddeutscher-klimamonitor.de/klimaentwicklung/messstation/osnabrueck/fruhling/frosttage/zeitreihe.html ). Die weitere Entwicklung wird selbst von den Verfechtern eines „CO2- verursachten Klimawandels“ als nicht sicher eingestuft. So schreibt etwa die Helmholtz- Gemeinschaft im Regionalen Klimaatlas Deutschland: „Nach dem aktuellen Stand der Forschung ist die Änderung der Frosttage in naher Zukunft (2016-2045) im Frühling im Vergleich zu heute (1961-1990) unklar. Einige Modelle zeigen eine Zu-, andere eine Abnahme. Die Spannbreite dieser Änderung kann zwischen -13 Tage und +1 Tag liegen. Innerhalb dieser Spannbreite sind alle Änderungen aus heutiger Sicht plausibel.“ (Quelle http://www.regionaler-klimaatlas.de/klimaatlas/2016-2045/fruhling/frosttage/deutschland/mittlereanderung.html ). Die große Unsicherheit solcher „Modellrechnungen“ wird also eingeräumt, und so bleibt unklar, ob die Anzahl der Frosttage im Lenz in den kommenden Jahrzehnten weiter ab- oder doch wieder etwas zunehmen wird.

Die Bedeutung der Großwetterlagen für die Temperaturverhältnisse zeigte sich im Frühling 2016 eindrucksvoll. Dieser Lenz war von großen Witterungs- und Temperaturgegensätzen geprägt. Drei beispielhafte Großwetterlagen sollen das verdeutlichen. Sowohl um den 25. April als auch um den 15. Mai herrschte sehr raue Witterung mit eisigen Nordwestwinden. Dabei gab es in der letzten Aprildekade verbreitet, Mitte Mai noch vereinzelt, Nachtfröste. Um den 25. April schneite es teilweise noch bis ins Flachland, und selbst der Deutsche Wetterdienst (DWD) musste zugeben: „Das winterliche Intermezzo trifft auch die Landwirtschaft. Wenn die Nachtfröste auch zumeist nur leichter Natur sind, treiben sie den Landwirten, Winzern und Obstbauern doch die Sorgenfalten auf die Stirn. Denn viele Pflanzen befinden sich derzeit in einem empfindlichen Stadium.“ (Quelle http://www.dwd.de/DE/fachnutzer/landwirtschaft/berichte/3-1__aktuelles/2016/Frostschaeden2016.html ).

Abb. 5a und 5b: Bodenwetterkarten des britischen Wetterdienstes (UKMO) vom 24. April (oben) und vom 15. Mai 2016 (unten). Aus Norden fließt sehr kalte Luft nach Deutschland. Manchmal wurde dieser Frühling deshalb auch als „Eisfrühling“ bezeichnet. Bearbeitet und ergänzt von Stefan Kämpfe

Es gab aber auch, wenngleich seltener, Phasen mit frühsommerlich warmer Witterung, bei denen schon einzelne Sommertage (Maximum mindestens 25°C) beobachtet wurden:

Abb. 6: Bodenwetterkarte des britischen Wetterdienstes (UKMO) vom 22. Mai 2016. Genau eine Woche nach der Pfingst- Kälte strömte kurzzeitig sehr warme Südluft nach Deutschland. Dabei wurden an diesem Tage in Jena 31°C gemessen- ein Temperaturanstieg um 20 Grad innerhalb nur einer Woche. Bearbeitet und ergänzt von Stefan Kämpfe

Man muss also die weitere Entwicklung der Großwetterlagenverhältnisse kennen, um Prognosen über die künftige Entwicklung der Frühlingstemperaturen zu treffen. Die schon erwähnte AMO beeinflusst vermutlich auch die Häufigkeitsverhältnisse der Großwetterlagen:

Abb. 7: Mit den steigenden Wassertemperaturen im zentralen Nordatlantik (AMO, grün) nahm die Häufigkeit der wärmeren Großwetterlagen mit Südanteil (rot) im Frühling deutlich zu, die der mit Nordanteil hingegen ab (Indexwerte).

In diesem Zusammenhang lohnt ein Blick auf die Entwicklung der Wassertemperaturen im Nordatlantik. Seit etwa 2 Jahren wird westlich der Britischen Inseln eine markante Kaltwasser- Zone beobachtet. Ob diese ein Vorzeichen der bevorstehenden AMO- Abkühlungsphase ist, muss noch abgewartet werden. Falls dies zutrifft, so dürften sich Nordwetterlagen im Frühling künftig wieder häufen; die relativ rauen Frühjahre 2015 und 2016 waren (möglicherweise) schon ein erster Vorgeschmack:

Abb. 8: Kaltwasserzone in Teilen des Nordatlantik (blau, negative Anomalien der Meeresoberflächentemperaturen von 0,5 bis etwa 3°C) als Vorzeichen einer baldigen Abkühlungsphase? Bildquelle: Amerikanischer Wetterdienst (NOAA)

Eine weitere Einflussgröße auf die Frühlingstemperaturen, speziell die des Aprils, welche nicht losgelöst von der Sonnenaktivität und der AMO betrachtet werden darf, ist der Umfang der Eisbedeckung im Nordpolarmeer:

Abb. 9: Wenn im arktischen Spätwinter (März) eine große Meeresfläche der Arktis eisbedeckt war, so fiel der April in Deutschland tendenziell kälter aus- möglicherweise begünstigte das dann größere Kältereservoir Kälteeinbrüche aus dem Norden. Seit 1979 nahm die Meereisbedeckung der Arktis stark ab, was eine direkte Folge der hohen Sonnenaktivität und der AMO- Warmphase ab den 1990er Jahren war. Möglicherweise deutet sich auch hier eine baldige Trendwende zu wieder mehr Arktiseis, einhergehend mit fallenden April- Werten in Deutschland, an.

Der verborgene Wärmeinseleffekt in den deutschen Frühlingstemperaturen

Seit vielen Jahrzehnten erleben wir eine Urbanisierung in die freie Naturfläche hinein; momentan werden täglich 110 ha Land weiter überbaut oder versiegelt. Und nahezu alle deutschen Wetterstationen stehen mehr oder weniger in diesen Zonen der Bebauung, eben dort, wo auch die Menschen wohnen und arbeiten. Nur wenige Stationen sind so geblieben, wie sie vor über 30 Jahren noch waren. Mit Amtsberg-Dittersdorf haben wir eine gefunden.

Abb. 10: In der Grafik sind die Frühlingstemperaturen des DWD-Deutschland- Mittels mit denen der fast WI-freien Station Amtsberg seit 1982 verglichen. Die beiden Trendlinien zeigen einen deutlichen Unterschied. In der freien Fläche Deutschlands, erfasst durch den kleinen Ort Amtsberg- Dittersdorf im Erzgebirge (blaue Linie), ist der minimale Anstieg der Frühlingstemperaturen, also der des Gesamtmittels der Monate März bis Mai, nicht signifikant. Man könnte die Trendlinie auch als eben bezeichnen.

Die folgenden 2 Bilder veranschaulichen den Wärmeinsel (WI)- Effekt eindrucksvoll:

Abb. 11a und 11b: Beide Aufnahmen entstanden am 8. Mai 2016 in gleicher Höhenlage. Links die Ortschaft Hüttlingen (nahe der Schwäbischen Alb), in der die Vegetation (Laubaustrieb, Gehölzblüte, Graswuchs) sichtbar weiter fortgeschritten ist, als in dem nur wenige Kilometer entfernten, ungestörtem Waldgebiet. Fotos: Josef Kowatsch

Ergebnis: WI-bereinigt haben wir in Deutschland eine Stagnation der Frühlingstemperaturen seit 35 Jahren.

Die Vegetationsentwicklung im Frühling- kein eindeutiger Verfrühungstrend.

In den „meteorologischen“ Frühling fällt immer die phänologische Jahreszeit Vollfrühling (Beginn der Apfelblüte, April bis Mai), meist auch der Frühsommer (erste Holunderblüten im Mai, seltener im Juni) und teilweise der Erstfrühling (Laubaustrieb der Wildstachelbeere im Februar oder März, mitunter erst im April). Einer der Autoren hat die Entwicklung dieser 3 Jahreszeiten seit 1990 in Weimar dokumentiert:

Abb. 12: Die generell immer in den Frühling fallende Apfelblüte zeigte in Weimar seit 1990 keinen Verfrühungstrend. Im relativ rauen Frühling 2016 begann sie am 21. April, was als mittelspät einzuordnen ist. Der Erstfrühling, welcher hauptsächlich von den Temperaturverhältnissen des Winters gesteuert wird, verspätete sich leicht, während sich der Frühsommer (Holunderblüte) leicht verfrühte, weil der April insgesamt etwas wärmer wurde. Wegen der großen Streuung und des geringen Beobachtungszeitraumes sind diese Trends aber nicht signifikant- insgesamt gab es also während der letzten knapp 3 Jahrzehnte keine besorgniserregende Vegetationsverfrühung.

Häufiger wird, so auch vom DWD, erst der Beginn der Forsythienblüte (meist März/April) als Eintrittszeitpunkt des Erstfrühlings angesehen. Hier existiert eine längere Beobachtungsreihe aus Hamburg, die sogar schon seit 35 Jahren eine Stagnation zeigt:

Abb. 13: Obwohl inmitten der großen Wärmeinsel Hamburg gelegen, stagniert der Eintritt der Forsythienblüte seit 35 Jahren. Ab 33 Jahren Betrachtung zeigt die Trendlinie bereits eine leichte Verspätung an. Für die Forsythienblüte sind die Temperaturen des Zeitraumes von Februar bis Anfang April ausschlaggebend.

April und Mai 2016 waren im Süden kälter, vor allem kälter als letztes Jahr. Das zeigen die beiden folgenden Fotos vom selben Standpunkt. Man beachte den Weißdornbusch in der Bildmitte. Die obige Aufnahme stammt vom 17. Mai 2015, die darunter vom 26. Mai 2016. Vor allem die kalten Eisheiligen und die Sonnenscheinarmut des Mai insgesamt bewirkten im Süden Deutschlands einen regelrechten Vegetationsstopp. Bereits blühende Apfelbäume sind erfroren.

Abb.: 14a und 14b: Zwei Aufnahmen im Süden Deutschlands vom gleichen Standort am 17. Mai 2015 (oben) und am 26. Mai 2016. Man sieht deutlich den Vegetationsunterschied. Der Weißdornbusch in der Bildmitte (Hintergrund) hat im kalten Mai 2016 auf dem unteren Bild selbst 10 Tage später, also Ende Mai, noch keine Blüten. Auch die roten Purpurglocken auf dem hinteren Umfassungs- Stein sind erst am Aufblühen. Fotos: Josef Kowatsch

Man beachte: 2016 ist ein Schaltjahr. Das untere Bild wurde also 10 Tage später aufgenommen. An dem Weißdornbusch in der Bildmitte waren lediglich von der Nähe kleine weiße Blütenknospen und Einzelblüten zu erkennen.

Viele Kälterückfälle kennzeichneten den Frühling 2016. Diese bremsten, teils mit Frost und Schnee, die Vegetationsentwicklung, wobei der Frühling, insbesondere der Mai, diesmal im Süden deutlich sonnenscheinärmer und kälter war als in der Nordhälfte Deutschlands. Im Süden betrugen die Tageshöchsttemperaturen an Pfingsten nur 8°C. Weihachten 2015 war im Süden wärmer als Pfingsten 2016. Aber auch weiter im Norden kam es während des Frühlings zu Rückschlägen, vor allem in der Nacht vom 31. März zum 1. April zu massiven Schneefällen am Südrand des Thüringer Beckens. Für wenige Stunden schneiten die ersten Frühlingsblüten ein:

Abb. 15: Nasser Schnee bedeckte am ersten Aprilmorgen im Großraum Erfurt/Weimar die teils schon blühenden Gehölze und löste ein massives Verkehrschaos aus. Gut 3 Wochen später schneite es in den höheren Lagen der Mittelgebirge nochmals kräftig. Foto: Stefan Kämpfe

Zumindest im Thüringer Becken blieben wesentliche Frostschäden aber aus; die Obstbäume zeigten einen guten Fruchtansatz. Dafür bremste zwischen Ende April und dem 22. Mai eine vierwöchige Dürreperiode die Vegetationsentwicklung in Mitteldeutschland; in diesem Zeitraum fielen an manchen Orten lediglich 1 bis 5 mm Regen. Gleich wurde wieder der „böse Klimawandel“ für die Trockenheit verantwortlich gemacht. Ein Blick in die langjährigen Aufzeichnungen zeigt jedoch: Mai- Dürre ist nichts Ungewöhnliches; so fielen 1990 in Thüringen mit nur 14 mm deutlich weniger Niederschläge als 2016, auch 2011, 2008, 1988, 1919, 1918, 1909, 1896 und 1888 war es hier mit weniger als 30 mm im Mai sehr trocken. Und mit den kräftigen Regenfällen entspannte sich die Situation ab dem 23. Mai deutlich. Die langfristige Entwicklung der Mai- Niederschläge gibt denn bislang auch keinen Grund zur Sorge, sie zeigt für Thüringen sogar einen geringen (nicht signifikanten) Anstieg:

Abb. 16: Trotz dreier relativ trockener Mai- Monate 2014, 15 und 16 in Folge (2016 ist hier noch nicht enthalten, weil die Werte zu Redaktionsschluss noch nicht vorlagen) nahmen die Mai- Niederschläge bei enormen Schwankungen sogar etwas zu; der Anstieg ist nicht signifikant.

Fazit: Der langfristige, leichte Anstieg der Frühlingstemperaturen in Deutschland ist eine Folge der Erholung der Temperaturen seit der „Kleinen Eiszeit“, der Häufung wärmerer südlicher und Zentralhochlagen, einer längeren Sonnenscheindauer, der geänderten Landnutzung (Bebauung, Entwässerung) und der AMO- Warmphase, verbunden mit einem starken Rückgang der vom Meereis bedeckten Flächen in der Arktis. In naher Zukunft könnte das Ende der AMO- Warmphase die Erwärmung im Frühling beenden; möglicherweise hat diese Trendwende mit den relativ rauen Frühjahren 2010, 2013, 2015 und 2016 schon begonnen; doch muss hier die weitere Entwicklung noch abgewartet werden. Selbst die Klimaforschungsinstitute räumen ein, dass die weitere Entwicklung, so etwa die Anzahl der Frosttage im Frühling, nicht sicher vorhergesagt werden kann. Auch längere Dürreperioden im Frühling, wie sie 2016 zu beobachten waren, sind nichts Ungewöhnliches und kein Hinweis auf einen besorgniserregenden „Klimawandel“.

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, unabhängiger Natur- und Klimaforscher




Die Klimapfadfinder: Wie man in Bayern dem Klima helfen will

Bayerische Klima-Allianz [1]:

Der Klimawandel ist längst in Bayern angekommen – er ist spür- und messbar. Die Durchschnittstemperatur ist hierzulande zwischen 1931 und 2010 um rund 1,1°C gestiegen, im sensiblen Alpenraum sind die Temperaturen in den letzten 100 Jahren sogar doppelt so stark gestiegen wie im weltweiten Durchschnitt. Bayern bleibt von den unvermeidbaren Veränderungen des Klimawandels nicht verschont. Wir erwarten zukünftig mehr Extremwetterereignisse, nassere Winter und trockenere Sommer. Die Folgen dieser Entwicklungen zeigen sich auch in den Kommunen in Bayern und wirken sich auf das Leben der Menschen aus.

Von dieser Aussage stimmt alleine das mit den Mittelwert- Temperaturen so ungefähr, weil die Kälte abnahm, während die Maximaltemperatur sich nicht veränderte, bzw. in Bayern um max. 0,1 Grad in den letzten 33 Jahren. Alle Aussagen können genau so gut auch ohne Klimawandelbezug gelten, da die Klimavariabilität in Bayern derzeit gering ist und Änderungen wie sie gerade in vorindustrieller Zeit extrem auftraten immer wieder eintreten können, bzw. auch zu erwarten sind. Details kann man in den folgenden Publikationen nachlesen:

– Wie sich der Klimawandel-Einfluss in Bayern wirklich darstellt: [2] „Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?“

– Was die Simulationsmodelle (nicht) sagen: „Rezension: UBA Studie 24/2015 Die Vulnerabilität Deutschlands gegenüber dem Klimawandel“

– Dass es in den Alpen nicht überall wärmer wird: [4] [5] „Eine Analyse aktueller Temperatur- und Schneemessreihen aus den Ostalpen

Wie unspektakulär sich die Temperatur Bayerns entwickelt hat, zeigt das Verlaufsbild aus dem Klimaatlas Bayern. Eine angebliche gefährliche Überhitzung liegt nicht vor. Der Mittelwert stieg vor allem weil es nicht mehr so kalt wird, was man eher begrüßen sollte (sofern es nicht einfach einem Wärmeinseleffekt geschuldet ist). Keiner Klimaprojektionen gelang es, den aktuellen Mittelwert richtig zu simulieren, was über deren miserable Aussagefähigkeit Bände spricht.

Zur Information wie unter-alarmistisch sich die Temperatur auf Bayerns höchstem Berg und damit in den Alpen zeigt, in Rot der Temperaturverlauf der Zugspitze seit 1900. Dort hat es sich nur halb so stark erwärmt wie die Fläche Bayerns. Die Alpen sind demnach bisher wohl doch nicht übermäßig vom Klimawandel betroffen.

Bild 1 Temperaturverlauf Bayern. Vom Autor mit dem Verlauf der Zugspitze sowie Erklärungen und Hilfslinien ergänzt. Quelle: DWD Deutscher Klimaatlas Bayern

Wenn etwas zu retten ist, muss Planung her. So etwas hat auch Bayern und wie eine solche konkret aussieht, ist im folgenden Bild dargestellt. Dabei wurde wirklich intensiv nachgedacht. Man beachte die Reihenfolge: Zuerst auf Energie verzichten und den Rest dann durch Ausbau der Erneuerbaren (versuchen zu) erzeugen. Das ist schon einmal um Welten „fundierter“ als im Rest von Deutschland, wo bei gleich bleibendem Energiebedarf, also im Zustand 0 der 3. Sprung vorgezogen wurde.

Bild 2, Quelle: www.energieatlas.bayern.de/energieatlas/energiedreisprung.html

Es überrascht, dass sich das Klima vor allem durch energetische Maßnahmen und das EEG retten lassen soll. Man könnte meinen, es handelt sich um eine Gehirnwäsche-Strategie zur Verschleierung der EEG-Problematik, indem diese dem Bürger als „alternativlos“ verkauft wird. Gehirnlos ist zumindest das, was das Bayerische Umweltministerium dazu mit dem Bildtext zur nächsten Abbildung vermeldet.

Bild 3, (Vermutung des Autors) Endlich auch für Oberbayern zugelassene Windrad-Ausführung.

Bildquelle: www.energieatlas.bayern.de/energieatlas/energiedreisprung/erneuerbareenergien.html

Original-Bildtext: Sonne und Wind stehen unbegrenzt zur Verfügung – kostenlos!

Bayerische Klimaallianz: KLIMAWANDEL MEISTERN

Pfadfindern wird aufgetragen, jeden Tag eine gute Tat zu vollbringen. Von den ehemaligen Ostblockstaaten und aktueller von Nordkorea sind solche Verpflichtungen für die Bevölkerung und Institutionen bekannt und nahmen / nehmen dort oft exzessive und im damaligen „Westen“ oftmals belächelte Formen an. Inzwischen erwartet man solche Ergebenheitsbekundungen in Form übernommener Verpflichtungen zu von Führerinnen vorgegebenen Vorwärtssprüngen allerdings auch (wieder) in Deutschland. Leider koppelt sich Bayern dabei nicht vom Rest Deutschlands ab, sondern macht wie immer in der Geschichte Gesamtdeutschlands eifrig mit.

Interessant ist, wie problemlos sich Führungskräfte vor solche Ideologien spannen lassen und vor allem, wie wenig ihnen dabei einfällt, wo es doch um die Rettung der Welt geht. Sofern auch nur Einer dieser „Intelligenz“ wirkliches Interesse an einer „Weltrettung vor dem alltäglichen Klimawandel“ hätte, müsste er sich fragen lassen, ob seine Maßnahmen wirklichen Klimanutzen generieren. Doch nirgendwo in den vielen (immer gleichen) Maßnahmen taucht auch nur der leiseste Hinweis auf, dass man den Sinn hinterfragen sollte oder will. Beim Durchlesen fragt man sich eher, wann die erste Gemeinde ihr Ortsschild um das Plakat „CO2 freie Gemeinde Deutschlands“ ergänzt, wie es bei Liegenschaften mit dem Wahn zur Klimaneutralität und den „Energie-autarken“ Gemeinden bereits der Fall ist.

Um eine Wirkung auf das Klima zu erzielen, dürfte keines der gelisteten Projekte auch nur entfernt geeignet sein. Für eine soziologische Studie wie problemlos es einer Führerin gelingen konnte, in einer Demokratie eine Meinungshoheit zu erringen dürften sie jedoch ausreichen.

Intelligenz ist eben dehnbar, wie es Claudia Roth in einer Talkshow mit der folgenden Aussage bewies: „Wer den (anthropogenen) Klimawandel leugnet, kann nicht intelligent sein“. Es gab nur schon Vieles in der Geschichte, das man eine Zeit lang nicht leugnen durfte und sich hinterher als falsch herausgestellt hat. Nur Religionen überleben solches problemlos und in diesen Zustand ist die Klimahysterie als Ökokirche bereits angelangt.

Projekte zur Klimarettung

Um zu zeigen, mit welchem Einfallsreichtum, Genialität und Wirksamkeit von teuren Führungskräften geleitete Institutionen verkünden die Welt zu retten, hat der Autor aus den Projektbeschreibungen der beteiligten Institutionen wesentliche Vorschläge gelistet.

Der Verdacht drängt sich auf, da könnte in der Bekundungsnot einmal ein Zettel herumgereicht worden sein von dem jeder abschreiben durfte. Geradezu richtungsweisend aber repräsentativ bezüglich der Empathie zum Thema, Ideenreichtum und Klimawirkung erscheint dem Autor das Bild der Lutherisch-Evangelischen Kirche. Danach kann man das Lesen einstellen, denn es wiederholt sich alles. Der Autor hat deshalb nicht wie sonst üblich zum Schluss noch ein Kapitel angehängt.

Bild 2 [1] Teilnehmer der Klimaallianz Bayern

Vorschläge von Führungskräften, wie man das Weltklima retten kann

Evangelisch-Lutherische Kirche in Bayern

Klimaschutz und ein nachhaltiger Lebensstil sind Ziele, die in allen Angeboten der ELKB in den nächsten Jahren verstärkt zum Tragen kommen sollen. Bewusstseinsbildung bei und mit den einzelnen Gemeindegliedern gehört dazu genauso wie faire und nachhaltige Beschaffung in kirchlichen Tagungshäusern und anderen Einrichtungen und die konsequente energetische Sanierung der kirchlichen Gebäude.

Bild 3, Quelle: Klimaallianz Bayern, Projekte der Evangelisch-Lutherischen Kirche

Katholische Kirche: Die sieben Bayerischen (Erz-)Bistümer

… die vielfältigen Möglichkeiten der Bildungs- und Umweltarbeit engagiert wahrnehmen, um das Verantwortungsgefühl der Menschen für nachhaltige Entwicklung und insbesondere den Klimaschutz zu wecken,

die Förderung zukunftsfähiger Lebensstile und die Verankerung der Generationengerechtigkeit und der globalen Verantwortung im Bewusstsein des Einzelnen und der Gesellschaft,

energetische Optimierung der eigenen Liegenschaften, Maßnahmen zur Energieeinsparung und verstärkter Einsatz erneuerbarer Energien.

Umweltauditoren sorgen für Maßnahmen in katholischen Gemeinden, die ihren ökologischen Fußabdruck nachhaltig reduzieren

Bayerischer Landkreistag

die kommunale Selbstverwaltung auf Kreisebene zu Maßnahmen im Klimaschutz motivieren,

die Mitwirkung der Bevölkerung an der selbstverantwortlichen Gestaltung des öffentlichen Lebens im Sinn eines nachhaltigen Klimaschutzes in den Landkreisen unterstützen,

den Landkreisen Empfehlungen zum nachhaltigen Klimaschutz zur Verfügung stellen,

Bayerische Architektenkammer

Aus Sicht der Architekten bedeutet nachhaltige Klimaschutzpolitik, in Politik, Wirtschaft und Öffentlichkeit ein entsprechendes Bewusstsein zu schaffen, breit angelegte Informationen bereit zu stellen, Handlungsmöglichkeiten aufzuzeigen und alle gesellschaftlichen Gruppen einzubeziehen.l

Beispiele

Klimadetektive gehen auf Spurensuche in Bayerns Schulen

Verleihung des Klimadiploms

Bund deutscher Architekten

Die Bayerische Staatsregierung, die Architektenschaft und die Ingenieure im Bauwesen in Bayern stimmen darin überein, dass weitere Potenziale für mehr Energieeffizienz und Energieeinsparung sowohl in der Erstellung, dem Betrieb und Unterhalt von Gebäuden als auch in der Stadt- und Siedlungsentwicklung, im Verkehrs- und Infrastrukturbereich sowie bei Produktionsprozessen ausgeschöpft werden müssen.

Die Bündnispartner werden sich für eine verstärkte Bewusstseinsbildung und Information einer breiten Öffentlichkeit einsetzen, zudem soll der berufliche Nachwuchs so ausgebildet werden, dass er den aktuellen und künftigen globalen Anforderungen des Klimaschutzes und der Anpassung an den Klimawandel kompetent und innovativbegegnen kann.

Bayerische Ingenieurkammer-Bau

Unsere Mitglieder setzen sich dafür ein, Potenziale für mehr Energieeffizienz und Energieeinsparung auszuschöpfen. Geboten ist dies sowohl in der Erstellung, dem Betrieb und Unterhalt von Gebäuden als auch in der Stadt- und Siedlungsentwicklung, im Verkehrs- und Infrastrukturbereich sowie bei Produktionsprozessen. Es gilt, lokal vorhandene Ressourcen effizient einzusetzen.

Landesbund für Vogelschutz

Zentrales Anliegen des LBV ist es, dass die Themen Nachhaltigkeit und Erhalt der Biodiversität auch  beim Klimaschutz und dem Ausbau der regenerativen Energien ein herausragende Rolle spielen. So müssen beim Ausbau der regenerativen Energien die Inhalte der Bayerischen Biodiversitätsstrategie berücksichtigt werden. Maßnahmen zum Klimaschutz dürfen nicht zu Lasten der Biodiversität gehen.

Der LBV verfolgt zusammen mit den Partnern in der Bayerischen Klima-Allianz und der Bayerischen Staatsregierung ehrgeizige Klimaschutzziele zur Energieeinsparung, zur Steigerung der Energieeffizienz und beim umweltverträglichen Ausbau erneuerbarer Energien.

Über vielfältige Veranstaltungen im Bereich Umweltbildung soll das Bewusstsein für die Notwendigkeit, Maßnahmen zum Klimaschutz rasch und nachhaltig zu ergreifen, in der Bevölkerung aber auch in der Politik verankert werden.

Landesinnungsverband des Bayerischen Zimmererhandwerks

Über ein Viertel des gesamten deutschen Endenergieverbrauchs dient dem Heizen. Und der Aufwand für das Bauen selbst – das Herstellen der Baumaterialien und Bauprodukte – ist mit einem Energieverbrauch verbunden, der oft so hoch ist wie der für jahrzehntelanges Heizen. Das Bauen und das Heizen gehören also zu den größten Energieverbrauchern und CO2-Emittenten überhaupt. Doch glücklicherweise weisen sie auch hohe Einsparpotenziale auf. Die werden allerdings bisher aus Mangel an Wissen nur ungenügend ausgeschöpft. Deshalb ist hier noch viel Aufklärungsarbeit zu leisten!

Sparkassenverband Bayern

Mit dem Beitritt zur Bayerischen Klima-Allianz bestätigt der Sparkassenverband Bayern seine strategische Positionierung und das Bekenntnis zum Umwelt- und Klimaschutz und unterstützt die bayerischen Sparkassen bei der Optimierung und Umsetzung von Maßnahmen zum Umwelt- und Klimaschutz.

Allgemeiner Deutscher Fahrrad-Club e.V.

Ziel ist eine zukunftsfähige Mobilität, die die Potentiale des Radverkehrs, auch in Kombination mit anderen Verkehrsmitteln, zum Klimaschutz nutzt.

C.A.R.M.E.N e.V.

Im Rahmen der Bayerischen Klimaallianz wird C.A.R.M.E.N. e.V. im Verbund mit den Klima-Allianzpartnern weiterhin bei vielen Veranstaltungen, Seminaren und Beratungen über die ökonomisch sinnvollen, ökologisch nachhaltigen und technisch machbaren Anwendungen von nachwachsenden Rohstoffen für die energetische und industrielle Nutzung informieren und einen Treibhausgas-emissionsarmen Weg in die Zukunft weisen, in der ein weiter anwachsender Energiebedarf zunehmend mit erneuerbaren Energien gedeckt werden kann.

In Zusammenarbeit mit interessierten Bürgern, kommunalen Beauftragten, Wissenschaftlern und Vertretern der Wirtschaft werden Projektumsetzungen realisiert, bei denen sowohl ressourcenschonende und umweltfreundliche als auch wirtschaftliche Lösungen nicht nur modellhaften Charakter haben, sondern zur Standardlösung reifen sollen.

Verband der Bayerischen Entsorgungsunternehmen (VBS)

Mit einer jährlichen Einsparung von rund 13 Millionen Tonnen klimaschädlichem CO2 trägt die bayerische Abfallwirtschaft ganz erheblich zum Klimaschutz bei. Die größten Einzelbeiträge stammen aus der Verbrennung von Restabfällen in Müllverbrennungsanlagen, aus dem Recycling sowie dem Verzicht auf die Deponierung von Abfällen. Neben dem Recycling der Abfälle tragen ressourcen- und energieeffiziente Prozesse und Ausstattungen in den Entsorgungsunternehmen zum Klimaschutz bei. So nutzen viele VBS-Mitgliedsfirmen Fahrzeugflotten nach Euro-V. Einige Unternehmen haben bereits auf Hybridbasis betriebene Müllfahrzeuge im Einsatz.

VerbraucherService Bayern im Katholischen Deutschen Frauenbund e.V. (VSB)

Nach seinem Beitritt zur Bayerischen Klima-Allianz wird mit dem Projekt „Klimafreundlich mobil“ speziell auf die hohen Einsparpotentiale von Kohlendioxid und Feinstaub auf kurzen Strecken eingegangen und Alternativen veranschaulicht.

Bayerischer Volkshochschulverband e.V.

… Sie möchten verstärkt Bildung für nachhaltige Entwicklung (BNE) für die jährlich 3 Millionen Teilnehmer, Multiplikatorenschulungen für Kursleiterinnen und Kursleiter im Bereich BNE sowie berufliche Fort- und Weiterbildung von Fachkräften anbieten. Im eigenen Bildungsbetrieb soll Energie eingespart und effizienter genutzt werden. Kommunale und landesweite Netzwerke und Aktionen werden unterstützt.

Bayerischer Jugendring

Als Bündnispartner der Klima-Allianz der Staatsregierung knüpft der BJR mit anderen Organisationen ein breites Netz, um die Wichtigkeit des Themas für alle Gesellschaftsbereiche zu verdeutlichen. Auch in anderen Gremien wie dem Arbeitskreis Bildung für nachhaltige Entwicklung verfolgt der BJR Ansätze, um Bildungsprozesse neu zu gestalten und das Thema "nachhaltige Entwicklung" in der Jugendarbeit aktiv mitzugestalten.

Landesverband der steuerberatenden und wirtschaftsprüfenden Berufe in Bayern

Orientierung für die Energiewende bietet das Prinzip des "Energie-Dreisprungs": Energie muss eingespart, herkömmliche Energieformen müssen effizienter genutzt und erneuerbare Energien ausgebaut werden. Im Rahmen ihrer Tätigkeit können Steuerberater an dieser Stelle großen Einfluss nehmen.

Quellen

[1] Bayerisches Staatsministerium für Umwelt und Verbraucherschutz: Bayerische Klimaallianz KLIMAWANDEL MEISTERN

http://www.klimawandel-meistern.bayern.de/index.htm#MainHeader

[2] EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

http://www.eike-klima-energie.eu/news-cache/die-bayerische-umweltministerin-frau-scharf-extremwetter-extrem-hochwasser-und-die-unberechenbarkeit-des-wetters-nehmen-zu-doch-stimmt-das-wirklich/

[3] EIKE 07.02.2016: Der Himmel fällt uns auf den Kopf und ohne die Glaskugel im Computer würden wir es nie erfahren

Rezension: UBA Studie 24/2015 Die Vulnerabilität Deutschlands gegenüber dem Klimawandel

http://www.eike-klima-energie.eu/news-cache/der-himmel-faellt-uns-auf-den-kopf-und-ohne-die-glaskugel-im-computer-wuerden-wir-es-nie-erfahren/

[4] Hufflington Post 21.11.2013: Die Alpen trotzen der Klimaerwärmung – doch keiner will es hören!

http://www.huffingtonpost.de/dominik-jung/die-alpen-trotzen-der-kli_b_4300905.html

[5] Querschuesse.de, 9. Oktober 2014, Gastbeitrag vom Von Skitourismus-Forscher Günther Aigner, Kitzbühel (Österreich):

Eine Analyse aktueller Temperatur- und Schneemessreihen aus den Ostalpen

http://www.querschuesse.de/eine-analyse-aktueller-temperatur-und-schneemessreihen-aus-den-ostalpen/

[7]

Glitzerwasser: Frau Merkel und die Ordnung im Kanzleramt

http://glitzerwasser.blogspot.de/2016/05/frau-merkel-und-die-ordnung-im.html

Bundesregierung Homepage: Rede von Bundeskanzlerin Merkel im Rahmen der Plenarsitzung beim World Humanitarian Summit am Montag, 23. Mai 2016

https://www.bundeskanzlerin.de/Content/DE/Rede/2016/05/2016-05-23-merkel-plenarsitzung-whs.html




Bemerkungen zur Energiewende

Das Stromversorgungsnetz ist ein sensibles physikalisches System, dem man nicht mit grünen Phantastereien, kaufmännischen Gesichtspunkten und einer möglichst großen Anzahl von Solar- und Windkraftanlagen gerecht wird, da gehört mehr dazu. Erzeugungsanlagen auf Basis erneuerbarer Energien können die physikalischen und elektrotechnischen Anforderungen an die Systemsicherheit des Stromnetzes nur unzureichend erfüllen. Im Rahmen der Netz- und Systemregeln der deutschen Übertragungsnetzbetreiber sind für die Funktionstüchtigkeit des Netzes eine Reihe von Systemdienstleistungen zu erbringen, hier in Stichworten aufgelistet: Kurzschlussleistung, Schwarzstartfähigkeit, Frequenzregelung, Momentanreserve, statische und transiente Stabilität, Blindleistung, Inselnetzbetrieb u.s.w. Diese Anforderungen an das Stromversorgungsnetz werden in allen Diskussionen völlig ausgeblendet.

Überbordende Kraftwerksleistung. Bislang reichte eine verlässliche konventionelle Kraftwerksleistung von 120000 Megawatt aus, um die deutsche Höchstlast von rund 80000 Megawatt zu decken. Ab 2022 soll in Deutschland aber nach bisherigen Plänen der Bundesregierung eine Leistung von 230000 Megawatt vorgehalten werden, weil Sonne und Wind seltener bereitstehen als konventionelle Quellen. In allen 16 Bundesländern, in Nord- und Ostsee wird der hemmungslose Ausbau der erneuerbaren Energien ohne Sinn und Verstand vorangetrieben. Als die Welt in Deutschland noch in Ordnung war und die Stromerzeugungsanlagen von den Fachleuten der EVUs geplant wurden, da musste dem Wirtschaftsministerium nachgewiesen werden, ob das zu bauende Kraftwerk überhaupt kapazitätsmäßig erforderlich war. Außerdem musste begründet werden, welche Primärenergie und warum eingesetzt werden sollte, selbstverständlich musste ein Stromanschluss vorhanden sein. Nach einer Prognose der sog. Denkfabrik Agora, mit der das Wirtschaftsministerium eng zusammenarbeitet, beträgt die installierte Leistung im Jahre 2040 rund 280000 Megawatt.

Hohe Kosten für stabile Netze. Wenn der Zubau von Wind- und Sonnenstrom nicht deutlich gebremst wird, werden die Kosten für die Stabilisierung des Stromnetzes explosionsartig ansteigen. Hatten die Netzbetreiber dafür 2015 rund eine Milliarde Euro aufgewendet, befürchtet die Bundesnetzagentur, dass sich dieser Betrag in wenigen Jahren vervierfachen könnte. Um das System stabil zu halten, kommt es immer häufiger zu Eingriffen in den Einsatz von Kraftwerken. Diese Eingriffe werden aber nicht mehr nach Marktbedingungen, sondern nach den Erfordernissen der Netzstabilität durchgeführt. Darüber hinaus fürchten sich Deutschlands östliche Nachbarn vor einem Zusammenbruch ihrer Netze, falls deutscher Windstrom weiter ungehindert über die Grenze fließt. An der Grenze zu Polen und Tschechien ist deshalb der Bau von Phasenschiebertransformatoren geplant, die unerwünschte Stromexporte regulieren sollen.

Merkel Berater: EEG abschaffen. Eine vom Bundestag eingesetzte Expertenkommission rät, das EEG- Gesetz komplett abzuschaffen. Das EEG sei weder ein kosteneffizientes Instrument für den Klimaschutz, noch entfalte es eine messbare Innovationswirkung.                                                                                    Diese Energiepolitik ist ausschließlich gesinnungsethisch zu begründen, denn sie kann nun einmal keinen Beitrag zur Verringerung der Erderwärmung leisten, sagt Prof. Hans- Werner Sinn bei seiner Abschiedsvorlesung am 14.12.15 an der LMU München.

Negative Strompreise. Ein besonderes“ Highlight“ der Energiewende sind negative Strompreise. Negative Strompreise entstehen häufig dann, wenn ein überdurchschnittliches hohes Stromangebot aus fluktuierenden erneuerbaren Energien auf eine niedrige Nachfrage bspw. an Feiertagen oder Wochenenden trifft. Im Jahresdurchschnitt bewegen sich die negativen Preise zwischen  minus 5 und minus 60 Euro/MWh. Es gibt jedoch auch Preisausreißer im Bereich von minus 150 bis minus  500 Euro/MWh.

Der hohe Stromübertragungsbedarf vom Norden zum Süden soll ja bekanntlich nach den Plänen der Bundesregierung über sogenannte Hochspannungsgleichstromübertragungsstrecken, kurz HGÜ genannt,  erfolgen. Diese Nord- Süd- Autobahnen seien notwendig, um die stromintensive Industrie in Süddeutschland mit Windstrom anstelle von Atomstrom zu versorgen. Mit nicht steuerbarem Windstrom lässt sich aber kein steuerbarer Atomstrom ersetzen. Die bayrischen Kernkraftwerke haben eine Arbeitsverfügbarkeit von größer als 90 Prozent, während die Windenergie in Nord- und Ostsee auf 40 Prozent und an Land auf 20 Prozent Jahresverfügbarkeit kommt. Die Stromversorgung muss aber über 8760 Stunden im Jahr sichergestellt werden.                                                                            

Anders als im herkömmlichen Drehstromnetz haben die HGÜ- Trassen den Nachteil, dass sie nur einen Einspeise- und Ausspeisepunkt haben. Man kann nirgendwo unterwegs Strom abzweigen, um ihn in lokale Netze einzuspeisen. Außerdem: Fällt diese einzelne Leitung aus, hat man im Norden einen großen Energieüberschuss und im Süden einen erheblichen Energiemangel.

Fazit: Irrwitzige Einspeise- Subventionen für Ökostrom sorgen dafür, dass die modernsten Kraftwerke der Welt in Irrsching außer Betrieb genommem werden müssen. Die Momentanreserve und Regelenergie, die Blindleistungsbereitstellung zur Spannungshaltung und die Bereitstellung von Kurzschlussleistung zur Systemstützung im Fehlerfall erfolgt heute durch konventionelle Kraftwerke, deren Einsatzzeiten infolge des Ausbaus der Stromerzeugung aus erneuerbaren Energien sich zukünftig stark verringern werden und somit in Zukunft immer seltener für die Erbringung von Systemdienstleistungen zur Verfügung stehen. Zudem müssen die erneuerbaren Energien endlich aus dem Streichelzoo der risikolosen Profite in den Markt entlassen werden.

Anmerkung der Redaktion: Die hier vorliegende Version ist die Kurzfassung. Die Langfassung mit noch viel mehr Beispielen und Argumenten können sie als pdf Datei im Anhang herunterladen

Über den Autor

Wilfried Limbach; Geb. 1938; Dipl. Ing. für Elektrotechnik, war Bereichsleiter Elektrotechnik und für den Kraftwerksbetrieb ( 5 Blöcke mit ca. 2000 MW ) und den Umspannwerksbetrieb ( mit den Spannungsebenen 10 kV bis 380 kV ) zuständig. Er war 40 Jahre bei einem großen EVU tätig.

 

Related Files




Klimamodellierung dominiert Klimawissenschaft

Bild rechts: Der Supercomputer Cray Ecoplex von NOAA GAEA, der für Modellierungen am Oak Ridge Lab. benutzt wird. GAEA wurde finanziert durch eine Investition von 73 Millionen Dollar im Rahmen des American Reinvestment and Recovery-Gesetzes aus dem Jahr 2009, und zwar durch eine Partnerschaft zwischen der NOAA und dem Energieministerium.

Was wir gemacht haben

Wir fanden zwei Paare überraschender statistischer Verfahren. Hierzu durchsuchten wir zuerst die gesamte Literatur der Wissenschaft aus den letzten zehn Jahren mittels Google Scholar zum Thema Modellierung. Es gibt grob geschätzt 900.000 begutachtete Artikel in Journalen, in denen zumindest einmal die Wörter Modell, modelliert oder Modellierung vorkommen. Dies zeigt, dass der Gebrauch von Modellen in der Wissenschaft weit verbreitet ist. Das ist keine Überraschung.

Wenn wir diese Ergebnisse jedoch filtern dergestalt, dass gleichzeitig der Terminus Klimawandel auftaucht,passiert etwas Seltsames. Die Anzahl der Beiträge reduziert sich lediglich auf 55% der Gesamtzahl.

Mit anderen Worten, es sieht so aus, als wäre die Klimawissenschaft für ganze 55% aller Modellierungen verantwortlich, die in der gesamten Wissenschaft durchgeführt werden. Das ist eine gewaltige Konzentration, weil Klimawandel nur ein winziger Bruchteil der Wissenschaft als Ganzes ist. Im Forschungsbudget der USA schlägt die Klimawissenschaft lediglich mit 4% zu Buche, und nicht in der gesamten Klimawissenschaft geht es um Klimawandel.

Kurz gesagt: es sieht so aus, als würde in 4% Anteil der Gesamtwissenschaft, nämlich dem Anteil der Klimawissenschaft, etwa 55% aller Modellierungen im Bereich der Wissenschaft als Ganzes durchgeführt. Noch einmal, dies ist eine gewaltige Konzentration und hat in der gesamten übrigen Wissenschaft keine Entsprechung.

Als nächstes kommen wir zu dem Ergebnis, dass es bei der Suche des Terminus‘ Klimawandel allein nur wenig mehr Artikel gibt, als wir schon zuvor gefunden hatten. Tatsächlich macht die Anzahl der Klimawandel-Artikel, die einen der drei Modellierungs-Termini enthalten, 97% aller Artikel aus, in denen es um Klimawandel allein geht. Dies ist ein weiterer Beleg, dass die Modellierung die Klimawandel-Forschung vollständig dominiert.

Zusammenfassend lässt sich sagen, dass es so aussieht, als würden 55% aller Modellierungen in der gesamten Wissenschaft allein in der Klimawandel-Wissenschaft durchgeführt, obwohl diese nur einen winzigen Bruchteil der gesamten Wissenschaft ausmacht. Außerdem beziehen sich innerhalb der Klimawandel-Wissenschaft fast alle Forschungen (97%) in irgendeiner Form auf Modellierung.

Was bedeutet das?

Die Klimawissenschaft scheint sich wie besessen auf Modellierung zu konzentrieren. Modelle können ein nützliches Hilfsmittel sein, eine Art, Hypothesen auf ihre Implikationen abzuklopfen oder sie gegen Beobachtungen zu überprüfen. In den meisten Wissenschaften ist dies der Hauptzweck von Modellierungen.

Aber in der Klimawandel-Wissenschaft scheinen Modellierungen zu einem Selbstzweck geworden zu sein. Tatsächlich scheinen diese praktisch zum einzigen Forschungsgegenstand geworden zu sein. Das von den Modellierern oft genannte Ziel ist es, das Klima vorherzusagen, ähnlich wie Wettervorhersagen, im lokalen und regionalen Maßstab.

Das Problem hier lautet, dass das wissenschaftliche Verständnis von Klimaprozessen alles andere als geeignet ist, irgendeine Art sinnvoller Vorhersagen zu unterstützen. Die Klimawandel-Forschung sollte sich darauf konzentrieren, unser Verständnis dieser Prozesse zu verbessern, und nicht darauf, Ignoranz zu modellieren. Dies gilt vor allem, wenn es um jüngste langfristige natürliche Variabilität geht, welche die Modellierer permanent ignorieren. Es scheint, als ob die Modellierungs-Kutsche weit vor den wissenschaftlichen Zugpferden fährt.

Klimamodellierung ist nicht Klimawissenschaft. Außerdem scheint sich die tatsächlich durchgeführte Forschung zum Thema Klimawandel weitgehend auf die Verbesserung der Modelle zu konzentrieren. Damit wird suggeriert, dass die Modelle im Grunde korrekt sind, dass die Wissenschaft settled ist. Das ist alles andere als richtig.

Die Modelle pflegen im Grunde die Hypothese des vom Menschen verursachten Klimawandels. Die natürliche Variabilität kommt nur als kurzfristiger Einfluss ins Spiel, die langfristig vernachlässigbar ist. Aber es gibt eine Fülle von Beweisen, dass die langfristige natürliche Variabilität eine Hauptrolle bzgl. Klimawandel spielt. Wir müssen uns daran erinnern, dass wir erst seit Kurzem aus der jüngsten Pleistozän-Vereisung gekommen sind, und zwar vor etwa 11.000 Jahren.

Milliarden Forschungsgelder werden für diesen einen einseitigen Prozess aufgewendet. In der Zwischenzeit wird die zentrale wissenschaftliche Frage, nämlich die richtige Zuordnung der Faktoren des Klimawandels natürlichen im Gegensatz zu menschlichen Gründen, weitgehend außen vor gelassen.

Link: https://wattsupwiththat.com/2016/05/19/climate-science-appears-to-be-obsessively-focused-on-modeling-billions-of-research-dollars-are-being-spent-in-this-single-minded-process/

Übersetzt von Chris Frey EIKE




Klimamodelle funktionieren nicht

Der NOAA-Klimawissenschaftler und Aktivist Gavin Schmidt stellte die Arbeit von Dr. Christy in Frage und behauptete, dass seine Arbeit „parteiisch“ war und auf sehr schwammigen statistischen Argumenten beruhe, und dass Christy falsch dargestellt hatte, wie sich die Modelle machen. Diese Behauptungen des Wissenschaftlers in Diensten der Regierung Dr. Schmidt erregten das Interesse des Statistik-Experten Steven McIntyre, der einer der prominentesten Experten war bei der Entlarvung der betrügerischen Wissenschaft (Betrug bei den Proxys) und der falschen Mathematik (Statistik-Fehler), die hinter dem infamen und inzwischen vernichtend widerlegten, tausend Jahre langen Temperaturprofil stand, was unter der Bezeichnung „Hockeyschläger“ bekannt ist (hier, pdf).

Mr.McIntyre begutachtete die Behauptungen von Dr. Schmidt (hier) und fand heraus, dass seine Analyse, die das von Schmidt gezeigte Diagramm evaluiert, mit dem er seine Behauptungen gegen Schmidt vermeintlich untermauerte. McIntyre schrieb als Ergebnis dieser Evaluierung: „Zuerst diskutierte ich den Effekt einiger Fingerspielchen und zeigte dann, dass Schmidts Diagramm nach Entfernung der Fingerspielchen und im Vergleich mit statistischen Verteilungen Christys Arbeit eher bestätigt als ihm widerspricht“.

Außerdem zeigte Mr. McIntyre die Ergebnisse von Experten seiner Begutachtung der statistischen Ergebnisse von Dr. Christy, denen zufolge die Klimamodelle tatsächlich eine „Über-Erwärmung“ zeigten bei ihren Projektionen. Im Einzelnen:

● Ein Modelllauf ist wärmer als der gemessene Trend über mehr als 99,5% der Zeit;

● Ein Modelllauf ist wärmer als ein gemessener Trend um über 0,1°C pro Dekade während etwa 88% der Zeit;

● und er ist wärmer als ein gemessener Trend um über 0,2°C pro Dekade während über 41% der Zeit.

McIntyre folgert:

Unter dem Strich steht, dass Schmidts Diagramm Christy überhaupt nicht widerspricht und Schmidts Vorwürfe gegen Christy, dass sein Diagramm „parteiisch“ war, nicht einmal ansatzweise stützt.

Die Klimawissenschaftlerin Dr. Judith Curry hat eine neue Präsentation zu Klimathemen vorbereitet (mit 56 Folien; hier, pdf) in der sie viele klimawissenschaftliche Themen ansprach einschließlich der globalen Temperaturen und der immer größer werdenden Differenz zwischen aktuellen Temperaturmessungen und den erheblich warm-übertreibenden Temperaturprojektionen der Klimamodelle.

In ihrem Vortrag zeigt sie, dass der jüngste IPCC-Klimabericht AR 5 (2013) Informationen präsentierte, die zeigen (Folie 24), wie sehr Klimamodelle Projektionen der globalen Temperaturen im Vergleich zu tatsächlich gemessenen Daten jene erheblich überbetonen und übertreiben. Die von Dr. Christy bei der Anhörung im Kongress gezeigten Daten bzgl. der Übertreibungen der Klimamodelle hinsichtlich der globalen Temperaturen sind ebenfalls Bestandteil ihres Vortrags (Folie 25).

Zusätzlich zu diesen Übertreibungen der Klimamodelle der globalen Temperaturprojektionen haben diese Modelle auch versagt, was das Verhalten und den Einfluss großer natürlicher Klimavariationen angeht wie etwa ENSO, was in dem WUWT-Beitrag mit dem Titel [übersetzt] „Wieder einmal hat El Nino nicht das getan, was vorhergesagt war. Warum?“ (hier)

In seinem Beitrag schreibt Dr. Tim Ball:

Das IPCC behauptete mit einer Sicherheit von 90%, dass die globale Erwärmung menschlichem CO2 geschuldet ist. Fehlende Daten in Kombination mit Auslassungen oder fehlendem Verständnis für grundlegende Prozesse sind die Hauptgründe, warum alle Prophezeiungen der Vergangenheit, der Gegenwart und der Zukunft falsch sind. Das Gleiche gilt für wesentliche Ereignisse innerhalb des Systems Erde-Atmosphäre, wie El Nino oder ENSO. Wie dieser Tage immer wieder gesagt wird: falls die Prophezeiungen falsch sind, ist die Wissenschaft falsch“.

Natürlich auftretende El Nino-Ereignisse haben und werden weiterhin globale Temperaturen und Temperaturtrends beeinflussen, wie sie es schon unzählige Male zuvor getan haben (hier).

In ihrem Vortrag zeigt Dr. Curry globale Temperaturdaten, die belegen, dass natürliche Klimavariationen in Verbindung mit dem starken El Nino von 1997/98 und 2015/16 ebenso wie kleinere El Nino-Ereignisse erheblichen Einfluss auf steigende globale Temperaturen und Temperaturtrends haben (Folie 13). Einige Klimaalarmisten haben behauptet, dass anthropogene CO2-Emissionen den jüngsten Temperaturanstieg und steigende Temperaturtrends ausgelöst haben, aber diese Behauptungen ignorieren auf unzulässige Weise den bedeutenden El Nino-Einfluss auf die jüngsten Temperaturen.

Der Einfluss der El Nino-Ereignisse zeigt sich bei Temperaturmessungen sowohl an der Erdoberfläche als auch in der freien Atmosphäre (Folie 14).

Klimaalarmistische Medien wie die New York Times drehen immer weiter die Leier bzgl. der jüngsten rekordhohen Temperaturen des Jahres 2016 als durch anthropogene CO2-Emissionen ausgelöst (hier). Allerdings basieren diese alarmistischen Behauptungen auf einer absichtlichen Marginalisierung der Bedeutung des starken El Nino 2015/16 als treibende Kraft hinter dieser jüngsten Erwärmung, wie aus Dr. Christys Präsentation ganz klar hervorgeht.

Eine Analyse der globalen Temperaturdaten zeigt eindeutig die Übertreibung der projizierten Temperaturen seitens der Klimamodelle im Vergleich zu tatsächlichen Messungen, wie die Arbeiten sowohl von Dr. Christy als auch von Dr. Curry zeigen. Außerdem tritt der bedeutende Einfluss natürlicher Klimaereignisse wie El Ninos auf die jüngsten globalen Temperaturen und Temperaturtrends klar hervor, was jedoch Dr. Ball zufolge in den Klimamodellen komplett unter den Tisch fallen gelassen wird.

Klimaalarmistische Wissenschaftler und Medien trachten danach, das bewiesene Scheitern der Klimamodelle hinsichtlich valider Temperaturprojektionen herunterzuspielen und zu ignorieren, wie die unverhohlen immer weiter zunehmende Divergenz dieser Modellergebnisse von tatsächlichen Messungen enthüllt.

Dr. Curry merkt an, dass das Thema Klimawandel ein „verzwicktes Thema“ ist (Folie 46), und dass sowohl das Problem als auch die Lösung „erheblich über-vereinfacht“ worden sei. Der Erlass kostspieliger und bürokratischer klimapolitischer Maßnahmen, die auf kläglich versagenden und wissenschaftlich ungeeigneten Klimamodellen beruhen, ist einfach nicht gerechtfertigt.

Link: https://wattsupwiththat.com/2016/05/25/climate-models-dont-work/

Übersetzt von Chris Frey EIKE




Dänemarks neue Regierung kommt zur Vernunft – und sagt die Energiewende ab

[1] Kopenhagen will den Ausbau von Wind- und Solarenergie bremsen und schafft sein EEG ab. Die rechtsliberale Regierung setzt auf mehr Kohleverstomung, um "die Wirtschaft zu entlasten".

Scheibchenweise wurden die Klimaziele früherer Regierungen zurückgenommen. Ende letzter Woche kam dann der entscheidende Schlag. Eine der deutschen EEG-Umlage vergleichbare Abgabe, die bislang die Energiewende mitfinanziert hat, soll ab dem nächsten Jahr schrittweise gestrichen werden.

Dabei hatte alles doch immer so vorbildlich und erfolgreich ausgesehen:

[2] Wirtschaftswoche, 24.07.2014: Dänemark: Windkraft ist billigste Form der Energieerzeugung

Allerdings liegt die Wahrheit eben woanders als es deutsche Zeitungen berichten. Die Grafik des bdew zeigt, dass diese „billigste Form der Energieerzeugung“ in Dänemark zum höchsten Strompreis in der EU geführt hat, dicht gefolgt von einem Land mit Sehnsucht nach der gleichen Art der Stromerzeugung.

Bild: Haushalts-Strompreis Europa © Bild Bundesverband der Energie- und Wasserwirtschaft

Und wie bei uns muss dadurch auch keine Einsicht bei den Verursachern verbunden sein.

[1] "Totale Idiotie! Ich bin ganz einfach sprachlos", kommentierte der ehemalige Klima- und Energieminister Martin Lidegaard von den linksliberalen "Radikalen", und WWF-Klimachef John Nordbo spricht von einem "Massaker an der dänischen Klimapolitik".

Kritiker wie Brian Vad Mathiesen, Professor für Energieplanung in Aalborg, stellen die Argumentation aber auch aus ökonomischer Sicht infrage: Die dänische Industrie habe schon jetzt sehr viel niedrigere Stromkosten als vergleichbare EU-Länder. Sie lägen beispielsweise deutlich unter denen in Deutschland. Streiche man die PSO-Abgabe, komme dies einer regelrechten Industriesubvention gleich.

Kosten kann man von unten, aber auch von oben betrachten. Der Ex-Energieminister erklärt den Vorteil so: Es war doch viel teurer geplant. Somit ist dieses hohe Niveau geradezu billig.

[1] Aufgrund des gesunkenen Strompreisniveaus sei die Energiewende bislang wesentlich billiger geworden als ursprünglich kalkuliert, betont auch Ex-Energieminister Lidegaard. Es bestehe deshalb absolut keine Veranlassung, PSO zu streichen.

Auch die Versorger kümmerte es nicht. Ein CEO verdient genug Geld und der Kunde bezahlt schließlich alternativlos so oder so. Wie geht aber sparen an, wenn die Welt gerettet werden muss (vor 0,000001 Grad / pa, siehe am Schluss). Erinnerungen an eigene Stadtwerke – z.B. die von München – werden wach:

[1] "Damit wird unser Ziel, Kopenhagen bis zum Jahr 2025 CO2-neutral zu machen, sabotiert", beklagt sich Jesper Pedersen, Windkraftchef von Hofor, der kommunalen Energiegesellschaft der Hauptstadt.

Aber die neue dänische Regierung fand auch dafür eine pragmatische Lösung (Anm.: Die natürlich nur funktioniert, weil der CO2-Handel zusammengebrochen ist).

[1]"Da wir mit steigendem Stromverbrauch rechnen, wird es auch einen wachsenden CO2-Ausstoß geben", erklärte Klimaminister Lars Christian Lilleholt, meinte aber: "Einen globalen Effekt wird das nicht haben." Der dänische Stromsektor sei nämlich Teil des CO2-Emissionshandels der EU. Werde zukünftig in Dänemark nun eine Million Tonnen CO2 zusätzlich durch den Umstieg auf Kohleverstromung freigesetzt, müsste andere Länder eben mehr einsparen.

Man wird wohl nicht lange warten müssen, bis sich ein vorbildliches Land findet, welches pflichtbewusst das CO2-Kontingent von Dänemark „übernimmt“. Und sollte es nicht so sein wird die Welt auch nicht unter gehen:

1 Megatonne CO2 erhöht die Welttemperatur um sagenhafte 0,000001 Grad / pa (mit hohem IPCC-Forcing gerechnet, realistisch sind es davon etwa ein Drittel). Das dürfte für die Bewohner Dänemarks verschmerzbarer sein als ihre hohen Stromkosten. Deutsche Bürger werden diese Schmerzen wohl noch länger ertragen müssen. Aber ein Land in dem Greenpeace, der BUND, Windkraft- und Solarverbände sowie eine klimahysterische Umweltministerin die Energieerzeugung bestimmen verdient es eigentlich nicht anders.

Quellen

[1] KLIMARETTER.INFO, 17. Mai 2016: Dänemark sagt Energiewende ab http://www.klimaretter.info/energie/hintergrund/21237-daenemark-sagt-die-energiewende-ab

[2] Wirtschaftswoche, 24.07.2014: Dänemark: Windkraft ist billigste Form der Energieerzeugung

http://green.wiwo.de/jetzt-offiziell-windkraft-ist-billigste-form-der-energieerzeugung-in-daenemark/




CERN CLOUD-Experiment: Industrielle Revolution reduzierte die Wolkenbedeckung. Auch kosmische Strahlen haben Einfluss

Diesen beiden Studien zufolge (1, 2) zeigen neue Ergebnisse des CLOUD-Experiments (3) am CERN (4), dass das vorindustrielle Klima durch mehr Bewölkung gekennzeichnet war als bisher gedacht. CLOUD zeigt, dass von Bäumen emittierte organische Dämpfe vielfältige Aerosol-Partikel in die Atmosphäre freisetzen beim Fehlen von schwefliger Säure*. Zuvor hatte man gedacht, dass schweflige Säure – zum größten Teil aus fossilen Treibstoffen – für die Bildung von Partikeln erforderlich war. CLOUD zeigt nun, dass diese sog. biogenen Dämpfe auch der Schlüssel sind für das Wachstum neu gebildeter Partikel bis hin zu Größen, wo sie als Kondensationskerne für Wolken dienen können.

[*Es gibt ,schweflige Säure‘ und ,Schwefelsäure‘. Ich weiß nicht, welche hier gemeint ist. Ich bleibe erst mal bei ,schwefliger Säure, weil das ,sulfuric‘ wie ein Adjektiv daherkommt. Anm. d. Übers.]

Diese Ergebnisse sind die bislang wichtigsten Ergebnisse des CLOUD-Experimentes am CERN“, sagte CLOUD-Sprecher Jasper Kirkby. „Wenn die Bildung und das Wachstum reiner biogener Aerosol-Partikel in Klimamodelle eingehen, sollte dies unser Verständnis bzgl. des Einflusses menschlicher Aktivitäten auf Wolken und Klima verbessern“.

Das IPCC betrachtet die Zunahme von Aerosolen und Wolken seit präindustriellen Zeiten als eine der größten Unsicherheits-Quellen des Klimawandels (5). CLOUD zielt darauf ab zu verstehen, wie sich neue Aerosol-Partikel bilden und in der Atmosphäre wachsen sowie deren Auswirkungen auf Wolken und Klima.

CLOUD zeigt auch, dass Ionen aus der kosmischen Strahlung die Entstehungsrate reiner biogener Partikel erheblich verstärken – um einen Faktor 10 bis 100 verglichen mit Partikeln ohne Ionen. Dies zeigt, dass kosmische Strahlen eine viel wichtigere Rolle bei der Bildung von Aerosolen und Wolken in vorindustriellen Zeiten gespielt haben als in der heutigen verschmutzten Atmosphäre.

Eine gleichzeitig in Science veröffentlichte Studie (Bianchi 2016; Science, doi 10.1126/ science.aad5456(link is external) beschreibt eine Beobachtung [Messung?] reiner organischer Aerosolbildung am Observatorium auf dem Jungfraujoch durch den gleichen Mechanismus, der auch vom CLOUD gezeigt wird. Die Messungen haben CLOUD nicht direkt involviert, aber die meisten Autoren sind auch Mitglied des CLOUD-Teams.

Die Beobachtung reiner organischer Kernbildung auf dem Jungfraujoch ist sehr befriedigend“, sagte Kirkby. „Es bestätigt, dass der gleiche Prozess, wie er vom CLOUD entdeckt wurde, auch in der Atmosphäre stattfindet“.

Striche

Anmerkungen

1. Kirkby, J., et al. Ion-induced nucleation of pure biogenic particles. Nature, doi 10.1038/nature 17953(link is external) (2016).

2. Tröstl, J., et al. The role of low-volatility organic compounds in initial particle growth in the atmosphere. Nature, doi 10.1038/nature18271(link is external) (2016).

3. Das CLOUD-Experiment besteht aus einer großen, mit Instrumenten ausgestatteten Kammer, in der die Atmosphäre präzise simuliert werden kann, und Bildung und Wachstum von Aerosol-Partikeln sowie die damit entstehenden Wolken können unter präzise überwachten atmosphärischen Bedingungen untersucht werden. Unerwünschte Beimengungen können deutlich unter die Marke von 1 ppt [part per trillion] gedrückt werden. Beim CLOUD-Experiment wurde ein Strahl vom Proton-Synchroton am CERN verwendet, um kosmische Strahlen zu simulieren – Partikel, die die Erde aus dem Weltraum bombardieren.

Die experimentelle Zusammenarbeit umfasst 21 Institute: Aerodyne Research, California Institute of Technology, Carnegie Mellon University, CERN, Finnish Meteorological Institute, Goethe University Frankfurt, Helsinki Institute of Physics, Karlsruhe Institute of Technology, Lebedev Physical Institute, Leibniz Institute for Tropospheric Research, Paul Scherrer Institute, Stockholm University, Tofwerk, University of Beira Interior, University of Eastern Finland, University of Helsinki, University of Innsbruck, University of Leeds, University of Lisbon, University of Manchester und University of Vienna.

4. CERN, the European Organization for Nuclear Research, is the world’s leading laboratory for particle physics. Its headquarters are in Geneva. Its Member States are: Austria, Belgium, Bulgaria, Czech Republic, Denmark, Finland, France, Germany, Greece, Hungary, Israel, Italy, Netherlands, Norway, Poland, Portugal, Slovakia, Spain, Sweden, Switzerland and United Kingdom. Romania is a Candidate for Accession. Cyprus and Serbia are Associate Member States in the pre-stage to Membership. Pakistan and Turkey are Associate Member States. European Union, India, Japan, JINR, Russian Federation, UNESCO and United States of America have Observer status.

5.Boucher, O. et al. in Climate Change 2013: The Physical Science Basis. Working Group I Contribution to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change (eds. Stocker, T.F. et al.) 571–658 (Cambridge Univ. Press, 2013).

[Diese ganzen Namen lasse ich aus Zeitgründen mal unübersetzt! Anm. d. Übers.]

Striche

Unterstützende Informationen für Presseinformationen bzgl. Nature-Veröffentlichungen durch das CLOUD-Team

Kirkby, J. et al. Ion-induced nucleation of pure biogenic particles. Nature, doi 10.1038/nature17953 (2016).
Tröstl, J. et al. The role of low-volatility organic compounds in initial particle growth in the atmosphere. Nature, doi 10.1038/nature18271 (2016).

Hintergrund des CLOUD-Experimentes am CERN: CLOUD untersucht, wie sich neue Aerosol-Partikel in der Atmosphäre bilden und auf Größen wachsen, bei der sie Wolken und Klima modifizieren. Mittels eines Partikel-Strahls vom Proton-Synchroton am CERN untersucht das CLOUD-Experiment auch, ob diese Prozesse durch Ionisierung durch kosmische Strahlung beeinflusst wird. Atmosphärische Aerosol-Partikel kühlen das Klima, weil sie das Sonnenlicht reflektieren und weil sich mehr, aber kleinere Wolkentröpfchen bilden, welche die Wolken heller machen und ihre Lebensdauer verlängern. Abkühlung durch verstärkte Freisetzung von Aerosol-Partikeln aus menschlichen Aktivitäten hat einen Teil der Erwärmung durch Treibhausgase [so es die überhaupt gibt, Anm. d. Übers.] kompensiert. Um die Stärke der Abkühlung zu bestimmen, bedarf es Kenntnissen über die Aerosol-Verhältnisse in der präindustriellen Atmosphäre. Unglücklicherweise kann man dies nicht direkt messen, weil es in der heutigen Atmosphäre fast keine Gebiete mehr gibt, die perfekt frei von Verschmutzung sind [ach? Aerosole nannte man in vorindustrieller Zeit Aerosole und heute Verschmutzung? Anm. d. Übers.]. Darum muss die präindustrielle Atmosphäre mit Klimamodellen simuliert werden, die auf sorgfältigen Messungen der zugrunde liegenden mikrophysikalischen Prozesse beruhen, über die man durch Laborexperimente Kenntnis erlangt. CLOUD bringt fundamentale Experimente unter einen Hut, wobei die Klimamodellierung eine einzelne Bemühung in internationaler Zusammenarbeit ist.

Was hat CLOUD untersucht? CLOUD hat die Bildung neuer atmosphärischer Partikel untersucht in einer eigens dafür konstruierten Kammer, in der Laborbedingungen von Temperatur, Feuchtigkeit und Konzentrationen kondensierender und Keime bildender Dämpfe extrem gut kontrolliert werden. Im gegenwärtigen Experiment haben wir die Bildung und das Wachstum von Partikeln gemessen ausschließlich aus organischen Dämpfen, die von Bäumen emittiert werden ( so genannte biogene Dämpfe). Im Mittelpunkt stand dabei Alpha-Pinene, welches Kiefernwäldern den charakteristischen angenehmen Geruch verleiht. Alpha-Pinene oxidiert sehr schnell, wenn es Ozon ausgesetzt ist, was Dämpfe erzeugt mit extrem geringer Volatilität, aber in nur sehr geringen Konzentrationen von etwa ein Molekül pro Billion Luftmolekülen.

Was ist das Besondere am CLOUD-Experiment? Mit dem Know-How vom CERN konnten in der CLOUD-Kammer viel geringere Konzentrationen unerwünschter Beimengungen erreicht werden als bei allen Experimenten zuvor. Dies gestattete es uns, Partikelbildung und -wachstum aus biogenen Dämpfen zu messen, bei vollständig fehlender kontaminierender Dämpfe wie Schwefliger Säure. Das Kollektiv hat eigens Instrumente zur Messung der Dämpfe, der Ionen und Aerosol-Partikel entwickelt bei ultrageringen Konzentrationen in der Luft, entsprechend der CLOUD-Kammer. Wir messen, wie diese Dämpfe und Ionen molekulare Cluster bilden und welche Dämpfe das folgende Wachstum der Partikel kontrollieren. Eine besondere Eigenschaft von CLOUD ist dessen Fähigkeit, Partikelbildung zu messen, die von der Ionisierung durch kosmische Strahlung verstärkt wird, simuliert durch einen Pion-Strahl – oder mit allen Auswirkungen der Ionisierung, die vollständig unterdrückt werden mit einem internen elektrischen Feld.

Was hat CLOUD entdeckt? Es hat entdeckt, dass oxidierte biogene Dämpfe reichlich Partikel in der Atmosphäre erzeugen beim Fehlen von schwefliger Säure. Zuvor hatte man geglaubt, dass schweflige Säure – hauptsächlich aus Schwefeldioxid, emittiert durch fossile Treibstoffe [ach? Aus Vulkanen kommt gar nichts davon? Anm. d. Übers.] – war zur Partikelbildung erforderlich. Wir entdeckten, dass Ionen aus kosmischer Strahlung die Produktionsrate reiner [pure] biogener Partikel erheblich verstärkt – um einen Faktor 10 bis 100 verglichen mit Partikeln ohne Ionen, wenn die Konzentrationen gering sind. Wir zeigen auch, dass oxidierte biogene Dämpfe das Partikel-Wachstum in nicht verschmutzter Umgebung kontrollieren. Das beginnt, unmittelbar nachdem sich die ersten paar Moleküle zusammengetan haben und weiter wachsen bis zu Größen über 50 bis 100 nm, wo die Partikel zur Bildung von Wolkentröpfchen führen können. Die Wachstumsrate beschleunigt sich, wenn die Partikel an Größe zunehmen, wenn biogene Dämpfe höherer Volatilität daran teilhaben können. Wir erklären dies quantitativ mittels eines Modells organischer Kondensation.

Warum ist dies wichtig für unser Verständnis von Klima? Ionen-induzierte Bildung purer biogener Partikel kann wichtige Konsequenzen haben für unverfälschte Klimate [?], bietet sich hier doch ein bislang unbekannter Prozess, bei dem die Natur Partikel entstehen lässt ohne Verschmutzung. Und haben sich embryonische Partikel erst einmal gebildet, sorgen damit zusammenhängende, aber reichlichere oxidierte biogene Dämpfe für eine Beschleunigung des Wachstums der Partikel. Rapides Wachstum der neuen Partikel, während sie immer noch klein und sehr mobil sind impliziert, dass ein größerer Teil eine Koagulation mit zuvor schon existierenden größeren Partikeln vermeidet und eventuell Größenordnungen erreicht, bei der sie Wolkentröpfchen und damit das Klima beeinflussen können. Rein biogene Bildung und Wachstum könnte den grundlegenden Aerosol-Status der makellosen vorindustriellen Atmosphäre angehoben haben und so den vermuteten anthropogenen Strahlungsantrieb durch verstärke Aerosol-Wolken-Albedo im Zuge der industriellen Periode reduziert haben. Ionen-induzierte biogene Partikelbildung kann auch neues Licht werfen auf die schon lange im Raum stehende Frage nach einem physikalischen Mechanismus für die Sonnen-Klima-Variabilität in dem unverfälschten vorindustriellen Klima.

Eine gleichzeitig in Science veröffentlichte Studie (Bianchi 2016) berichtet von Messungen auf dem Jungfraujoch purer organischer Partikelbildung in der freien Troposphäre, was die Relevanz der CLOUD-Messungen der Atmosphäre bestätigt.

Link: https://wattsupwiththat.com/2016/05/25/cerns-cloud-experiment-results-suggests-industrial-revolution-reduced-cloud-cover-cosmic-rays-have-an-impact-too/

Übersetzt von Chris Frey EIKE




Pariser Abkommen: Ein Blankoscheck für CO2-Emissionen für China und Indien

Zu dieser Schlussfolgerung kommt eine neue Studie von Prof. Dr. jur. David Campbell (Lancaster University Law School). Sie wurde heute von der GWPF veröffentlicht.

Während der letzten 25 Jahre hat ein internationales Gesetz bzgl. Klimawandel es nicht vermocht, sich auf ein Programm zu globalen Emissions-Reduktionen zu einigen. Tatsächlich garantiert dieses Gesetz eine Erlaubnis für hauptsächliche Emittenten wie China und Indien, so viel zu emittieren, wie sie es für erforderlich halten. Globale Emissions-Reduktionen sind daher immer unmöglich gewesen, und seit 1992 haben die globalen Emissionen erheblich zugenommen.

Tatsächlich enthält das Pariser Abkommen ein kategorisches Statement, dass Länder wie China und Indien nicht der Verpflichtung unterliegen, irgendwelche Reduktionen vorzunehmen.

Die UK-Regierung schlägt vor, mit der Dekarbonisierung fortzufahren, obwohl Britanniens einseitige Dekarbonisierung total sinnlos und komplett irrational ist.

Full paper (PDF)

Übersetzt von Chris Frey EIKE




Thoriumlagerstätten – weltweit und in Deutschland Zusammenfassende Einführung

Das Element Thorium ist in der deutschen Öffentlichkeit weitgehend unbekannt. Gleiches gilt auch für die Nutzung dieses Elementes als Grundstoff zur Erbrütung von spaltbarem Uran 233.

Gegen „Atomenergie“ wird – neben Sicherheitsbedenken und dem „Atommüllproblem“ – oft eingewendet, das verwendete Uran sei in wenigen Jahrzehnten verbraucht und würde sich außerdem in nur relativ wenigen Ländern wirtschaftlich abbauen und gewinnen lassen. Nur das letztere Argument verfügt über einen gewissen Gehalt, sofern von den insgesamt immensen Vorräten im Ozeanwasser abgesehen wird.

Tatsächlich jedoch wäre selbst nach völliger physischer Erschöpfung aller heutigen Uranressourcen auf den Kontinenten immer noch ein wesentlich größerer Vorrat an Thorium vorhanden. Nach dem initialen Beschuss des Th 232 / 90 mit Neutronen aus der Spaltung von U 235 oder Pu 239 wandelt sich dieses über die beiden Zwischenstufen Th 233 / 90 und Pa 232 / 91 relativ schnell (in weniger als einem Monat zur Hälfte) in spaltbares U 233, welches seinerseits bei genügender Menge weiteres Thorium im Zuge eines Brutprozesses in U 233 wandelt und zudem die eigentliche Kettenreaktion in Gang hält.

Thorium ist insgesamt gleichmäßiger über die Kontinente verteilt und im Mittel um den Faktor 3,5 höher konzentriert im Gestein anzutreffen als Uran Obwohl eine flächendeckende Kartierung der oberen kontinentalen Erdrinde im weltweiten Maßstab bisher nicht vorgenommen wurde, ist aufgrund zahlreicher Einzelbefunde, meist im Zusammenhang mit Bergbauaktivitäten auf Uran, Seltene Erden Metalle, Zinn, Zirkon, u.v.a. davon auszugehen, dass alle großen und mittelgroßen Länder der Erde und darüber hinaus noch zahlreiche kleinere über genügend Gesteine mit Thoriumanreicherungen verfügen. Zudem weisen grundlegende Erkenntnisse der regionalen Geologie und der Entwicklung von Orogenen (Faltengebirgen) in zahlreichen Gebieten auf einen überreichen Vorrat an Thorium auf Erden hin.

Dies wird auch anhand der vorliegenden, maßstäblich groben Thorium-Kartierung der Vereinigten Staaten von Amerika deutlich:

Quelle: http://thoriumenergyalliance.com/downloads/usa_thorium_map.gif

Die farblich rot bis violett dargestellten Gebiete der USA, welche relativ hohe Thoriumgehalte aufweisen, sind ganz überwiegend an die Gebirgszüge der Rocky Mountains im Westen und der Appalachen im Osten gebunden.

Es spricht tatsächlich viel dafür, dass die Nutzung von Thorium als Grundlage einer zukünftigen Energieversorgung in mehrfacher Hinsicht „nachhaltiger“ sein könnte, als die veröffentlichte und öffentliche Meinung in Deutschland es sich überhaupt vorstellen kann.

In der folgenden Literaturrecherche, ergänzt durch eigene Berechnungen, werden erstaunliche Perspektiven für die Energie- und Rohstoffversorgung aufgezeigt. Darüber hinaus würde es zu Wirkungen auf technologische Entwicklungen, die Ökonomie, die Ökologie bis hin zu den internationalen Beziehungen kommen. Rohstoff- und Energiekonflikte könnten mit der Entwicklung von Thoriumvorkommen und -technologien stark an Brisanz verlieren.

Zudem ist die Nutzung von Thorium in fortschrittlichen Reaktortypen als eindeutig „carbon-free“ und klimaschützend einzustufen.

Die Langversion des Beitrages über Thorium finden Sie als pdf Datei im Anhang

Über den Autor

Dirk Weißenborn ist Diplom-Geologe und war als „Geologe am Bohrloch“ einige Jahre in der heimischen Erdgas- und Erdölgewinnung und in der bohrtechnischen Einrichtung von Erdgasspeichern sowie in der administrativen Vorbereitung und Durchführung seismischer Messungen tätig. Weitere Schwerpunkte in beruflicher Hinsicht stellten Altlastenuntersuchungen sowie Überwachung von Sanierungsmaßnahmen dar.

Related Files




Auf einen Klima-Apero in Liechtenstein

Denn die LIFE-Klimastiftung organisierte aus Anlass der Unterzeichnung des Pariser Klima-Übereinkommens in New York am 10. Mai wieder eine kleine Klimakonferenz, auf der – in geschickter Weise- versucht wurde, die Angst vor der kommenden Klimakatastrophe mit den zu ihrer Bekämpfung erhofften vielen Klimaschutz-Milliarden Euro oder Franken oder Dollar mit der  Umleitung, über Liechtensteins Finanzindustrie zu verknüpfen.

Und dafür ist die LIFE-Klimastiftung da, das ist ihr Geschäftszweck. Sie wurde dafür nämlich vor einigen Jahren gegründet.

Abb. 2. Der Autor im Gespräch mit Prof. Stocker (rechts im Bild) auf der Liechtensteiner Tagung. Im Vordergrund links der Physiker Dr. Peter Schoeck, Bild Klimanifest v. Heiligenroth 

Auf ihrer Website unter der Rubrik „Ziel und Zweck“ klingt das zwar alles etwas vornehmer  – man will „Impulsgeber für die Entwicklung und Förderung von marktwirtschaftlichen Instrumenten im Bereich des Klimaschutzes“ sein, diesen „konstruktiv“ mitgestalten und  .. „letztlich der Bewahrung unserer Umwelt beizutragen“.

Da fragt man sich zunächst wie ein Mikrostaat mit gerade mal 37.000 Einwohnern bzw. eine dort ansässige Mikrostiftung „Impulsgeber“  sein kann, aber unter der Rubrik „Services“ wird einem schnell klar gemacht, was man eigentlich will und vor allem wie das, was man will, von statten gehen soll.  Dort findet sich nämlich die Aussage:

„Die LIFE Klimastiftung Liechtenstein fungiert als zentrale Anlaufstelle und bringt aktiv interessierte Investoren, Anleger, Projektentwickler und Organisationen aus dem In- und Ausland zusammen. Zu diesem Zweck organisiert die LIFE Klimastiftung Liechtenstein regelmässig öffentliche Anlässe und Veranstaltungen. Auf diesem Wege sollen innovative Geschäftschancen in diesem sich rasant entwickelnden Markt gemeinsam entwickelt und Impulse zu deren Umsetzung gegeben werden.“

Eigentlich eine clevere Idee, die den schönen Nebeneffekt hat, mit erhofften Milliardenströmen für einen guten Zweck, Liechtenstein in den Vordergrund zu stellen. Geht es doch um nichts Geringeres als die Rettung der Welt.

Diesem Zweck diente daher auch die Veranstaltung: „Der Klimawandel – Fakten und Verantwortung“ zu der als Hauptreferent der Berner Klimaforscher und langjährige IPCC Obere Prof. Dr. Thomas Stocker eingeladen war.

Und dessen Vortrag hatte es in sich.

So berichtete Prof. Stocker ausführlich über seine mühsame Arbeit, dazu unbezahlt, für das IPCC und freute sich über die „von allen 195 Staaten“ akzeptierte Feststellung: „Der Einfluss des Menschen auf das Klima ist klar“ und auch „Die Erwärmung des Klimasystems ist eindeutig“. Denn dies sei über „Millionen“ von Temperaturdaten, die man seit 1880 erhebe, nachgewiesen. Und weil das so ist, zeigte er auch, die seiner Meinung nach, Schuldigen an dieser Entwicklung, nämlich die Zunahme der Konzentrationen von Kohlendioxid (+ 40 %), Methan (+150 %) und Stickoxid (+20%). Das mächtigste Treibhausgas, (wenn man an den Treibhauseffekt glaubt) den Wasserdampf, ließ er hingegen einfach weg. Vermutlich deswegen, weil dieser weder vom Menschen erzeugt, noch von ihm beeinflusst werden kann. Und damit endete auch schon seine Beweisführung. Die Temperaturen stiegen an, die Treibhausgase stiegen an, der Zusammenhang war somit ausreichend erklärt und der Schuldige gefunden. Es ist der Mensch.
Für die gut 100 Zuhörer war damit völlig klar, wenn ein international renommierter Klimaforscher, zudem ordentlicher Professor an einer eidgenössischen Universität (Bern) so eine Behauptung aufstellt, dann ist die absolut bewiesen, daran ist nichts zu rütteln.

Jetzt mit Audio-Mitschnitt und Folien des Vortrages. Meine Einwände etwa ab Minute 50! Zuletzt behauptet Prof. Stocker, dass sie leider von den „Klimaskeptikern“ keine Einwände bekommen hätten, um sie zu bearbeiten und ggf. zu übernehmen oder zurückzuweisen. Ich protestierte dagegen: „Das stimmt nicht!“ (Ganz am Schluss) Und es stimmt auch nicht. Tatsache ist, dass mindestens die folgenden „Klimaskeptiker“ Kommentare abgaben: Dr. Vincent Gray, Prof. Fred S. Singer, Viscount V. Monckton, sowie R. Hoffmann an J. Romero. Alle nach eigener Aussage ohne Rückantwort und/oder Berücksichtigung.(Nachtrag: gemäß einer Mail von T. Stocker wurden ca. 800 Kommentare von V. Gray ins Protokoll aufgenommen und allesamt abgewiesen). Damit widerlegt sich Prof. Stocker selbst. 

Bei einer ähnlichen – auch von der LIFE Klimastiftung organisierten- Veranstaltung[1] ein gutes halbes Jahr zuvor, allerdings weit weniger gut besucht, traute sich der damals geladene Experte  Armin Haas vom Potsdamer Institute for Advanced Sustainabilty Studies (IASS) nur festzustellen, dass die Klimaentwicklung für die Zukunft völlig ungewiss sei. Dem widersprach damals auch niemand

Doch diesen wissenschaftlich allein haltbaren Eindruck wollte Stocker nicht erzeugen, sondern das genaue Gegenteil. Denn er beschrieb nur Phänomene und keine nachgewiesene Ursache Wirkungsbeziehung. Und missbrauchte damit fundamental das Vertrauen, das Laien immer noch „der Wissenschaft“ entgegen bringen. Denn Korrelationen, und um nichts anderes handelt es sich, sind kein Kausalitätsnachweis, sondern zeigen im besten Fall nur, dass evtl. eine Ursache- Wirkungsbeziehung bestehen könnte. Doch Beweise für diese Behauptung lieferte Stocker, wie auch alle anderen IPCC Wissenschaftler nicht. Nicht einen! Nicht, dass er es nicht gewollt hätte! Nein, er konnte nicht, denn für diese Hypothese gibt es bis heute nach über 30 Jahren Forschung und Ausgaben in vielfacher Zehner-Milliarden Höhe nicht einen einzigen Beweis! Nicht einen einzigen Beleg, nicht eine einzige Beobachtung. Nur Computermodelle, die darauf getrimmt wurden genau dieses Verhalten zu zeigen. Und die liegen chronisch daneben. Und das geben diese Leute auch zu! Wie z.B. der ehemalige Chef des Metoffice udn IPCC Leitaturo John Mitchell der schrieb: „Es ist nur möglich, die Erwärmung im 20. Jhh auf menschliche Eingriffe zurückzuführen, wenn man numerische Modelle des Klimasystems verwendet. (2)

Abb. 2. Zeitreihen der globalen Mitteltemperatur (rot), der CO2 Konzentration (weiß) und der US Porto Geühren (blau)- Deutlich zu erkennen die enge Korrelation zwischen Temperatur und Portogebühren. Deutlich loser hingegen die Korrelation zwischen CO2 Konzentration und Temperatur.

Stattdessen fuhr er fort die fürchterlichen Konsequenzen aufzuzeigen, welche die IPCC Klimamodelle für die kommenden Jahre bis 2100 für die Welt errechneten. Dabei zeigt er (nur) die modellierte Wirkung von zwei Szenarien einmal „Business as usual“ und ein Szenario mit strenger Absenkung aller Emissionen weltweit, die nur durch völlige „Dekarbonisierung“ zu erreichen sei. Und dies zeigt – welch Wunder – den Stillstand der Erwärmung, etwa um 2040. Und weil diese „Dekarbonisierung“ nur durch einen völligen Umbau der weltweiten Energieversorgung zu erreichen sei, sang Stocker in sehr gekonnter Weise das Hohe Lied der „Erneuerbaren“ Energien. Diese seien sozusagen der Königsweg in eine paradiesische Energiezukunft. Die Kernenergie als völlig CO2 freie Energiequelle erwähnte er hingegen – sehr inkonsequent aber politisch korrekt- mit keinem Wort.

In seiner Begeisterung für die Klimamodelle, unterließ er es jedoch völlig  seinen Modellergebnissen reale Messwerte gegenüber zu stellen. Die nunmehr fast 20 jährige Pause der globalen Erwärmung wurde nur kurz und relativierend gestreift, Angaben über die sehr hohen Fehlermargen bei seinen Darstellungen fehlten ebenso, auch wenn hie und da ein Schaubild solche Unsicherheitsbänder zeigte.

Als ich ihn  in der kurzen Diskussion darauf hinwies, dass er nur Korrelationen gezeigt hätte, die in der Wissenschaft keinerlei Beweiskraft hätten, und der Trend der globalen Mitteltemperatur seit über 18 Jahren nahezu null sei, aber gleichzeitig die CO2 Konzentration kräftig anstiege, was auch seine Modelle mit einem ebenso kräftigen aber offensichtlich falschen Anstieg der prognostizierten Temperatur anzeigten, redete er sich sehr geschickt und glatt heraus. Und das Publikum belohnte seine Ausrede mit kräftigem Klatschen.

So war dann der Grundstein gelegt für den folgenden gemütlichen Apero Riche, bei dem fast alle Teilnehmer der Meinung war, die Welt muss gerettet werden, am Besten über die Liechtensteiner Finanzinstitute und vom Sofa aus. Herr Stocker hatte seinen Job gut gemacht.

Hinweis: In Kürze werden wir hier zu diesem Vortrag einen ausführlichen Faktencheck bringen. Prof. Stocker wird informiert und seine Ausführungen werden, wenn gewünscht, mit veröffentlicht.


[1] Aus dem Liechtensteiner Vaterland vom  Donnerstag, 29. Oktober 2015 In der anschliessenden Podi­umsdiskussion vertieften Sven Braden von der Life Klimastif­tung, Armin Haas, Wissenschaft­ler am lASS Potsdam und lang­jähriger Mitarbeiter am Pots­dam-Institut für Klimafolgenfor­schung, und Christoph Dreher das Thema weiter. Dabei mach­ten sie keinen Hehl daraus, dass die Zukunft im Bereich Klima­wandel ungewiss ist. «Doch die vergangenen zehn Jahre zeigen, dass die Energiewende rasend schnell vorangeht», sagte Armin Haas. Anschliessend stellten sich die Experten den kritischen Fra­gen aus dem Publikum.“

[1] Im Original: It is only possible to attribute 20th Century warming to human interference using numerical models of the climate system.




Solarstrom ist weder kostenlos noch unendlich verfügbar Solarzellen: „Schwarze Löcher“ für Energie, Ressourcen und Geld

Die von ihren Fans oft in den höchsten Tönen gelobte Fotovoltaik ist eine entscheidende Säule der „Energiewende“. Zu den bekanntesten Sprüchen ihrer Befürworter gehören „die Sonne schickt keine Rechnung“ sowie „die Sonne liefert uns unendlich viel Energie, man braucht sie nur zu ernten“. Schaut man sich jedoch die Realität an, so stellt man schnell fest, dass Solaranlagen keinesfalls kostenlose Energie liefern. Zudem ist diese meist gerade dann nicht verfügbar, wenn sie wirklich gebraucht würde, nämlich in der kalten Jahreszeit oder bei Dunkelheit. Das ficht die echten Solarfans jedoch nicht im geringsten an: Man verweist auf den hohen Verbraucherstrompreis von aktuell knapp unter 30 ct/kWh und behauptet, die eigene Solaranlage würde stattdessen Strom für 10 ct/ kWh liefern. Zur Überbrückung sonnenarmer bzw. sonnenloser Zeiten genüge eine Speicherbatterie oder die Batterie eines E-Autos, und schon sei man energetisch sozusagen auf der Sonnenseite des Lebens. Fachleute, die dagegen den Standpunkt vertreten, dass der Einsatz von Fotovoltaik im sonnenarmen Deutschland ungefähr soviel Sinn mache wie das Züchten von Ananas in Alaska, werden als „Dinosaurier“, Ewiggestrige“, ja als „Fortschrittsfeinde“ verunglimpft. Werfen wir deshalb zunächst einen Blick auf die aktuelle Situation.

Bild rechts oben: Solche Solarleuchten sind Sommerkinder. Im Winter sterben die Batterien

 
Ein Berg hat gekreißt

Bei der Einführung des Erneuerbare-Energien-Gesetzes (EEG) im Jahre 2000 wurde versprochen, dass die Kosten höchstens beim Gegenwert einer Kugel Eis im Monat liegen würden. Seitdem sind die Beträge, die den deutschen Solarkönigen und Windbaronen zugeflossen sind, auf jährlich mehr als 20 Mrd. € angestiegen, davon fast die Hälfte allein für Solarstrom. Kumuliert haben die deutschen Verbraucher bis Ende 2015 bereits mehr als 62 Mrd. € an die Besitzer von Fotovoltaikanlagen bezahlen dürfen. Doch das ist nur die halbe Story, denn mit jeder neu installierten Anlage wird der Verbraucher verpflichtet, auch für diese insgesamt 20 Jahre lang Zahlungen zu leisten. Entscheidend ist somit die Gesamtsumme aus bereits geleisteten Zahlungen und noch abzustotternden Verpflichtungen, die in Bild 2 gezeigt wird.


Bild 2. Das deutsche EEG belastet den Stromverbraucher bis zum Jahr 2015 mit Gesamtverpflichtungen von 216 Mrd. € allein für Fotovoltaikanlagen

 

…doch die Maus ist lächerlich winzig

Insgesamt wurde der Stromverbraucher allein für Fotovoltaik bis Ende 2015 mit Gesamtverpflichtungen in Höhe von 216 Mrd. € belastet. Diese Summe ist noch für die nächsten 20 Jahre abzustottern, selbst wenn per Ende 2015 jeglicher weiterer Zubau an Fotovoltaikanlagen eingestellt worden wäre. Was hat der Verbraucher im Gegenzug dafür erhalten? Per Ende 2015 lag die nominelle Gesamtkapazität der in Deutschland installierten, nach EEG geförderten Solaranlagen bei 39.600 MW. Diese lieferten im Zeitraum 1.1. bis 31.12.2015 insgesamt 38,5 Terawattstunden (TWh) ab, das sind 5,9 % der gesamten Strom-Jahreserzeugung. Wollten wir also unseren Strombedarf zu 100 % durch Fotovoltaik decken, so würde sich hieraus eine Gesamtbelastung von nicht weniger als 3,7 Billionen € ergeben.

Interessant ist natürlich auch der Vergleich mit dem deutschen Primärenergieverbrauch im gleichen Jahr, schließlich sollen Wind- und Solarstrom im Rahmen der sogenannten „Dekarbonisierung“ dazu führen, dass wir uns fast vollständig von fossilen ebenso wie von nuklearen Verfahren der Energieerzeugung lösen. Der deutsche Gesamt-Primärenergieverbrauch lag 2015 bei 13.307 Petajoule, was 3.696 TWh entspricht. Die Produktion an Fotovoltaikstrom lag bei rund 1 % dieser Summe und kostete 216 Mrd. €. Andersherum gerechnet: Wollte man also unseren Primärenergiebedarf zu 100 % durch Solarstrom decken, so würde sich die erforderliche Investition auf 21,6 Billionen € summieren. Bei dieser Rechnung wurden alle sonstigen Aspekte wie Speichersysteme sowie die entsprechend viel stärker auszulegende Infrastruktur des Stromnetzes noch nicht einmal einbezogen. Selbst bei diesem konservativen Ansatz können solche Summen also bei jedem, der etwas von Kosten und Zahlen versteht, nur Alpträume hervorrufen.

 

Die Märchen von „unendlich viel Energie“

Während die Fakten demnach klar beweisen, dass in Ländern mit eher moderater Sonneneinstrahlung wie Deutschland der Aufbau einer weitgehend auf Fotovoltaik beruhenden Stromversorgung schon rein vom Kosten-/Nutzenverhältnis her keinen Sinn macht, ist ebenso klar, dass diese Technologie für diejenigen Personen und Organisationen, die sie aufgebaut haben, eine Quelle nahezu unbegrenzten Reichtums darstellt. Die 216 Mrd. €, die der Bürger bisher für diese „Energieversorgung“ zwangsläufig bezahlen musste, sind ja nicht verschwunden, sondern letztlich in den Taschen einer vergleichsweise kleinen Mafia von Befürwortern und Profiteuren gelandet. Diese Personen und ihre Helfershelfer in Politik und Medien werden daher nicht müde, der Bevölkerung pausenlos märchenhafte Behauptungen und Versprechungen über die Leistungen der Fotovoltaik zu präsentieren. Besonders gern wird behauptet, Fotovoltaikmodule würden fast ewig, zumindest jedoch für etliche Jahrzehnte funktionieren und in dieser Zeit viel mehr Energie zurückliefern, als für ihre Herstellung verbraucht wurde. Deshalb lohne sich die Investition in eine Fotovoltaikanlage selbst dann, wenn die EEG-Förderung nicht allzuviel Profit in die Kasse spüle. Schließlich stünde die Anlage auch nach dem Auslaufen der Förderung für Jahrzehnte zur Verfügung und liefere dann Strom quasi zum Nulltarif. Das helfe dabei, die eigene Stromrechnung substanziell zu reduzieren.

 

Fakten gegen Mythen

Dieses und andere Märchen wurden jetzt in einer sehr umfassenden wissenschaftlichen Untersuchung von den beiden bereits erwähnten Schweizer Energiespezialisten gründlich unter die Lupe genommen. Dipl.-Ing. Ferruccio Ferroni aus Zürich ist Energieberater und Dr. Robert J. Hopkirk aus Männedorf ist im Bereich Engineering Research & Development tätig. Für ihre Untersuchung haben sie eine Fülle von Daten aus der Schweiz und Deutschland über einen Zeitraum von teils mehreren Jahrzehnten ausgewertet. Hieraus leiten sie eine Methode zur Berechnung einer vollständigen, erweiterten Energierückgewinnungsbilanz ERoEI ab (Energy Returned on Energy Invested) ab. Dabei stellen sie fest, dass in unseren Breiten die Gewinnung von Strom aus Solarzellen als fragwürdig und nicht nachhaltig einzustufen ist und die Fotovoltaik als solches per Saldo zu Energieverlusten führt. Anders ausgedrückt: In Solaranlagen muss mehr fossile Energie investiert werden, als man jemals aus ihnen wieder in Form von elektrischem Strom zurückerhält. Wichtigste Gründe hierfür sind der hohe erforderliche Einsatz an Material, Arbeitszeit und Kapital einerseits und die geringe Energieintensität der Sonnenstrahlung andererseits. Die Veröffentlichung erfolgte in der renommierten, peer-reviewten Zeitschrift „Energy Policy“. Nachfolgend werden einige der wichtigsten Erkenntnisse dieser Arbeit auszugsweise vorgestellt.

 

Sonne netto ist weit weniger als Sonne brutto

Zunächst beschäftigen sich die Verfasser intensiv mit der Ertragsseite der Fotovoltaik, d.h. mit der Menge an elektrischer Energie, die man von einer durchschnittlichen Solaranlage im Laufe ihrer Nutzungsdauer erwarten kann. Hierzu wurden statistische Auswertungen u.a. staatlicher oder offiziöser Stellen wie z.B. TÜV-Gesellschaften in den beiden betrachteten Ländern herangezogen. Eine erste wichtige Erkenntnis der Untersuchungen ist, dass man bezüglich des Stromertrags von Solarerträgen keinesfalls mit theoretischen Strahlungsdaten oder Herstellerangaben arbeiten sollte. Hier wird nämlich genauso geschummelt wie bei Verbrauchs- und Abgaswerten im Kfz-Bereich.  

Bei den Modulen ist mit teils recht erheblichen Ertragsminderungen durch Staub, Pilzbewuchs, Vogelkot sowie Oberflächenschäden (z.B. Hagelschlag) zu rechnen. Nachteilige Auswirkungen haben darüber hinaus Schnee, Frost sowie kondensierende Feuchtigkeit, und last but not least unterliegt der Modulertrag einer altersbedingten Minderung.


Bild 3: Mit Eis und Schnee bedeckte Solaranlagen liefern keine Energie. Dafür leiden die Zellen durch mechanische Spannungen im Material

 

 Auch sind die Herstellerangaben bezüglich Modullebensdauern von 30 Jahren augenscheinlich geschönt: Es ist wohl eher von 19 Jahren auszugehen. Hinzu kommen Ausfälle durch erhebliche Modulfehler (bis zu 30 %).

Unter Berücksichtigung all dieser Faktoren und Einrechnung eines „Goodwill-Bonus“ bei der angenommenen Modullebensdauer kommt die Untersuchung zum Ergebnis, dass die gesamte von Fotovoltaikanlagen über ihre Lebensdauer abgelieferte Menge an elektrischer Energie in der Schweiz bei 2.203 kWhe /m2 liegt. Für Deutschland würde diese Zahl etwas niedriger liegen.

 

Enormer Verbrauch an Material, Arbeit und Kapital

Beim Hype um die angeblich „kostenfreie, unendlich verfügbare“ Solarenergie wird vielfach verschwiegen, welch enormer Aufwand hierfür betrieben werden muss. Für ein Solarmodul von 1 m² Fläche werden nicht nur 16 kg Si-Module (unter Modul versteht man Zellen und Glas, Rahmen usw.), sondern auch noch 25 kg sonstiger Materialien für Gestell, Kabel und elektrische Ausrüstungen sowie 3,5 kg Chemikalien benötigt, was sich auf insgesamt 44,5 kg/ m² summiert. Bezieht man dies auf die insgesamt zurückgelieferte Energie, so liegt der Materialeinsatz bei 20,2 g pro kWh. Interessant ist beispielsweise der Vergleich mit der Kernkraft, die auch zu den CO2-armen Verfahren zählt. Hier liegt der Materialeinsatz pro kWh zurückgelieferter Energie um den Faktor 64 (!) günstiger als bei Solarzellen. Doch mit dem Materialeinsatz ist es noch lange nicht getan. Auch der Einsatz an menschlicher Arbeitskraft liegt bei der Fotovoltaik um den Faktor 7 über dem bei Kernenergie, und der Kapitalaufwand liegt beim 10fachen.

All dies sind klare Indikatoren dafür, wie überproportional hoch der für die Gewinnung von Solarstrom zu treibende Aufwand ist und wie ineffizient diese Technologie insbesondere in Regionen mit moderatem Aufkommen an Solarstrahlung ist. In solchen Regionen sind Fotovoltaiksysteme schlicht ungeeignet, wenn es darum geht, eine effiziente Stromversorgung mit einem möglichst geringen Ressourceneinsatz zu realisieren.

 

Erweiterte ERoEI-Analyse – warum?

Die Verfahren zu Berechnung des ERoEI sind nicht genormt. Dementsprechend unterschiedlich sind die Ansätze und natürlich auch die Ergebnisse. Die von der Internationalen Energie-Agentur (IEA) verwendete Methodik lässt wichtige Einflussgrößen wie z.B. die Integration in eine bedarfsorientierte Stromversorgungs-Infrastruktur nach dem „Dachkante zu Steckdose“-Prinzip unberücksichtigt. Ferroni und Hopkirk haben sich deshalb für den sogenannten erweiterten Ansatz entschieden, bei dem – neben anderen Faktoren – auch der Aufwand für die bedarfsgerechte Bereitstellung der mit dem System „geernteten“ Energie am Verbrauchsort berücksichtigt wird. Dies betrifft u.a. Pumpspeicherkraftwerke sowie die mit ihrem Betrieb verknüpften Verluste, Gaskraftwerke zur Überbrückung von Dunkelflaute-Zeiträumen ohne ausreichende „EE“-Stromproduktion sowie Anpassungen wie zusätzliche Leitungen und eine Smartgrid-Infrastruktur.

Von dem seitens der Internationalen Energieagentur (IEA) verfolgten Ansatz unterscheidet sich ihr Konzept zudem dadurch, dass es den Aufwand für Arbeit und Kapital berücksichtigt. Zudem setzen sie für den Energieaufwand einheitlich die elektrische Energie in kWhe als Referenzgröße fest, da bei der Herstellung der PV- Modulen vorwiegend Elektrizität (sog. Sekundärenergie) verwendet wird. Weiterer wichtiger Gesichtspunkt ist die Verwendung tatsächlich an realen Installationen Anlagen gemessener Werte für die von den Anlagen gewonnene Energie statt der Verwendung von Daten aus Laborversuchen. Zugleich verhindert dies Manipulationen durch viel zu optimistische Angaben seitens gewisser Investoren und Politiker. 

 

Bei der Berechnung des erweiterten ERoEI berücksichtigte Faktoren

Über die von der IEA üblicherweise berücksichtigten Faktoren hinaus wurden bei der hier vorgenommenen Berechnung folgende Faktoren mit einbezogen:

    Die Integration der Solarstromproduktion in ein Stromnetz, das Strom bedarfsgerecht am Ort des Verbrauchs zur Verfügung stellt,

    Den erforderlichen Einsatz an Energie für Arbeit und Kapital

Die Herstellung von Solarmodulen ist ein komplizierter Prozess, der rund 200 Einzelschritte umfasst. Viele dieser Schritte erfolgen bei sehr hohen Temperaturen und erfordern daher den Einsatz von sehr viel Energie. Der kumulative Energieaufwand, der für den Quadratmeter Solaranlagenfläche aufzuwenden ist, wurde von einer ganzen Reihe von Autoren für unterschiedlich konfigurierte Anlagen ermittelt, siehe Tabelle 1.

 

Tabelle 1. Untersuchungsergebnisse bezüglich der in eine Fotovoltaikanlage bei ihrer Herstellung investierten Energie (Cumulative Energy Demand, CED) [FEHO]

Für die hier durchgeführte Untersuchung wurde von der Annahme ausgegangen, dass es sich um in der Schweiz errichtete Fotovoltaikanlagen mit Installationsanteilen von 2/3 Hausdach und 1/3 Freiland handelt. Für den CED-Wert wurden daher rund 1.300 kWhe/ m2 angesetzt.


Bild 4 Sinnvollstes Speichermedium für elektrischen Strom sind Pumpspeicherkraftwerke wie das Grimselkraftwerk der KWO

 

Weiterer Gegenstand der Untersuchung war die Ermittlung des Aufwands, der zur Integration von Solaranlagen ins bestehende Stromnetz nach dem bereits erwähnten „Dachkante bis Steckdose“-Prinzip erforderlich ist. Als Speichersystem wurden Pumpspeicherkraftwerke angenommen, da diese von allen derzeit bestehenden Technologien die geringsten Verluste aufweisen. Auch die heute so oft zitierten „Smart grids“ benötigen für ihre Funktion eine nicht unerhebliche Menge an Energie. Die Ergebnisse dieser Untersuchung sind in Tabelle 2 zusammengefasst.

 

Tabelle 2. Energieaufwendungen für die bedarfsgerechte Integration von Fotovoltaikanlagen in das Stromnetz [FEHO]

Als weitere Faktoren für die erweiterte ERoEI-Betrachtung kommen noch Energieinvestitionen in Arbeitskraft und Kapitalbereitstellung ins Spiel. Hier spielt die Energieintensität fortgeschrittener Volkswirtschaften eine wichtige Rolle.

Deshalb wurden die Verhältnisse in der Schweiz zugrunde gelegt, die diesbezüglich wesentlich günstiger sind als im weltweiten Vergleich, weil hier energieintensive Industrien schon längst in kostengünstigere Länder abgewandert sind. Nach dieser Berechnung sind für den Gesamt-Arbeitsaufwand für Solaranlagen 1.175 CHF/ m² anzusetzen. Hinzuzurechnen sind Aufwendungen für den Austausch defekter Module bzw. Inverter in Höhe von 90 CHF/ m². Nach Umrechnung in Energieaufwand pro m² ergibt sich ein Wert von 505 kWhe/ m².

Letzter Punkt der Betrachtungen sind schließlich die Kapitalaufwendungen, die man als Maß für früher geleistete Arbeit und somit für früher eingesetzte Energie werten kann. Hierbei gehen die Verfasser vom gleichen Anlagenmix aus wie bei der Betrachtung der vorher in die Anlage hineingesteckten Energie. Insgesamt kommen sie auf einen Gesamtbetrag von 420 kWhe/ m². Die Zusammenfassung aller Faktoren in Tabelle 3 liefert schließlich als Gesamtbetrag für ein in Deutschland oder der Schweiz installiertes Fotovoltaiksystem einen Wert von 2.664 kWhe/ m².

 

Tabelle 3. Gesamtzusammenstellung der in Errichtung und Betrieb eines Fotovoltaik-Systems zu investierenden Energie in kWhe/ m² [FEHO]

Zu diesen Zahlen ist noch anzumerken, dass man in vielen Fällen konservative Ansätze gewählt hat, wodurch der Gesamtaufwand deutlich nach unten angepasst wurde. Dies erfolgte als präventiver Ausgleich für Unsicherheiten und Fehlermargen bei der Ermittlung mancher Zahlen. Zu den nicht einbezogenen Faktoren gehören u.a. Aufwendungen für die Errichtung von Fabriken für Solarmodule sowie die erheblichen Aufwendungen für die Entsorgung der zahlreichen giftigen bzw. umweltschädlichen Substanzen, die bei der Solarmodulherstellung anfallen. Auch wurde bezüglich der Energieintensität des Faktors Arbeit mit dem Schweizer Wert von 0,43 kWhe /CHF statt des globalen Werts von 2,05 kWhe /USD gerechnet. Auch bei der Betrachtung des Kapitaleinsatzes wurde auf die Einbeziehung verschärfender Faktoren wie den Investitionen für das Errichten von Backup- und Speicherkraftwerken verzichtet.

 

Fotovoltaik: Ein „schwarzes Loch“ für fossile Energie

Der dimensionslose ERoEI ergibt sich durch Division der 2.203 kWhe/ m² für die zurückgelieferte Energie durch die 2.664 kWhe/ m² für die investierte Energie. Er beträgt 0,82, was unter Berücksichtigung der bewusst konservativen Ansätze bei der Ermittlung der Zahlen für die in Fotovoltaiksysteme investierte Energie als desaströses Resultat zu werten ist. Mit anderen Worten kann unter den Bedingungen, wie sie in Deutschland und der Schweiz herrschen, eine Solaranlage nicht als Energiequelle eingestuft werden, sondern verursacht de facto VERLUSTE an (fossiler) Energie. Dabei können unsere modernen Gesellschaften ihren zivilisatorischen Stand nur halten, wenn sie über eine ausreichende Energieversorgung verfügen. Hier trägt Fotovoltaik angesichts der gerade von ihren Apologeten immer wieder beschworenen Endlichkeit fossiler Energieressourcen lediglich zur Verschärfung einer Mangelsituation bei. Dies kann man sich leicht vor Augen führen, wenn man einmal folgendes Gedankenexperiment durchführt. Angenommen, man verfügt nur noch über eine begrenzte Menge an fossiler Energie und investiert diese vollständig in Fotovoltaik. Nach 25 Jahren sind davon nur noch 82 % übrig. Wiederholt man diesen Zyklus mehrfach, so verringert sich der Vorrat schrittweise auf 67 %, 55 %, 45 % usw. Als nachhaltig kann man ein solches Procedere nicht bezeichnen.

Abschließend betonen die Autoren der Studie, dass man aus den Ergebnissen nicht den Schluss ziehen sollte, Aktivitäten im Bereich Forschung und Entwicklung für die Fotovoltaik nicht mehr weiter zu verfolgen. Sollte es in Zukunft gelingen, den Wirkungsgrad bei der Umwandlung von Sonnenlicht in Strom zu verbessern, die Kosten für Zellen zu senken und/ oder ihre Lebensdauer zu steigern, so werde sich ein entsprechender Markt ganz von selbst entwickeln.

Fred F. Mueller

 


 

Quellen

 

[FEHO] Ferroni, F.; Hopkirk, R. J.: Energy Return on Energy Invested (EroEI) for photovoltaic solar systems in regions of moderate insolation. Energy Policy 94 (2016), 336-344, http://www.sciencedirect.com/science/article/pii/S0301421516301379

 

 





Bitte mitzeichnen! WKA Abstandsregelung in Schleswig Holstein

Liebe Mitstreiter! Bitte möglichst weit verteilen! Bitte zeichnen!!!

Die Petition für mehr Abstand zwischen Wohnhäusern und WKA in Schleswig-Holstein läuft noch bis zum 30.05.2016.

Bitte werbt noch einmal auch in Euren Bundesländern um Unterschriften. Wenn wir das Thema Immissionsschutz noch mehr in den Vordergrund rücken, dann fällt es zumindest den Oppositionsparteien vielleicht leichter, zurück zu rudern.
Es ist egal, welches Bundesland da vorlegt, Hauptsache in irgendeinem Bundesland gelingt es, aus Vorsorge größere Abstände festzulegen.
Das ist dann ein Präzedenzfall.

Die 10H in Bayern helfen uns da leider nur moralisch aber nicht wirklich juristisch, weil Bayern wg. der Länderöffnungsklausel lediglich eine politische Begründung brauchte.

Also Immissionsschutz!

Bitte pusht die Petition noch mal ordentlich.

https://www.landtag.ltsh.de/oepetition/petitionsliste?execution=e3s1

www.landtag.ltsh.de

www.landtag.ltsh.de




Das größte Solarkraftwerk der Welt hat sich soeben selbst verbrannt

Bild rechts: Das Solarkraftwerk Ivanpah (Bild: ISEGS)

Gestern früh wurde ein kleines Feuer gemeldet am Ivanpah Solar Electric Generating System (ISEGS) in Kalifornien, weshalb das Kraftwerk vorübergehend heruntergefahren werden musste. Es läuft jetzt lediglich mit einem Drittel seiner Kapazität (ein zweiter Turm ist wegen Wartungsarbeiten abgeschaltet), und im Moment ist unklar, wann der beschädigte Turm wieder in Betrieb genommen werden kann. Ebenso unklar ist, wie sich der Vorfall auf die Stromversorgung Kaliforniens auswirken wird.

Das Löschen des Feuers war keine leichte Aufgabe. Die Feuerwehrleute mussten 300 Fuß [ca. 91 m] auf einen Boiler-Turm klettern, um das Feuer überhaupt zu erreichen. Behörden sagen, dass das Feuer im oberen Drittel ausgebrochen war. Arbeiter des Kraftwerkes war es gelungen, die Flammen unter Kontrolle zu halten, bis die Feuerwehr vor Ort war, und 20 Minuten nach Ausbruch wurde es offiziell für gelöscht erklärt.

Das Kraftwerk erstreckt sich über 4000 Acres [ca. 1600 Hektar] öffentlichen Landes in der Mojave-Wüste. Es ist ausgestattet mit 173.500 Heliostats – jedes Einzelne mit zwei Spiegeln – die Sonnenlicht konzentriert auf Boiler reflektieren, die auf der Spitze von 459 Fuß [ca. 140 m] hohen Türmen montiert sind. Die durch die konzentrierte Solarenergie erzeugte gewaltige Hitze erzeugt Dampf, der Turbinen zur Stromerzeugung antreibt. Das Kraftwerk, das größte seiner Art weltweit, hat eine Gesamt-Kapazität von 392 Megawatt, also ausreichend, um 140.000 Wohnungen mit Energie zu versorgen [auch nachts? Anm. d. Übers.] Jeder der mit Computern gesteuerten, das Sonnenlicht reflektierenden Spiegeln hat etwa die Größe eines Garagentores.

Ein Sprecher des Kraftwerkes sagte, dass es zu früh sei, um über die Ursache zu sprechen, aber es scheint, als ob falsch eingestellte Spiegel die Ursache waren. AP zitiert Mike Clintock, den Feuerwehrchef von San Bernardino County mit den Worten, dass einige Spiegel das Sonnenlicht auf ein anderes Niveau der dritten Einheit reflektiert hätten, wodurch Stromkabel in Brand geraten seien.

Unvermeidlich macht dieser Vorfall die inhärenten Gefahren konzentrierter Solarenergie klar, ebenso wie die Notwendigkeit sicherzustellen, dass die Spiegel das Licht immer an die richtige Stelle reflektieren. Konzentrierte Solarkraftwerke sind nicht nur eine Bedrohung für sie selbst, sondern auch eine große Gefahr für die lokale Fauna. Im vorigen Jahr hat ein Kraftwerk in Nevada bei einem Test über 100 Vögel in der Luft verbrannt, als diese durch das „flux field“ des Kraftwerkes geflogen sind (hier, unbedingt mal reinklicken! Hervorhebung vom Übersetzer.).

Es ist ein weiterer Rückschlag für das Ivanpah-Kraftwerk. Während der letzten Monate war das Kraftwerk nicht in der Lage gewesen, den Output zu liefern, der im Power-Purchase-Agreement festgelegt worden war, und man hatte ihm eine Verlängerung der Frist bis zum 31. Juli 2016 eingeräumt (hier), um seinen Wirkungsgrad zu verbessern. Der Brand hat dieser Aufgabe sicherlich nicht geholfen.

Link: http://gizmodo.com/the-world-s-largest-solar-plant-just-torched-itself-1777767880

Übersetzt von Chris Frey EIKE

Frei nach der Devise: D W D – Das War’s Dann! [Anm. d. Übers.]




Dem windgepeitschten Dänemark wird die Wind Energie zu teuer

"Seit wir 2012 die politische Einigung darüber erreichten, sind die Kosten für unsere Politik der Erneuerbaren dramatisch gestiegen", sagte Klimaminister Lars Christian Lille, ein Politiker der Liberalen Partei und Vertreter der Minderheitsregierung des Landes, laut Reuters.

Die Regierung hätte 10,63 Mrd. Dollar zu zahlen um Strom aus den fünf Windparks zu kaufen – ein Preis zu teuer für die Verbraucher, die bereits mit den höchsten Strompreisen in Europa konfrontiert sind.

"Wir können das nicht akzeptieren, da der Privatsektor und die Haushalte viel zu viel bezahlen. Dänemarks erneuerbare Politik hat sich als zu teuer erwiesen ", sagte Lille.

Dänemark bekommt etwa 40 Prozent seines Stroms aus Windkraft und hat das Ziel, die Hälfte seines Stroms bis 2020 aus Wind zu erhalten. Aber das Ziel bekommt nun einen stärker vorherrschenden Gegenwind: hohe Energiepreise.

Die Dänen haben Milliarden an Steuern und Gebühren zu zahlen, um Windenergie zu unterstützen, welche die Strompreise in die Höhe schnellen lässt, obwohl der Preis für Strom abgenommen hat. [im Durchschnitt 21 Euro / MWh in 2015] Nun, grüne Steuern bilden 66 Prozent der dänischen Stromrechnungen. Nur 15 Prozent der Stromrechnung dient der Energieerzeugung.

Die Strompreise sind so hoch geworden, dass die Regierung entschieden hat, die Ökosteuern auf Energiekosten für Verbraucher zu senken.

"Der PSO Tarif ist teuer und ineffektiv. Wir haben lange geglaubt, dass die steigenden Kosten nicht mehr tragbar sind und jetzt ist es völlig klar, dass wir eine Alternative zu finden haben. Deshalb ist die Regierung für eine Kraftprobe über die PSO Abgabe bereit", sagte Finanzminister Karsten Lauritzen am Dienstag.

Dänische Politiker wollen noch immer das Land bis zum Jahr 2050 von fossilen Brennstoffen vollständig unabhängig machen, als Teil ihrer Bemühungen zur Bekämpfung der Erderwärmung. Aber grüne Energiesteuern nach unten zu schrauben bedeutet, dass sie andere Wege finden müssen, um Windprojekte zu finanzieren.

Die Subventionen für die Erzeuger von Windenergie müssen steigen, damit die Produktion profitabel wird; gemäß Reuter.

Erschienen auf The Daily Caller am 13.05.2016

Übersetzt von Andreas Demmig

http://dailycaller.com/2016/05/13/windswept-denmark-says-wind-energy-has-become-too-expensive/