1

Windmühlengegner gründen neue Partei in Mecklenburg

Darüber berichtet aktuell die Presse wie folgt [1] :

"Gegner des unkontrollierten Windkraftausbaus haben sich erstmals in Deutschland zu einer Partei zusammen geschlossen. … Windkraftkritiker haben in Mecklenburg- Vorpommern eine eigene Partei namens Freier Horizont gegründet. Sie wendet sich laut Programm gegen eine völlig aus dem Ruder gelaufene Umsetzung der Energiewende… Wie Schumacher sagte, war Politik aus Notwehr das entscheidende Motiv für die Gründung der Partei, der bundesweit bislang einzigen Partei von Windkraftkritikern. Der Staat, der Anwalt der Bürger sein sollte, ziehe sich immer häufiger aus infrastrukturellen, kulturellen und administrativen Bereichen zurück, die Argumente der Bürger würden nicht mehr gehört…"

UND  [2]  :

"Windkraftgegner gründen Partei „Freier Horizont“ … Windkraftkritiker haben in Mecklenburg-Vorpommern eine eigene Partei namens Freier Horizont gegründet."

"Der Rostocker Politikwissenschaftler Martin Koschkar sagte, derartige Neugründungen seien Ausdruck des Parteienpluralismus."

UND  [3]  :

"Windkraftkritiker gründen Partei

Altentreptow · 27.02.2016 · 13:10 Uhr

Das Aktionsbündnis "Freier Horizont" hat nun eine Partei gegründet. Sie sehe sich nach eigenen Angaben aber nicht als Antiwindkraftpartei".

UND  [4]  :

"Aus Notwehr“: Windkraftgegner gründen neue Partei im Norden …

"Freier Horizont“ will im Herbst in den Schweriner Landtag einziehen …

"Wir gründen diese Partei aus Notwehr. Appelle und Initiativen der Menschen im Land werden immer häufiger ignoriert" …

…" Die Kleinstadt (Anm.: Altentreptow) stehe exemplarisch für eine verfehlte Politik … Niemand, der ländliche Ruhe sucht, werde sich hier noch ansiedeln…"

Es geht "… Um mehr Bürgerbeteiligung, mehr Mitbestimmung: Bevormundung, Ignoranz, Selbstgerechtigkeit sowie die Abkoppelung von Teilen der Bevölkerung und ganzer Regionen haben zu einer Parteien-Verdrossenheit geführt, deren Ausmaß existenzgefährdend für unsere freiheitliche Grundordnung ist."

[1]  http://www.svz.de/regionales/mecklenburg-vorpommern/windkraftkritiker-gruenden-partei-freier-horizont-id12860311.html

[2]  http://www.ln-online.de/Nachrichten/Norddeutschland/Windkraftgegner-gruenden-Partei-Freier-Horizont

[3] http://www.nordkurier.de/mecklenburg-vorpommern/windkraftkritiker-gruenden-partei-freier-horizont-2720927102.html

[4] http://www.ostsee-zeitung.de/Nachrichten/MV-aktuell/Aus-Notwehr-Windkraftgegner-gruenden-neue-Partei-im-Norden




Sehr starke graphische Beweise für den Stillstand (Teil 2)

Die von mir entwickelten Verfahren erlauben es, große Mengen von Trends rasch zu analysieren und die Ergebnisse graphisch oder in Form einer Tabelle zu zeigen. Ein Trend weist 4 Haupt-Attribute auf: ein Start- und Endzeitpunkt, eine Länge und eine Neigung (wobei im Falle der globalen Erwärmung die Neigung den Erwärmungstrend zeigt). In meinem ersten Artikel habe ich Graphiken mit dem Vergleich von Erwärmungsraten und Trendlänge gezeigt, aber jedes der 4 Attribute kann graphisch gegen jedes andere aufgetragen werden.

Die meisten Menschen denken, dass die Graphiken gut aussehen, aber ich untersuche immer noch, ob die Graphiken eigentlich für die Analyse globaler Erwärmung brauchbar sind. Das könnte einfach nur ein Blickfang sein, aber ich hoffe, dass sie sich für irgendetwas als nützlich erweisen.

Nach meinem ersten Beitrag beschloss ich, MTA anzuwenden in dem Versuch zu beweisen, dass der Stillstand existiert. Ich wollte eine Graphik des Intervalls, in dem der Stillstand existiert, mit einer Graphik des Intervalls vergleichen, in dem der „Stillstand“ nicht existiert (ein Referenz-Intervall). Falls es einen signifikanten Unterschied gäbe und es die richtige Art Differenz wäre (z. B. eine geringere Erwärmungsrate), dann hätte ich gute Beweise dafür, dass der Stillstand existiert.

Das Auswählen der richtigen Intervalle war wichtig. Aus meinen früheren Untersuchungen bzgl. des Stillstands wusste ich, dass die Kernjahre der Zeitraum von 2002 bis 2013 waren. Dies ist ein 12-Jahre-Intervall mit einer sehr geringen Erwärmungsrate. Das Verschieben des Startzeitpunktes nach 2001 ließ die Erwärmungsrate geringfügig zunehmen, ergaben aber einen längeren und etwas schwächeren Stillstand. Die Verschiebung des Startzeitpunktes nach 2000 ließ die Erwärmungsrate noch mehr zunehmen, ergab aber einen sogar noch längeren Stillstand. Das Verschieben des Endzeitpunktes nach 2014 ließ die Erwärmungsrate ebenfalls zunehmen, und die Verschiebung nach 2015 schwächte den Stillstand deutlich, und zwar wegen des El Nino 2015.

Also hatte ich eine begrenzte Bandbreite von Jahren bzgl. des Stillstandes. Ich wusste, dass es seit 1975 eine konsistente Erwärmung gegeben hatte, so dass mein stillstandsfreies Intervall im Jahr 1975 oder danach beginnen musste. Von 1975 bis 2015 sind es 41 Jahre. Die ersten 25 Jahre oder so zeigten definitiv Erwärmung, danach begann der Stillstand. Es wäre am besten, wenn mein stillstandsfreies Referenzintervall genauso lang wäre wie das Stillstands-Intervall, weil ich Äpfel mit Äpfeln vergleichen wollte. Schließlich habe ich die 41 Jahre in 3 X 13 + 2 Jahre aufgeteilt. Dies ergab 2 stillstandsfreie Intervalle von jeweils 13 Jahren, eines von Januar 1975 bis Dezember 1987 und ein weiteres von Januar 1988 bis Dezember 2000). Außerdem ergab sich jetzt das 13 Jahre umfassende Stillstands-Intervall von Januar 2001 bis Dezember 2013. Dies passte gut zu meinen Gedanken bzgl. des Stillstands und gab mir zwei Referenzperioden, mit denen man es vergleichen konnte. Außerdem war es gut, dass man die beiden Referenzintervalle untereinander vergleichen konnte um zu sehen, ob diese konsistent waren. Ich habe mal die Jahre 2014 und 2015 außen vor gelassen, weil ich wusste, dass diese den Stillstand abschwächen. Um diese beiden Jahre konnte man sich auch später noch kümmern, falls ich Beweise für die Existenz des Stillstands finden würde.

Ich habe die MTA durchgeführt und die Ergebnisse graphisch dargestellt. Normalerweise schaue ich nicht auf Trends kürzer als 10 Jahre, weil sie weniger stabil sind. Allerdings gab mir die Verwendung von 13-Jahre-Intervallen nur Trends von 10 bis 13 Jahren. Die Graphiken zeigten, was ich sehen wollte, aber sie waren etwas „dünn“. Ich führte die Analyse noch einmal durch, diesmal mit einer mittleren Trendlänge von 8 Jahren, und erhielt deutlich stabilere Graphiken.

Ich sollte rasch noch erwähnen, dass alle Daten aus den NOAA-Datenreihen der kombinierten Festlands- und Ozeantemperatur stammen. Ich werde meine Analyse mit den Daten anderer Temperaturreihen wiederholen, wenn ich Zeit dazu habe, aber ich dachte, dass die Verwendung der NOAA-Daten geeignet war angesichts des Umstandes, dass sie einen Ruf als „Stillstands-Zerstörer“ hat.

Zunächst werde ich die drei ganzen Streu-Graphiken individuell zeigen, eines für jedes Intervall. Diese eignen sich gut, um deren Form zu untersuchen, die Erwärmungsraten für unterschiedliche Trendlängen zu checken und einen guten Hinweis auf die Gesamt-Erwärmungsrate zu bekommen. Der am weitesten rechts liegende Punkt in jeder Graphik korrespondiert mit einer linearen Regression über das gesamte Intervall.

Danach werde ich eine einzelne Graphik zeigen, welche die gleichen drei Intervalle enthält, jedoch geplottet als Umrisse einer einzelnen Graphik. Damit lassen sich die verschiedenen Intervalle viel besser miteinander vergleichen. Die Farbe eines Umriss-Graphen ist die gleiche wie von der gesamten Streu-Graphik des Intervalls.

Hier folgt die MTA-Graphik des ersten stillstandsfreien Intervalls von Januar 1975 bis Dezember 1987:

Und hier die MTA-Graphik für das zweite stillstandsfreie Intervall Januar 2001 bis Dezember 2013:

Hier die MTA-Graphik für das dritte Intervall, welches die Pause enthält (Januar 2001 bis Dezember 2013:

Und hier nun die Umriss-Graphik mit allen drei Intervallen, jede mit der gleichen Farbe wie für die vorige Graphik für das Intervall:

Ich glaube, dass die Ergebnisse deutlich aus den Graphiken hervorgehen, aber ich möchte einige wenige Aspekte aus der Umriss-Graphik erwähnen.

Man beachte, dass die beiden Referenz-Intervalle ziemlich gut übereinstimmen. Die erste in orange zeigt eine Erwärmungsrate etwas über 2°C pro Jahrhundert. Die Erwärmungsrate scheint zum rechten Ende hin leicht zuzunehmen.

Das zweite Referenzintervall in grün zeigt eine Gesamt-Erwärmungsrate von etwa 1,29°C pro Jahrhundert. Die Erwärmungsrate scheint zum Ende hin leicht abzunehmen (mit der Annäherung an den Stillstand).

Das blaue Stillstands-Intervall zeigt viel weniger Variabilität als die beiden Referenzintervalle. Die Erwärmungsrate liegt zumeist zwischen 0 und 1°C pro Jahrhundert und zeigt eine Gesamt-Erwärmungsrate von etwa 0,54°C pro Jahrhundert, die zum Ende hin leicht zuzunehmen scheint. Vielleicht zeigte sich Ende 2013 eine geringe Zunahme der Temperatur, die dann 2014 und 2015 größer wurde.

Falls wir die Gesamt-Erwärmungsraten der beiden Referenzintervalle mitteln, ergibt sich 1,65°C pro Jahrhundert. Der Stillstand zeigt eine Erwärmungsrate von weniger als 33% des Mittels der beiden Referenzintervalle.

Genauer, der Stillstand weist eine Gesamt-Erwärmungsrate von etwa 27% zum Referenz-Intervall 1 und weniger als 42% zum Referenz-Intervall 2. Diese Prozentzahlen repräsentieren eine große Reduktion der Erwärmungsrate, was die Bezeichnungen „Slowdown” oder „Hiatus” oder „Pause” rechtfertigt.

Kann irgendjemand den Stillstand leugnen – angesichts dieser Beweise? Ich erwarte, dass es viele „Stillstands-Leugner“ geben wird, die es stur wie ein Panzer ablehnen, die hier von mir präsentierten Beweise zu akzeptieren. Natürlich kann jedermann meine Beweise widerlegen, falls ein signifikanter Fehler darin gefunden wird. So geht Wissenschaft.

Ein letztes Wort bzgl. der Zukunft. Der Stillstand wurde durch den El Nino 2015 abgeschwächt. Dies bedeutet nicht, dass er niemals existiert hatte. Jeder, der sich schadenfroh bzgl. der Abschwächung des Stillstands ergeht, sollte im Hinterkopf behalten, dass El Ninos nicht ewig dauern. Ist die El-Nino-Erwärmung erst einmal verschwunden, wird sich der Stillstand möglicherweise verstärken. Auch ein La Nina kann dem Stillstand Vorschub leisten. Man unterschätze den Stillstand nicht, er könnte durchaus noch Überraschungen bereithalten.

Link: http://wattsupwiththat.com/2016/02/25/very-strong-graphical-evidence-for-the-pause-part-2/

Übersetzt von Chris Frey EIKE




Energiewende mit Anstand – Windräder mit Abstand

Durch die Zeitung erfuhr ich von der zweiten Veranstaltung am 20.Feb. 2016. Es war in einem guten Dorfgasthaus, der übliche Saal im ersten Stock – fast voll, geschätzt: knapp 200 Personen. 

Tagesordnung

Handy-Aufnahme Demmig

2. Rückblick auf die vorherige Veranstaltung:

Es gibt in Deutschland bereits rund 25.000 Windkraftanlagen, dazu Solaranlagen – die Realität der gelieferten Energie sieht so aus:  

Kopie der gezeigten Grafik. Der besseren Lesbarkeit habe ich es von Eike: Erneuerbare-im-September-2015

Dazu die Erläuterungen: Grafik zeigt Wind- und Solareinspeisungen aus ganz Deutschland Bedarf und gelieferte kWh der verschiedenen Energieträger. Nimmt man den gesamten Energieverbrauch – incl. Verkehr und Wärmeerzeugung (letztere 50%) so kommen Wind und Solar unter 10% . Dabei ist die installierte elektrische Nennleistung bereits höher, als es dem gesamten Energiebedarf der BRD entspricht!

[Hinweis: Noch mehr Wind- und Solaranlagen vergrößern nur die Spitzen, wenn kein Wind und keine Sonne – helfen auch noch so viel … anlagen nichts; Demmig]

Forschungen und Subventionen zur Verbesserung der Energien zur Hauserwärmung gibt es fast nicht. Es kamen dann noch die Zahlen: EEG in 2015 rund 25 Mrd, Tendenz steigend.

Die Gemeinden werden oft mit Versprechen auf Gewerbeeinnahmen geködert, die dann nie eintreffen:

Handybild Demmig, Gewerbesteuer wird auf den Gewinn gezahlt, dieser kann durch den Investor beeinflusst werden.

 Wenn der Bürgermeister schon fitter ist, will er ein Gemeindegrundstück verpachten

Handy-Bild Demmig; Jedoch – lohnt das die Zerstörung der Natur?

3. Klarstellen, informieren, Antworten

– Anfeindungen, Unterstellungen

Die Bürgerinitiative ist seit ein-ein-halb Jahren aktiv.

In der Zwischenzeit gab es viele Anfeindungen, Leserbriefe – zum Teil mit Unterstellungen die gar nicht gesagt / geschrieben wurden.

Besonders aktiver Gegner, der „Investor“ Fa. Doma, Herr Dornauer

http://www.energiewende-erlangen.de/wp-content/uploads/2014/10/Schreiben-an-Gemeinderat-Weisendorf-1.pdf

Es gibt bereits eine Historie;

http://windkraftwildwuchs.blogspot.de/2011/10/amtsblatt-neustadt-aisch-23042011.html

http://ingas-blog.com/2015/08/25/gemeinderaete-stimmen-windrad-in-dachsbach-zu-und-werden-dann-von-gegnern-beleidigt/

Er stellt die BI hin, als hätte sie „durch Fukushima nichts gelernt“ und will mit der 10H Regelung die Energiewende behindern. (Leider kein Foto gemacht)

Dazu erläuterte der Redner sehr korrekt: … das in Fukushima das stärkste Erdbeben seit ?? (habe ich mir nicht gemerkt) erlebte und die durch die Plattenverschiebungen ausgelösten Wellen – Tsunami – haben dann die Schutzmauer überspült und die Notstromversorgung des Kraftwerkes nach ca. 2 Stunden zum Ausfall gebracht. Kein Mensch ist durch Strahlung geschädigt worden, die ach so schlimme „Kernschmelze“ bedeutet einfach nur eine Beschädigung des Gestells der Brennelemente. Ein durchschmelzen des Kerns zum Erdmittelpunkt gibt es nur im Kino. – aber weiter will er da gar nicht drauf eingehen. Außerdem ist es wohl bezeichnend, dass der Investor solche Argumente nehmen muss, denn in Deutschland ist Kernenergie kein Thema mehr. Ob wir damit richtig liegen, kann er nicht beurteilen, denn die Welt um uns herum setzen noch / wieder auf Kernenergie.

In Deutschland geht es um Klimaschutz und ob da Windkraft und Solaranlagen nützlich sind, kann er nicht beurteilen, denn zum backup müssen Kohlekraftwerke im ungünstigen Standby gefahren werden.

Handy-Bild Demmig

Lächerlich sei wohl die Behauptung „es kommt nicht auf die Windgeschwindigkeit an“. Von der Energieausbeute hängt schließlich die Einspeisevergütung ab.

Auch wird wie üblich die Keule: Von der Atomkraftlobby … oder … oder geschmiert, herausgeholt. Leider ist bislang noch nie ein Scheck eingegangen, es ist alles aus privater Tasche bezahlt: Gutachten, Rechtanwälte, Flugblätter und Saalmieten.

Klagen über Lärm

In Abrede wird auch die Lärmbelästigung der Anwohner gestellt (Einbildung), Infraschall hört man nicht, also gibt es das nicht. Gerade in ländlichen Gegenden, wo man nachts bei geöffnten Fenstern das Schnarchen des Nachbarn hören kann, werden die Windgeräusche der Flügel als sehr unangenehm empfunden.

Geöffnete Fenster sind nach Bericht von Anwohnern, die hier auch kurz ihre Erfahrung schildern, kaum noch möglich.

Besser wäre es von Differenzpegel auszugehen. In ein Gegenden die bereits einen höheren Grund-Lärmpegel hat, fallen dann die Emissionen der Windanlagen nicht mehr so auf, wie auch tagsüber.

[Von der bereits im letzten Jahr erstellten Studie des Umweltbundesamtes wussten die Redner noch nichts; Demmig]

Teilnehmer an Windparks

„Investoren“ nennen sich die Aktiven Planer, immer auf der Suche nach weiteren Standorten, um an der Errichtung von Windparks zu profitieren. Dazu so viel: Hypotheken, Planungs- und Studiengebühren, Service, Wartung, Pacht, Verwaltung sind Kosten, die vom Investor beeinflusst werden können. Der Abzug der Kosten von den Erlösen aus verkauftem Windstrom (noch besser, abgeschaltetem, d.h. nicht gelieferten Windstrom) nennt sich Gewinn. Daraus berechnet sich die Gewerbesteuer, der Rest wird an die „Anteilseigner“ verteilt – Gewinnausschüttung.

Die Investoren verkaufen Anteile (meist in 5.000 Euro Portionen) an die Anteilseigner, natürlich mit gutem Zuschlag für eigene Mühen. Rechtzeitig wird oft eine Sperrminorität für den Investor eingetragen, 25.1%, danach können auch diese Anteile verkauft werden – die Sperrminorität bleibt eingetragen.

Verluste trägt das „Projekt“ erstmal aus den Rücklagen (für Kosten, s.o.), bis die Insolvenz droht und das ganze „unter den Hammer kommt“. Jetzt ist es interessant das insolvente Projekt möglichst günstig (30 bis max 50%) zu erwerben. Damit kann auch bei Schwachwind Gewinn gemacht werden.

Im Übrigen meinte der Investor, lohnen würde es sich erst ab vier bis fünf Windrädern.

4. Gastreferentin Gräfin von Stauffenberg

– Fundamente im Boden– nie wieder Wald

Gezeigt hat die Referentin Bilder (aus dem Internet) der mächtigen Fundamente für einen Windturm, mindestens 16m tiefe Bohrungen für Säulenfundamente, darüber eine große Platte, etwa 16m im Durchmesser. Drumherum sind stabile Wege für die Bau und Wartungsfahrzeuge anzulegen (40t). Sind die 20 Jahre rum, müssen die Fundamente nur bis zu einem Meter unter Bodenniveau abgetragen werden (Ist das Projekt Pleite, haftet der Grundstückseigentümer). An der Stelle wächst nie mehr ein Baum. Sie fragte auch Investoren, was dann nach Ablauf der Nutzungszeit passiert: Meistens lohnt sich Repowering, d.h. es wird eine neues Windrad an Stelle des alten errichtet, oft sind diese Anlagen dann größer und leistungsfähiger als vorher, so dass die Fundamente dann verrucht werden müssten (Abstand der WKA zueinander). Was heißt verrutschen? In entsprechendem Abstand wird ein neues Fundament im Boden verankert, darauf kommt dann der neue Turm. Und die alte Stelle? Wird auf einem Meter unter Bodenniveau abgetragen.

Mit anderen Worten, die Bodenversiegelung geht noch viel weiter.

Weiterhin berichtet sie von einer Grundschule in ihrem Wahlkreis. Es fiel auf, dass alle Kinder etwa zur gleichen Zeit in ihren schulischen Leistungen nachließen. Der Grund war dann: Die Kinder sind durch die sich drehenden Flügel abgelenkt und passen nicht mehr so auf. Über Abhilfe wird noch diskutiert – Einen Sichtschutz bauen?

5. Demokratie bekommt man nicht umsonst

Ein Gemeinderat erzählte von Anfeindungen und anonymen Drohanrufen an die Gegner des Windprojektes, wenn sie im Gemeinderat nicht richtig abstimmen. (in deinem Geschäft wird du das merken). Bürgermeister sind sehr oft gegen Bürgerbegehren, da werden viele Verwaltungsvorschriften zur Ablehnung herangezogen. Im Nachhinein kommen oft Mauscheleien zu Tage. Auch werden zur "Transparenz" gerne Hersteller, Investoren und Anteilseigner zur Aussprache eingeladen. Gegner des Projektes sollen möglichst weg bleiben.

Ist ein Windparkprojekt abgelehnt, so kann es 12 Monate später wieder … und wieder versucht werden. (Jeder Hanswurst kann kommen und Windräder aufstellen)

Daher: Wachsam bleiben, Demokratie bekommt man nicht ohne Mühe (und ohne Geld)

5. Windräder im Wald

Ein ehemaliger Kreisvorsitzende im Bund Naturschutz ist nach Erfahrungen in seinem Heimatdorf aus dem BN ausgetreten. Wie schon von der Vorrednerin gehört, sind befestigte Wege notwendig, um schwere Fahrzeuge zur Bau und zur Wartung an die Windtürme heran fahren zu können.

Da war ein ehemaliger Truppenübungsplatz der Amerikaner aufgegeben worden, in dem damals Atomraketen stationiert wurde und es waren viele, gut befestigte Wege in dem 20.000 Hektar großen Gebiet vorhanden. Da hätte man gerne und ohne große zusätzliche Kosten einen Windpark hin bauen können.

In der Nähe kaufte der BN von der Gemeinde eine große Wiese, auf dem man Tulpenzwiebeln einpflanzte. Das war die Attraktion in einer Gegend, wo man außer Landschaft und ein wenig Tourismus nichts hatte. Viele Wanderer kamen und wollten das sehen.

– So, nun dürfen Sie raten, wo der Windpark hinkam!

Im Übrigen ist festzustellen, dass 90% der WKAs in Bayern, im fränkischen Teil stehen, die Bayern argumentieren mit dem Schutz ihrer Naturlandschaft!

Nach den Vorträgen sprach ich mit einem der Aktiven.

– Es ist eine riesige Mühe die Leute, vor allem am Dorf, für eine Idee vom Sofa hoch zubekommen. So haben sie sich frühzeitig nur auf Natur und Landschaftsschutz konzentriert, um den Investoren das „Gutmäntelchen“ auszuziehen. Dazu sind sie auch zu den Leuten nach Hause gegangen. Alleine schafft man das nicht, auch schon des investierten Geldes wegen, für Flugblätter, Anzeigen, Saalmieten und Rechtsgutachten.

Ja, er weiß was von Klima und CO2 zu halten ist, ebenso von der ganzen Energiewende. Diese Themen sprechen sie jedoch nach Möglichkeit nicht an, denn die „normalen Menschen“ haben dafür noch weniger Zeit sich zu informieren oder auch eigene Gedanken zu machen. Deshalb konzentrieren sie sich ausschließlich auf Schutz der eigenen Landschaft drum herum.

Zusammengestellt von Andreas Demmig

Ergänzungen die ich beim Schreiben gefunden habe:

Der Link zur Quelle mal zuerst:

http://www.bmwi.de/DE/Themen/Energie/Erneuerbare-Energien/erneuerbare-energien-auf-einen-blick.html

 

Die EEG-Umlage finanziert die Förderung von Erneuerbaren-Energien-Anlagen in Deutschland. Der jährliche Gesamtbetrag errechnet sich aus der Differenz zwischen den Ausgaben für Vergütungs- und Prämienzahlungen und den Einnahmen aus Vermarktungserlösen der Netzbetreiber, den so genannten EEG-Differenzkosten. Dieser Betrag wird dann auf die Stromkunden als Verbrauchsabgabe umgelegt und mit der Stromrechnung automatisch bezahlt.

Mithilfe der EEG-Novelle 2014 konnte die EEG-Umlage stabilisiert werden. Sie beträgt 6,354 Cent/kWh im Jahr 2016.

© BMWi; Datenbasis: eigene Berechnungen auf Basis von www.netztransparenz.de und European Energy Exchange (* durchschnittlicher Terminmarkt-Preis im jeweiligen Vorjahr)

Das bedeutet: Hurra, die Summe aus Börsenstrompreis und EEG Umlage ist gesunken, d.h. den Zappelstrom wollte keiner haben – oder es war ein schlechtes Jahr für Wind und Sonne – die EEG Umlage musste steigen. Pech, wenn Sie Verbraucher sind!

Grafik BMWi

Ebenso zuerst der Link:

http://www.welt.de/wirtschaft/energie/article134272198/Deutsche-verbrauchen-jetzt-mehr-Energie-als-zuvor.html

Deutsche verbrauchen jetzt mehr Energie als zuvor

Der Energieverbrauch privater Haushalte ist trotz aller Sparappelle im vergangenen Jahr deutlich gestiegen. Jetzt will Sigmar Gabriel die Bürger vom Energiesparen überzeugen – mit einem Aktionsplan.

Na sowas, haben die Energiespar-Lampen und -Staubsauger sich nicht durchgesetzt?

Zusammenstellung Andreas Demmig




Zehn düstere Prophezeiungen bzgl. des Unterganges von Eisbären sind gescheitert: jetzt wieder 20.000 bis 30.000 Exemplare

Während Eisbären durch abnehmendes Meereis irgendwann in der Zukunft negativ betroffen werden könnten, gibt es aber keinen überzeugenden Beweis, dass sie derzeit unnatürlichen Schädigungen ausgesetzt sind. Tatsächlich hat die globale Anzahl (von Funktionären als vorläufige Schätzung beschrieben) anscheinend während dieser Zeit leicht zugenommen, hatte man doch im Jahre 1993 28.370 Tiere gezählt (Wiig and colleagues 1995; range 21,470-28,370), während im Jahre 2015 31.000 Tiere gezählt worden sind (Wiig and colleagues 2015, [pdf here] aka 2015 IUCN Red List assessment; range 20,000-31,000).

Diese ominösen Prophezeiungen wurden hauptsächlich durch Ian Stirling, Steven Amstrup, Andrew Derocher und einige andere in einer IUCN Polar Bear Specialist Group (PBSG) kolportiert, und ironischerweise sind es von deren Kollegen gesammelte Daten, die ihre Botschaft des Untergangs widerlegen.

Hier folgen diese Prophezeiungen (in beliebiger Reihenfolge):

Prophezeiung 1: Die Anzahl von Eisbären im Gebiet der Western Hudson Bay (WHB) wird weiterhin abnehmen über das Jahr 2004 hinaus, und zwar infolge des früheren Aufbrechens des Eises und des immer späteren Zufrierens.

Gescheitert: Eine Zählung aus der Luft, durchgeführt im Jahre 2011 von Seth Stapleton und seinen Kollegen (2014) kam zu einer Schätzung von etwa 1030 Bären. In ihrem Bericht schreiben sie:

Diese Zahl ist ähnlich einer Schätzung aus dem Jahr 2004, aber deutlich höher als Projektionen, die eine Abnahme der Bären seitdem zeigen“.

Diese Zahl von 1030 ist diejenige, die vom IUCN PBSG sowie Environment Canada für WHB genannt wird, hat doch eine Studie aus dem gleichen Jahr (Lunn und Kollegen 2014) nicht die gesamte WHB-Region erfasst, so dass deren Zahl nicht mit dem Jahr 2004 verglichen werden konnte.

Prophezeiung 2: Das Aufbrechen des Meereises in der WHB erfolgt zunehmend früher und das Wiederzufrieren zunehmend später (nach 1999), da das CO2-Niveau durch das Verbrennen fossiler Treibstoffe die globalen Temperaturen steigen lässt.

Gescheitert: Der Forscher Nick Lunn und seine Kollegen (2014) konnten nachweisen, dass es zwischen 2001 und 2010 keinen Trend hinsichtlich der Zeitpunkte von Aufbrechen und Zufrieren gab. Während seit 2010 keine Analysen von Aufbrechen oder Zufrieren im Gebiet WHB veröffentlicht worden sind, scheint sich diese Lage bis mindestens 2015 fortgesetzt zu haben (hier).

Prophezeiung 3: Die Eisbären in der Tschuktschen-See werden am stärksten geschädigt werden durch sommerliche Abnahme von Meereis, weil sie einige der größten Meereis-Verluste erleben als jede andere Unter-Population (und folglich die längste Saison mit offenem Wasser in jedem Jahr).

Gescheitert: Eine Studie aus jüngster Zeit bzgl. der Bären der Tschuktschen-See ergab, dass es ihnen besser geht als in den achtziger Jahren, als die Perioden offenen Wassers sehr kurz waren.Tatsächlich waren nur die Bären im Foxe Basin [?] fetter als die Tschuktschen-Bären. Sie vermehrten sich auch gut (Rode et al. 2010, 2013, 2014), wobei einige Weibchen Drillingsgeburten erlebten (siehe Bild oben rechts!) – außerhalb der WHB ein seltener Anblick.

Prophezeiung 4: Kannibalismus wird zunehmen, da die sommerliche Eisabnahme immer schlimmer wird.

Gescheitert: Kannibalismus ist ein natürliches Phänomen bei Eisbären, und bei keinem der wenigen bekannt gewordenen Vorfälle waren offensichtlich abgemagerte oder hungernde Bären beteiligt (selbst nicht beim jüngsten Beispiel, das Mitte August in der Baffin-Bay gefilmt worden ist, als in dem Gebiet das Meereis sehr ausgedehnt war), und das trotz der Tatsache, dass im Jahre 2012 die geringste Meereis-Ausdehnung seit 1979 beobachtet worden war. Von einer Zunahme der Vorfälle von Kannibalismus kann man nicht reden (hier), weil es keine wissenschaftliche Grundlage gibt, mit der man jüngste Vorfälle vergleichen kann.

Prophezeiung 5: Todesfälle von Bären durch Ertrinken werden zunehmen angesichts der weiter schrumpfenden sommerlichen Eisbedeckung (aufgekommen nach einem weithin beachteten Vorkommnis im Jahre 2004 hier).

Gescheitert: Es gab keine weiteren bestätigten Berichte über Todesfälle von Bären durch Ertrinken, die im Zusammenhang mit exzessivem Schwimmen in offenem Wasser standen seit dem umstrittenen Ereignis im Jahre 2004, obwohl seitdem in zwei Sommern die niedrigste sommerliche Eisausdehnung seitdem registriert worden ist (2007 und 2012). Eine gründlichere Studie über das Schwimmvermögen von Eisbären (hier) kam zu dem Ergebnis, dass Eisbären einschließlich der Jungtiere erfolgreich über weite Strecken schwimmen können. Tatsächlich schwimmen sie nicht nur im Sommer weite Strecken: Ende März 2015schwamm ein Polarbär durch offenes Wasser vom Packeis vor Neufundland zu der Hibernia-Ölplattform weit vor der Küste.

Prophezeiung 6: Es wird immer mehr Probleme an Land geben durch hungernde Eisbären infolge der geringeren Eisausdehnung.

Gescheitert: Es gab im Sommer im Gebiet der WHB, aber auch anderswo mehr Problem-Bären, aber kaum einer dieser Bären hungerte oder war abgemagert (hier). Eine groß publizierte Attacke erfolgte in Churchill im Herbst 2013, stand aber in keinerlei Zusammenhang mit einem besonders frühen Aufbrechen von Meereis und auch nicht mit spät zufrierendem Meerwasser. Bei Vorfällen im vorigen Sommer in der Kara-See (Russland) waren nur Bären in guter Verfassung beteiligt (hier). Eisbären sind potentiell gefährlich, egal wie es ihnen gerade geht, aber Todesfälle durch Verhungern junger und älterer (oder verwundeter) Bären sind natürliche Ereignisse, die oftmals auftreten. Sie sind kein Beweis für abnehmendes Meereis.

Prophezeiung 7: Die Eisbären in der südlichen Beaufort-See können als Indikator herangezogen werden zu prophezeien, wie es den Bären in der Tschuktschen-See und der Barents-See gehen wird, weil die ,Meereis-Ökoregionen‘ ähnlich sind. Dies sagt der Circumpolar Action Plan für zukünftige Forschung, der von Dag Vongraven und Kollegen im Jahre 2012 vorgestellt worden ist.

Gescheitert: Jüngste Forschungen haben gezeigt, dass es den Bären der Tschuktschen-See tatsächlich besser ging während der besonders langen Zeiträume offenen Wassers Ende der Nuller-Jahre als während der kurzen Zeiträume der achtziger Jahre. Im Gegenteil, die Bären der südlichen Beaufort-See haben ausgesprochen stark gelitten durch periodische Episoden dicken Eises im Frühjahr (etwa alle 10 Jahre seit den sechziger Jahren, hier). Dieses Phänomen ist typisch für jene Region. Tatsache ist: die Unterschiede der Eisbedingungen in der Tschuktschen-See und der südlichen Beaufort-See könnten kaum größer sein. Während die Bären in letzterem Gebiet verwundbarer sind durch natürliche Variationen der Eisausdehnung, ist der Plan, beide Regionen als äquivalent anzusehen, eine Farce und unterminiert total den von IUCN PBSG vorgestellten Circumpolar Action Plan.

Prophezeiung 8: Die Polarbären in der WHB können herangezogen werden um zu prophezeien, wie die Bären im Fox-Basin und der Davis-Straße leben, weil dies alles ähnliche ,Eis-Ökoregionen‘ sind. Dies sagt der Circumpolar Action Plan für zukünftige Forschung, der von Dag Vongraven und Kollegen im Jahre 2012 vorgestellt worden ist.

Gescheitert: Die Bären in der WHB haben es nicht nur mit variablen Zeiten von Eisschmelze und erneutem Zufrieren zu tun, sondern müssen gelegentlich auch Jahre aushalten mit dickem Frühjahrs-Eis sowie mit Frühjahren mit einer entweder sehr hohen oder sehr dünnen Schneedecke, was starke Auswirkungen auf die Verfügbarkeit von Ringelrobben hat, ihrer Nahrungsgrundlage (hier). Die Bären der Davis-Straße andererseits haben es mit einiger Variabilität der Meereis-Bedingungen zu tun, doch haben sie Zugang zu einer Überfülle von Sattelrobben im Frühjahr (hier). Während Bären in der WHB weitaus verwundbarer durch natürliche Variationen des Meereises und bzgl. der Verfügbarkeit von Nahrung als die Bären der Davis-Straße, ist der Plan, diese beiden Gebiete als äquivalent anzusehen, eine Farce und unterminiert total den von IUCN PBSG vorgestellten Circumpolar Action Plan.

Prophezeiung 9: Die fortgesetzte späte herbstliche Eisbildung vor Spitzbergen in der Barents-See wird sich verheerend auf Eisbären auswirken, die traditionell in diesem Gebiet hausen.

Gescheitert: Vorläufige Ergebnisse der jüngsten Eisbär-Zählung im Spitzbergen-Gebiet zeigten eine Zunahme um 42% gegenüber der Schätzung aus dem Jahr 2004 (hier), trotz sehr später Eisbildung im Herbst 2013. Andere Forscher haben nachgewiesen, dass Bären regelmäßig zwischen Spitzbergen, Norwegen und Franz-Josefs-Land hin und her pendeln (wo sich bislang das Meereis immer erst spät im Herbst bildet). Dies bedeutet, dass die Spitzbergen-Eisbären leicht in der Lage waren, sich an die gegenwärtigen Bedingungen geringer Eisausdehnung anzupassen.

Prophezeiung 10: Das sommerliche Meereis wird mit dem weiteren Anstieg des CO2-Gehaltes abnehmen. Das Jahr 2007 markierte den Beginn einer ,Todesspirale‘ von Meereis (hier), die sich immer weiter drehen wird.

Gescheitert: Das Meereis im September war seit dem Jahr 2007 variabel, aber es gab keinen Abnahme-Trend. Meereis-Experten räumen ein, dass dies noch 10 Jahre oder mehr über 2014 hinaus der Fall sein kann, selbst wenn die Vorhersagen bzgl. Eisrückzug zutreffend sein sollten (Swart et al. 2015). Mit anderen Worten, der CO2-Gehalt war kein Kontroll-Schalter für die Gesundheit der Eisbären.

Schlussfolgerungen

Eisbären sind keine fragile Angelegenheit im arktischen Klimawandel-Szenario, sondern sie sind widerstandsfähige Raubtiere, die bemerkenswert gut ausgestattet sind, um in ihrem hoch variablen Habitat zu leben.

In einer abgeschätzten Roten Liste aus dem Jahr 2015 (Wiig et al. 2015) heißt es:

Der vorherige Status ,verwundbar‘ blieb zwar bestehen, doch wurden keine Projektionen über das Jahr 2050 hinaus erstellt. Sie sagten, dass es nur eine 70-prozentige Chance gibt, dass die Anzahl während der nächsten 35 Jahre um 30% abnehmen wird. Dies ist kaum höher als 50 : 50. Es bedeutet auch, dass es eine 30-prozentige Chance gibt, dass die Anzahl während der nächsten 35 Jahre NICHT um 35% abnehmen wird. Explizit wird festgestellt, dass das Risiko eines Rückgangs der Population um 80% oder mehr bis zum Jahr 2050 praktisch Null ist (S. 16).

Mit anderen Worten: der Vermerk ,verwundbar‘ basiert nur auf einer möglichen Abnahme der Population (hier), trotz der gegenwärtig sehr großen Anzahl von Bären, und sie sind nicht unmittelbar in Gefahr auszusterben. Der gegenwärtige Trend der Population wird als UNBEKANNT gelistet.

Link: http://wattsupwiththat.com/2016/02/25/ten-dire-polar-bear-predictions-that-have-failed-as-global-population-hits-20-31k/

Übersetzt von Chris Frey EIKE

Hinweis des Übersetzers: Dieser Essay steht auch hier. Am Ende findet sich eine ausführliche Liste mit Referenzen.




Ein atemberaubender ,Hockeyschläger‘ – wie Zugang zu Energie die Menschheit voran gebracht hat

Bei Wikipedia findet sich eine ähnliche Graphik:

Die Daten sind extrahiert aus „World Population, GDP and Per Capita GDP, 1-2003 AD”.

Und dann gibt es da noch diese Graphik, die bis in das Jahr 500 vor Christus zurück reicht:

Quelle: Victor V. Claar, “The Urgency of Poverty and the Hope of Genuinely Fair Trade,” Journal of Markets & Morality 16, no. 1 (Spring 2013): 274. GDP figures from J. Bradford DeLong, “Estimates of World GDP, One Million B.C.—Present.”

Aus dem Artikel:

Diese Graphik zeigt, wie nur allzu real dieser „riesige Anstieg des Wohlergehens“ während der letzten beiden Jahrhunderte war. Was diese ökonomischen Fortschritte sogar noch erstaunlicher macht ist, dass es gleichlaufend damit zu einer Bevölkerungsexplosion gekommen war. Es sind jetzt umso mehr „Köpfe“ in „pro Kopf“ enthalten, je weiter man in der Graphik nach rechts kommt, und doch erleben wir immer noch enorme Gewinne des Pro-Kopf-BIP. Die Ökonomin Deidre McCloskey schreibt:

Niemals zuvor ist so etwas geschehen. Man habe ständig im Hinterkopf: achteinhalb mehr Nahrung und Kleidung und Wohnungen und Bildung und Reisen und Bücher für den durchschnittlichen Bürger – obwohl es davon sechs mal mehr gibt.

Dennoch fand eine Umfrage der Barna Group im April vorigen Jahres heraus, dass den meisten Amerikanern diese ökonomischen Fortschritte in keiner Weise bewusst sind: „über 8 von 10 Amerikanern (84%) sind sich nicht bewusst, dass die globale Armut so drastisch abgenommen hat. Über zwei Drittel (67%) sagen, sie hätten gedacht, dass die Armut während der letzten drei Jahrzehnte immer weiter voran geschritten ist“. Sowohl die Realität der globalen Armut (1,2 Milliarden Menschen verbleiben in extremer Armut) und die öffentliche Wahrnehmung der Verbreitung und der schlimmen Folgen von Armut verdienen zunehmend Aufmerksamkeit.

Die Negativ-Spitze um das Jahr 1300 geht wahrscheinlich auf die große Hungersnot des Jahres 1315 zurück:

Die Große Hungersnot von 1315 bis 1317 (gelegentlich auch im Zeitraum 1315 bis 1322 datiert) war die erste einer Reihe großräumig auftretender Krisen, die Anfang des 14. Jahrhunderts Nordeuropa heimgesucht hatten. Unter den betroffenen Gebieten sind das kontinentale Europa (im Osten bis nach Russland und im Süden bis nach Italien) ebenso wie Großbritannien. Sie verursachte Millionen Todesopfer im Verlauf mehrerer Jahre und markiert den klaren Endpunkt einer Periode von Wachstum und Wohlstand zuvor zwischen dem 11. und dem 13. Jahrhundert (hier).

Die Große Hungersnot begann mit schlechtem Wetter im Frühjahr 1315. Allgemeine Missernten dauerten über das Jahr 1316 bis zur Sommerernte 1317, und Europa hatte sich davon nicht vor dem Jahr 1322 vollständig erholt. Diese Zeit war gekennzeichnet durch extrem hohe Kriminalität, Krankheiten, Massensterben und sogar Kannibalismus und Kindstötungen. Die Krise zeitigte Konsequenzen für die Kirche, den Staat, die europäische Gesellschaft und brachte weitere Mishelligkeiten im 14. Jahrhundert.

Man beachte, dass es Kälte und Regen waren, nicht exzessive Wärme, die diese Krise verursacht hatten (hier):

Zwischen Anfang des 14. und Ende des 19. Jahrhunderts kühlte eine Periode der Abkühlung den Planeten, bekannt als die Kleine Eiszeit. Europa hatte die Hauptlast dieser ungünstigen Umstände zu tragen, wo es zu schlechtem und unbeständigen Wetter gekommen war, viele Jahrhunderte lang und besonders von 1560 bis 1660. Wissenschaftler diskutieren weiterhin über Ursachen und Zeitrahmen dieser Kältephase, welche verantwortlich gemacht wird für Katastrophen, die von Dürren und Hungersnöten bis zu Kriegen und Epidemien reichen. Der jüngsten Studie zufolge, veröffentlicht in den Geophysical Research Letters dieser Woche, haben Vulkanausbrüche unmittelbar vor dem Jahr 1300 zu einer Ausdehnung des Arktischen Eises geführt, was eine Kettenreaktion auslöste, die weltweit zu sinkenden Temperaturen führte.

Die Mittelalterliche Warmzeit von etwa 950 bis 1250, ist ebenfalls in der Graphik zu erkennen. Etwa um das Jahr 1000 erreichte das BIP einen Spitzenwert, um dann wieder zurückzugehen mit der Einkehr kalten und nassen Wetters.

Dann wurde die Dampfmaschine erfunden, der Zugang zu reichlicher, aber dennoch billiger Energie setzte ein, die industrielle Revolution nahm ihren Anfang, und die Welt schaute niemals zurück.

Wenn Ihnen das nächste Mal jemand sagt, wie schrecklich die Dinge heute sind, primär durch fossile Treibstoffe, zeigen Sie diese Graphik und fragen Sie, ob diese Leute sich die Bedingungen zurückwünschten, die damals geherrscht hatten.

Link: http://wattsupwiththat.com/2016/02/22/a-stunning-hockey-stick-how-access-to-energy-brought-humanity-forward/

Übersetzt von Chris Frey EIKE




Anstieg des Meeresspiegels: Nur Fakten

Der Anstieg des Meeresspiegels (laut NASA)

Der globale Meeresspiegel stieg um 17 Zentimeter (6,7 Zoll) im letzten Jahrhundert. Die Rate in den letzten zehn Jahren ist jedoch fast das Doppelte der des letzten Jahrhunderts.

Dave Burton führt uns weg vom Hype und zeigt die Fakten. Sein unten genannter Post erschien im Original auf Tom Fullers Webseite. David Burton erläutert alles aus der Perspektive seines Wohnortes an der Küste von North Carolina. Noch mehr Informationen zum Meeresspiegel ist unten zu Dave‘s eigener Webseite verlinkt.

Der Anstieg des Meeresspiegels beschleunigt sich nicht und hat sich seit den 1920er Jahren nicht beschleunigt.

Es gibt etwa sechzig Aufzeichnungen zum Meeresspiegel in guter Qualität über 100 Jahre auf der ganzen Welt, und sie zeigen das alle gleiche: es gibt keine statistisch signifikante Beschleunigung (Erhöhung) in der Rate des Meeresspiegelanstiegs in den letzten 85 Jahren oder länger. Das bedeutet, dass die anthropogenen CO2-Emissionen nicht messbar den Anstieg des Meeresspiegels beeinflussen und Vorhersagen von wild beschleunigtem Anstieg des Meeresspiegels auf Aberglauben basieren, nicht auf Wissenschaft.

Hier sind zwei Messprotokolle des Meeresspiegels in sehr hoher Qualität, eines aus dem Pazifik und eines aus dem Atlantik:

Mit atmosphärischen CO2 bei 0,040 Vol%, beträgt der gemittelte, globale Anstieg des Meeresspiegels an den Küsten knapp 1,5 mm / Jahr.

Als das atmosphärische CO2 bei 0,031 Vol% war, betrug der global gemittelte Meeresspiegelanstieg an den Küsten knapp 1,5 mm / Jahr.

Der Unterschied ist, dass die Klimapanikmacher denken* die aktuellen 1,5 mm / Jahr wären katastrophal und durch menschliche Freisetzung von CO2 verursacht, und die 1,5 mm / Jahr vor 85 Jahren waren natürlich und belanglos.

[*dass diese das „so denken“, kann ich nicht mehr glauben; der Übersetzer]

Allerdings, die Ähnlichkeit zwischen den beiden Zahlen – die katastrophalen 1,5 mm / Jahr und die belanglosen 1,5 mm / Jahr – hat sogar einige Liberale von der „Einen Wahrheit des Klima Glaubens“ entfernt. Auch der ehemalige Staatssekretär des Präsidenten Obama für Wissenschaft, Steven Koonin, hat geschrieben:

„Auch wenn der menschliche Einfluss auf das Klima in der Vergangenheit viel kleiner war, die Modelle tragen der Tatsache nicht Rechnung, dass die Rate des globalen Meeresspiegelanstiegs vor 70 Jahren so groß war wie das, was wir heute beobachten.“

Der Meeresspiegel stieg im vergangenen Jahr keine 3,39 mm an den Küsten.

Die Zahl 3,39 mm ist von Satelliten Höhenmessungen (Altimetrie) des offenen Meeres und durch die Ergänzung aus vom Modell abgeleiteten GIA Schätzungen aufgeblasen. Sie hat keinen Bezug auf irgendeine reale Angelegenheit.

Im Wesentlichen, messen Satellitenaltimeter die falsche Sache. Ihre Messungen sind verzerrt durch „Meeresspiegelanstieg“, verursacht durch die thermische Ausdehnung, wenn sich die obere Schicht des Ozeans erwärmt. Aber das ist eine rein lokale Wirkung, die nicht die Menge an Wasser in den Ozeanen beeinflusst und den Meeresspiegel auch nicht anderswo beeinflusst (beispielsweise an den Küsten).

Der Anstieg des Meeresspiegels interessiert nur an den Küsten, aber Satellitenaltimeter sind unfähig den Meeresspiegel an den Küsten zu messen. Pegel [-Maßstäbe] messen den Meeresspiegel an den Küsten, wo es darauf ankommt und ihre Daten sind von viel höherer Qualität.

Die besten Aufzeichnungen des Gezeiten-Pegels sind fast zehnmal länger (älter) als das kombinierte Satelliten-Messprotokoll, und zwanzigmal so lang wie jedes einzelne Satellitenmessprotokoll und die Flut-Pegel Aufzeichnungen sind vertrauenswürdig. Die Satellitenmessungen des Meeresspiegels sind es nicht. Sie unterliegen einer langen Liste von möglichen Verzerrungen und unterscheiden sich erheblich von einem Satelliten zu einem anderen.

Steve Case hat dokumentiert, wie U.Col. ihre Satelliten „Messungen“ des Meeresspiegels in den letzten Jahren überarbeitet hat:

Die Envisat Zahlen wurden noch dramatischer überarbeitet. Nachträgliche Korrekturen von Daten bis zu zehn Jahre nachdem sie aufgenommen wurden, verdreifachten etwa die Geschwindigkeit des Meeresspiegelanstiegs „gemessen“ von Envisat.

NASA ist sich der Probleme mit Satellitenmessungen bewusst und sie haben eine neue Mission namens Geodätische Referenzantenne im Raum (GRASP) vorgeschlagen, um diesen Bereich zu verbessern. Allerdings wird diese Mission nicht finanziert.

Referenzen und weitere Information hier: http://www.sealevel.info/

Fußnote 23. Februar 2016

Dave Burton warnt uns vor dem Aberglauben, dass der Meeresspiegel das Steigen anfängt. Ein Paradebeispiel aus dem Scientific American ist in die Massenmedien gegangen. Die Zusammenfassung der Studie:

Wir präsentieren, nach unserer Kenntnis, die erste Schätzung der Veränderung des globalen Meeresspiegels (GSL = global sea level) in den letzten ~3,000 Jahren, die auf statistischen Synthese einer globalen Datenbank von regionalen Meeresspiegel-Rekonstruktionen basiert. GSL variiert um ~ ± 8 cm gegenüber der vorindustriellen Zeitrechnung, mit einem bemerkenswerten Rückgang gegenüber 1000 bis 1400 der Zeitrechnung bei ~ 0,2 ° C der globalen Abkühlung. Der Anstieg des 20. Jahrhundert war sehr wahrscheinlich schneller als während einer der 27 früheren Jahrhunderten. Semi-empirische Modellierung zeigt, dass, ohne die globale Erwärmung, die GSL im 20. Jahrhundert sehr wahrscheinlich zwischen -3 cm und 7 cm angestiegen wäre, anstatt der beobachteten  ~ 14 cm. Semi-empirische Projektionen des 21. Jahrhunderts gleichen die Unterschiede zwischen den IPCC Klimawechsel Projektionen und den semi-empirischen Modellen weitgehend aus.

(Anmerkung der Redaktion: Bei der Erfindung des Unsinns von der semi-empirischen Methodik hat natürlich wieder das in diesen Bereichen unvergleichliche Potsdam Institut für Klimaforschungsfolgen (PIK) seine Hand im Spiel. Was nicht passt wird eben passend gemacht. Man sehe hier)

Die Absicht ist es, die Aufmerksamkeit auf die Modelle und nicht auf die Beobachtungen zu ziehen. Ferner sagen sie, die Hälfte des prognostizierten Anstiegs ist wegen der thermischen Ausdehnung, was eine lokale Wirkung hat und nicht an der Küste oder auf Pegelmessern erscheint.

In der Antike bauten die Menschen Götzenbilder und beteten an sie um günstige Witterung und Wohlstand zu sichern. Heute nehmen diese Symbole die Form von Computermodellen an, deren Prophezeiungen sicher sind den „Gottseibeiuns“ zu erschrecken.

Erschienen am 22. Feb. 2016

Übersetzt durch Andreas Demmig

https://rclutz.wordpress.com/2016/02/22/sea-level-rise-just-the-facts/

Anmerkungen des Übersetzers:

Das Aufmacher Bild ist typisch für die touristisch hergerichteten Inseln, mit einer Hotelanlage in der Mitte und Bungalows, am Rand der Insel oder auf Stelzen ins Meer hinausgebaut, dort wo möglich auch einen Wellenschutz für die Badenden.

Ich war selbst schon da und habe an den Rändern der Insel eher gesunkenen Wasserstand diagnostiziert: Ehemals im Wasser gelegene Uferstreifen und frei über dem Wasserspiegel liegende Wurzel von Bäumen, auch im Hafen der Hauptinsel Male das gleiche Bild: man sieht es an den Schmutzrändern, die oberhalb der Wasserlinie sind. In der Nähe der Inseln ist es überfischt, als Taucher muss man schon eine Weile zu schöneren Plätzen fahren.

Die einheimischen verwenden schon immer Korallen als Baumaterial, das wird sich jetzt auch kaum geändert haben.

Die Malediven investieren in die Erschließung weiterer Inseln für den Tourismus und bauen auch weitere Flughäfen. – bestimmt nicht auf untergehenden Inseln. Insgesamt sind knapp 200 von den fast 1200 Inseln bewohnt, nur einige wenige davon touristisch erschlossen.

Bild von:

http://www.maldivestourismupdate.com/2009/07/11-new-airports-to-be-constructed-in.html




Benny Peiser: Das sich ändernde Klima der Klimapolitik in UK

Bild rechts: Benny Peiser

Der Klimawandel war nicht ganz so die treibende Kraft der Transportpolitik, wie es Viele erwartet haben, nachdem das Climate Change Act im Jahre 2008 in Kraft gesetzt worden war. Aber angesichts des Umstands, dass der Bereich Transport den Energiesektor als größte Quelle von CO2-Emissionen in UK fast auf den Platz verwies, scheint der Einfluss dieses Gesetzes auf den Transportsektor zuzunehmen. Scheint – das heißt, dass die Regierung dem Rat des Committee on Climate Change (CCC) folgt, welcher Fünf-Jahres-Kohlenstoff-Budgets fordert, um UK auf den richtigen Weg zum Jahr 2050 zu führen. Die Liberaldemokraten in der Koalition stellten sicher, dass der Rat des CCC bzgl. des vierten Kohlenstoff-Budgets (2023 bis 2027) gehört wird. Aber wie will die Regierung der Konservativen in diesem Sommer auf die Forderungen des CCC bzgl. des fünften Kohlenstoff-Budgets (2028 bis 2032) reagieren, dessen zentrales Szenario eine Reduktion von CO2-Emissionen aus dem Transportsektor um 50 Millionen Tonnen (42%) im Jahre 2030 avisiert im Vergleich zum heutigen Niveau?

Prominente Kritiker des Climate Change Act scheinen hauptsächlich aus dem rechten Teil des politischen Spektrums zu kommen. Sie verweisen auf die steigenden Energiekosten aufgrund der Politik oder auf die Schäden, die Windparks der Landschaft zufügen. Viele glauben auch, dass die Gefahren anthropogener CO2-Emissionen überstrapaziert worden sind. Im Sommer vorigen Jahres schrieb Fraser Nelson, Herausgeber des Magazins The Spectator, dass Energieministerin Amber Rudd einen „ordentlichen Plan der Tories“ vorbereitet, wie man die Klima-Agenda voranbringen kann. „Der Climate Change Act wurde von Ed Milliband geschrieben, und wir haben uns seitdem immer an die von ihm ausgegebenen Regeln gehalten“, sagte Nelson. „Und doch verleiht es der Regierung die Macht, ein neues Ziel auszugeben, falls es ;signifikante Entwicklungen‘ im Bereich der Wissenschaft oder der europäischen Politik gibt“.

Ein Zurückfahren der Klimapolitik würde für Benny Peiser nicht eine Sekunde zu früh kommen. Peiser ist der Direktor der Global Warming Policy Foundation und des Global Warming Policy Forums. Die Foundation wurde 2009 vom ehemaligen Kanzler der Konservativen Lord Lawson ins Leben gerufen. Sie sollte das bekämpfen, was Lawson als Fehlinformation und Alarm innerhalb der Diskussion ansah. Diskussionen zum Thema Klimawandel kann oftmals eine üble Sache sein, wobei viele Leute darauf bestehen, dass es bzgl. der Wissenschaft keine Debatte geben kann – alles ist schließlich ,settled‘. Die GWPF war Gegenstand von Klagen vor der Wohlfahrts-Kommission seitens grüner Aktivisten, weshalb die Nicht-Wohlfahrtsorganisation GWPF ins Leben gerufen worden ist, und im Namen dieses Forums hat sich Benny Peiser heute geäußert.

Peiser wuchs in Deutschland auf und half bei der Gründung der Partei Die Grünen in Deutschland während der siebziger Jahre. Er durchlief eine akademische Laufbahn im Bereich soziale Anthropologie, und eine seiner Forschungsinteressen war die Frage, wie Gesellschaften im Lauf der Jahrhunderte auf reale und imaginäre Naturkatastrophen reagiert haben. Auf den Klimawandel wurde er in den neunziger Jahren aufmerksam. „Als der Ton der Diskussion immer schriller und die Behauptungen immer lauter und die prophezeiten Katastrophen immer größer wurden, wuchs mein Interesse, diesen Behauptungen einmal nachzugehen, immer mehr“, sagte er in einem Interview mit mir im Jahre 2006.

Um die UK-Klimapolitik zu verstehen hilft es, ein grundlegendes Gespür des internationalen Bildes zu haben. Als ich 2008 mit Peiser sprach, sagte er korrekt voraus, dass die UN-Klimakonferenz in Kopenhagen im Dezember 2008 in einem Fiasko enden würde, würden sich doch die Nationen weigern, neuen bindenden Emissionszielen zuzustimmen. „Niemand wird sagen, dies ist kollabiert. Sie werden sagen ,OK, nun, treffen wir uns einfach im nächsten Jahr noch einmal – es wird immer eine weitere Konferenz geben’“.

Und genauso kam es auch, wobei die Gespräche auf dem Pariser Klimagipfel kulminierten. Das Ergebnis von Paris wurde als ein großer Schritt vorwärts gefeiert, den Planeten auf eine Low-Carbon-Trajektorie zu führen, wobei 195 Nationen versprochen haben, die globale Temperaturzunahme deutlich unter 2°C seit vorindustriellen Zeiten zu halten. Das Übereinkommen merkt an, dass die gegenwärtigen Versprechungen der Länder hinter dem zurückbleiben, was erforderlich ist, um den Ambitionen gerecht zu werden: 55 Gt pro Jahr an Treibhausgas-Emissionen im Vergleich zu den erforderlichen höchstens 40 GT pro Jahr.

Peiser glaubt, dass das Pariser Abkommen viel zu übertrieben gefeiert wurde. „Paris ist genauso gescheitert wie Kopenhagen, nur dass diesmal die PR viel besser war“.

Aber David Cameron sprach diesbezüglich von einem „historischen Abkommen“, das gesetzlich bindend sei. „Das stimmt – gesetzlich bindend, sich erneut zu treffen. Das einzige, was hier gesetzlich bindend ist, ist der Prozess selbst – es ist gesetzlich bindend, sich erneut zu treffen und alle fünf Jahre die Versprechungen zu erneuern. Aber es gibt nichts über die tatsächlichen CO2-Ziele“.

Die EU hat den globalen Schub zur Beschneidung von Emissionen angeführt. Im Zuge des Kyoto-Protokolls hat die EU ein gesetzlich bindendes Ziel übernommen, die Emissionen bis zum Jahr 2020 um 20% im Vergleich zu 1990 zu beschneiden, wobei die Lasten gleichmäßig auf die Mitgliedsstaaten verteilt werden sollten. Im Vorlauf zu Paris haben die EU sowie Mitgliedsstaaten versprochen, noch darüber hinauszugehen mit einer Reduktion um 40% bis zum Jahr 2030. Peiser sagt dazu: „aber man lese das Kleingedruckte! Es gab eine Bedingung bzgl. des Versprechens der Europäer in Paris, die da lautete: ,wir werden CO2 bis zum Jahr 2030 um 40% beschneiden, allerdings werden wir das nur tun und nur als gesetzlich bindend betrachten, falls alle anderen sich ebenfalls gesetzlich bindenden Verpflichtungen unterwerfen‘. Dies war nicht der Fall“.

Er glaubt, dass die EU-Führer möglicherweise ihre einmütige Bemühung um Emissionsreduktionen aufgeben werden. „Die Europäer fangen an zu erkennen, dass ihre einstimmige Politik ihre Ökonomien unterminiert hat, weil sie die Einzigen waren, die bindende Verpflichtungen übernommen hatten. Falls die Konkurrenten nicht auf dem Fuße folgen, macht man seine eigenen Industrien weniger wettbewerbsfähig – die Energiepreise steigen, diejenigen der Konkurrenten nicht – und – welche Überraschung! – die Schwerindustrie wandert ab an Orte, wo die Produktion billiger ist“.

„Ich glaube, dass die EU jedwede Entscheidung zu zukünftigen Emissionszielen zurückstellen wird, und wenn sie dann doch entscheidet, wird es aller Wahrscheinlichkeit nach zu einer neuen Schummelei kommen. Politiker lieben Schummelei, wie man weiß.

Sie haben das mit den Zielen der erneuerbaren Energie getan – sie stimmten zu, dass die EU ein Ziel bzgl. Erneuerbarer von 27% bis zum Jahr 2030 haben. Aber es war sehr kontrovers, als sie sagte ,OK, wir werden das gesetzlich bindend machen – aber nur auf EU-Ebene‘. Und was bedeutet das jetzt? Es bedeutet, dass tatsächlich niemand gezwungen ist, irgendetwas zu tun, weil es keinen gesetzlichen Rahmen gibt“. Er glaubt, dass dem Klimaziel 40% der EU das Gleiche widerfahren wird.

Wo würde da UK mit seinem Climate Change Act bleiben? Das vom CCC geforderte fünfte Kohlenstoff-Budget für den Zeitraum 2028 bis 2032 fordert von UK, heimische Emissionen noch stärker zu beschneiden als die EU-Vorgabe von 40%. „George Osborne und Amber Rudd haben gesagt, dass sie nicht schneller vorgehen werden als das übrige Europa, was bedeutet, dass falls Europa seine Dekarbonisierungs-Politik verlangsamt, der Druck auf die Ziele von UK stark zunehmen wird. Osborne macht sich zu Recht Sorgen, dass ein Alleingang für die Wirtschaft schädlich wäre.

„Die Regierung hat das Recht, die Ziele im Lichte internationaler Entwicklungen zu überarbeiten. Falls sie also zu dem Ergebnis kommt, dass die anderen europäischen Länder nicht ihrem Gewicht folgen werden, argumentieren die Minister, dann wäre dies ein Fall für eine Neueinschätzung und mögliche Überarbeitung hin zu einem moderateren und realistischeren Niveau“.

Peiser weist darauf hin, dass der Kanzler gegen das vierte Kohlenstoff-Budget war, welches 2011 zum Gesetz wurde. „George Osborne war immer gegen das vierte Kohlenstoff-Budget. Er versuchte, es zu verhindern, konnte sich aber wegen der Koalitionsregierung nicht durchsetzen“.

In jeder Hinsicht voller Fehler

Die Klima- und Energiepolitik von UK basiert auf drei falschen Hypothesen, sagt Peiser. „Die erste lautet, dass die globale Erwärmung eine unmittelbare Bedrohung ist und dass wir sofort etwas dagegen tun müssen, egal was es kostet. Dies hat sich als als falsch herausgestellt, weil es längst nicht so dramatisch und unmittelbar bedrohlich war wie gedacht. Vor zwanzig Jahren hat das IPCC gesagt, dass es eine Erwärmung von 0,3°C pro Dekade erwartet. Also hätten wir jetzt bereits eine Erwärmung um 0,6°C haben müssen – das ist nicht eingetreten.

Die zweite falsche Hypothese lautete, dass uns die fossilen Treibstoffe wie Öl und Gas ausgehen, weshalb das Engagement für Erneuerbare sehr sinnvoll sei, weil sie wettbewerbsfähig werden und wir dann diese Technologie der übrigen Welt zur Verfügung stellen können, was uns zu einem Technologie-Führer machen würde.

Ein Grund neben Anderen, warum die Dekarbonisierung so schwierig ist lautet, dass Energie so billig und so reichlich vorhanden ist“. Er verweist auf die Ölschwemme und die Schiefergas-Revolution in den USA. „Weil so viel billige konventionelle Energie um uns herum vorhanden ist, ist der Weg hin zu Erneuerbaren viel länger und nicht kürzer geworden.

Die dritte Hypothese lautete, dass wenn wir einmal den Climate Change Act in Kraft gesetzt haben, die übrige Welt das auch tun würde und wir die Führer sein werden. Wir haben gerade erlebt, wie man sich in Paris diesbezüglich überhaupt nicht einig war, weil man nicht dem Britischen Beispiel gefolgt ist. Sie taten genau das Gegenteil, sie haben es abgelehnt, diese Führung zu übernehmen, und das ist der Punkt. Gegenwärtig werden weltweit 2500 neue Kohlekraftwerke gebaut oder geplant, so dass alles, was wir tun, komplett irrelevant ist.

Natürlich wird die Regierung so weitermachen, als ob sich nichts geändert hätte, aber alle drei Hypothesen sind nie Wirklichkeit geworden, so dass alles für die Katz‘ ist“.

Schrittweise Änderung

Peiser glaubt, dass sich die Politik in UK während des letzten Jahrzehnts ein wenig in seine Richtung verschoben hat, aber er bleibt auf dem Boden. „Ich denke, dass es eine etwas realistischere Einschätzung gibt, was machbar ist und was nicht. Ein wenig – ich sage nicht eine komplette Änderung“.

Die Hauptveränderung gab es bei der Stimmung in der Öffentlichkeit. „Als wir 2006, 2008 miteinander gesprochen haben, gab es kaum eine Zeitung, die es gewagt hätte, irgendetwas mit heiklen Fragen zu veröffentlichen. Es gab nicht nur einen vollständigen Parteienkonsens – man erinnere sich, nur fünf Abgeordnete haben damals gegen den Climate Change Act gestimmt – sondern auch einen vollständigen Medien-Konsens. Dies hat sich signifikant geändert, und genau das hat die öffentliche Debatte losgetreten. Sie ist noch nicht verkümmert, um ein Schattendasein in Talkrunden zu führen, sondern es werden viel mehr Fragen gestellt: ,halt, rechnet sich das? Ist das sinnvoll? Wie viel kostet das alles tatsächlich?‘ Alle diese Fragen stehen jetzt im öffentlichen Raum“.

Eine Links-Rechts-Spaltung hat sich aufgetan. „Alle Mitte-Rechts-Medien tendieren dazu, skeptisch zu sein – The Mail, The Sun, The Telegraph, The Times – in ihnen allen finden sich skeptische, kritische Artikel, Kolumnen, Editorials. Vielleicht wegen der Auswirkungen der Politik – sie erkennen, dass irgendetwas nicht funktioniert. Die Subvention so vieler Erneuerbarer führt zu allen möglichen unbeabsichtigten Konsequenzen“.

Allerdings ist die politische Landschaft bisher weitgehend unverändert. „Die Partei der Konservativen befindet sich immer noch dort, wo sie schon vor sieben bis acht Jahren stand. Sie hat sich nicht geändert. Ich meine, man könnte argumentieren, dass einige Minister in der Regierung, die für diese Dinge zuständig sind, zu erkennen beginnen, dass es Probleme gibt und die ein wenig Lärm machen, um zu sagen ,haltet ein!‘ Amber Rudd hat klar und deutlich gesagt, dass die hauptsächliche Energie-Priorität in UK nicht mehr Klimawandel ist. Die oberste Priorität ist die Bezahlbarkeit und die Sicherheit der Energieversorgung; Klima kommt an dritter Stelle. Bisher rangierte Klima immer an erster Stelle.

Es ist nicht so, dass sie auf einmal die Mathematik beherrschen, sondern sie erkennen einfach, dass es viel Sperrfeuer und Kritik gibt, und dass die Leute fragen, warum wir Milliarden über Milliarden Pfund verschwenden für ein Energiesystem, das nicht 7 Tage in der Woche jeweils über 24 Stunden funktioniert“.

Für viele Menschen ist Klimawandel mehr als nur ein politisches Thema, sagt er. „Es ist so tief verwurzelt, dass es fast ein Glaubenssystem ist, und der Druck, damit konform zu gehen, ist enorm, vielleicht noch enormer als vor sieben oder acht Jahren. In einer höflichen Gesellschaft erwähnt man nicht, dass man hinsichtlich dieser Agenda nicht richtig überzeugt ist. Das ist so, als ob man ein Neonazi oder ein Rassist ist. In manchen Kreisen ist es wirklich so schlimm.

Andererseits, wenn man auf Umfragen schaut, in denen die Menschen tatsächlich über Klimawandel befragt werden, sind die meisten Briten dieses Thema leid. ,Oh, das haben wir doch schon lange gehört!’“.

Er glaubt, dass die Interessen von Lobbygruppen als eine große Barriere agieren gegen ein Umdenken in der Politik. „All die Landbesitzer (auf deren Ländereien Wind- oder Solarparks errichtet worden sind); all die Familien, die Solarpaneele auf den Dächern haben – für all diese Menschen sind es Investitionen, die sie keinesfalls verlieren wollen. Dann sind da noch die grünen NGOs und die grünen Zivilbeamten – in Paris haben sich 15.000 grüne Bürokraten versammelt. Also hat jede Regierung diese Institutionen hervorgebracht, in fast jedem Ministerium und überall dort, wo jemand in den Bereichen Klima, Energie, Erneuerbare arbeitet. Man hat eine institutionalisierte Kraft, die genau durch diese Agenda am Leben gehalten wird. Man hat diese ,grüne Blase‘, die sehr aktiv ist und die diese Institutionen für immer und ewig am Leben halten wollen.

Darum glaube ich, dass jedwedes Umdenken Stückwerk ist und graduell erfolgt – immer mehr Programme werden beschnitten, aber wenn man einmal die Programme zurückfährt, werden Arbeitsplätze verloren gehen und die Blase schrumpfen. Aber es ist sehr, sehr einflussreich, sehr mächtig. Der grüne Mob kann Kampagnen organisieren – und das können sie sehr effektiv. Sie versuchen, diese Art von Einschüchterungstaktik anzuwenden, wenn man irgendetwas hiervon in Frage stellt, und einen solchen Fragenden dann als einen sehr schlechten Menschen porträtiert.“

Was möchte er für Aktionen sehen? „Ich glaube, dass Fracking und Schiefer (Öl und Gas) der Wirtschaft und Energiesicherheit in UK den größten Schub verschaffen würde. Und ich würde gerne eine Rückkehr zu rationalen Diskussionen und Debatten sehen, in denen Personen mit unterschiedlichen Ansichten zu diesen Dingen in die Lage gebracht werden, darüber zu diskutieren“. Er ist sehr interessiert an Klimawissenschaft. „Ich glaube immer noch, dass das zugrunde liegende Paradigma richtig ist – dass CO2 ein Treibhausgas ist und dass es einen Erwärmungseffekt gibt, wenn wir immer mehr davon in die Atmosphäre pumpen. Das akzeptiere ich vollständig. Die große Frage aber war immer, wie viel Auswirkung, welche Rückkopplungen, welche Art von Ketten-Effekten? Wird sich die Erwärmung beschleunigen? Oder wird sie durch andere Rückkopplungen ausgeglichen?“

„Die meisten Klimawissenschaftler glauben, dass es einen starken Erwärmungseffekt hat, aber dies ausschließlich auf der Grundlage von Modellen und nicht auf grundlegender Physik – und es basiert auf Hypothesen – auf der Einschätzung – dass wir das Klima vollständig verstehen. Falls man irgendwelche Faktoren oder Rückkopplungen übersieht, die wir noch nicht kennen, ist das gesamte Modell höchstwahrscheinlich falsch. Ich habe daher keinerlei Vertrauen in die Modelle – absolut keines, einfach weil ich glaube, dass wir nicht das vollständige Bild eines hoch komplexen Systems haben.

Die wissenschaftliche Debatte hat sich verändert, weil es seit unserem letzten Treffen praktisch keine Erwärmung mehr gegeben hat. Was man als Erwärmungs-,Stillstand‘ bezeichnet, war in der Wissenschaft ein großes Thema. Warum ist die Temperatur nicht so wie prophezeit gestiegen? Niemand kann erklären, warum die Temperaturen nicht wie von den Modellen vorgegeben gestiegen sind. Einige (Wissenschaftler) haben das zu erklären versucht – es gibt etwa 35 Theorien hierzu – und einige haben versucht, die bloße Existenz einfach zu leugnen“.

Amber Rudd hat eine Neubewertung der Wissenschaft ausgeschlossen, und Peiser stimmt zu. „Ich glaube, es ist viel zu früh, weil es so verschwommen ist. Alle nationalen Akademien bestehen immer noch darauf, dass alles seine Richtigkeit hat. Sie haben in allem recht, und nichts hat sich geändert. Ich glaube, dass wir mehr Zeit brauchen, bevor wir halbwegs sicher sagen können, das irgendetwas ernsthaft nicht stimmt“.

Das CCC sagt, dass der Stillstand nichts ändert: „Wissenschaftler sind überzeugt, dass die Temperatur wieder schneller steigen wird, da die Treibhausgase weiter zunehmen und gegenwärtige abkühlende Einflüsse abnehmen. Der Stillstand beeinträchtigt nicht substantiell langfristige Projektionen“.

Peiser dazu: „Ich glaube, dass jeder mitbekommen wird, was mit der Temperatur während der nächsten fünf Jahre sein wird“. Falls die Temperaturen nicht bald nach oben schießen, steht die Wissenschaft vor einer Krise. „Die Wissenschaft steht vor einem großen Test. Falls sie sich als falsch herausstellt – ich sage nicht, dass das so sein wird, aber es kann sein – dann werden die Menschen anfangen, Fragen zu stellen. ,Wie kann es sein, dass die Wissenschaft in einem solchen Ausmaß falsch ist, dass sie die Debatte zum Verstummen gebracht hat und Regierungen gezwungen hat, Milliarden und Billionen in diese schädliche Politik zu pumpen?‘ Ich glaube, dass die Wissenschaftler schon jetzt gescheitert sind, selbst falls sie recht haben. Ich glaube, dass es ein schwerer Fehler war, kritische Stimmen zu unterdrücken, weil die Wissenschaft am besten ist, wenn sie immer wieder ausgetestet wird“.

Die Graphik zeigt eine zunehmende Disparität zwischen Temperaturvorhersagen von Klimamodellen (rote Linie) und gemessenen Temperaturen (grüne und blaue Linie) in der Troposphäre. Die rote Linie ist das über fünf Jahre geglättete Mittel der 102 Computermodelle, die Temperaturen in dieser Schicht der Atmosphäre erzeugen können. Die Graphik wurde dem US-Repräsentantenhaus unmittelbar vor Weihnachten präsentiert, und zwar von Prof. John Christy von der University of Alabama.

Peiser kann zwei Optionen erkennen bzgl. der zukünftigen politischen Entwicklung. Entweder die Klima-Campaigner haben recht und es kommt zu einer rapiden Erwärmung während der nächsten 20 Jahre – ich meine rapide – 0,3 oder 0,4°C pro Dekade, was die Modelle prophezeien. Dann wird diese Agenda weiter und immer weiter gehen.

Die Alternative ist, dass diese Erwärmung ausbleibt oder zumindest viel langsamer vonstatten geht. Dann wird sie sich graduell ändern, so wie die Ängste zuvor verschwunden sind. Es wird eine neue Generation junger Leute geben, die ohne das konstante Bombardement in der Schule und in den Medien aufgewachsen sind – das Bombardement mit Phrasen wie ,Das Ende ist nahe!‘ oder ,Wir müssen den Planeten retten!’“.

Local Transport Today, 19 February 2016

Link: http://www.thegwpf.com/benny-peiser-the-changing-climate-of-uk-climate-policy/

Übersetzt von Chris Frey EIKE




Lithium Akkus wegen Feuergefahr verboten

Egal ob Smartphone, Laptop oder auch Kamera: Eine Mitteilung des Online-Nachrichtendienstes Bluewin.ch dürfen aufgegebenes Gepäck ab dem 1. April keine Geräte mit Lithium-Ionen-Akkus mehr enthalten. Urheber der Direktive ist die Internationale Zivilluftfahrtorganisation (ICAO), eine UN-Behörde. Da quasi alle modernen elektronischen Geräte von Lithium-Ionen-Batterien angetrieben werden, kommt dies einem de facto-Verbot von Smartphones, Laptops etc. im Fluggepäck gleich.

Viele Fluggesellschaften untersagen schon jetzt die Mitnahme von Lithium-Ionen-Batterien im aufgegebenen Gepäck. Nur im Handgepäck dürfen handelsübliche Batterien noch mitgenommen werden. Das Verbot ist zunächst bis 2018 wirksam, lediglich in reinen Frachtmaschinen dürfen die Batterien unter Auflagen aber weiterhin transportiert werden. Laut der Nachrichtenagentur Reuters ist die Entscheidung für die ICAO-Mitgliedstaaten, zu denen fast alle Länder der Welt gehören, verbindlich.

Grund für die Entscheidung ist die von den Akkus ausgehende Feuergefahr. Da Lithium-Ionen-Batterien viel Energie auf engsten Raum speichern, kann es „bei einem Kurzschluss im Extremfall zu einem thermischen Durchgehen mit anschliessendem Feuer kommen“. Im Frachtraum eines Fliegers könnte so schnell ein unkontrollierbarer Brand entstehen. Besondere Sorge machen in diesem Zusammenhang auch die so genannten «Hoverboards», von denen zahlreiche in Flammen aufgegangen sind, weshalb deren Mitnahme von vielen Airlines untersagt wurde. In Flammen geratene Batterien werden bereits für mindestens einen Absturz verantwortlich gemacht. UPS-Airlines-Flug 6 war ein Frachtflug der UPS Airlines mit einer Boeing 747-400, der am 3. September 2010  auf dem Weg vom Dubai International Airport nach Köln-Bonn in der Nähe des Flughafens Dubai ab, wobei die zwei Besatzungsmitglieder ums Leben kamen. Als primäre Absturzursache wurde schließlich ein massives Feuer in dem Bereich des Laderaums festgestellt, in dem sich die Lithium-Batterien befanden.

Aber auch manche Autos wie die von Tesla haben eine unrühmliche Feuerchronik aufzuweisen. So wurde am 4. Januar 2016 gemeldet, dass sich ein Tesla Modell S an einer norwegischen Supercharger-Station mit einer spektakulären Flammenshow in eine Rauchsäule verwandelte. Die Ursache konnte nicht ermittelt werden. Die Feuerwehr konnte nämlich den Brand wegen der von den Batterien ausgehenden Gefahr nicht löschen, sondern musste sich darauf beschränken, eine Ausbreitung der Flammen zu verhindern.

Fred F. Mueller

Quellen

https://www.bluewin.ch/de/digital/redaktion/2016/16-02/smartphones-und-laptops-werden-im-fluggepaeck-verboten.html

https://de.wikipedia.org/wiki/UPS-Airlines-Flug_6

http://blog.caranddriver.com/tesla-model-s-catches-fire-at-supercharger-station-in-norway/




Geothermie – Grünstrom-Transformation – eine Entdeckung der EEG-Wendephysik

Im Bayerischen Rundfunk kam wieder eine der regelmäßigen Lobeshymnen auf das EEG. Dabei wurde auch die Geothermie im Freistaat als richtungsweisende Erfolgsgeschichte präsentiert.

BR Homepage vom 05.02.2016

Sendung: Unter unserem Himmel Energie aus der Erde – „Geothermie in Bayern

Mit Geothermie Wärme zu erzeugen, funktioniert in Bayern schon seit rund 15 Jahren erfolgreich. In Ballungszentren wie Unterföhring bei München ist die Akzeptanz in der Bevölkerung sehr groß. Die Nachfrage nach der erneuerbaren Fernwärme ist hier derart gestiegen, dass nun ein zweites Mal ein Thermalwasserbrunnen gebohrt wurde.

Auch das Kraftwerk Unterhaching ist eine Erfolgsgeschichte. Es begann europaweit als erste, Strom mit der Energie aus der Erde zu produzieren. Inzwischen ist es im Wärmeverbund mit Grünwald und nun auch ein finanzieller Erfolg.

Wer sich etwas mit dem Thema befasst weiß, dass Geothermie in Deutschland ein Nischendasein fristet – und das aus gutem Grund. Dieses als Erfolgsmodell zu listen zeigt entweder, dass sich das EEG im „Endkampf“ befindet, oder – wahrscheinlicher – der bayerische Propagandafunk inzwischen von den letzten kritischen Redakteuren “gereinigt“ wurde.

Allerdings wäre dies noch kein Grund, einen Artikel zu schreiben. Da das Thema aber eine kleine Pointe des ganzjährigen EEG-Faschings liefert und zeigt wie sich zum genau gleichen Fakt zwei vollkommen gegensätzliche Ableitungen ergeben können, anbei ein kleiner Exkurs in die Tiefen der Erde und des Greenstrom-Wahnsinns.

Geothermie – der Anfang

Begonnen hat es mit einer der typischen Studien eines politik-hörigen Instituts. Geothermie könne in Deutschland 50 % der Energie liefern, sagte 2003 das Büro für Technikfolgenabschätzung (TAB) des Bundestags

Energie Chronik.de: Laut einer Studie, die der Forschungsausschuß des Bundestags 2003 anfertigen ließ, ist das im deutschen Untergrund schlummernde "technische Gesamtpotential" sogar 600mal so groß wie der gesamte Strombedarf. Unter Berücksichtigung der Nachhaltigkeit könne es noch immer die Hälfte des Strombedarfs decken (030503). Das würde bedeuten, daß die ganze Grundlast ohne Kernenergie und Braunkohle bestritten werden könnte. Bescheidenerweise faßten die Verfasser der Studie vorerst nur einen fünfprozentigen Anteil der Geothermie an der Stromerzeugung ins Auge. Dafür errechneten sie dann einen Bedarf von insgesamt 350 Kraftwerken mit einer Leistung von jeweils 10 Megawatt, die jährlich 8000 Stunden in Vollast laufen. 

Rückblickend war in der Studie lediglich eine Aussage wirklichkeitsnah: Die Kosten von Geothermiestrom würden nur noch von Solarstrom übertroffen  (damals mit 58 ct/kWh angesetzt). Im Jahr 2013 betrug die Leistung der deutschen Geothermiekraftwerke 31,3 MW „Geothermie in Zahlen“. Bei einer installierten elektrischen Leistung von 183,6 GW im Jahr 2014 (WiKiPEDIA) sind das anteilige 0,017 %. In allen gängigen Darstellungen (WIKIPEDIA und statistika) kommt Geothermie als Stromlieferant deshalb gar nicht vor. So viel zur Aussagegenauigkeit von EEG-Studien unserer Regierung. 

Trotzdem verkündet der Lobbyverein Bundesverband Geothermie aktuell immer noch: 

Geothermie in Zahlen

Die Geothermie wird im Zusammenspiel mit den anderen Erneuerbaren Energien die Wärme- und Stromversorgung nach und nach von den fossilen Energieträgern (Kohle, Öl und Gas) und der Atomkraft übernehmen.  

Wohl nirgendwo sonst klaffen Aussage und Wirklichkeit so weit auseinander. Aber wir sind ja beim EEG – und da ist nichts unmöglich. Und gerade das Unmögliche wird als Hoffnungsträger bevorzugt gefördert. Um das auch langfristig sicher zu stellen, befindet sich das Büro dieses Vereins in Berlin. 

Unsere Bundesregierung informiert inzwischen allerdings  realistischer. 

Die Bundesregierung: Energiewende: Erdwärme

… Noch bedarf es großer Forschungsanstrengungen, um diese Technologie marktfähig zu machen. Denn die Bohrungen in drei bis vier Kilometer Tiefe sind sehr aufwändig. Findet sich hier natürliches Wasser, so braucht man dieses nur zu fördern. Das ist in Deutschland allerdings nur selten der Fall.

Und am 28. April 2014 auf Anfragen der Grünen:

Geothermie Nachrichten: Geothermie zu teuer für ambitionierten Ausbau

Und detailliert: „Geothermie und CO2-Endlagerung“ Bundestagsdrucksache 16/12615

Es ist festzustellen, dass die Technologie- und Marktentwicklung der Geothermienutzung seit 2003 erheblich langsamer erfolgt ist, als es der o.g. Bericht des Büros für Technikfolgenabschätzung  vorhergesagt hat. Es sind drei Geothermieprojekte zur Strom- und Wärmeerzeugung  in diesem Zeitraum neu errichtet worden (7,4 Megawatt installierte Leistung).

In Bayerns Landesregierung scheint dieses Wissen noch nicht angekommen zu sein. 

Bayerisches Staatsministerium: Tiefengeothermie

Bei höheren Temperaturen ab 80 °C bestehen auch Möglichkeiten, grundlastfähigen Strom zu produzieren. In Bayern sind derzeit 21 hydrothermale Geothermie-Anlagen in Betrieb. In vier dieser Anlagen wird neben Wärme auch Strom erzeugt, so dass neben einer Wärmeleistung von insgesamt 0,211 GW auch eine elektrische Leistung von 0,021 GW aus Geothermie in Bayern zur Verfügung steht.

… Die Stromerzeugung aus Erdwärme hat sich im Zeitraum von 2009 bis 2013 von 0,004 auf 0,49 mehr als verzwölffacht …

Geothermie

Physikalisch ist die Ursache klar. Die Geothermie in Deutschland ist zur sinnvollen Gewinnung von Strom viel zu kalt. Es gibt selbst in den Vorzugslagen nur Heißwasservorkommen zwischen 100 … 200 °C in 3000 … 5000 m Tiefe und das reicht nicht zum sinnvollen Antrieb von Turbinen, weshalb ein Zusatzkreislauf eingebaut werden muss. Zudem ist die Wassertemperatur nach der Gewinnung von Strom für Fernwärme zu kalt. Das für die Stromproduktion verwendete heiße Wasser ist für die Fernwärme also verloren. Konsequenz: Im Winter braucht man das Wasser für die Fern-Heizung und kann kaum Strom produzieren. Im Sommer konkurriert man zunehmend mit der dann überproportionalen Solareinspeisung. Dazu kommt der extrem niedrige Wirkungsgrad. 

Tiefen-Geothermie zur Stromerzeugung“:

Problematisch ist der niedrige Wirkungsgrad der elektrischen Stromerzeugung.
Er liegt bei etwa 10 bis 13%. (Anm.: Bei einer Temperatur von 100°C liegt der Bruttowirkungsgrad bei nur ca. 6 %.) Berücksichtigt man den Eigenbedarf der Anlagen für die Tiefwasserpumpe und den Kühlkreislauf ergibt sich ein – optimierungsbedürftiger – Systemwirkungsgrad von 5 bis 7%.“ 

Auch sonst sieht nicht alles so aus, wie in den Prospekten beschrieben. Sogar die beim Bayerischen Staatsministerium gelistete Grundlastfähigkeit muss man in Frage stellen. 

[1]Grundlastfähigkeit setzt eine Stromsteuerung voraus.
Bei wärmegeführten Kraftwerken wie Unterhaching kann man schon aus diesem Grund nicht von einer Grundlastfähigkeit sprechen. Denn dort wird nur dann Strom produziert, wenn wenig oder keine Heizwärme benötigt wird (z.B. im Sommer, wenn auch Photovoltaik-Anlagen viel Strom produzieren).
Zudem variiert die produzierbare Strommenge in Abhängigkeit zur Witterung um über 30%. Je wärmer das Wetter, desto geringer der Wirkungsgrad.
Ein nennenswerter Beitrag zur Grundlast ist also kaum zu erwarten.

Die „BR-Erfolgsgeschichte“ Unterhaching

Das Geothermiekraftwerk Unterhaching ist eine kombinierte  Anlage mit Fernwärme- und Stromerzeugung. Zur Wirkungsgrad-Verbesserung der Stromerzeugung ist ein Zusatzprozess – „Kalina-Anlage“ – zugeschaltet.

 

Bild 1 Geothermiekraftwerk Unterhaching (Quelle Presseinfo der Betreiberfirma)

 

Bild 2 Geothermiekraftwerk Unterhaching Zusatzkreislauf für die Stromerzeugung (Quelle Presseinfo der Betreiberfirma)

Gewinn hat diese  „Erfolgsgeschichte“ bisher noch nicht gemacht. Die Beschreibung dieser Situation durch den Geschäftsführer ist an Fabulierkunst kaum überbietbar:

Geschäftsführer Hr. Geisinger: Wir sind weiterhin auf dem Kurs zur geplanten Amortisation der Anlage innerhalb von 16 Jahren nach voller Funktionsfähigkeit, welche im Jahr 2009 erreicht wurde. Aber es gab da durchaus gute und weniger gute Jahre 

In anderen Publizierungen wird deutlicher, was „… auf dem Kurs zur geplanten Amortisation …“ bedeutet.

Den Unterhachingern gelang es, die Nachbargemeinde zur Kopplung der Wärmesysteme zu „überreden“. Doch selbst den Grünen Stadträten von Grünwald denen das keinen Gewinn schreibende eigene Geothermiekraftwerk „am Herzen liegt“ war der Einstieg in das hoch defizitäre „Erfolgsmodell“ der Unterhachinger ein Dorn im Auge, obwohl die Partei auf Bundesebene eine andere Meinung verkündet. Aber regional ist der Bürgerzorn eben näher. Unterhaching jedoch benötigte die Fusion dringend um durch die Geldspritze das eigene Projekt vor der drohenden Pleite zu retten. Und in solchen Krisen kann man sich auf CSU-Parteifreunde verlassen. 

Süddeutsche Zeitung, 1. Februar 2016: Geothermie Grünwalder hadern mit Einstieg in Unterhaching

 Vor den Haushaltsberatungen kocht in Grünwald bei Gemeinderäten der Ärger über die Investition ins Unterhachinger Geothermieprojekt hoch. Grüne, SPD, FDP und PBG stoßen sich an den Millionenausgaben und der ausbleibenden Rendite.

Der Haushalt für 2016 wird an diesem Dienstag erstmals von den Gemeinderäten in Grünwald beraten. Es ist der Haushalt einer wohlhabenden Gemeinde, die sich Vieles leisten kann. Manches, das sie sich leistet, findet aber nicht die Zustimmung aller Gemeinderäte. Die 50-prozentige Beteiligung der Erdwärme Grünwald (EWG) an der Geothermie Unterhaching seit 1. Januar 2014 etwa hat viele Kritiker. Dazu gehören die Gemeinderäte der Grünen, Ingrid Reinhart und Antje Wagner, Michael Ritz von der FDP, Achim Zeppenfeld von der SPD und die Fraktion der Parteifreien Bürger Grünwald (PBG). Insgesamt hat die Gemeinde der EWG für die Beteiligung an der Geothermie Unterhaching 23,5 Millionen Euro geliehen.

Die Kritiker haben nichts gegen die Erdwärme Grünwald. "Die PBG steht voll dahinter, die Geothermie für die Grünwalder Bürger als alternative Energieform bereitzustellen", sagt etwa Gemeinderat Tobias Brauner von den Parteifreien. Er hat auch Verständnis dafür, dass dies angesichts der Struktur des Gemeindegebietes "nie wirtschaftlich darstellbar sein" wird. Das falle nach dem Verständnis der Parteifreien auch unter die Daseinsvorsorge einer Gemeinde. "Was wir als PBG nicht mittragen, sind riskante Engagements in anderen Geothermieprojekten wie Unterhaching."

Seit Jahren gibt es technische Probleme

Schon seit Jahren kämpfe die Nachbargeothermie mit technischen und wirtschaftlichen Problemen. Die PBG-Fraktion hatte sowohl die Verbindungsleitung nach Unterhaching, die bereits acht Millionen Euro gekostet hat, als auch die Beteiligung an der Geothermie Unterhaching abgelehnt, da sie die Wirtschaftlichkeit nicht als gegeben sah.

"Das ist keine Win-win-Situation, sondern eher eine Lose-lose", sagt auch PBG-Gemeinderat Oliver Schmidt. "Eine reiche Gemeinde zu sein, berechtigt nicht dazu, einfach aus dem Vollen zu schöpfen." Und sein Fraktionskollege Hubertus Lindner ergänzt: "Wir haben in Grünwald nicht mehr unbegrenzte finanzielle Möglichkeiten." Man habe 2014 rund 60 Millionen Euro aus den Rücklagen entnommen, 2015 zirka 34 Millionen. "Meine Frage in der Haushaltsdebatte wird sein: Wie viel haben wir noch? Wenn wir jetzt auch noch anderen Gemeinden helfen."

"Schlechteste Technik für Stromkraftwerke am Markt"

Wie sich solche Erfolgsmodelle rechnen (sollen)

Dass Geothermie als Stromerzeuger niemals konkurrenzfähig ist, war seit der Studie von 2003 bekannt. Wie beim EEG üblich, führte das nicht zur Vernunft, sondern zur erhöhten Förderung. Der Strom aus Geothermie wird deshalb mit einer Einspeisevergütung von 23 ct/kWh verrechnet (Anm.: Kohlekraft- und KkW-Strom kosten ca. 4 ct/kWh). 

Natürlich ist das nicht alles:

Bild 3 Fördermittel Geothermiekraftwerk Unterhaching. Quelle: Datenblatt: Geothermie Unterhaching (Stand: 01.05.2015) 

Die Grünstrom-Transformation 

Es gibt aber noch einen zusätzlichen Bonus den der Betreiber aber nicht getrennt ausweisen muss. 

Geothermie- Anlagen in Deutschland müssen das Wasser aus den 3.000 … 5000 m Tiefe hoch-pumpen und als Kreislauf auch wieder hinunter-drücken! Das verbraucht unglaublich Energie – und zwar als  Strom. In Zahlen sind es zwischen 30 … 70 % der Gesamtbilanz. Es wird also zur Erzeugung meistens mehr Strom verbraucht, als in das Netz eingespeist – und sich deshalb niemals rentieren. Jedoch das  EEG fand eine Lösung: 

Dieser Eigenverbrauch wird als grüner Strom um etikettiert, auch wenn er von extern aus einem Kohle- oder Kernkraftwerk billig bezogen wird! Und er wird als gelieferter EEG-Strom ausgewiesen und ist damit mit dem vollen Geothermie-Vergütungssatz (vom Kunden) zu bezahlen. Die enorme Preisdifferenz streicht der Betreiber ein:

[1]  Das EEG lässt zu, dass der hohe Eigenstromverbrauch der Kraftwerke aus Industrie-Strom (meist Kohle- oder Atomstrom) zugekauft und als teurer Ökostrom mit 25 cent/kWh verrechnet werden darf.
Abhängig von der Höhe des Eigenbedarfs und des Industriestrompreises ergibt sich daraus eine Nettovergütung von ca. 33 – 69 cent/KWh für den Strom aus tiefer Geothermie, der dem Netz tatsächlich zusätzlich zur Verfügung gestellt wird. So kann auch bei miserabler Brutto-Nettobilanz Geld gemacht werden und der kleine Bürger zahlt die Rechnung.
 

Mit der stetigen Reduzierung der billigen Kraftwerke steigt aber auch für diese Betreiber der Bezugs-Strompreis. Ein Problem, welches die  Strom erzeugenden Geothermiekraftwerke mittelfristig in den Ruin treiben wird. 

Die Listung der Gesamtsubventionierungen sieht wie folgt aus:

EEG-Vergütung für Geothermieprojekte [1] Anlagen, die bis Ende 2015 am Netz sind. Ferner gibt es ohne zeitliche Begrenzung einen Zuschlag von 3 Cent/kWh, wenn das heiße Wasser – was fast immer der Fall ist – sowohl der Strom- als auch der Wärmeversorgung dient. Hinzu gewährt das Gesetz einen "HDR-Bonus" von 4 Cent/kWh, falls anstelle natürlichen Thermalwassers die aufwendigere "Hot-Dry-Rock"-Technik verwendet werden sollte. Solche HDR-Anlagen sind bisher allerdings nicht in Sicht. Im Normalfall ergibt sich deshalb für ein Heizkraftwerk, das mit natürlichen Heißwasservorkommen betrieben wird und bis 2015 ans Netz geht, eine Vergütung zwischen 23 und 22,06 Cent/kWh (080601).

Eigenverbrauch schmälert die Vergütungen nicht

Die Vergütung ist noch höher, wenn man den Eigenverbrauch der geothermischen Kraftwerke berücksichtigt, der bis zu einem Drittel der erzeugten Energie verschlingt. Viel Strom brauchen vor allem die Pumpen, die das heiße Wasser aus der Tiefe fördern und anschließend wieder in den Untergrund pressen. Dieser Eigenverbrauch wird mit Strom aus dem Netz gedeckt. Faktisch erhöht sich so die EEG-Vergütung für den geothermisch erzeugten Strom pro Kilowattstunde nochmals erheblich. Die Betreiber sind begreiflicherweise zurückhaltend mit Angaben, was diesen Punkt angeht. Sie begründen dies gern damit, daß im Normalfall sowohl Strom als auch Fernwärme erzeugt wird und es deshalb sehr schwierig sei, die erforderliche Pumpleistung den einzelnen Energiearten zuzurechnen.

Das Bohrrisiko übernimmt größtenteils der Steuerzahler

Zusätzlich gibt es erhebliche Fördergelder für die Errichtung der Anlagen und zur Verminderung des Risikos einer Fehlbohrung, denn die Bohrlöcher sind der teuerste Teil solcher Projekte. Die bundeseigene KfW-Bank – also der Staat – übernimmt bis zu 80 Prozent der Kosten, falls eine Bohrung schiefgehen sollte. Außerdem fördert die Bundesregierung über ihr Marktanreizprogramm jede Projektbohrung mit bis zu fünf Millionen Euro und die sonstigen geothermischen Anlagen mit bis zu zwei Millionen Euro.

Und so listen sich die Alltagsprobleme: 

VDI-Nachrichten [2]: Ein Beispiel ist das Geothermiekraftwerk Unterhaching. Dort wird mit einer 1471 kW starken Tauchpumpe des amerikanischen Herstellers Centrilift aus 3000 m 123 °C heißes Wasser mit einer Menge von 150 l/s gefördert. Die bislang weltweit leistungsstärkste Pumpe hängt auf 700 m im Bohrloch und hat eine entsprechende Wassersäule über sich.

Seit dem Betriebsstart 2007 haben zehn ESP-Pumpen (Electro-Submersible Pump) laut Betreiber den Geist aufgegeben. Oft waren kaputte Frequenzumrichter, defekte Lager oder heiße Wicklungen die Ursache. "Wir kratzen an der Wirtschaftlichkeit und arbeiten eng mit dem Hersteller zusammen, da es für unsere Bedingungen bislang nicht die Pumpe gibt. Nur eine hat länger gehalten und die Garantiezeit von 12 Monaten überschritten", sagt Wolfgang Geisinger, Geschäftsführer des kommunalen Heizkraftwerkes Unterhaching.

Die Ausfälle kosten richtig Geld. Während die Pumpe mit 1 Mio. € zu Buche schlägt, gibt es auch feste Lieferverträge für die anfallende Wärme. Das Kombikraftwerk deckt 45 % des Wärmebedarfs der 20 000 Einwohner und wechselt automatisch zwischen der Strom- und Wärmeproduktion. "An jedem Tag ohne Pumpe müssen 7000 l Heizöl für die Versorgung angefahren werden.

Fazit

Gleiches EEG-Projekt – zwei vollkommen gegensätzliche Bewertungen des Erfolges.

Aber stopp, da fehlt noch etwas in der Erfolgsbilanz. Es wird ja auch CO2 eingespart:

Bild 4 CO2-Bilanz des Geothermiekraftwerks Unterhaching. Quelle: Datenblatt: Geothermie Unterhaching (Stand: 01.05.2015) 

Das hat Gewicht, denn es geht um unser aller Klima: 

FINANZNACHRICHTEN.de: Unterhaching (ots) – Bundesumweltminister Sigmar Gabriel hat heute die derzeit größte deutsche Geothermieanlage in Unterhaching bei München offiziell eingeweiht. Das Tiefengeothermieprojekt Unterhaching hat seit dem Start vor sieben Jahren einen "Leuchtturmcharakter" für die gesamte Branche. Es bildet den Einstieg dafür, Geothermie zur CO2-freien und umweltfreundlichen Strom- und Wärmeerzeugung in Deutschland wirtschaftlich zu nutzen. In Unterhaching werden die CO2-Emissionen um 60 Prozent gesenkt, jährlich können bis zu 40.000 Tonnen CO2 eingespart werden.

"Deutschland muss seine Vorreiterrolle beim Klimaschutz weiter ausbauen. Dabei setzen wir auch auf die Geothermie", schließt Bundesumweltminister Gabriel. "Die von uns geschaffenen gesetzlichen Rahmenbedingungen und Fördermaßnahmen werden den Markt beleben. Der Geothermiebericht der Bundesregierung weist den richtigen Weg.

Bei einer solchen Menge an eingespartem, klima-tödlichen CO2 sind natürlich beliebige Kosten zu rechtfertigen und jegliche Kritik ist unangebracht.

Jedoch, einmal kurz nachgerechnet „Mit CO2-Reduzierung retten wir die Welt“: 

1 Gt = 1.000.000.000 t CO2 bewirkt eine Temperaturerhöhung nach IPCC Forcing von 0,001 °C p.a.

Die Temperatur-Rettung einer CO2-Jahreseinsparung beträgt somit selbst nach dem viel zu hohen IPCC-Forcing nur: 0,000000032 °C p.a.

Um den „Rettungseinfluss“ messbar zu machen (eine amtliche DWD-Temperaturstation zeigt eine Temperaturänderung größer der Mess-Ungenauigkeit von 0,2 °C an) werden 6.260.000 solcher Anlagen benötigt.

Diese würden pro Jahr ungefähr kosten:

6.260.000 x 1 … 2 Mio EUR Verlust pro Anlage, zuzüglich der EEG Übersubventionierung 

Anm.: bei einem realistischen Forcing von 1/3 des IPCC-Wertes wären es 18.750.000 Anlagen wie Unterhaching.

Das hat wahrlich einen Leuchtturmcharakter. Wie gesagt: Der EEG-Fasching geht über das ganze Jahr.

Quellen

[1]

Tiefen-Geothermie zur Stromerzeugung / Zusammenschnitt 27. Dezember 2011: Aus dem Vortrag der „BIF UNAE“ / „BI Schutz Westufer Starnberger See e.V.“ für die „Münchner Umweltakademie“ zu „Mutbürger für Energiewende!“, 15. Dezember 2011

http://alternative-energiequellen.starnberg-web.de/geothermie/tiefen-geothermie-zur-stromerzeugung-zusammenschnitt/

[2]

VDI-Nachrichten Ausgabe 46, 15. November 2013 Torsten Thomas  : Tiefe Geothermie bringt Pumpen an ihre Leistungsgrenzen

http://www.vdi-nachrichten.com/Technik-Wirtschaft/Tiefe-Geothermie-bringt-Pumpen-an-Leistungsgrenzen




Des Zauberers Lehrlinge

Was war geschehen?

Dr. L. Marshall, der Direktor der führenden australischen Klimaforschungs-Einrichtung, also der Commonwealth Scientific and Industrial Research Organisation oder kurz CSIRO hat eine Änderung ihres Forschungsschwerpunktes angeordnet – weg von Messung und Modellierung, hin zu Abschwächung und Anpassung.

Nun könnte man denken, das seien großartige Nachrichten, darauf ausgelegt, sich mit den 4,5 Milliarden Jahren Klimaänderung auf der Erde zu befassen. Aber – oh nein! Die bisherigen Jünger der Modellierung des Klima-Untergangs sind allesamt sehr wütend. Tatsächlich nennen sie ihren Chef jetzt einen „Klima-Leugner“. Aus Dr. Marshalls Erwiderung auf diese Anklage:

Einige extreme Elemente haben mir gesagt, dass sie mich an die Spitze der Liste mit Klimaleugnern gestellt haben, und worüber ich am meisten perplex bin ist, wie sie darauf kommen. Ich habe gesagt, dass wir mehr Forschungs-Ressourcen der Abschwächung widmen müssen – d. h. etwas, um dem Klimawandel zu begegnen anstatt nur zu messen und zu modellieren – ich kann nicht erkennen, wieso mich dies zu einem Klimaleugner macht.

In der Tat, warum sollte man nicht nach besseren Wegen suchen, um damit umzugehen? Ist es nicht eine gute Sache zu versuchen, die Effizienz unserer Automotoren zu verbessern oder bessere Heizungs- und Kühlsysteme zu entwickeln; zu studieren, wie man die Aerodynamik von Flugzeugen verbessern kann; genauere Vorhersagen bzgl. Erdbeben und Tsunamis zu erstreben, weiter und sicherer zu reisen, und so weiter? Ist es nicht genau dies, was die Menschheit aus der Steinzeit zu den Annehmlichkeiten des modernen Lebens geführt hat? Und was die mittlere Lebensdauer von wenigen Jahrzehnten auf 80 Jahre oder so verlängert hat? Und schließlich, haben uns die Klimamodellierer schon seit Jahr und Tag gepredigt, dass die „Wissenschaft settled“ ist?

Die „Wissenschaft ist settled“

Die „Wissenschaft ist settled“ war der Schlachtruf der Modellierer, gefolgt von „jetzt müssen Taten folgen!“. Nun, vor nicht allzu langer Zeit haben sich die Führer der Welt und etwa 40.000 Andere in Paris zur Konferenz der Parteien COP-21 getroffen. Sie hörten zu und unterzeichneten ein internationales Abkommen, ihren Vorschlägen zu folgen. Warum also sollte die Welt damit fortfahren, unsere Ressourcen auszudehnen, um Klimaprojektionen für 1000 oder sogar 100.000 Jahre in die Zukunft zu modellieren, wenn es viel dringender ist, uns den heutigen aktuellen Problemen zuzuwenden?

Nun, „wer hätte das gedacht?“ Die gleichen Modellierer ändern jetzt ihren Tenor. Urplötzlich besitzen ihre früheren Projektionen nicht mehr die Aura der Gewissheit ihrer Behauptungen und Unterstellungen in der Vergangenheit. Kurz und ziemlich unerwartet behaupten sie jetzt, dass die Wissenschaft nicht mehr ,settled‘ ist. Und darum, bitte, bitte, lasst uns mit unserer Supercomputer-Modellierungsarbeit fortfahren; vielleicht können wir unsere Prophezeiungen oder Projektionen bis zu einer Million Jahre in die Zukunft ausdehnen. Schließlich weilen weder Sie noch ich dann noch hienieden, um zur Verantwortung für diese Projektionen gezogen zu werden. Alles, was wir (die Zauberlehrlinge) wollen ist, in der Lage zu sein, unser altes Spiel zu spielen, nämlich so zu tun, als ob wir das Klima der Erde verstehen und wissen, wie man es kontrolliert.

Das Klima der Erde

Das Klima der Erde ist außerordentlich komplex und schwierig zu modellieren. Die vielen von CSIRO und anderen Forschungsinstituten wie dem PIK in Deutschland entwickelten Klimamodelle sind nicht validiert und werden dies wahrscheinlich auch niemals. Der wichtigste Parameter, nämlich der variierende Energiefluss von der Sonne, wird unangemessen gering oder gar nicht berücksichtigt. Dieser Energiefluss beeinflusst den gigantischen Energieaustausch zwischen den drei Aggregatzuständen von Wasser auf der Erde.

Um eine bestimmte Menge Eis zu schmelzen, braucht man eine Einheit Energie. Um danach das Wasser von 0°C zum Kochen zu bringen wird in etwa eine weitere Energieeinheit benötigt. Aber um dann die gleiche Menge Wasser verdunsten (verkochen) zu lassen, braucht man etwa sechs Energieeinheiten. Angesichts der geschätzten 100.000 km³ Wasser, das jedes Jahr von der Erdoberfläche verdunstet und dann wieder kondensiert und als Niederschlag ausfällt, ist es offensichtlich, dass der Energiefluss dieser Prozesse von vitaler Bedeutung für das Klima ist.

Daher kann man es einem nachsehen, wenn er denkt, dass jener Energiefluss in die Berechnungen der Klimamodellierer eingeht. Aber nein, das ist nicht der Fall! Warum sollte man sich darum kümmern, wenn man alle Klima-Kapriolen der Natur dem Spurengas CO2 in die Schuhe schieben kann, das lediglich einen Anteil von 0,04% am Gasgemisch der (trockenen) Luft ausmacht? Sie waren nicht in der Lage, die letzten 20 Jahre des Klimaverlaufs zu erklären, geschweige denn den der letzten 400 Jahre. Offensichtlich sind diese Modelle überflüssig wie ein Kropf.

Die „unfehlbaren“ Modelle der Zauberlehrlinge

Meiner Ansicht nach ist das, was den „Klima-Zauberlehrlingen“ jetzt widerfährt, ein gigantisches Abschmelzen ihrer (behaupteten) Unfehlbarkeit. Trotz ihrer über 100 von Super-Computern berechneten Klimamodelle können sie nicht einmal die jüngere Vergangenheit erklären, und das spricht ihnen jede Glaubwürdigkeit für ihre Projektionen in die Zukunft ab. Darum wachen einige Politiker auf und fragen, ob es Sinn macht, noch mehr Ressourcen für die Modellierung zu verschwenden anstatt sie für Abschwächung und Anpassung an natürliche Änderungen zu verwenden – und das ist auch richtig so. Was jetzt beim CSIRO passiert ist, ist der erste Anfang einer großen Verschiebung der Welt-Klimapolitik. Kein Zweifel, das Vorangehen Australiens wird erhebliche Rückwirkungen auf die Klimaforschungs-Industrie haben.

Zauberlehrlinge aufgepasst!

Link: http://fairfaxfreecitizen.com/2016/02/15/the-sorcerers-apprentices/

Übersetzt von Chris Frey EIKE




Eine neue Art und Weise, den ,Stillstand‘ zu betrachten: Warum Karl et al. hinsichtlich des ,Stillstands‘ falsch liegen

Die Meisten kennen sich mit der Anwendung linearer Regression bzgl. globaler Erärmung aus. Man wähle einen Start- und einen Endzeitpunkt und berechne die Neigung der Regressionslinie aus den Zeitpunkten und Temperaturanomalien in den Datensätzen. Was könnte dabei falsch laufen?

Eine der allgemeinen Vorwürfe im Zusammenhang mit der globalen Erwärmung lautet, dass Start- und Endzeitpunkt cherry-picked sind, um ein bestimmtes Ergebnis zu erzielen. Vorwürfe gibt es auch hinsichtlich der Länge des Trends, der zu kurz sei, um ein signifikantes Ergebnis zu bekommen (d. h. Trends kürzer als 10 Jahre oder sogar kürzer als 30 Jahre).

Wie wäre es, wenn wir ein Verfahren nutzen könnten, um diese Vorwürfe zu umgehen?

Um das Problem Cherry-Picking zu umgehen, betrachten wir alle möglichen Start- und Endzeitpunkte des untersuchten Zeitintervalls. Um das Problem von Kurzzeittrends zu umgehen, betrachten wir nur Trends mit einer Länge von mindestens 10 Jahren.

Beispiel: Man stelle sich vor, wir wären interessiert am Zeitintervall von Januar 1975 bis Dezember 1999. Dieses Intervall ist 24 Jahre und 11 Monate lang. Wir teilen den Zeitraum Januar 1975 bis Dezember 1999 auf in ALLE möglichen Trends von mindestens 10 Jahren.

Wenn ich sage JEDEN möglichen Trend von mindestens zehn Jahren, meine ich JEDEN möglichen Trend von 10 Jahren. Für das Zeitintervall Januar 1975 bis Dezember 1999 gibt es 16.920 mögliche Trends, und in diesem Verfahren werden sie ALLE verwendet.

Beispieltrends von Januar 1975 bis Dezember 1999:

Das kann jetzt überwältigend aussehen, aber mit Excel und einem modernen Computer können alle Berechnungen ziemlich einfach durchgeführt werden.

Es gibt viele Möglichkeiten, die Ergebnisse darzustellen. Der einfachste Weg ist eine „Streu“-Graphik der Erwärmungsrate zur Trendlänge. Wie sieht die Graphik jeder möglichen Kombination von Erwärmungsrate und Trendlänge aus für den Zeitraum Januar 1975 bis Dezember 1999? Dazu betrachte man Graphik 1:

Diese Graphik enthält eine Menge Information, muss aber ein wenig interpretiert werden. Zum Beispiel, wie ändert sich der Erwärmungstrend in Abhängigkeit von der Trendlänge?

Aus der Graphik:

Die Erwärmungsrate für 10-Jahre-Trends variiert von -0,20°C bis +0,80°C pro Jahrhundert

Die Erwärmungsrate für 15-Jahre-Trends variiert von +0,65°C bis +2,20°C pro Jahrhundert

Die Erwärmungsrate für 20-jahre-Trends variiert von +1,02°C bis +1,61°C pro Jahrhundert

Die Erwärmungsrate für 24 Jahre und 11 Monate variiert überhaupt nicht, weil es nur eine gibt, nämlich die über den gesamten Zeitraum, und die beläuft sich auf 1,71°C pro Jahrhundert.

Diese Ergebnisse entsprechen möglicherweise ziemlich den Erwartungen der meisten Menschen. Eine Lektion lautet, man sei sehr kritisch gegenüber 10-Jahre-Trends. Man bekommt fast jede Erwärmungsrate, die man haben will, aus einem 10-Jahre-Trend. Man beachte, dass ein 10-Jahre-Trend unter bestimmten Umständen bedeutsam sein kann, aber im Allgemeinen gibt es 10-Jahre-Trends überall.

Allgemein werden Erwärmungstrends mit zunehmender Trendlänge stabiler. Aber nicht immer. Man betrachte die Erwärmungsraten für eine Trendlänge von 22 Jahren. Es gibt eine sehr kleine Bandbreite von Erwärmungsraten, die von +1,43°C bis +1,52°C pro Jahrhundert variieren. Aber wenn sich der Trend auf 23 Jahre verlängert, erweitert sich die Bandbreite von Erwärmungsraten erheblich. Warum?

Ebenso: Nach einer ziemlich stabilen Erwärmungsrate von etwa 1,48°C pro Jahrhundert bei einer Trendlänge von 22 Jahren endet das Intervall mit einer Erwärmungsrate von +1,71°C pro Jahrhundert über das gesamte Intervall. Was hat die Erwärmungsrate so plötzlich um über 15% zunehmen lassen, obwohl die Trendlänge nur um 3 Jahre größer geworden ist?

Ich werde diese zwei Fragen zu beantworten versuchen mittels der „Streu“-Graphik und einer Graphik der Temperaturanomalien über das Intervall. Falls man mit meiner Antwort nicht übereinstimmt, dann lasse man mich wissen, was sonst die Antwort ist. Zu Beginn des Intervalls war ein La Nina-Ereignis im Gange, von 1975 bis 1977. Am anderen Ende des Intervalls findet sich der große El Nino von 1997 bis 1999. Ist der Trend lang genug, um von beiden Ereignissen gleichzeitig beeinflusst zu werden, wird die Neigung der Regressionslinie durch den El Nino am einen Ende und die La Nina am anderen Ende zunehmen. Wenn also die Trendlänge über 22 Jahre hinausgeht, gibt es einen Doppel-Schub für die Erwärmungsrate, was in der „Streu“-Graphik auch ziemlich gut herauskommt.

Betrachtet man die „Streu“-Graphik für ein einzelnes Zeitintervall, gibt es nur eine mögliche Anwendung dieses Verfahrens. Ein Vergleich der „Streu“-Graphiken anderer Zeitintervalle ist eine weitere interessante Möglichkeit. Es ist dieses Verfahren, dass ich anwenden werde um zu beweisen, dass Karl et al. in ihrer Studie über den „Stillstand“ falsch lagen („Mögliche Artefakte von Daten-Verzerrungen während des derzeitigen Stillstands der globalen Erwärmung“).

Zunächst betrachte man Graphik 2. Sie ist aufgebaut wie Graphik 1, zeigt aber jede mögliche Kombination von Erwärmungsraten und Trendlängen für ein anderes Zeitintervall, nämlich von Januar 1950 bis Dezember 1974. Diese Graphik sieht einerseits so aus wie die Graphik des Zeitraumes Januar 1975 bis Dezember 1999, ist aber auch andererseits unterschiedlich.

Um einen Vergleich dieser beiden Streu-Graphiken einfacher zu machen, fasse ich sie zu einer Graphik zusammen. Dies bedeutet, dass eine der Graphiken ein wenig von der anderen Graphik überdeckt, und zwar dort, wo sie sich überlappen. Falls erforderlich, kann man das noch verbessern durch das Plotten lediglich des Umrisses jeder Graphik, aber mich interessiert mehr der Bereich, in dem sich die Graphiken nicht überlappen. Darum lassen wir den Überlappungsbereich erst einmal außen vor.

Siehe Graphik 3 – alle Kombinationen von Erwärmungsraten und Trendlängen, die es in den Zeitintervallen 1975 bis 1999 bzw. 1950 bis 1974 gibt, für Trendlängen von mindestens zehn Jahren.

Jetzt ist es einfacher, die Unterschiede zwischen den beiden Graphiken zu erkennen. Sie sehen von der Form her ähnlich aus, aber die grüne Kurve ist abgeleitet aus der orangenen Kurve. Warum das? Die Betrachtung der Erwärmungsrate für das gesamte Zeitintervall einer jeden Graphik liefert die Antwort.

Die orangene Kurve zeigt einen 24-Jahre-und-11-Monate-Trend von 1,71°C pro Jahrhundert. Das ist eine Rate globaler Erwärmung, die NICHT niedrig ist.

Die grüne Kurve zeigt einen Trend in einem gleich langen Zeitintervall von 0,28°C pro Jahrhundert. In diesem Zeitintervall gibt es nicht viel globale Erwärmung.

Man beachte, dass es keine Überlappung der beiden Graphiken gibt für Trendlängen über etwa 15 Jahre. Dies stützt den Gedanken, dass diese beiden Zeitintervalle sehr unterschiedliche Profile von Erwärmungsraten zeigen.

Und jetzt die GROSSE Frage: Falls man diese beiden Zeiträume addiert, also 1950 bis 1974 bzw. 1975 bis 1999, und die Erwärmungsrate für das Gesamtintervall, also 1950 bis 1999 berechnet – wie groß würde die Erwärmungsrate sein? Das habe ich getan, und eine lineare Regression über das Gesamtintervall zeigt eine Erwärmungsrate von +1,12°C pro Jahrhundert. Gut und schön, aber was repräsentiert dieser Wert von +1,12°C pro Jahrhundert tatsächlich?

Es ist NICHT die Erwärmungsrate normaler anthropogener globaler Erwärmung.

Es ist NICHT die Erwärmungsrate, wenn es KEINE anthropogene globale Erwärmung gibt.

Es ist eine künstliche mittlere Erwärmungsrate über ein Zeitintervall, als die anthropogene globale Erwärmung etwa die Hälfte der Zeit präsent war und während der anderen Hälfte der Zeit fehlte.

Unglücklicherweise haben Karl et al. diesen Wert verwendet als ihre „normale“ anthropogene Erwärmungsrate, und auf der Grundlage dieses Wertes haben sie gefolgert, dass die Erwärmungsrate von 2000 bis 2014 NICHT das Bestehen eines „Stillstands“ der globalen Erwärmung stützt.

Kurzer Blick auf die Studie von Karl et al.:

Karl et al. haben die NOAA-Daten adjustiert, um der mittleren Differenz von 0,12°C Rechnung zu tragen zwischen Messungen der Wassertemperatur von Bojen und von Schiffen. Diese „Korrektur“ hatte ihren Einfluss auf Temperaturtrends mit dem größten Einfluss auf die Trends von 2000 bis 2014 (welches der „Stillstands“-Zeitraum sein sollte).

Karl et al. haben also die neuen Erwärmungsraten 1950 bis 1999 bzw. 2000 bis 2014 berechnet. Sie erhielten:

Erwärmungsrate 1950 bis 1999: +1,13°C pro Jahrhundert.

Erwärmungsrate 2000 bis 2014: +1,16°C pro Jahrhundert.

Daraus zogen Karl et al. ihre Schlussfolgerung: Da sich die Erwärmungsrate von 2000 bis 2014 praktisch nicht von der Erwärmungsrate im Zeitraum 1950 bis 1999 unterscheidet, wird das Bestehen eines „Stillstands“ der globalen Erwärmung NICHT gestützt.

Ich stelle NICHT die Adjustierungen von Karl et al. der Wassertemperatur in Frage. Ich bin nicht qualifiziert genug, um diese Adjustierungen zu bewerten. Darum verwende ich die adjustierten NOAA-Daten so, wie sie da stehen. Spezielle Anmerkung: Ich verwende die NOAA-Daten. Falls ich in den NOAA-Daten einen „Stillstand“ finde, kann man mir nicht vorwerfen, die falschen Daten zu benutzen.

Ich spreche auch NICHT über die Ergebnisse der Berechnungen von Karl et al. Ich bekomme Ergebnisse, die ihren sehr ähnlich sind.

Mein Anliegen ist die Verwendung der Erwärmungsrate von 1950 bis 1999. Karl et al. schrieben dazu Folgendes:

Unsere neue Analyse zeigt jetzt den Trend im Zeitraum 1950 bis 1999, ein Zeitraum, der in breiter Übereinstimmung eine signifikante anthropogene Erwärmung aufweist mit 0,113°C pro Dekade, was praktisch ununterscheidbar ist vom Trend im Zeitraum 2000 bis 2014 (0,116°C pro Dekade)“

Nun ist 1975 bis 1999 ein Zeitintervall mit einer signifikanten anthropogenen globalen Erwärmung. Aber 1950 bis 1974 ist ein Zeitintervall mit nur sehr geringer anthropogener globaler Erwärmung.

Fügt man diese beiden Intervalle zusammen zum Zeitraum 1950 bis 1999, haben Karl et al. ein Intervall erzeugt, dass im Grunde eine anthropogene globale Erwärmung halber Stärke zeigt (halb mit, halb ohne Erwärmung). Aber Karl et al. verwendeten diesen Wert als ihre „normale“ anthropogene Erwärmungsrate, wenn sie den Vergleich mit dem Zeitraum 2000 bis 2014 durchführen.

Falls die Erwärmungsrate 2000 bis 2014 zu der Erwärmungsrate 1950 bis 1999 passt (was der Fall ist), dann bedeutet das, dass 2000 bis 2014 ebenfalls eine anthropogene globale Erwärmung halber Stärke aufweist.

Es gibt zwei einfache Wege zu erklären, wie 2000 bis 2014 anthropogene globale Erwärmung halber Stärke haben kann.

1) Der Zeitraum 2000 bis 2014 könnte aus zwei Teilen bestehen, wobei in einem Teil anthropogene globale Erwärmung auftritt, im anderen Teil aber NICHT (wie 1950 bis 1999). Aber ich glaube nicht, dass dies der Fall ist.

2) Die vernünftigere Erklärung ist, dass der Zeitraum 2000 bis 2014 eine geringere Erwärmungsrate zeigt als die „normale“ anthropogene globale Erwärmung. Die Erwärmungsrate betrüge etwa 50% der „normalen“ Erwärmungsrate. Das kann man nennen, wie man will (Verlangsamung, Stillstand, Pause). Wie auch immer man es nennt, die Daten zeigen, dass es existiert.

Während also Karl et al. versucht haben, alle Welt davon zu überzeugen, dass es KEINEN Stillstand gebe, haben sie in Wirklichkeit einen starken Beweis geliefert, dass der „Stillstand“ sehr wohl existiert (wenn erst einmal ihr Fehler den Zeitraum 1950 bis 1999 betreffend korrigiert ist).

Link: http://wattsupwiththat.com/2016/02/21/a-new-way-of-looking-at-the-pause-why-karl-et-al-got-it-wrong-about-the-pause-part-1/

Übersetzt von Chris Frey EIKE




Elektroautos: 5000 Euro Subvention um CO2 für 25 Euro zu sparen.

Am einfachsten wäre es, wenn die Bundesregierung ihr 2010 gestecktes Ziel einfach vergessen würde. Erreichen wird sie es ohnehin nicht. Und das ist wohl auch besser so. Bis 2020 werden auf deutschen Straßen keinesfalls eine Million Elektroautos fahren. Da müsste schon ein Wunder geschehen. 2015 wurden gerade einmal 12.363 rein elektrische PKWs zugelassen. Das Interesse an den Stromern ist stabil gering und kann auf absehbare Zeit nur mit massiven zusätzlichen Subventionen wenigstens ein bisschen erhöht werden. Deshalb wird wahrscheinlich im März entschieden, eine Kaufprämie einzuführen. 5000 Euro soll jeder kriegen, der bereit ist, ein Elektro-Auto zu kaufen.

Einige tun es ja schon jetzt. Wer sind sie und warum so wenige? Die Nutzer kann man grob unterscheiden in Überzeugungskäufer, politisch motivierte Käufer und Luxuskäufer. Die ersten sind überzeugt, etwas Gutes zu tun oder haben sich zumindest einem ökologisch korrekten Lifestyle verschrieben und sind wohlhabend genug, es sich leisten zu können. Politisch motiviert ist vor allem der Kauf von Flottenfahrzeuge in Behörden, Verbänden und dergleichen, die mit gutem Beispiel voran gehen sollen und ihr Geld nicht selbst verdienen müssen. Die Luxuskäufer ergänzen ihren privaten Fahrzeugpark um einen Tesla oder einen BMW für Stadtfahrten. Alle drei Gruppen sind relativ klein und werden es auch bleiben.

Die Autos sind aufgrund ihrer bekannten Nachteile (zu hoher Preis, zu geringe Reichweite, zu lange Ladezeiten) schlicht nicht massenmarktfähig. Daran kann die Politik nichts ändern. Hier ist Technologieentwicklung gefragt. Wenn die Ankündigungen von Bosch und anderen wahr gemacht werden und sich der Batteriepreis halbiert, während sich die Leistung verdoppelt, sieht die Situation in fünf oder zehn Jahren vielleicht anders aus. Dann könnte in den 2020er Jahren ein Durchbruch kommen. Jeder potenzielle Käufer, der ein gutes Auto zu einem vernünftigen Preis will, wird so viel Geduld aufbringen. Die Politik will es offenbar nicht. Mit Kaufprämien und diversen Privilegien für E-Autofahrer will man dem gesteckten Ziel mit Gewalt näherkommen, wird damit letztlich aber doch scheitern.

Warum eigentlich? Weil Elektroautos für Umwelt, Klima, Mensch einen so großen Nutzen haben? Die Chinesen mit ihrem Smog-Problem hätten es erkannt und die Führung übernommen, höre ich. Neidisch schaut man ins Reich der Mitte. Dort haben sich die Verkaufszahlen der mit fast 10.000 Dollar Kaufprämie bezuschussten Wagen im letzten Jahr verfünffacht.  Fast 250.000 rein elektrische Autos wurden 2015 neu zugelassen. Bis 2020 sollen es laut Plan fünf Millionen sein.

Nun haben aber Studien der Tsinghua University ergeben, dass Elektroautos im Vergleich zu Benzinern für Emissionen sorgen, die zwei bis fünfmal so hoch sind. Das liegt einfach daran, dass ein Großteil des chinesischen Stroms, mit dem die Akkus aufgeladen werden, aus dreckigen Kohlekraftwerken stammt. Die Forscher haben bewertet, was die bessere Alternative zu herkömmlichen Benzinern ist, Elektroautos oder sehr viel billigere Autos mit Erdgasantrieb. Ihr Ergebnis: Erdgas-Autos kamen bei Treibhausgasen, Feinstaub, Feinststaub, Stickoxiden und Schwefeldioxid auf eine Reduktion von sechs Prozent, sieben Prozent, 20 Prozent, 18 Prozent und 22 Prozent, Elektroautos schnitten bei Treibhausgasen mit 20 Prozent Verringerung besser ab, wiesen dafür bei den vier Schadstoffen Steigerungen um 360 Prozent, 250 Prozent, 120 Prozent, und 370 Prozent auf.

Da CO2 bekanntlich ein Klimagas ist, aber kein Luftschadstoff, bringen Elektroautos in Hinblick auf die Luftverschmutzung allenfalls lokal eine Entlastung, insgesamt aber eine deutliche Verschlechterung. Sehr viel sinnvoller für China wäre es, in sauberere Kraftwerke zu investieren. Erst wenn es hier massive Fortschritte gibt, was noch Jahrzehnte dauern wird, können Elektroautos evtl. als sauberere Alternative gelten.

Bei größerem Anteil von Erneuerbaren und Atomkraft sowie saubereren Kohlekraftwerken, wie in Europa der Fall, verringert sich die Schadstoffbelastung aus der Stromerzeugung, das Gesamtbild wird aber nicht wesentlich besser. Denn zu berücksichtigen sind auch die die Belastungen in Zusammenhang mit dem Herstellprozess, vor allem der Batterien. Unabhängig vom Energiemix der Stromerzeugung haben Elektroautos laut einer norwegischen Studie ein höheres Potenzial für Giftbelastung von Mensch und Wasser, die Eutrophierung von Gewässern sowie Schwermetallbelastungen.

Auch spielt die Nutzungsdauer für die Bewertung eine wichtige Rolle. Da bei Elektroautos der Herstellprozess für einen weit größeren Anteil des über das gesamte Leben des Autos gerechneten CO2-Ausstoßes verantwortlich ist, nehmen die Vorteile der Elektroautos zu, je länger man sie fährt. Bei 100.000 Kilometern liegen sie ungefähr gleichauf mit Benzinern, bei 150.000 haben sie rund 20 Prozent weniger Emissionen, usw. Das heißt aber auch, dass ein Elektrozweitwagen, der nur in der Stadt benutzt wird und unter Umständen nach einer typisch deutschen Nutzungsdauer von 10 Jahren deutlich weniger als 100.000 km runter hat, selbst bei der CO2-Bilanz schlechter abschneidet als der Benziner oder Diesel.

Während viele in Deutschland ausrangierte Benziner und erst recht Diesel anschließend noch viele Jahre in Osteuropa oder Afrika unterwegs sind, ist eine solche nachhaltige Zweitverwertung von Elektroflitzern kaum möglich. Überhaupt sind die CO2-Einsparungen höchst dürftig. Selbst bei einer Nutzungsdauer von rund 150.000 Kilometern entstehen, wie Björn Lomborg vorrechnet, insgesamt lediglich Einsparungen von rund fünf Tonnen CO2. Entsprechend der aktuellen Preise im Europäischen Emissionshandel von rund fünf Euro pro Tonne würde man dafür gerade einmal 25 Euro erhalten. Da muss man fragen: 5000 Euro Subvention, um CO2 im Wert von 25 Euro einzusparen, ist das wirklich ein gutes Geschäft?

Elektroautos sind also nicht die Öko-Autos, die viele in ihnen sehen. Warum dann dieses Drängen der Politik? Es gibt einen weiteren Grund: die Angst um die deutsche Autoindustrie. Die Elektromobilität entscheide zusammen mit der Digitalisierung über die Zukunft der deutschen Automobilbranche schlechthin, sagte Sigmar Gabriel nach dem Auto-Gipfel im Kanzleramt Anfang Februar. Alle sind nervös und fürchten, dass Daimler und BMW bald zu Zulieferern von Google und Apple degradiert werden könnten. Die einst selbstbewusste deutsche Branche hat die Digitalisierungspanik erfasst. Deshalb die Idee, als sogenannter „Leitmarkt“ der Welt zu zeigen, dass wir an der Spitze der Bewegung stehen.
Am Erfolg dieser Strategie kann gezweifelt werden.

Wir haben es bei Solarzellen gelernt: Dass sie in Rekordzahlen auf deutsche Dächer geschraubt werden, heißt trotz immenser Subventionen schon lange nicht mehr, dass sie auch aus deutscher Produktion kommen. Zu Recht wenden viele Kritiker der geplanten Kaufprämie auch ein, dass die deutsche Autoindustrie reich und leistungsfähig genug sein müsste, ohne staatliche Subventionierung Innovationen hervorzubringen. Und eine wichtige Frage ist auch längst noch nicht entschieden: ob die Elektrifizierung des Antriebs kurz- bis mittelfristig wirklich die entscheidende Innovation ist, auf die man setzen muss. Autos sind auch heute schon rollende Computer und werden durch Elektroantrieb keineswegs digitaler. Wirklich verändern werden die Autowelt selbstfahrende Autos. Die Art des Antriebs spielt dafür keine Rolle.

Thilo Spahl ist Diplom-Psychologe und lebt in Berlin. Er ist freier Wissenschaftsautor und Redakteur bei der Zeitschrift NovoArgumente, wo dieser Beitrag zuvor erschien.

 Zuerst erschienen bei NOVO Argumente hier




Wie die Steuerquelle mit CO2 ans Sprudeln kam

Bereits in der letzten Ausgabe* – Nr.1 – haben wir es angedeutet:

Wir glauben nicht an einen menschen-gemachten (anthropogenen) Klimawandel ("AGW").

Das fand nicht jeder gut, weshalb wir von jenen in die völlig rechte Ecke geschoben wurden, zu Kohle- und Ölmilliardären, Rentnern und TeaParty. Nun, das ist insofern verwunderlich, als dass Klimawandel doch eigentlich etwas Wissenschaftliches sein sollte. Wie kann da ein Rechts-Links-Denken funktionieren? Spätestens seit Al Gore´s Katastrophenfilm "Eine unbequeme Wahrheit" wird  Ihnen tagtäglich auf allen Kanälen, in Print-Erzeugnissen, im Internet, in den Schulen (!!) und in Regierungsverlautbarungen eingehämmert: Der menschengemachte Klimawandel ist da und wenn nicht entschieden gegensteuert wird, dann versinkt Holland, schmelzen Polkappen und Gletscher, ertrinken die süßen Eisbären. Und das wollen Sie doch wohl nicht – oder ?!  "Zeigefinger heben".

Und nun kommen wir, die kleine, unbedeutende Dorfzeitung und sagen: Das glauben wir nicht. – Leiden wir an Selbstüberschätzung? Werden wir von Exxon oder mindestens RAG, RWE  gesponsert? (Leider nein.) Oder ist es einfach nur so, dass wir uns wundern, warum, wenn CO2 doch so wahnwitzig gefährlich für das Klima, die ganze Welt  ist – ohne deswegen für AKWs zu plädieren – Atomkraftwerke, die nur wenig CO2  ausstoßen, abgestellt werden und Kohlekraftwerke, die CO2 -Schleudern sind, die Grundlast vorhalten müssen, für den Fall, dass nachts nicht nur die Sonne nicht scheint, sondern auch kein Wind weht, die Leistung dieser Erneuerbaren Energien (EE) also gegen "0" geht?
Aber von vorn.

1988 entstand auf Basis einer UN-Resolution der der UNO beigeordnete "Intergovernmental Panel of Climate Change" (IPCC), der auf Deutsch gern Weltklimarat  genannt wird und seinen Sitz offiziell in Genf hat.

"Der IPCC ist ein wissenschaftliches zwischenstaatliches Gremium, das von der Weltorganisation für Meteorologie (WMO) und dem Umweltprogramm der Vereinten Nationen (UNEP) ins Leben gerufen wurde."

Zum Selbstverständnis heißt es weiter: "Der IPCC betreibt selbst keine Wissenschaft und überwacht keine Klimadaten oder -parameter. Seine Aufgabe besteht darin, die aktuelle wissenschaftliche, technische und sozio-ökonomische Literatur, die weltweit zu dem Thema publiziert wird, umfassend, objektiv, offen und transparent zusammenzutragen und zu bewerten. Das Themengebiet reicht vom Risiko menschengemachter Klimaänderung über ihre beobachteten und projizierten Auswirkungen bis hin zu Anpassungs- und Minderungsoptionen" (de-ipcc.de) [4]

Es ist also die eigene Definition, die den IPCC nicht als wissenschaftliche, sondern eher als politische Institution ausweist:

So wird nur die Gefahr des menschengemachten Klimawandels betrachtet. Ob der Klimawandel überhaupt menschengemacht ist, das steht nicht zur Debatte. Etwaige Diskussionen darüber wurden und werden für beendet erklärt – eine wenig wissenschaftliche Vorgehensweise.  [5] Erklärt aber, warum Haltungen zum menschengemachten Klimawandel als "rechts = die bösen Skeptiker" gegenüber "links = die guten Klimaretter" verortet werden.

"Die umfassende Bandbreite der wissenschaftlichen Inhalte wird durch Beiträge von Experten aus aller Welt und allen relevanten Fachrichtungen (inklusive Literatur aus der Wirtschaft und traditionelle Praxis, falls angemessen dokumentiert) sowie den zweistufigen Begutachtungsprozess durch Experten und Regierungen sichergestellt." [4]

Die Vorhersagen zum Klima werden auf Computern berechnet, es handelt sich also nicht um Beobachtungen, sondern um Modelle.

Sonnenenergie und Wasserdampfgehalt der Luft wurden ausgeblendet. Öffentliche Gelder gab und gibt es bevorzugt für Studien, die den menschengemachten Klimawandel zum Thema haben.

Doch trotz "zweistufigen Begutachtungsprozess durch Experten und Regierungen" sind einige der vorhergesagten Katastrophen nicht eingetreten:

()  Seit 17 Jahren stagniert die Temperatur, wird eher kühler, steigt jedenfalls nicht mehr.

()  Die Gletscher im Himalaya, sie sollten laut einer millionenschweren Studie des kürzlich wegen des Verdachts sexueller Belästigung zurückgetretenen IPCC-Leiters Pachauri, einem indischen Eisenbahningenieur,  [6] schon 2035 geschmolzen sein, schmelzen nicht – im Gegenteil bei einigen wächst das Eis sogar.Woraufhin der IPCC einen Fehler bei der Erstellung des Zustandberichtes zugeben musste. [7]

()  Die Polkappen schmelzen zu großen Teilen auch nicht, sondern das Eis wird dicker. [8]

Dazu kommt, dass die zentrale Aussage des IPCC, nämlich dass das Ansteigen des CO2 die Erwärmung der Erde zur Folge hat, in unseren Augen schlicht falsch ist:

Mithilfe von Eiskernbohrungen wurde festgestellt, dass erst die Temperaturen steigen, bevor Hunderte von Jahren später der Gehalt von CO2 in der Luft steigt.

Der Grund liegt darin, dass die Ozeane und die Atmosphäre in direktem Austausch stehen: Wird es kälter, nehmen die Ozeane CO2  auf, wird es wärmer, geben die Ozeane CO2 ab. Wenn die Ozeane CO2 abgeben, dann steigt der CO2-Gehalt in der Luft. Da die Ozeane große Teile der Erde bedecken, steigen ihre Temperaturen langsamer als die der Landmasse. Eine Eigenschaft, die jeder Surfer und Drachenflieger bestätigen kann: Erst erwärmt sich das Land, dann das Wasser. Ein Effekt, der sich besonders am Gardasee großer Beliebtheit erfreut. Wer die physikalische Richtigkeit prüfen will, möge ein Glas Sprudelwasser in der Mikrowelle erhitzen: Das CO2  steigt auf.

Damit aber wurden vom IPCC Ursache und Wirkung glatt umgekehrt.

Doch der IPCC hat Vorkehrungen getroffen, damit er nicht zum alleinigen Schuldigen erklärt werden kann: "Durch die Anerkennung von IPCC-Berichten und die Verabschiedung ihrer Zusammenfassung für politische Entscheidungsträger erkennen Regierungen die Rechtmäßigkeit der wissenschaftlichen Inhalte an."  
Das nennt man umgangssprachlich eine Entlastung.

Wie aber ist es möglich, dass die gesamte Welt an den menschengemachten Klimawandel glaubt?  Nun, das hat viel mit Geld zu tun. Mit viel Geld.

Als Erstes wurden die Medien mit Katastrophenszenarien versorgt: Schlechte Nachrichten  verkaufen sich einfach besser als die Nachricht: Alles ist gut.

Dann wurden eigens Gesetze erschaffen, eine Zertifikatsbörse ins Leben gerufen: Industrien, die viel CO2  ausstießen, mussten Zertifikate erwerben, die ihnen erlaubten, eine bestimmte Menge CO2  auszustoßen. Wer weniger ausstieß, konnte seine Zertifikate an andere mit mehr Ausstoß verkaufen. Damit ändert sich zwar unter dem Strich die Menge des ausgestoßenen CO2  nicht, aber da bei jedem Handel Provision fällig wurde, verteuerte das die Produkte, machte Friedensnobelpreisträger (!) Al Gore zum Zertifikatsmillionär [9] und die Luft kein bisschen besser.

Ein moderner Ablasshandel eben.

Eine schwerwiegende Folge dieses modernen Ablasshandels war, dass sich CO2  ausstoßende Industrien in diejenigen Staaten verlagerten, die das Kyoto-Protokoll zur Senkung der CO2-Emissionen nicht ratifiziert hatten – in die USA, Indien und China, um Beispiele zu nennen. Konkret ist in Mülheim/Ruhr  das Siemens Dampfturbinen- und Generatorenwerk betroffen. Eine konkurrierende Fertigungsstätte steht in Charlotte/USA. Sollte Siemens tatsächlich eines Tages Arbeitsplätze in MH abbauen, juchhu. Dann wären unsere Klimaziele gerettet! Das CO2  entstünde dann – woanders. Die Arbeitsplätze allerdings auch. Da in den USA das geniale Geschäftsmodell AGW zwar ersonnen wurde, die USA aber keinerlei Ziele ratifiziert haben, (unterschrieben – ja; rechtlich verpflichtend=ratifiziert – nein) sank dort das Interesse an den Zertifikaten, weshalb die Klimabörse in Chicago geschlossen wurde. Dennoch ist es für jede Regierung verlockend, mit Hinweis auf die Schuld des einzelnen Menschen, ihn mit Steuern und Gebühren zu belasten und Gesetze zu erlassen, die Geld in die maroden Staats-Kassen spülen. In Deutschland wurde 2014 eine Rekordsumme an Steuern eingespielt. So betrug das Aufkommen an der MWSt nur aus der EEG-Umlage allein in 2014 rund 1,6 Milliarden €. [10]

Aber keine Sorge, dafür wird schon Verwendung gefunden werden: Zur Rettung deutscher Banken in GR,  für die Unterstützung eines korrupten NATO-Aufnahme-Kandidaten, für die Kosten der Zuwanderung.

D a g e g e n : Für den Ausbau von KiTAs, finanzielle Hilfen für alte Menschen, gut ausgestattete Schulen und Unis,  Verbesserung der Infrastruktur wie Straßen und Brücken – eher nicht.

Mit unserer Kritik stehen wir so alleine nicht. In einem Interview mit der BILD sagte Alt-Bundeskanzler Helmut Schmidt: "Dieser Weltklima-Rat hat sich selbst erfunden, den hat niemand eingesetzt. Die Bezeichnung Weltklima-Rat ist eine schwere Übertreibung. Diese ganze Debatte ist hysterisch, überhitzt, auch und vor allem durch die Medien. Klimatischen Wechsel hat es auf dieser Erde gegeben, seit es sie gibt." bild.de 3.6.2007 [11] Und er konkretisierte  2011: "Die von vielen Regierungen international betriebene sogenannte Klimapolitik steckt noch in ihren Anfängen. Die von einer internationalen Wissenschaftlergruppe (IPCC) bisher gelieferten Unterlagen stoßen auf Skepsis. Jedenfalls sind die von einigen Regierungen öffentlich genannten Zielsetzungen bisher weniger wissenschaftlich als vielmehr lediglich politisch begründet. Es scheint mir an der Zeit, daß eine unserer wissenschaftlichen Spitzenorganisationen die Arbeit des IPCC kritisch und realistisch unter die Lupe nimmt und sodann die sich ergebenden Schlußfolgerungen der öffentlichen Meinung unseres Landes in verständlicher Weise erklärt." [11]

Und was die armen Eisbären betrifft: Deren Population betrug 1950  5.000 Stück. Heute sind es –  25.000 !

Q u e l l e n :

[4] http://www.de-ipcc.de/de/119.php
[5] http://www.welt.de/print/welt_kompakt/print_politik/article13468087/Die-grosse-Luftnummer.html
[6] http://www.nzz.ch/international/ruecktritt-des-uno-klimaratschefs-1.18489739
[7] http://www.spiegel.de/wissenschaft/natur/himalaja-schmelze-uno-klimarat-gibt-fehler-bei-gletscher-prognose-zu-a-672984.html
[8} http://lv-twk.oekosys.tu-berlin.de//project/lv-twk/02-intro-3-2-twk.htm Teil 1/III
[9] Gegen das Geschäft mit dem Klimawandel: Plädoyer für eine freie und soziale Gesellschaft,  2014 Uwe Timm Hrsg Michael von Prollius S.12
[10] http://www.pv-magazine.de/nachrichten/details/beitrag/eeg-umlage–bund-rechnet-mit-1-6-milliarden-euro-umsatzsteuer-einnahmen_100014924/
[11] http://www.eike-klima-energie.eu/energie-anzeige/nachruf-auf-den-herausragenden-politiker-und-aufklaerer-des-buergers-helmut-schmidt/
zitiert nach Max-Planck-Gesellschaft, Festakt 100 Jahre Kaiser-Wilhelm-Gesellschaft 

====================================================

)*  Dieser Beitrag ist zunächst erschienen in: Dorfzeitung Essen, März 2015 / Nr.2 ; vgl. dazu Abbildung oben.

====================================================




Stadtwerke kämpfen ums Überleben – Schon Dutzende stehen vor der Pleite

Es kommt wie es kommen musste. Die Energiewende – von allen Stadtwerken als großer Heilsbringer- wider besseres Wissen begrüßt – frisst ihre Unterstützer. Nach den großen Versorgern wie EON, RWE, EnBW und Vattenfall deren wohl vergeblicher Abwehrkampf gegen die Pleite bereits seit vielen Monaten die Schlagzeilen beherrscht sind nun die vielen kleinen dran. Und davon gibt es rd. 1000.  Nach dem spektakulären Fall der Geraer Stadtwerke dessen Insolvenz derzeit abgewickelt wird  droht dieses Schicksal defacto allen.  Geras Stadtwerke die  immerhin die drittgrößte Stadt Thüringens mit mehr als 100.000 versorgen haben es vorgemacht,. Nach lautem Jubel  über die Energiewende meldete man 2014 kleinlaut Insolvenz an. Der Hauptgrund war der Preisverfall am Strommarkt der durch die Zwangseinspeisung für die unzuverlässigen „Erneuerbaren“ verursacht wird. So schreibt die Welt am 22.2.16

In Gera etwa hatten die Banken der Stadt die für eine Rettung notwendigen Zusatzkredite verweigert. "Das Problem ist die hohe Verschuldung", erklärt Schuster. Grund dafür ist ein Zusammenspiel von sinkenden Erlösen aus den Energiesparten der Stadtwerke und einem großen Investitionsbedarf, etwa bei den Verteilnetzen.

Die Erzeuger verdienen einfach nicht mehr genug, um die Kredite für ihre Gas- Kohle oder Kernkraftwerke zu bedienen  oder gar neue Investitionen zu stemmen und schliddern in die Insolvenz. Dabei ist diese Situation nicht auf einige wenige beschränkt die schlecht gewirtschaftet haben. Denn Zitat aus o.a. Artikel 

Bevor die Flüchtlingskrise zu weiteren finanziellen Belastungen führte, hatte die Energiewende die finanzielle Stabilität vieler Stadtwerke bereits zerrüttet. Auch die westdeutsche "Enervie AG" entging nur knapp einer Insolvenz.

Die Zukunft des regionalen Versorgers im Besitz der Städte Hagen und Lüdenscheid sowie des Entsorgungskonzerns Remondis konnte Ende vergangenen Jahres nur durch eine Finanzspritze der Eigentümer von 60 Millionen Euro gesichert werden. Im Zuge der Sanierung verlieren 450 Enervie-Mitarbeiter ihren Arbeitsplatz.

Ein weiteres schlimmes Beispiel sind die Münchner Stadtwerke, die  zusätzlich zu den Erlösminderungen noch viele Millionen in politisch gewünschte aber unrentable Solarkraftwerke wie Andasol in Spanien versenkten.

So werden die Stadtwerke München (SWM) für 2015 erstmals seit langer Zeit wieder ein negatives Ergebnis ausweisen. Mitschuld am Minus von immerhin 600 Millionen Euro nach Steuern: "Die Energiepreise verfallen stark, Energiewende und Atomausstieg verändern die Erzeugungslandschaft", heißt es in einer Mitteilung des Unternehmens.

Und so geht es auf breiter Front weiter.

Update vom 24.2.16

RWE lässt (vernünftigerweise) die Dividende ausfallen. Allein die Stadt Essen verliert 18 Mio € für das Stadtsäckel. (Mit Dank an Leser R.Kuth).

Und, wie mir die  Leser Maler und Treml mitteilen , haben es die Bremer Stadtwerke geschafft, gigantische rd. 450 Mio € in den Sand zu setzen. Details dazu hier und hier.

Von den rd. tausend Stadtwerken werden daher nur die überleben, die es schaffen sich rechtzeitig in den schon seit längerem geforderten Kapazitätsmarkt zu retten.

Der Name Kapazitätsmarkt ist jedoch ein Euphemismus, denn von Markt kann dabei keine Rede sein. Es handelt sich allein um eine planwirtschaftliche Veranstaltung zu Lasten der Verbraucher – allein dazu gedacht, die Versorgungssicherheit trotz Einspeisung immenser von Zappelstrom durch sog. „Erneuerbare“ Quellen, aufrechtzuerhalten.

Zigtausende von hoch wertschöpfenden Arbeitsplätzen gehen damit dauerhaft verloren. Eine Entwicklung wie sie von allen seriösen Fachleuten vorhergesagt wurde, nur nicht von denen, die glaubten nach der Pfeife der Politik tanzen zu müssen.

Einen erhebliche Teilschuld an dieser Misere trägt insbesondere  der Verband der Versorger BDEW.  Besonders hervorzuheben ist dabei das unheilvolle Wirken der langjährigen Verbandschefin, Merkelvertrauten und Ex-Staatsministerin Hildegard Müller. Sie sorgte gleich nach Amtsantritt für eine schnelle Unterwerfung des Verbandes unter das Primat der Politik. Und das hieß Umsetzen der Energiewende um jeden Preis. Zum Dank für ihre erfolgreiche Arbeit wird sie jetzt Vorstandsmitglied bei RWE.

Doch auch hier gilt der alte Kinderspruch: Nur die allerdümmsten Kälber wählen ihren Metzger selber




Ein See in Bolivien verschwindet – und (nicht nur) die dpa berichtet sofort „… ein Grund ist der Klimawandel“

Auf „kaltesonne“ wird gerade um die Wahrheit zur Berichterstattung über einen in Bolivien verschwindenden See gerungen „Lago Poopo Ente nun auch im SRF“ und „Skandal in Bolivien“. Worum geht es dabei?

Es geht um ein Beispiel wie in einzelnen  Medien Berichterstattungen bewusst und konsequent politisch zurechtgebogen werden

Seit Monaten bringen Medien wechselweise eine Information über Boliviens zweitgrößten See, den Lago Poopo, welcher aktuell am Austrocknen ist. In vielen Meldungen wird es dabei in den Überschriften so dargestellt, als ob  die Ursache sicher der Klimawandel wäre. Doch mit wenigen Web-Klicks kann man sich darüber informieren, dass dieser extrem flache See in der Vergangenheit regelmäßig vollkommen austrocknete und es  deshalb nicht mit einem (anthropogenen) Klimawandel zusammen hängt.

Bild 1 (rechts oben) Artikel auf BILD online über den Lago Poopo am 18.12.2015 

Bild schreibt

[3]Anm.: als eine der wenigen Publizierungen gibt Bild die Größe mit an: von … 2792 Quadratkilometern auf 1945 Quadratkilometer sinken lassen.

Der auf knapp 3700 Metern Höhe gelegene Salzsee hatte schon in der Vergangenheit immer wieder mit akuter Wasserknappheit zu kämpfen. Er wird vom Rio Desaguadero gespeist, der vom Titicacasee zum Lago Poopó fließt.

Experten sehen verschiedene Ursachen für die Austrockung. Der fortschreitende Klimawandel sorge für immer weniger Regen im bolivianischen Hochland, mutmaßen Experten. Gewrardo Zamora von der Universität in Oruro hält aber auch den Bau von Staudämmen an Zuflüssen in Peru für eine wichtige Ursache.

El Niño wiederum ist ein Klimaphänomen im pazifischen Raum, das das Wetter insbesondere in in Südamerika, Asien und Afrika erheblich beeinflussen und auch zu Naturkatastrophen führen kann. Dieses Phänomen ist längst noch nicht vollständig enträtselt. Experten vermuten aber, dass die Erderwärmung dazu führt, dass El Niño möglicherweise in kürzeren Abständen auftritt als früher.

Das Handelsblatt weiß nicht so recht, wie es berichten soll. Vielleicht sind dem Redakteur auch Zweifel an verschiedenen Darstellungen gekommen. Jedenfalls listet es alle Statements und wenigstens kann sich der Leser daraus in etwa selbst ein Bild machen. 

[5] Handelsblatt: Der See weicht der Wüste

Der zweitgrößte See Boliviens ist vollständig ausgetrocknet. Die Regierung macht den Klimawandel für den mangelnden Wassernachschub des Poopó-Sees verantwortlich. Eigene Fehler will sie nicht eingestehen.

Zwar trocknete der Salzsee auch in der Vergangenheit schon aus und erholte sich dann doch wieder. Dieses Mal rechnen Wissenschaftler aber nicht mit einer Regeneration.

„Das liefert ein Bild von der Zukunft des Klimawandels“, erklärt Dirk Hoffmann, ein deutscher Forscher am Bolivian Mountain Institute.

Eine örtliche Bürgerinitiative wirft den Behörden vor, Warnungen vor einer Austrocknung des Poopó ignoriert zu haben. „Man hätte etwas tun können, um die Katastrophe zu verhindern“, sagt deren Vorsitzender Ángel Flores. „Die Bergbauunternehmen leiten seit 1982 Wasser um.“

Präsident Evo Morales weist die Verantwortung von sich und setzt darauf, dass der See sich doch noch einmal erholt. „Mein Vater hat mir erzählt, er habe den trockenen See schon einmal auf einem Fahrrad überquert“, sagte er im vergangenen Monat.

Die EU soll helfen

Umweltschützer und Aktivisten vor Ort sehen die Regierung dennoch in der Verantwortung. Die Wasserressourcen seien schlecht gemanagt, die Verschmutzung durch den Bergbau ignoriert worden. Mehr als 100 Minen liegen flussaufwärts und viele von ihnen entließen ihre Abwässer ungeklärt in die Zuflüsse des Poopó, darunter auch Huanuni, die größte staatliche Zinnmine.

Die bolivianische Regierung hat nun die Europäische Union um 130 Millionen Euro für Wasseraufbereitungsanlagen in der Region gebeten. Außerdem sollen die Zuflüsse ausgebaggert werden, darunter der Desaguadero, der vom Titicaca-See gespeist wird. 

Doch das Wahrheitsministerium dpa (deutsche Presse-Agentur) als zeitlich letzte „Informantin“ weiss es genauer und bringt es gleich in der Überschrift. Meldung der dpa vom 11. Februar 2016 in „meiner“ Lokalzeitung: 

[4] dpa Riesiger See ist verschwunden von Georg Ismar

Plötzlich verschwindet ein riesiger See in Südamerika – ein Grund ist der Klimawandel

Der Logo Popo, Boliviens zweitgrößter See ist einfach verschwunden. Auf der Suche nach den Ursachen geht es zunächst den Rio Desaguadero entlang, er fließt vom berühmten Titicacasee, dem größten Südamerikas, Richtung Poopo – und ist dessen wichtigste Wasserzufuhr. … Doch was auffällt: Silber und Erzminen entlang des Flusses zweigen viel Wasser ab.

Dann kommt der „übliche“ Einheimische:

„ … wir haben nur noch etwa ein Zehntel der Regenmengen im Vergleich zu anderen Jahren“ und deshalb zweigen die Bauern vom Rio Desaguadero  Bewässerungskanäle ab. „ … Wegen der Kanäle aber fließt kaum noch Wasser aus dem Rio Desaguadero in den See.“

Und Klimafachleute welche alles wissen:

 „Es gibt eine eindeutige Verbindung zum Klimawandel“ meint der Landesschef des Umweltnetzwerkes Red Lationamericana Ambiental „ „ … und die Temperaturen seien …. seit 1982 um 1,8 Grad gestiegen“. 

Dabei hätte die dpa wirklich etwas Zeit gehabt, sorgfältig zu recherchieren.  Jedoch will man dort wohl kein Risiko in der Tendenz eingehen und beauftragte einen Redakteur, von dem man aufgrund des Werdeganges und früherer Publizierungen [12] sicher war, dass die vorgegebene politische Linien auch eingehalten wird: 

dpa Pressemitteilung [12]: Georg Ismar. Studium Iberische und Lateinamerikanische Geschichte, Mittlere und Neuere Geschichte sowie Politikwissenschaft. Auf den Magister-Abschluss sowie Tätigkeiten beim WDR und am Institut für soziale Bewegungen in Bochum folgte von 2007 bis 2009 das dpa-Volontariat. Anschließend war Ismar als dpa-Politikredakteur in Berlin tätig. 2010 wurde er bundespolitischer Korrespondent mit den Schwerpunktthemen Umwelt, Energie und SPD.

Was ist dort in den Anden nun passiert

Auf kaltesonne wurden die Darstellungen bereits gelistet. Anbei diese und zusätzliche Information.

Bild 2 [9] Gebietsansicht Bolivien mit dem Lago Poopo und Zufluss vom Titicaca-See

Aussage: Der See trocknet wegen des Klimawandels aus 

Zuerst einmal zum dortigen Klima. Bolivien liegt genau an einer Klimascheide. Dies führt zu laufenden Klima-Extremen in wechselnden Richtungen. In einer Studie zum Wasserhaushalt dieser Gegend (Altiplano) wird es beschrieben: 

[10] (Hervorhebungen durch den Autor)

Zu den vor-historischen Temperaturschwankungen:

 „….. leiten HEUSSER und STREETER (1980) für den betrachteten Zeitabschnitt des Spätglazials (Anm.: reicht bis ca. 10.000 vor Christus) Sommertemperaturen ab, die in einer Spanne zwischen -2K bis +5K relativ zum heutigen Mittelwert liegen. 

Zum Wissen über die Zusammenhänge der aktuellen Klimaschwankungen:

Weiterhin wären Zusammenhänge zwischen El Nino – Southern Oscillation – Phänomenen und dem Wasserhaushalt auf dem Altiplano zu untersuchen. Die Bemühungen auf diesem Gebiet waren bisher ohne überzeugendes Ergebnis geblieben.

Ergänzung. In [14] steht dazu:

The abruptness (100–200 yr) of the shifts between high and low lake stands, however, suggests that changes in the mode of atmospheric circulation is a likely cause. 

Zu den aktuellen Klimaschwankungen:

Wie in zahlreichen Arbeiten gezeigt werden konnte (VAN LOON und WILLIAMS 1976; PALTRIDGE und WOODRUFF 1981; JONES et al. 1986), hat sich um 1940 eine Veränderung des Klimas auf globaler Basis vollzogen (BARNETT 1984). Besonders auffällig dabei war der Wendepunkt von einer vorausgegangenen Erwärmung der Arktis zur nachfolgenden Abkühlung um 1940 (BORZENKOVA et al. 1976; KELLY et al. 1982).
Aus Abb. 3 und Tab. 2 ist zu ersehen, daß auch auf dem Altiplano eine Reaktion auf dieses globale Ereignis eintrat. Die wenig ergiebigen Regenzeiten zwischen 1935 und 1943 ließen den Titicacaseepegel auf den tiefsten Wert dieses Jahrhunderts sinken. Zur gleichen Zeit erhielt das Gebiet des nördlichen Mittelchile verhältnismäßig viel Niederschlag mit einer Tendenz zu niedrigen Werten von Beginn der Vierziger Jahre an (LLOYD 1973).
 

Und das Wichtigste 

Dieser See trocknet regelmäßig aus – letztmals sogar 1997 – und tat das bereits lange vor dem Klimawandel (siehe auch die Hinweise im Bericht des Handelsblattes von dem Vater der mit dem Fahrrad über den damals ausgetrockneten See fuhr).

[9] The lake was dry between 1994 and 1997 and, according to local people, also dry or nearly dry in the early 1940s and in the early 1970s. 

Das englischsprachige WIKIPEDIA bietet dazu sogar eine Pegelgrafik. Danach hatte der See ausgerechnet zur „Hochzeit“ des Klimawandels seinen historisch höchsten Wasserstand und verhält sich inzwischen wieder so wie in der vor-Klimawandel-Zeit:

Bild 3 [8] WIKIPEDIA historischer Pegelverlauf Lake Poopó 

Auch die Angabe, es würde immer weniger Regnen – gar nur noch 10 % von früher wie es in der dpa-Meldung heißt  – lässt sich nicht bestätigen. Dazu der rekonstruierte Niederschlagsverlauf aus einer Studie zu eben diesem Thema in den Bildern 4 und 5 [9]. Auch die Darstellung der Konrad Adenauer Stiftung sagt ganz aktuell, dass die Regenmengen nicht abgenommen haben: 

[6] Da die Gesamtniederschlagsmenge ungefähr konstant geblieben ist, sind die Regenfälle heftiger und führen durch den verstärkten Abfluss zu mehr Erosion und Überschwemmungen.

Bild 4 [9] Niederschlagsverlauf am Lago de Poopo

 

Bild 5 [9] Zuflussmenge in den Lago Poopo 

Die Zuflussmenge zeigt überhaupt keine „Klimawandel“-Einflüsse. Wichtig ist auch die Aussage in der Studie, dass sich der See vom „Verschwinden“ in kürzester Zeit erholen kann, während die Klimaexperten in den Artikeln „wissen“, dass er das nicht könne: 

 [9] The computations also show that the lake can recover from almost dry conditions to normal or even to spill-over depth within a year. Drying of the lake to a very small surface area takes a longer time. However, it was found that, if the water depth is less than a metre in a wet season, there is a risk that the lake will be dry in a following dry season. This information, in combination with ENSO forecasts, can help in estimating lake levels with prolonged lead time and, further, in taking action so that low Lake Poopó levels fluctuations are not disastrous for the fishermen population. 

Wie wandelte sich der Zufluss in historischer Zeit

Auch das wurde schon untersucht. In der Studie „A 3500 yr High-Resolution Record of Water-Level Changes in Lake Titicaca“ [14] ist ein Bild der rekonstruierten historischen Pegel des Titicaca-Sees, welcher über den Fluss Desaguadero ca. 90 % des Wassers liefert.

Man sieht, dass der Titicacasee  historisch gesehen aktuell einen hohen Pegel aufweist (1950 ist das Jahr 0 linksseitig) und die dem Klimawandel zugewiesene aktuelle Wasserarmut früher demnach über lange Zeiträume viel schlimmer war. Wichtig ist aber auch der Hinweis in der Studie, dass bereits früher gewaltig Pegelschwankungen innerhalb kurzer Zeit erfolgten. 

[14] This study demonstrates that the level of Lake Titicaca has fluctuated with an amplitude ú22 m during the past 3500 cal yr and that four of the low stands were both profound and occurred abruptly over a period of 100–200 yr. The abruptness (100–200 yr) of the shifts between high and low lake stands, however, suggests that changes in the mode of atmospheric circulation is a likely cause.

FIG. 4. Water level history of Lake Titicaca based on lithostratigraphy from four cores and 60 AMS 14C measurements.

Bild 6 [14] historische Pegeldaten-Rekonstruktionen des Titicaca-Sees 

Seit 1982 ist die Temperatur um 1.8 Grad gestiegen 

Auch dass es an der „Klimawandel-„ Temperaturerhöhung seit 1985 liegen würde, lässt sich gut widerlegen. Ca. 1940 hatte der Titicacasee als Lieferant von 90 % des Wasserzuflusses den niedrigsten (genannten) Pegel. Und laut dem dpa-Artikel soll die Temperaturerhöhung seit 1982 nun am Austrockenen schuld sein. Das ist unglaubhaft. Unabhängig davon sind jedoch die im dpa-Artikel genannten +1,8 Grad seit 1982 nicht erkennbar (Bild 7).

Anm.: Gerade für Bolivien sind die Temperaturangaben der jüngeren Zeit anscheinend mit Vorsicht zu genießen. Auf Klimaskeptiker.info steht gar, dass es seit 1990 gar keine mehr gäbe „Der Bolivien-Effekt“. Ob das wirklich stimmt, hat der Autor nicht nachgeprüft – es erscheint ihm aber etwas unwahrscheinlich.

Bild 7 [7] Temperaturverlauf am Lago Poopo

Klimafazit

Bolivien hat schon immer innerhalb kurzer Zeiträume  enorme Klimaschwankungen „erlebt“. Das ist kein Zufall. Schaut man auf einen Atlanten, sieht man es in der Nähe des südlichen Wendekreises und damit auf der Breite der Wüste Namib in Afrika (auf dem nördlichen Wendekreis liegt die Sahara). Um zu „erleben“, welche Klimaextreme in diesen Breiten innerhalb kurzer Zeit stattfinden lese man die EIKE-Publizierung „Der Klimawandel bedroht die Wüste Namib“. Darin ist gezeigt, welche Sturmfluten in historischer Zeit in dieser aktuell staubtrockenen Wüste stattgefunden haben.

Zitat: „… Die Phase mit den größten Niederschlägen ereignete sich dabei zwischen 1720-1850 zu Zeiten der Kleinen Eiszeit“

Wenn nicht nur das sich stetig wandelnde Klima – was könnte es zusätzlich sein?

In den Artikeln wird es eigentlich schon deutlich. Man sehe sich die Geschichte des ausgetrockneten Aralsees (Kasachstan) an und sieht sofort Parallelen – unabhängig von der Klimazyklik des sowieso regelmäßigen Austrocknens -:

·       Berbauunternehmen zweigen vom einzigen Zufluss in großen Mengen Wasser ab

·       Bauern machen es ebenso und entnehmen das restliche Wasser zur künstlichen Bewässerung 

Das ist auch in Bolivien bekannt. Und was Bolivien dagegen tut, steht in einer Publizierung der Adenauer-Stiftung:

[6] Konrad Adenauer Stiftung 2014: Klimareport Lateinamerika Energiesicherheit und Klimawandel weltweit BOLIVIEN

Bolivien ist Weltspitze beim Ausstoß von Kohlendioxid – zumindest wenn man die Pro-Kopf-Emissionen betrachtet. Dies beruht im Wesentlichen auf der Freisetzung von großen Mengen Kohlenstoffs durch ungebremste Entwaldung des Tieflandes sowie der allgegenwärtigen Praxis der landwirtschaftlichen Brandrodungen.

Zu den weiteren Folgen des Klimawandels gehört das häufigere Auftreten von extremen Wetterereignissen wie Dürren oder Überschwemmungen. Beides sind natürliche Erscheinungen in Bolivien, die stark vom El-Niño- bzw. La-Niña-Phänomen  beeinflusst werden, sich jedoch in den letzten Jahren verstärkt bemerkbar machen.

So hat eine wissenschaftliche Studie kürzlich festgestellt, dass die Trockenzeit sich innerhalb der letzten 30 Jahre um drei Wochen verlängert und sich die Regenzeit entsprechend verkürzt hat. Da die Gesamtniederschlagsmenge ungefähr konstant geblieben ist, sind die Regenfälle heftiger und führen durch den verstärkten Abfluss zu mehr Erosion und Überschwemmungen.

Die ländliche und indigene Bevölkerung sieht sich mit der Tatsache konfrontiert, dass der jahreszeitliche Rhythmus des Klimas zunehmend durcheinander gerät. 2013 regnete es beispielsweise während der Trockenzeit jeden Monat für mehrere Tage, was absolut unüblich ist.

Und dann kommt eine wesentliche Aussage:

Die Vereinten Nationen werden von Bolivien als effektiver Mechanismus gesehen, den Belangen eines kleinen Landes weltweit Gehör zu verschaffen. So werden seit vielen Jahren von der Regierung Morales die VN-Klimaverhandlungen als Bühne genutzt, um die eigenen Positionen zu präsentieren, sich als Opfer des Klimawandels darzustellen und die industrialisierten Länder des Nordens als Hauptverantwortliche anzuklagen. So erlangte man bisher zwar weltweite Medienaufmerksamkeit, jedoch keine konkreten Ergebnisse

Germanwatch interessiert so etwas nicht. In ihrem Klimaschutz Aktionsheft 2012 steht (wie im Heft steht: gefördert durch das Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung):

Die Bevölkerung Boliviens ist direkt von den Folgen eines Klimawandels betroffen, den sie nicht verursacht hat. Ihr möchtet, dass die Industrienationen sofort Verantwortung für ihr Handeln übernehmen und einen Anpassungsfonds finanzieren, der für die Schäden, die nicht mehr abgewendet werden können, aufkommt. Ihr fordert vehement globale Gerechtigkeit und den Schutz der Rechte von „Mutter Erde“.  

Aber wie immer helfen besorgte Klimaretter-NGOs den vom Klimawandel bedrängten:

[13] Global Nature Fund Living Lakes

Der weltweite Klimawandel macht sich auch in Bolivien bemerkbar: Seit Jahren lässt sich am Titicaca-See ein Sinken des Wasserspiegels beobachten. Deshalb wurde die Stadt La Paz vom Global Nature Fund bei der Erarbeitung einer Klimastrategie unterstützt und Umweltbildungsmaßnahmen zum Klimawandel umgesetzt.

Mit dem Einsatz neuer Medien, z. B. einer Software für die Berechnung des „CO2 – und Wasserfußabdruckes“ und eines Filmfestivals wurden viele junge Leute motiviert, sich mit dem Thema zu befassen. 

Darauf muss man kommen. Software „für die Berechnung des CO2-Fußabdruckes“ an Entwicklungsländer mit unfähigen Regierungen als Lösung für Probleme mit Klimaschwankungen und Natur-Raubbau zu geben.

Aber gut, Deutschlands Regierung ist nicht besser wie man anhand der CO2-Vermeidungsunterstützung für die Malediven sehen kann „Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 1“.

Fazit

Ob die Ursache des „Verschwindens“ dieses Sees in Bolivien wirklich dem CO2-Ausstoß der westlichen Länder anzulasten ist und deshalb von diesen als Selbstverständlichkeit Klimaschäden- Strafzahlungen gefordert werden können wie es Germanwatch mit „Imprimatur“ eines Bundesministeriums schreibt, möge jeder Leser selbst entscheiden.

Quellenverzeichnis

[1]

kaltesonne 13. Februar 2016: Um Antwort wird gebeten: Lago Poopó-Ente jetzt auch im SRF – Warum hat der Faktencheck versagt?

http://www.kaltesonne.de/um-antwort-wird-gebeten-lago-poopo-ente-jetzt-auch-im-srf-warum-hat-der-faktencheck-versagt/

[2]

kaltesonne 11. Februar 2016:  Skandal in Bolivien: Der Klimawandel trocknet den zweitgrößten See des Landes aus, wie die Bildzeitung am 19. Dezember 2015 mit fetter Schlagzeile meldete

http://www.kaltesonne.de/die-gute-nachricht-raubtiere-helfen-bei-der-anpassung-an-den-klimawandel/

[3]

Bild 18.12.2015: Zweitgrößter See trocknet aus  Klima-Drama in Bolivien!

http://www.bild.de/politik/ausland/klimawandel/bolivien-laesst-der-klimawandel-den-lago-popoo-austrocknen-43850606.bild.html

[4]

Lokalausgabe der Nordbayerischen Nachrichten vom 11. Februar 2016: Riesiger See ist verschwunden

Praktisch gleicher Artikel bei: Hessische/Niedersächsische Allgemeine (HNA): Der Poopó verschwindet Dramatisch: Boliviens zweitgrößter See ausgetrocknet

http://www.hna.de/welt/boliviens-zweitgroesster-ausgetrocknet-zr-6108102.html

[5]

Handelsblatt 23.01.2016: Der See weicht der Wüste

http://www.handelsblatt.com/technik/energie-umwelt/poop-see-in-bolivien-der-see-weicht-der-wueste/12867856.html

[6]

Konrad Adenauer Stiftung: Klimareport Lateinamerika Klimareport 2014 Energiesicherheit und Klimawandel weltweit

[7]

http://paldhous.github.io/climate-change/

[8]

WIKIPEDIA: Lake Poopó

https://en.wikipedia.org/wiki/Lake_Poop%C3%B3

[9]

Hydrological Sciences Journal  19 Jan 2010:   RAMIRO PILLCO ZOLÁ & LARS BENGTSSON (2006) Long-term and extreme water level variations of the shallow Lake Poopó, Bolivia, Hydrological Sciences Journal, 51:1, 98-114

[10]

BUNDESMINISTERIUM FÜR FORSCHUNG UND TECHNOLOGIE (01 QF 072/15) SCHLUSSBERICHT, F. Künzel und A. Kessler: Untersuchungen über rezente Wasserhaushaltsschwankungen auf dem Altiplano zur Erklärung spätglazialer Klimabedingungen

[11]

ScienceScepticalBlog 12. März 2012: Polemik zum deutschen Qualitätsjournalismus: „Unentwegt quellen gereinigte Rauchgase aus den neun Kühltürmen“

[12]

dpa Pressemitteilung 11.06.2015: dpa ernennt neue Regionalbüroleiter in Rio de Janeiro und London

[13]

Global Nature Fund Living Lakes Jahresbericht 2013/2014: Kampf gegen den Klimawandel am Titicacasee

[14]

QUATERNARY RESEARCH 47, 169 – 180 (1997), MARK B. ABBOTT et al: A 3500 14C yr High-Resolution Record of Water-Level Changes in Lake Titicaca, Bolivia/Peru