1

Mietervertreibung für das Klima – Eine weitere Folge der Energiewende

Teil 1: Die gesetzlichen Instrumente

1.1 Die Energieeinsparverordnung EnEV

Die Verordnung und das Gesetz sollen den Verbrauch von vorwiegend fossilen Energieträgern für das Heizen privater und öffentlicher Gebäude vermindern und damit der geplanten Absenkung der CO2-Emissionen dienen. Die EnEV wurde 2002 erlassen (Lit.1). Zwischenzeitlich wurde sie mehrfach mit dem Ziel novelliert, zuletzt 2013, insbesondere die Forderungen an die Wärmedämmung und die Heizsysteme der Gebäude, weiter zu verschärfen .

Beide gesetzlichen Maßnahmen stehen deutlich seltener als das EEG im öffentlichen Fokus, obwohl die durch diese gesetzlichen Maßnahmen verursachten Kosten für die Haus- und Wohnungseigentümer und anschließend auch für die Mieter in die Milliarden gehen. Nach vielen negativen Erfahrungen, die insbesondere die nicht eingetroffenen Einsparungseffekte sowie auch negative Auswirkungen der Fassadendämmung betreffen, hat sich nun deutliche Kritik erhoben, die sich insbesondere in Fernsehberichten niederschlug.

„Wärmedämmung – der Wahnsinn geht weiter“ und „Wärmedämmung – die große Energiesparlüge“.

Das waren die Titel umfangreicher Berichte im NDR (Lit.2; 3) und im WDR (Lit.4; 19), die schonungslos die überwiegende Nutzlosigkeit der teuren Dämmungsmaßnahmen, aber auch die damit verbundenen Gefahren offenlegten. Die folgenden Ausführungen beruhen weitgehend auf diesen Berichten.

1.2 Das Erneuerbare- Energien-Wärme-Gesetz EEWärmeG

Zweck des am 01.01.2009 in Kraft getretenen EEWärmeG ist 1. der Klimaschutz, 2. die Schonung fossiler Ressourcen, 3. die Senkung von Energieimporten, 4. die Weiterentwicklung von Technologien zur Erzeugung von Wärme und Kälte aus „Erneuerbaren Energien“ EE und 5. bis 2020 den EE-Anteil am Endenergieverbrauch für Wärme und Kälte auf 14% zu erhöhen (Ist 2011: 10,2%). Es ist damit das zentrale regulatorische Instrument, um den Einsatz von EE im Gebäudesektor und weitere Maßnahmen voranzutreiben.

Die bei derartigen Zwangsmaßnahmen eintretenden Reaktionen der Betroffenen beklagte die Bundesregierung bereits 2012 in einem „Erfolgsbericht“ des BMU (40): „Es zeigten sich sogar rückläufige (!) Trends beim EE-Anteil an Sanierungsmaßnahmen.“ Offenbar versuchen die Bürger nicht nur mit der Verschiebung von eigentlich fälligen Erneuerungen ihrer Heizungsanlagen den Einbau teurer EE-Anlagen zu vermeiden; sie haben alte Anlagen repariert und sie zum Teil wiederum unauffällig durch funktionierende Anlagen ersetzt. Diese Zwangsmaßnahmen führen mit Sicherheit dazu, dass sich ein Schwarzmarkt für die Installation von Heizungsanlagen entwickelt, die keine EE-Anlagen einbeziehen, die aber sehr wohl aus modernen und effizienten konventionellen Anlagen – z.B. Brennwertkessel – bestehen können.

Bei Neuerrichtung von Gebäuden müssen die Eigentümer für die Erzeugung von Wärme und Kälte bestimmte Anteile an der gewählten „Erneuerbaren Energie“ nutzen (48 § 5, § 7). Die Mindestanteile sind u.a.: Für Solare Strahlung 15%; für feste Biomasse 50%; für Geothermie oder Umweltwärme 50%. Bei s.g. Ersatzmaßnahmen gilt ein Mindestanteil von 50% bei Nutzung von Abwärme oder KWK-Anlagen. Als Ersatzmaßnahmen kann z.B. auch die zusätzliche Einsparung von Energie durch besonders gute Wärmedämmung der Gebäudehülle angerechnet werden, wenn der jeweilige Höchstwert des Jahres-Primärenergiebedarfs nach der EnEV um mindestens 15% unterschritten wird. Fernwärme und Fernkälte gelten nur dann als Ersatzmaßnahme, wenn sie zu einem wesentlichen Anteil aus EE oder zu mindestens zu 50% aus der Nutzung von Abwärme oder von KWK-Anlagen oder aus einer Kombination der drei Varianten stammt.

Auch von E. Gawel et al (Lit.10) wird diese Entwicklung beklagt: „Kritisch bei einer anlassbezogenen Nutzungspflicht (Anm.: einer Modernisierung) im Bestand sind die möglichen Auswirkungen auf die Heizungs-Modernisierungs-Rate, soweit Investoren Sanierungen hinauszögern, um den gesetzlichen Geboten bei unzureichender Wirtschaftlichkeit zu entgehen“.

Die Öko-Bürokratie in den Berliner Ministerien wird diesen logischen Reaktionen der Betroffenen auf die gesetzlich vorgeschriebene Installation unwirtschaftlicher Anlagen sehr wahrscheinlich mit Verschärfungen begegnen. Das könnte vor allem einer Ausdehnung der EnEV und des EEWärmeG auf alle Bestandsgebäude bedeuten. Die wirksamste und wahrscheinlichste neue Zwangsmaßnahme wird vermutlich eine Modernisierungspflicht für alle Heizungsanlagen sein, die ein bestimmtes Alter erreicht haben, wobei dann EE-Anlagen eingesetzt werden müssen.

Die Deutsche Energie-Agentur GmbH (dena) und die Allianz für Gebäude-Energie-Effizienz (geea) haben sich bereits für eine „deutliche Verschärfung der Anforderungen an Neubauten“ ausgesprochen.

Der Bundesrat hat – wie auch die geea – die Bundesregierung aufgefordert, das Ordnungsrecht zur Energieeffizienz von Gebäuden zu vereinfachen, indem die EnEV und das EEWärmeG zusammengelegt werden. Das bildet dann auch die Gelegenheit, endlich alle Bestandsgebäude diesen Regelungen zu unterwerfen.

(Anm.: Die dena gehört zu 50% dem Staat, zu 26% der mehrheitlich bundeseigenen Kreditanstalt für Wiederaufbau KfW. Die geea wurde von der dena gegründet und versteht sich als „Plattform der Akteure (Anm.: Profiteure) in den Branchen Bauen und Energie“; sie wird von der dena koordiniert.)

Teil 2: Die Maßnahmen und ihre Bewertung

A) Die Rolle der Hersteller von Dämmstoffen ( Lit.5; 15; 16) )

Über 80% der Häuser, die eine Dämmung der Außenwände bekamen, wurden mit dem Dämmmaterial Polystyrol – bekannt als Styropor – verkleidet. Dieses Material kostet etwa die Hälfte der Mineralwolle, was ihre bevorzugte Verwendung erklärt. Dieser Markterfolg ist aber auch durch die massive Werbung der Polystyrol-Hersteller erreicht worden, die ganz außerordentliche Energieeinsparungen verkünden: So wirbt der Fachverband Wärme-Verbundsysteme WDV mit einer 50-prozentigen Einsparung durch die Fassadendämmung.

Der Leiter der Deutschen Energieagentur dena, Stephan Kohler, nannte sogar einen erreichbaren Einsparungswert von enormen 70%. Das habe eine Studie ergeben, an der sich auch Dämmstoffhersteller – z.B. die BASF – mit Fördermitteln beteiligt hätten. Die dena gehört allerdings zu 50% dem Staat, zu 26% der mehrheitlich bundeseigenen Kreditanstalt für Wiederaufbau KfW. Ob diese Abhängigkeit zu dieser extremen Aussage führte, die nicht einmal von den Materialherstellern benutzt wird, sei dahingestellt.

WDV-Verbandschef Wolfgang Setzler nannte im TV-Interview des WDR eine Amortisationszeit von 8 Jahren. Dann hätten die Einsparungen alle Dämmungs-Kosten ausgeglichen. In Abschnitt E.) „Bewertung durch Wissenschaftler“ findet man allerdings gänzlich andere Zahlen (s.u.).

Polystyrol ist offenbar brandgefährlich. Versetzt mit Flammschutzmitteln und oberflächlich geschützt durch eine Putzschicht gelten Wärmeverbundsysteme mit diesem Kunststoff als „schwer entflammbar“. Doch sie sind brennbar, wie das Ergebnis eines Brandversuchs für die 45-Minuten- NDR-Dokumentation „Wärmedämmung – Der Wahnsinn geht weiter“ (Lit.2) zeigte. Näheres unter Absatz C.) „Wärmedämmung und Brandgefahr“.

B.) Die Rolle der Energieberater ( Lit. 2; 17)

Zu dem Markterfolg trugen auch die Energieberater bei, die als unabhängige Fachleute auftreten, jedoch oft keine sind und dazu auch nicht frei von Eigeninteressen. Sie sollen eigentlich Hausbesitzern helfen, Geld zu sparen und die Umwelt zu schonen. Tatsächlich verdienen viele ihr Geld auch mit der Planung und Beaufsichtigung der von ihnen selbst empfohlenen Sanierungsmaßnahmen. Mit der Empfehlung einer Wärmedämmung können sie daher wesentlich mehr Geld verdienen als mit der bloßen Beratung.

Die Berater berechnen die Einsparmöglichkeiten einer Wärmedämmung gemäß der EnEV anhand des Wärmedurchgangskoeffizienten, des sog. U-Wertes. Jeder Dämmstoff hat einen durch Prüfungen ermittelten U-Wert. Je niedriger dieser U-Wert, desto wirksamer ist die Dämmung und damit die angeblich erzielbare Energieeinsparung – das ist das Bewertungsschema.

Aber diese schlichte Argumentationskette liefert keine realistischen Ergebnisse, kritisiert Architekt Konrad Fischer, ein bundesweit bekannter Kritiker der Wärmeverbundsysteme. Er bemängelt, dass die in der EnEV festgeschriebenen Berechnungsmethoden nicht alle wesentlichen Faktoren berücksichtigen. So spielt die Wärmedurchlässigkeit von Fenstern, Türen und Dach eine wichtige Rolle. Außerdem hätten die verschiedenen Materialien auch bei gleichem U-Wert verschiedene Energiespeicher-Eigenschaften, die für eine Entscheidung für oder gegen eine Wärmedämmung des Gebäudes sehr wichtig sei.

So heizt sich eine massive Backsteinfassade tagsüber langsam auf und speichert die Wärme lange. Abends gibt sie immer noch Wärme ab und spart Heizwärme. Die zumeist leichtgewichtigen Wärmeverbundsysteme – Extrembeispiel Styropor – erkalten in der Nacht rasch, weil ihre Speicherfähigkeit gering ist. Diese Eigenschaften bleiben bei den o.g. Berechnungen unberücksichtigt, obwohl sie von zentraler Bedeutung sind, sagt Konrad Fischer.

Er weist außerdem auf einen weiteren Fehler bei den Energieberatungen hin: Es wird oft ein zu hoher bisheriger Energieverbrauch angenommen. Das geht durch, weil die meisten Hausbesitzer diese Zahl nicht kennen. Mit dem U-Wert der empfohlenen Dämmung wird dann eine eindrucksvolle theoretische Energieersparnis berechnet, die den Hausbesitzer überzeugen soll.

Frank Essmann, selbst Energieberater, nennt einen weiteren Trick: „Man setzt die voraussichtliche jährliche Steigerung der Energiekosten sehr hoch an, dann hat sich die Sanierung auf dem Papier sehr schnell gelohnt. Oder man verzichtet darauf, alle Schwierigkeiten bei der Fassadenverkleidung aufzulisten – etwa komplizierte Ecken und Überhänge. Auch die Gerüstkosten werden häufig nicht eingerechnet und dann kann eine Sanierung, die vielleicht mit 60.000 € kalkuliert wurde, auf einmal 100.000 € teuer sein.“ Das liege auch daran, dass viele sogenannte Energieberater nur oberflächliche Wochenendkurse belegten, bemängelt Essmann. Die Software, mit denen sie das angebliche Energiesparpotenzial berechnen, werde zudem häufig von den Dämmstoffherstellern programmiert. (Lit.19). Wie man die für eine solche Tätigkeit erforderlichen Kenntnisse in der außerordentlich komplexen und anspruchsvollen Bauphysik in solchen Kursen erwerben kann, müsste der Bundesbauminister einmal erläutern.

Der Hauptfehler liege aber in den Vorgaben der Energie-Einsparverordnung, sagt Essmann. „Das was ich (auf Grund dieser Vorgaben) technisch ausrechne, ist der sogenannte Energiebedarf. Der kann von dem tatsächlichen Energieverbrauch des Gebäudes in den vergangenen Jahren deutlich abweichen.“ Verbraucht das Gebäude vor der Dämmung bereits viel weniger Energie als berechnet, dann sind auch die tatsächlich erzielbaren Einsparungen an Energie und an Energiekosten viel geringer. Entsprechend verlagert sich der Zeitpunkt, an dem die geringen Kosteneinsparungen die teure Dämmaktion bezahlt haben, in eine ferne Zukunft (siehe dazu unten die Bewertungen der Wissenschaftler).

C.) Wärmedämmung und Brandgefahr

Die Berichterstattung über Brände, an denen Polystyrol als Verkleidungs- oder Dämm-Material entscheidend beteiligt war, gefällt dem Herstellerverband WDV nicht. Die NDR-Redaktion empfand die Reaktion der Wärmedämm-Lobby auf ihre umfangreiche Dokumentation vom November 2012 (2) als „ungewöhnlich massiv“. Die gut vernetzte Branche hätte „mit den verschiedensten Mitteln versucht, Einfluss auf die Berichterstattung zu nehmen: Ob über anwaltliche Schreiben, das gezielte Eingreifen in eine Hörerbefragung oder Kampagnen-Vorwürfe“. ( Lit.4 ).

Die Sendung vom November 2012 (2) stellte anschließend Augenzeugen der verschiedenen Brandereignisse mit ihren Berichten vor. Ein besonders tragischer Fall war der Brand auf dem Flughafen Düsseldorf im Jahre 1996, der 17 Menschen das Leben kostete. Der Experte Bernd Haarmann, damals Brandschutzexperte vor Ort, erklärte, dass 8 cm dicke Polystyrolplatten „in großem Maßstab in die Zwischendecke eingebaut“ waren und dass dieses Material sowohl „für die rasende Ausbreitung des Feuers als auch für den hoch toxischen Rauch verantwortlich war“. Die Opfer seien an diesen Rauchgasen erstickt.

Nur für öffentliche Gebäude, z.B. Krankenhäuser, gebe es eine Sonderbauverordnung in der Landesbauordnung NRW, die die Verwendung brennbaren Materials verbietet. Polystyrol darf deshalb dort nicht eingesetzt werden. Haarmann: „Normalerweise sollte es auch in Ein- und Zweifamilienhäusern verboten werden.“

Der WDR brachte ein weiteres Beispiel: Am 22.12.2012 gab es in einer Wohnung in Weißwasser einen Brand. Frank Wolsch von der Feuerwehr Weißwasser schilderte den Vorfall: Die Flammen hätten schnell auf die Fassade übergegriffen; das Feuer sei schnell nach oben gegangen; die Balkonverkleidung hätte gebrannt. Brennendes Material sei herabgetropft und habe einen „brennenden See“ gebildet. Es habe 9 Verletzte gegeben. Das Löschen einer derart wärmegedämmten Fassade sei sehr schwierig, weil sie durch den Unterbau hinterlüftet ist und damit eine Kaminwirkung für das Feuer vorliegt. Nach der Wirkung von Brandschutzriegeln befragt, erklärte er, dass die Flammen von außen über diese Barriere überspringen.

Im NDR-Beitrag „Wärmedämmung: Ignoranz der Brandgefahr“ ( Lit.13) wurde der Vorfall im Hamburger Schanzenviertel, der Ende November 2013 geschah, beschrieben: Zunächst habe eine Mülltonne gebrannt. Als die Feuerwehr nach wenigen Minuten eintraf, hatten sich die Flammen bereits bis in das Dachgeschoss des sechsstöckigen Altbaus gefressen. „Wir konnten das in dem Moment nicht fassen, wie so ein kleines Feuer so explosionsartig nach oben schnellen konnte“, sagte Brigitte Seibold, die hinter dem Gebäude wohnt. Wie ein Fahrstuhl hätten sich die Flammen in einem Schacht nach oben bewegt, berichtete eine weitere Anwohnerin. Schnell hatte sich das gesamte Gebäude mit giftigen Rauchgasen gefüllt, so dass die Treppe als Fluchtweg ausfiel. Neun Menschen wurden mit der Drehleiter gerettet. Die Einsatzleitung war ratlos: Wie konnte sich ein kleiner Mülltonnenbrand so rasant ausbreiten? Am nächsten Tag die Gewissheit: Der rückwärtige Lichtschacht war kurz zuvor mit Polystyrol gedämmt worden. Im NDR-Bericht wird weiter berichtet, dass „immer wieder wärmegedämmte Gebäude brennen“.

Weiter heißt es: „In Delmenhorst traf es 2011 gleich fünf Mehrfamilienhäuser, die komplett ausbrannten, weil Jugendliche zwei Verschläge angezündet hatten. 200 Menschen wurden obdachlos. Bekannt wurden bisher über 50 Brände von Fassadendämmungen aus Polystyrol, die genaue Zahl kennt niemand, denn eine offizielle Statistik gibt es nicht.“

„Nach einem Großbrand 2012 in Frankfurt – dort brannte die noch unverputzte Fassade eines größeren Gebäudes – äußerte sich der Chef der dortigen Feuerwehr und forderte, die Zulassung für Polystyrol als Dämmstoff zu überprüfen. Folgenlos. Zwar wurde das Material Thema bei der Bauministerkonferenz; geändert wurde nichts“. (Lit.13).

Aus dem NDR-Bericht: „Die Autoren der NDR-Dokumentation haben einen Brandversuch in der Materialprüfanstalt Braunschweig durchführen lassen. Ein Fachbetrieb hatte dort das Wärmedämmverbundsystem eines Markenherstellers aufgebaut. 20 Minuten hätte es der Einwirkung heftig lodernder Flammen standhalten müssen. Doch das System fing so schnell Feuer, dass der Versuch bereits nach acht Minuten außer Kontrolle geriet. Die Feuerwehr musste wegen der heftigen Flammen und extremer Rauchgasentwicklung unter Atemschutz umgehend löschen.

Entscheidend für die rasante Brandausbreitung könnte eine Abweichung im Prüfaufbau gewesen sein. Für den Versuch wurde bewusst auf den Einbau eines sog. Brandschutzstreifens aus nicht brennbarer Mineralwolle über dem simulierten Fenstersturz verzichtet. Der Verzicht spiegelt die Praxis wieder – bei der Wärmedämmung wird entweder ganz oder teilweise auf Brandschutzstreifen verzichtet. Das kann verheerende Folgen haben wie etwa im November 2011 in Delmenhorst (s.o.)….oder im Mai 2012 in Frankfurt… (s.o.)“.

Die oben erwähnten Brandriegel oder Brandschutzstreifen sind 10 – 20 cm breite Streifen aus nicht brennbarer Steinwolle, die in regelmäßigen Abständen im Gebäude verbaut werden können. Wie oben berichtet, werden sie keineswegs regelmäßig angebracht. Aber auch Ihr praktischer Nutzen ist bereits zweifelhaft geworden, denn im Hamburger Schanzenviertel – s.o. – gab es sie. Es half nichts.

D) Das Ignorieren der Bauphysik bringt den Schimmel

Wie im oben beschriebenen Fall droht allen Bewohnern durch Außendämmung sanierter Häuser die Schimmel-Gefahr. Man hat es mit der Bauphysik zu tun, die im Falle einer ungenügenden oder fehlenden Wasserdampf-Durchlässigkeit häufig zu Schäden durch Durchfeuchtung und Schimmel führt.

Wenn vor der Fassadendämmung neue Fenster eingebaut wurden, droht Schimmel an den Wänden, wenn sich die Bewohner jetzt nicht an einen strikten Lüftungsplan halten, warnt der Bauphysiker Essmann. „Bei alten Fenstern war das Lüftungsverhalten egal; die haben sich automatisch gelüftet. Bei neuen Fenstern müsste die Wohnung zwei- bis dreimal täglich komplett durchgelüftet werden. Das ist für viele, die berufstätig sind, kaum zu schaffen“. Weil moderne Fenster wesentlich besser dämmen als die Wände, schlägt sich die Raumfeuchtigkeit nicht mehr an den Scheiben nieder, sondern gerne in den Ecken.“

Wer das korrekte neue Lüftungsverhalten nicht leisten kann, müsste dann wohl die Thermostaten höher einstellen und die Wohnung stärker aufheizen. Energiesparen wäre das nicht. Oder eine Zwangsbelüftung des ganzen Hauses muss installiert werden – mit erheblichem Komfortverlust und zusätzlichen Mietkosten.

Wer dies vermeiden will und an einer Wärmedämmung interessiert ist, die einen geringeren Heizungsaufwand bei Erhalt eines angenehmen Raumklimas bewirkt, muss auf alte und jahrzehntelang erfolgreich angewandte Maßnahmen zurückgreifen: Dickere Wände, die mehr Masse für eine bessere Wärmespeicherung besitzen, dampfdurchlässig sind, das Eindringen der durch die Sonnenstrahlung erzeugten Wärme in die Außenwände erlauben und damit die Schwankungen der Außentemperatur besser ausgleichen. Wer hingegen allein auf den U-Wert schaut und ohne wandverstärkende Ziegel auskommen will, sollte das Material Steinwolle wählen und dessen Mehrkosten nicht scheuen.

Aber bevor überhaupt über die Außenwände und die Fassade als Gegenstand von Energiesparmaßnahmen nachgedacht wird, sollten die besseren Alternativen realisiert werden, die von den Bauphysikern empfohlen werden – siehe unten.

E.) Bewertung der Wärmedämmungsmaßnahmen durch Wissenschaftler

Prof. Jens Fehrenberg von der Hochschule Hildesheim hat sich viele Jahre mit dem Thema Wärmedämmung befasst. Seine grundsätzliche Warnung: „Es ist ein verbreiteter Irrtum, dass mit einer Wärmedämmung Energie eingespart wird.“ (Lit.2). Die Dämmung verhindere nicht den Durchgang der Wärmeenergie, sondern verlangsame ihn nur.

Die Konsequenz einer Wärmedämmung für die Bewohner sei ein geändertes Verhalten: Es muss mehr gelüftet werden (s.o.). Unterlässt man das, erhöht sich der Energiebedarf sogar, weil feuchte Luft mit mehr Energie aufgeheizt werden muss.

Selbst der Geschäftsführer des Fachverbandes Wärmedämm-Verbundsysteme, Wolfgang Setzler, sprach in der WDR-Sendung die Mahnung aus, „dass wir auch mit der Übertreibung der Einsparquoten aufhören müssen“.

Prof. Fehrenberg und die WDR-Expertin Sabine Brinkenstein halten die Bevorzugung der Wärmedämmung bei einer beabsichtigten Verringerung des Energiebedarfs für Gebäude für falsch. Die effizienteste, wirtschaftlichste Reihenfolge von Sanierungsmaßnahmen sei:

1.     Wärmedämmung des Dachs

2.     Dämmung der Kellerdecke

3.     Einbau einer hocheffizienten Heizungsanlage

4.     Modernisierung der Fenster

5.     Dämmung der Außenwände – die somit an letzter Stelle rangiert.

Sein oben angeführtes Rechenbeispiel von Bosfeld/Hannover beruht auf dieser Bewertung, die durch die Schilderungen der Betroffenen bekräftigt wird. Die Kosten aller dieser Maßnahmen zusammen sind enorm – siehe das oben beschriebene, geradezu irrwitzige Beispiel aus Berlin (Lit.6).

In der Studie von Prof. Simons, Forschungsinstitut empirica, Berlin, „Energetische Sanierung von Ein- und Zweifamilienhäusern“ (Lit.7) wurden zur Beurteilung des energetischen Zustands der Gebäude in die Berechnungen die Heizungsanlage, Fenster, Außenwanddämmung, obere Geschossdecke/Dach und Fußboden/Kellerdecke einbezogen. Zusammengefasst kommt die Studie zum Ergebnis, dass eine energetische Sanierung im Regelfall unwirtschaftlich ist, da die eingesparten Energiekosten nicht die Kosten dieser Sanierung decken. Der mittlere Energieverbrauch von nicht wesentlich modernisierten Ein- und Zweifamilienhäusern beträgt 167 kWh/(m²a). Bei Energiekosten von 0,08 €/kWh belaufen sich die Energiekosten vor Sanierung auf 13,36 €/(m²a). Unterstellt, durch eine energetische Sanierung ließen sich tatsächlich 60 % der Energie einsparen – ein ambitioniertes Einsparziel, das in der Realität nur selten erreicht wird – so sinken die Energiekosten um 8,01 €/(m²a). Innerhalb von 15 Jahren summierten sich die eingesparten Energiekosten entsprechend auf 120 €/m² und damit bei Weitem nicht auf die Sanierungskosten, die bereits bei einfachen Fällen zwischen 300 und 500 €/m² liegen.

Auf einer Fachtagung zur Gebäudesanierung stellte Prof. Simons fest (8):

„Eine Sanierung trotz noch relativ gutem Zustand der Bauteile macht wenig Sinn“. Und weiter: „Besonders die Materialkosten der energetisch relevanten Bauprodukte sind in den Jahren 2000-2011 zwischen 10 und 50% angestiegen“.

Auch eine aktuelle Studie der Kreditanstalt für Wiederaufbau KfW beleuchtete das Dilemma steigender Bauproduktpreise und deren Auswirkung auf die dadurch weiter sinkende Wirtschaftlichkeit energetischer Modernisierungs-Maßnahmen (Lit.11). Hierzu M. Kleemann, Jülich: „Neben der oftmals sehr knappen Wirtschaftlichkeit energetischer Sanierungsmaßnahmen mit Amortisationszeiten von über 25 Jahren ist auch das „Dilemma der mittleren Qualität“ ein Problem. Das Anforderungsniveau … wird nur zu 69% umgesetzt“.

Da die EnEV seit Jahren großräumig in allen Teilen des Landes angewendet werden muss, führt sie folglich zu einer extrem aufwendigen Umhüllung der Fassadenflächen, die zugleich die am wenigsten geeignete Maßnahme für eine Energieeinsparung darstellt.

Die Kosten, die die Vermieter ggf. auf die Mieter abwälzen können, sind erheblich, und werden bis zum Ende des Programms 2050 ca. 3 Billionen € allein durch die Fassadendämmung erreichen. Da die Dämmung oft mit einer ohnehin notwendigen Renovierung der Fassade einhergeht, werden die für die EnEV aufzuwendenden Beträge in der Regel weniger sichtbar. Kaum einer der Auftraggeber der Dämmmaßnahmen macht sich die Mühe diese Kosten herauszurechnen. So fehlt die Transparenz. In so gut wie in keinem Fall rechnen sich die Investitionen innerhalb der in der EnEV vorgegebenen Amortisationszeit von 10 Jahren.

Teil 3: Erfahrungen und Folgen für Hausbesitzer und Mieter

Die Berichte der beiden TV-Sender zeigen mehrere Beispiele für Wärmedämmaktionen in Siedlungen, die ohne merkliche Energieeinsparungen blieben, aber erhebliche Kosten verursachten. Während die Eigenheimbesitzer darauf hoffen, ihre Investitionen durch eine Heizkostenersparnis zu refinanzieren, können Vermieter die Kosten mit 11% pro Jahr 1:1 auf ihre Mieter umlegen. Deren Miete steigt beträchtlich; auf die versprochenen Einsparungen bei ihren Heizkosten warteten die präsentierten Mietparteien vergeblich.

Ein spektakulärer Fall ereignete sich im Stadtteil Bosfeld von Hannover, wo drei Häuser einer Siedlung mit Fassaden-Wärmedämmung saniert werden sollten. Man agierte allerdings vorsichtig und übertrug Prof. Jens Fehrenberg, Bauingenieur, Sachverständiger und Professor an der Hochschule Hildesheim, die Aufgabe, ein erstes gedämmtes Haus dieser Siedlung mit seinem neuen Energieverbrauch für eine Zeit zu überwachen und es mit den anderen zu vergleichen. Das Ergebnis mehrerer Jahre war eindeutig: Die Fassaden-Wärmedämmung hatte absolut nichts gebracht. Daraufhin unterblieb die Sanierung der übrigen Häuser.

Prof. Fehrenberg rechnete in dem WDR-Beitrag ein Beispiel vor:

Wenn die jährlichen Kosten für die Heizung 2.500,- € betragen, können über eine Fassadendämmung nur 400,- € eingespart werden. Hat diese Dämmung 20.000,- € gekostet, dann dauert es 50 Jahre, bis die Einsparungen diese Investition ausgeglichen haben – im günstigsten Fall seien das 35 Jahre.

Dieses Rechenbeispiel gilt jedoch nur für Haus- und Wohnungsbesitzer. Mieter hingegen, deren Miete durch die Umlage der Dämmungskosten deutlich erhöht wurde, zahlen ohne eine adäquate Verringerung ihrer Heizkosten vom ersten Monat an nur drauf – und dieser Verlust steigt unablässig weiter an. Dazu kommen die unten beschriebenen weiteren Nachteile.

Die energetische Gebäudesanierung wird zum Instrument der Mietervertreibung

Die Regierung hat soeben ihre „Mietpreisbremse“ verkündet, die 2015 in Kraft treten soll.

Bei Neuvermietungen soll die Miete nur maximal 10 Prozent höher werden dürfen.

Für die vielen Mieter, die gerade die Opfer der energetischen Sanierung ihres Miethauses geworden sind, muss diese Ankündigung wie Hohn klingen, denn vor den oft unerträglich hohen Mietsteigerungen, die ihnen anschließend abverlangt werden, schützt sie die Regierung nicht – im Gegenteil: Sie hat diese Möglichkeit selbst durch die oben beschriebenen Gesetze geschaffen und sie will, dass bis 2050 der Energieverbrauch aller Häuser um 80 Prozent sinken soll. Begründung: „Klimaschutz“. Die Hausbesitzer dürfen jährlich 11 Prozent dieser Kosten auf die Mieten aufschlagen.

Was das bedeutet, hat das Erste Fernsehen gerade am 22.September in seiner Dokumentation „Der Mietreport – Wenn Wohnen unbezahlbar wird“ gezeigt (Lit.6). Im krassesten der Fälle wurde einer vierköpfigen Berliner Familie, die in einem älteren Haus zu einer Miete von 645 Euro wohnt, nach einer umfassenden Energie-Sanierung eine Mieterhöhung von 2.282 Euro präsentiert – insgesamt also 2.927 Euro, was eine Mietsteigerung um das 4,5-fache bedeutet.

Die Liste der in diesem Falle durchgeführten „Klimaschutz“-Maßnahmen:

♦  Außenwanddämmung

  Isolierglasfenster

  Wohnraumbelüftungsanlage

  Dämmung Kellerdecke und oberste Geschoßdecke

  Warmwasserbereitungsanlage mit Solarvakuumanlage

  Zentrale Gasheizungsanlage

  und dazu die laufenden Kosten für die Heizung und die Zwangsbelüftung.

Hier wurde keine der technisch überhaupt möglichen Maßnahmen ausgelassen und dieser Fall ist somit ein eindrucksvolles Beispiel für eine sowohl Handwerksbetriebe und Industrieunternehmen als auch die Klimaschutz-Ideologen beglückende komplette Energiesanierung eines Gebäudes dienen – und kann damit im Grunde nur Angst und Schrecken verbreiten.

Die Zwangsbelüftung wurde offensichtlich deshalb installiert, um Schimmelbildung zu verhindern, weil das wegen der dampfundurchlässige Styroporpanzerung drohte – siehe unten.

Rechtsberater klärten die entsetzten Mieter darüber auf, dass alles rechtens und gültig sei. Wie dieser Fall ausgeht, kann man sich vorstellen: Diese Mieter werden wohl ausziehen müssen. Das wäre dann eine Vertreibung aus ihrer Wohnung durch eine angeblich dem Klimaschutz dienende Maßnahme. Man kann sich des Eindrucks nicht erwehren, dass genau das mindestens ein sehr erwünschter Nebeneffekt der totalen „Klimaschutzmaßnahme“ war.

Der zweite präsentierte Fall betraf eine Rentnerin aus Pankow, die in einem Mietshaus einer städtischen Wohnungsbaugesellschaft zu 385 Euro Warmmiete wohnt. Auch sie hat eine Energie-Modernisierungsankündigung erhalten und muss danach 596 Euro zahlen. Das sind 50 Prozent ihrer Rente.

Professor Andreas Pfnür, der Leiter des Instituts für Immobilienwirtschaft und Baubetriebslehre der TU Darmstadt, erläuterte in dieser Sendung (6) das Ergebnis seiner Studie zu den Folgen dieser Entwicklung: Wenn das politische Energie-Einsparziel von 80 Prozent bestehen bleibt und die energetischen Sanierungsmaßnahmen wie bisher weitergeführt werden, würde die Hälfte aller Mieter am Ende zwischen 45 und 50 Prozent ihres verfügbaren Einkommens für die Wohnung zahlen müssen. „Ich glaube, dass das in vielen Fällen nicht mehr funktionieren kann“, war sein Schlußwort.

Wie wir inzwischen von wissenschaftlichen Beratergremien der Regierung, vom Weltklimarat IPCC, von der EU-Kommission und von zahlreichen weiteren Fachleuten gesichert wissen, sind sämtliche „Klimaschutz“-Anstrengungen Deutschlands zur Verringerung der CO2-Emissionen wegen des EU-Zertifikatehandels völlig sinnlos. Die auf die EU bezogene Nettowirkung der deutschen Maßnahmen ist Null (Lit. 12). Dafür dürfen die Mieter ausgeplündert und auch aus ihren Wohnungen vertrieben werden. Die Abschaffung dieser unsinnigen Gesetze wäre die wahre Mietpreisbremse.

Teil 4: Schlussfolgerungen

Solarwärme und Erdwärme– die einzigen sinnvollen regenerativen Energien in Deutschland für die Heizung – wurden vernachlässigt

Der Wärmesektor ist jedoch der einzige Bereich, in dem in Deutschland die Energie der Sonnenstrahlung – und zwar auch ihr beträchtlicher Rot- und Infrarotanteil – wirtschaftlich genutzt werden kann.

Ferner bietet auch die Nutzbarmachung der Umwelt- oder Erdwärme zu Heizungszwecken – z.B. mittels der Wärmepumpen-Technik – eine weitere sinnvolle Anwendung für die regenerativen Energien in Deutschland – dies auch insbesondere in Verbindung mit der Solarwärmenutzung.

Bei einer konsequenten Förderung der betreffenden Forschung und Entwicklung (F&E) mit Fokus auf eine Senkung ihrer Investitions- und Betriebskosten stellt dies eine große Chance für eine importunabhängige und kostengünstige Klimatisierung der Gebäude dar. Die Regierung hat jedoch die Chance versäumt, diese erprobten Techniken konsequent und verlässlich zu unterstützen ; statt dessen hat sie ausschließlich ungeeignete und teure Techniken wie Windkraft, Photovoltaik und Biomasseanbau mit Verstromung extrem auf Kosten der Stromverbraucher gefördert. Mit massiven Umweltschäden, Stromversorgungsproblemen und zu immensen Kosten.

Der Versuch auch im Gebäudebereich die „Erneuerbaren“ für Techniken zur Erzeugung von Wärme und Kälte zu erschließen, beruht abermals auf Zwang und bevorzugt wiederum die unwirtschaftlichen, aber politisch-ideologisch gewollten EE-Technologien.

Zusammenfassend ist festzustellen:

1.     Sämtliche Maßnahmen der Regierung zur Realisierung ihrer Energiewende sind fatalerweise nicht nur in Bezug auf das große Ziel „Klimaschutz“ vollkommen wirkungslos, sondern sogar mit massiven Schäden für die Bürger, die Wirtschaft und die Umwelt verbunden. Auch die Gesetze und Verordnungen zur Verringerung des Wärmebedarfs in Gebäuden fügen sich nahtlos in die lange Reihe laienhafter und unprofessioneller Maßnahmen ein, die sogar zum Teil im Konflikt mit der Physik stehen und daher die Bewertung „Pfusch“ verdienen. Sie genügen allerdings den Ansprüchen von Ideologen, die über die Energiepolitik den Menschen ihr spezielles Gesellschaftsbild aufzwingen wollen.

2.     Die Energie-Einspar-Verordnung EnEV ist ein sehr stark von Lobbyinteressen – hier insbesondere die Dämmstoffindustrie – geprägtes gesetzgeberisches Machwerk, das die am wenigsten geeigneten technischen Maßnahmen für eine Senkung des Wärmebedarfs von Häusern an die erste Stelle gesetzt hat. Sie führt zu einer riesigen Verschwendung von Geld und Material bei gleichzeitig geringem oder nicht vorhandenem Nutzen für die Umwelt und für die Bewohner, jedoch mit sehr großen Mietkostensteigerungen für die von der energetischen Sanierung betroffenen Bewohner.

3.     Der politische Vorwand, diese Maßnahmen dienten dem „Klimaschutz“ ist erwiesenermaßen falsch.

4.     Es deutet sich an, dass die Regierung mit der Energieeinspar-Verordnung eine für Mieter älterer Wohnhäuser katastrophale Entwicklung in Gang gesetzt hat, die sämtlichen Lippenbekenntnissen zu bezahlbarem Wohnraum und Mieterschutz Hohn spricht: Die energetischen Sanierungen, gegen deren Durchführung es keine Rechtsmittel gibt, ermöglichen es Immobilienspekulanten, in erworbenen Altbauten durch extrem aufwendige Maßnahmen äußerst hohe Kosten zu produzieren und anschließend mit deren gesetzlich ermöglichter Umlage von jährlich 11 Prozent ebenso extreme Mieterhöhungen zu erzwingen. Die erwünschte Folge ist die schnelle und vollständige Räumung des Hauses. Unkündbare Mietverträge nutzen nichts mehr, wenn sich die Mieten verdoppeln oder – wie im oben vorgestellten Beispiel – mehr als vervierfachen. Die Regierung hat also nicht das Geringste für den sogenannten Klimaschutz geleistet, aber der unbegrenzten Vertreibung gerade der Mieter mit geringem Einkommen aus ihren Wohnungen Tür und Tor geöffnet.

Literatur, Quellen

(1) Energie-Einsparverordnung EnEV, http://www.gesetze-im-internet.de/enev_2007/

(2) NDR-Ratgeber-Verbraucher: „Wärmedämmung – Der Wahnsinn geht weiter“, mit 6 Themenartikeln und 2 Bildergalerien, 26.11.2012,

http://www.ndr.de/ratgeber/verbraucher/Waermedaemmung-Der-Wahnsinn-geht- weiter,waermedaemmung117.html

(3) NDR-Ratgeber Verbraucher: Nicolai Kwasniewski: „Die Folgen für Mieter und

Hausbesitzer“, 21.9.2011, http://www.ndr.de/ratgeber/verbraucher/waermedaemmung105.html

(4) NDR-Zapp: „Wärmedämm-Lobby: Erschwerte Berichterstattung“, 8.6.2014,http://www.ndr.de/fernsehen/sendungen/zapp/Waermedaemm-Lobby-Erschwerte-Berichterstattung.daemmlobby100.html

(5) WDR: Könnes kämpft: „Wärmedämmung – die große Energielüge“, 2.12.2013,http://www1.wdr.de/mediathek/video/sendungen/koennes_kaempft/videokoenneskaempft114.html (über Google suchen)

(6) Das Erste: „Der Mietreport – Wenn Wohnen unbezahlbar wird“, 22.9.2014,

http://www.ardmediathek.de/tv/Reportage-Dokumentation/Der-Mietreport-

Wenn-Wohnen-unbezahlbar/DasErste/Video?documentId=23639250&bcastId=799280

(7) Harald Simons: „Energetische Sanierung von Ein- und Zweifamilienhäusern“, empirica

Forschung und Beratung, Berlin, Okt. 2012

http://www.bausparkassen.de/fileadmin/user_upload/pdf_service/empirica_ Energetische_Sanierung.pdf

(8) „Klasse statt Masse? Die politischen Ziele der Gebäudesanierung in Deutschland“, Bericht

über eine Fachtagung im IÖR Dresden, Energiewirtschaftliche Tagesfragen 63. Jg. (2013)

Heft 11, S. 117-118

(9) BMU: „Erfolgsbericht zum Erneuerbare-Energien-Wärme-Gesetz“, Berlin, 2012

(10) E. Gawel et al: „EEWärmeG: Hindernisse und Potentiale für Biomethan im Wärmemarkt“,

Energiewirtschaftliche Tagesfragen 63. Jg (2013) Heft 11, S. 48-53

(11) KfW: „Ermittlung der Wachstumswirkungen der KfW-Programme zum energieeffizienten

Bauen und Sanieren“, Studie, Berlin 2013

(12) Erneuerbare-Energien-Wärmegesetz EEWärmeG,

http://www.gesetze-im-internet.de/eew_rmeg/

(13) NDR, Panorama 3: Güven Purtul: „Wärmedämmung: Ignoranz der Brandgefahr“, 10.12.2013,

www.ndr.de/nachrichten/hamburg/waermedaemmung205.html

(14) NDR, Panorama: Bastian Berbner, Christian Kossin, Güven Purtul: „Wärmedämmung:

Wie aus Häusern Brandfallen werden“, 5.7.2012,

http://daserste.ndr.de/panorama/archiv/2012/waermedaemmung193.html

(15) NDR: „Dämmen oder nicht dämmen?“, 26.11.2012,

www.ndr.de/ratgeber/verbraucher/waermedaemmung121_page-3.html

(16) NDR: „Gibt es Alternativen zur Polystyroldämmung?“, Interview mit Ing. Heike Böhmer,

26.11.2012, www.ndr.de/ratgeber/verbraucher/waermedaemmung199.html

(17) NDR, Florian Pretz: „Die Tricks der Energieberater“, 26.11.2012,

www.ndr.de/ratgeber/verbraucher/waermedaemmung115.html

(18) NDR, Nicolai Kwasniewski: „Die Mär von der CO2-Einsparung“, 26.11.2012,

www.ndr.de/ratgeber/verbraucher/waermedaemmung111.html

(19) NDR, Nicolai Kwasniewski: „Die Wärmedämm-Lüge“, 22.9.2011,

www.ndr.de/ratgeber/verbraucher/waermedaemmung107.html

Der Beitrag erschien zuerst bei Science Sceptical hier




Neue Studie: Globaler Temperaturtrend vor 1950 „bedeutungslos“ und „künstlich geglättet“

Die Korrespondenz räumt auf mit der Behauptung von Ji et al, dass „sich das globale Klima im vorigen Jahrhundert in einem beispiellosen Ausmaß erwärmt habe, ebenso wie mit der Zuverlässigkeit der HadCRUT-Datenbasis für die Bestimmung globaler Temperaturtrends der letzten 164 Jahre. Den Autoren zufolge können Schlussfolgerungen hinsichtlich der globalen Temperaturänderung vor den fünfziger Jahren nicht zuverlässig gezogen werden, und zwar wegen unzureichender räumlich-zeitlicher Auflösung vor dieser Zeit. Trends, die mit den frühen HadCRUT-Daten berechnet worden sind, sind „bedeutungslos“ und „künstlich geglättet“.

(Anmerkung der Redaktion:

Zu diesem Schuss kommt auch eine Studie unseres Autors M. Limburg (hier)

Genauso ist daher das „Frisieren“ aller Klimamodelle auf der Grundlage der „bedeutungslosen“ globalen Temperaturtrends vor den fünfziger Jahren ebenso „bedeutungsloser“ GIGO. [GIGO = Garbage In, Garbage Out]

Die Autoren schreiben:

Ji et al präsentieren ein Verfahren, um globale räumlich-zeitliche Verteilungen der Temperaturänderungen zu analysieren (mit Ausnahme der Antarktis). Dabei verwenden sie mittlere monatliche Temperaturwerte aus der aktualisierten hoch aufgelösten Klima-Datenbasis der Climate Research Unit CRU. Ihre Analyse zieht jedoch viele Schlüssel-Charakteristiken der CRU-Datenbasis nicht in Betracht, was die Schlussfolgerungen hinsichtlich der räumlich-zeitlichen Verteilung der globalen Erwärmung im 20. Jahrhundert schwer kompromittiert.

Als Konsequenz ist die zeitliche Auto-Korrelation solcher Zeitreihen künstlich hoch, und die klimatische Variabilität, die sie für die ersten Dekaden der Aufzeichnung darstellen, ist bedeutungslos.

…zeigt in hohem Maße, dass das Fehlen eines Trends während der ersten Hälfte des 20. Jahrhunderts in vielen tropischen und arktischen Gebieten dem Fehlen klimatischer Informationen und der daraus resultierenden geglätteten Zeitreihe zugeordnet werden kann…

…wir zeigen, dass die von Ji et al. gezeigten räumlich-zeitlichen Temperaturverteilungen stark verunreinigt sind durch die räumlichen und zeitlichen Ungleichartigkeiten der CRU-Datenbasis.

…dieses Problem betrifft die gesamte Analyse.

Künstlich geglättete Trends Anfang des 20. Jahrhunderts zeigen geringere Erwärmungstrends als in der zweiten Hälfte des 20.Jahrhunderts beobachtet (das heißt, es wird eine falsche Beschleunigung vorgespiegelt).

Falls das Ziel die globale Abdeckung ist, sollte die optimale Zeitperiode nicht vor den fünfziger Jahren beginnen, obwohl dies die Behauptung der Autoren kompromittiert, langfristige Trends zu zeigen“.

Hinweis des Übersetzers: Im Original folgen jetzt Auszüge aus dem Artikel bei Nature Climate Change, gefolgt von zwei Beiträgen von StevenGoddard wordpress.com. Darin werden die Probleme, die die Autoren dieses Beitrags in den HadCRUT-Aufzeichnungen entdeckt haben, illustriert. Dabei geht es beispielsweise um die merkwürdige Extrapolation von Phil Jones und HadCRUT eines einzelnen Thermometers in Tansania zu Beginn der HadCRUT-Reihe im Jahre 1850. Diese Werte sollten die gesamte südliche Hemisphäre repräsentieren, und das mit einer Präzision von einem Hunderstel Grad!

Link: http://hockeyschtick.blogspot.de/2014/09/new-paper-finds-global-temperature-data.html

Übersetzt von Chris Frey EIKE




Sollten andere Nationen Deutschlands Führung hinsichtlich der Förderung von Solarenergie folgen?

Vorbemerkung der Redaktion zu diesem Text:

Der Autor outet sich zwar als Anhänger der AGW-Theorie durch CO2, welches er als „größten Verschmutzer“ bezeichnet. Außerdem scheint er Anhänger der Windenergie zu sein. Trotzdem bringen wir seinen Beitrag, um zu zeigen, dass selbst unter absoluten Befürwortern der "Bekämpfung des Klimawandels" durch "Erneuerbare" (Besser: Nachhaltig Instabile Energien NIE) die Stromversorgung mittels Solarpanelen -jedenfalls bei klarem Verstand betrachtet- keinerlei Lösung für eine Industrienation sein kann. Dazu möge sich jeder seine eigene Meinung bilden.


Bild rechts: Ryan Carlyle, BSChE, Subsea Hydraulics Engineer

Ich war erschrocken zu sehen, wie nutzlos, kostspielig und kontraproduktiv die weltberühmte deutsche Energiepolitik ist. Das ist ein ernstes Problem für Deutschland, aber ein sogar noch größeres Problem für den Rest der Welt, die hoffen, in die deutschen Fußstapfen zu treten. Das erste Großexperiment hinsichtlich erneuerbarer Energie ist eine Katastrophe! Die riesige Größe des Scheiterns wurde erst im vergangenen Jahr immer klarer. Daher kann ich den Befürwortern der Erneuerbaren vergeben, dass sie dies noch nicht bemerkt haben – aber es ist für die grüne Bewegung an der Zeit, diesbezüglich eine 180°-Wende hinzulegen. [Das wird nie passieren, bevor D deindustrialisiert ist! Anm. d. Übers.]

Einige furchtbare Folgen, bevor ich ins Detail gehe:

• Deutschland wird weit verbreitet als global führend hinsichtlich Solarenergie angesehen mit über einem Drittel der weltweiten Spitzen-Solarenergie-Kapazität (1). In Deutschland gibt es pro Kopf zweimal so viel Solarkapazität wie im sonnigen, subventionsverwöhnten Kalifornien mit seinen hohen Energiekosten (das klingt zwar noch nicht so schlecht, aber abwarten!)

• Deutschlands Stromkosten betragen etwa 0,34 Dollar pro kWh, das ist eine der höchsten Raten in der Welt. Etwa 0,07 Dollar pro kWh gehen direkt in die Subventionen der Erneuerbaren, was tatsächlich höher liegt als der Großmarktpreis für Strom in Europa. (Dies bedeutet, dass man einfach Null-Kohlenstoff-Strom aus Frankreich und Dänemark für weniger Geld einkaufen kann als der eigene Null-Kohlenstoff-Strom an Subventionen verschlingt). Über 300.000 Haushalte pro Jahr sind Opfer von Stromabschaltungen, weil sie die Rechnung nicht mehr bezahlen können. Viele Menschen machen für die hohen Preise Ausnahmen für Unternehmen verantwortlich, aber die Eliminierung derselben würde den Haushalten im Mittel weniger als 1 Euro pro Monat einsparen. Die Stromkosten werden Vorhersagen der Regierung zufolge bis 2020 um weitere 40% steigen (2).

• Deutschlands Energieversorger und Steuerzahler verlieren riesige Geldsummen infolge exzessiver Einspeisetarife und Problemen beim Management des Netzes. Der Umweltminister sagt, dass die Kosten während der kommenden beiden Jahrzehnte eine Billion Euro betragen werden, falls das Programm nicht radikal gekürzt wird. Darin sind die hunderte Milliarden, die bis heute ausgegeben worden sind, noch nicht einmal enthalten (3). Siemens, ein wesentlicher Zulieferer für Ausrüstung für erneuerbare Energie, schätzte im Jahre 2011 dass sich die direkten Kosten der Energiewende* während ihrer Lebenszeit bis 2050 auf 4,5 Billionen Dollar belaufen. Das bedeutet, die Kosten werden etwa 2,5% des deutschen BIP ausmachen, und zwar geradlinig während der nächsten 50 Jahre (4). Darin nicht enthalten ist der wirtschaftliche Schaden durch die hohen Energiepreise, der schwierig zu quantifizieren ist, aber signifikant scheint.

• Und hier folgt der wirklich erschreckende Teil: Die jüngsten Zahlen zeigen, dass Deutschlands Kohlenstoffausstoß und der Einfluss auf die globale Erwärmung tatsächlich zunimmt (5), und zwar trotz stagnierendem wirtschaftlichen Outputs und abnehmender Bevölkerung. Dies liegt an den schlecht geplanten „Erneuerbare zuerst!“-Marktmechanismen. Dieses Regime fördert paradoxerweise das Wachstum schmutzigen Kohlestroms. Photovoltaik in großräumigem Maßstab scheitert fundamental am Fehlen von Stromspeichermöglichkeiten – das funktioniert nur 5 bis 10 Stunden pro Tag. Strom muss genau zu der Zeit erzeugt werden, zu der er verbraucht wird (29). Je mehr Solarkapazität Deutschland für sonnige Tage im Sommer installiert, desto mehr Kohlestrom wird gebraucht für die Nächte und im Winter, da sauberere Energiequellen zwangsweise offline geschickt werden. (6) Dies wird gemacht, weil durch die exzessive Solarstromerzeugung an sonnigen Tagen grundlastfähige Kernkraftwerke unmöglich zu betreiben sind und grundlastfähige Gaskraftwerke defizitiär arbeiten. Die großmaßstäbliche Erzeugung von Solarstrom mittels PV ist ohne gleich große Netzspeicherkapazität nicht machbar, aber selbst Wasserkraftwerke werden aus dem Markt gedrängt infolge schwerer Netz-Fluktuationen. Sie können nicht stetig genug arbeiten, um einen Gewinn zu erwirtschaften. (2, 7). Kohlestrom ist die einzige nicht subventionierte Energiequelle, die derzeit kein Geld verschleudert (8). Die Folge ist, dass die Energieunternehmen wählen müssen zwischen Kohle, Blackouts oder Bankrott. Was noch viel mehr Verschmutzung bedeutet.

Es knirscht also an allen Ecken und Enden. Falls man von diesen Fakten überzeugt ist, darf man jederzeit aufhören zu lesen und zur Tagesordnung übergehen. Dies wird ein langer Artikel, habe ich doch bislang noch nicht einmal die Hälfte des Problems erklärt. Es gibt zahlreiche untereinander in Verbindung stehende Dinge hier, und je mehr man darin eintaucht, desto verheerender wird das Bild.

1: Falscher Ort und falsche Technik, um die grüne Revolution loszutreten

Die Befürworter von Erneuerbaren predigen unablässig, welch leuchtendes Beispiel Deutschland ist hinsichtlich machbarer Solarstromerzeugung mittels großflächiger Installation auf Dächern. Aber das Problem ist, dass die Betonung Deutschlands auf Solarenergie schlechte Politik ist. Ich bin ziemlich sicher, dass andere Länder es in punkto Solarenergie besser können, aber das bedeutet nicht viel, weil Deutschland-Solar einfach furchtbar ist. Klar gesagt, es ist ein stupider Ort für Politiker, Solarpaneele zu fördern. Die ganze vorige Woche war ich in Deutschland bei einem Arbeitstreffen, und ich habe die ganze Zeit nicht einmal die Sonne gesehen. Im Gespräch mit Fachleuten vor Ort habe ich erfahren, dass es in der Gegend um Hannover, in der ich gewesen bin, pro Jahr zu einem Drittel bedeckt ist. Die Ressource Sonne ist einfach schlecht, nahezu die schlechteste irgendeiner dicht bevölkerten Region der Welt:

Jährliche Sonneneinstrahlung

Durch seine Lage in höheren nördlichen Breiten, dem grauen Wetter und den Alpen, die viel Morgenlicht aus dem Süden blockieren, ist Deutschland ein völlig ungeeigneter Ort für Solarenergie. Vergleicht man es mit den USA im gleichen Maßstab, erkennt man, dass Deutschland das gleiche Solarenergie-Potential hat wie das dunkle Alaska und sogar ein noch schlechteres im Vergleich mit dem regenreichen Seattle:

Karte der Sonneneinstrahlung

Ich schaue mir diese Darstellungen an und frage „was in aller Welt denken sie sich dabei?“. Sie könnten in Bezug auf ihr Klima keine schlechtere Energietechnologie wählen.

Aber die meisten Menschen scheinen sich das anzuschauen und zu sagen: „Falls Deutschland so viel in Solarenergie investiert, dann ist es offensichtlich, dass auch die USA Solarpaneele herstellen sollten“. Ich bleibe dabei: wir sollten die Gegenposition einnehmen: Falls die Solarindustrie in den USA nur langsam wächst, selbst mit wesentlichen Subventionen oder Anreizen und einer der besten Lagen hinsichtlich der Solarressourcen, dann sollten die Deutschen eher noch weniger Solarkapazität schaffen. Eindeutig ist, dass ihr Markt erheblich verzerrt sein muss, um eine solche suboptimale Energiepolitik zu verfolgen.

Man darf mit meinem Gedankengang bis hier gerne nicht einverstanden sein, aber der einfachste Beweis kann im Kapazitätsfaktor gesehen werden, also in der Prozentzahl des tatsächlich erzeugten Stromes im Vergleich zur Nennleistung im Laufe eines Jahres. Die Existenz von Nächten bedeutet, dass der Kapazitätsfaktor kleiner als 50% sein muss, und wenn man noch Wolken, die Dämmerung, Staub und nicht optimale Installationen hinzunimmt, beträgt der mittlere Kapazitätsfaktor 18% auf dem US-amerikanischen Festland (9). Im Gegensatz dazu lag der Gesamt-Solarkapazitätsfaktor in Deutschland im Jahre 2011 unter 9%! (1).

Heimische Installationen von Solarpaneelen in Deutschland kosten heute etwa 2,25 Dollar pro Watt Kapazität (10) verglichen mit etwas über 5 Dollar pro Watt in den USA (11). (Die Zahlen variieren erheblich. Die meisten dieser Kosten fallen bei Herstellung und Genehmigungsverfahren an). Aber die deutschen Paneele erzeugen weniger als die Hälfte ihrer Nennleistung mit der Zeit. Wenn man also die Kosten der Installation von Solarpaneelen um einen Kapazitätsfaktor normalisiert, sind die Kosten für solare Energieerzeugung in Deutschland und den USA bereits paritätisch. Solare Investitionen amortisieren sich nach etwa der gleichen Zeit in Kalifornien und Deutschland. Für die meisten Solar-Befürworter ist das überraschend, die höhere Kosten für den geringen Verbrauch in den USA verantwortlich machen. Aber systemwirtschaftliche Dinge allein erklären nicht die Disparitäten der Installationsraten.

Warum also gibt es in Deutschland 16 mal so hohe Nennleistung pro Kopf wie in den USA (12)?.Ja, die Genehmigung ist dort leichter zu bekommen, wird aber zumeist durch die Kosten Dollar pro Watt aufgefressen, da die Installationsunternehmen normalerweise die Genehmigungen ausreizen. Und ich glaube nicht, dass die Deutschen so viel mehr umweltbewusst sind wie der Rest der Welt. Ich kann keinen vernünftigen Grund für die Disparität finden – es sollte eher anders herum sein. Die Sonne ist einfach keine gute Energiequelle in einem kalten dunklen Land, die nur tagsüber minimal nennenswerte Kapazitäten bringt. Solarpaneele in Arizona könnten sinnvoll sein, aber nicht in Frankfurt. Die einzige Schlussfolgerung, die mir dazu einfällt, lautet, dass Deutschlands Solarboom vollständig durch politische Verzerrungen angetrieben wird. Das Wachstum von Solar ist weder wirtschaftlich gerechtfertigt noch kann es weitergehen ohne massive politische Einmischung in den Energiemärkte.

Viele Menschen sind überrascht zu hören, dass Deutschland nur die winzige Menge von 2% der Gesamtenergie bzw. 4,6% seines Stromes durch Solarenergie deckt (im Jahre 2012) (5, 13). All die Schlagzeilen an Spitzen-Sommertagen lassen es wie über 50% erscheinen. Trotz all der Kosten, Verluste und Verzerrungen hat sich PV als ein sehr ineffektiver Weg herausgestellt, große Mengen Energie zu erzeugen. Man könnte mindestens vier mal so viel kohlenstofffreie Energie erzeugt haben mittels Kernkraftwerken zu gleichen Kosten (14). (Kernkraft wäre aus allen möglichen Gründen eine bessere Option. Mehr dazu später).

Mit den innerhalb der nächsten 5 Jahre auslaufenden Subventionen für neue Solarsysteme ist das Wachstum von Solar schon jetzt rückläufig. Die Installationsrate hatte einen Spitzenwert erreicht und sinkt jetzt wieder (13, 15). Trotz fallender Kosten für Paneele und deren Installation wird erwartet, dass die Mehrzahl neuer deutscher Solarprojekte enden wird, wenn die Subventionen enden. Sie befinden sich schon jetzt auf der abwärts geneigten Seite der Glockenkurve technologischer Art:

(Daten nach 2008 aus [14], vor 2008 von Wikipedia) [Den Begriff „nameplate capacity“ habe ich mit „Nennleistung“ übersetzt. Falls dies nicht korrekt ist, bitte ich Energiefachleute, den korrekten Begriff einzusetzen. Anm. d.Übers.]

Schaut man genau hin, präsentieren alle Befürworter von Solarenergie immer noch Karten mit Daten, die nach 2011 enden. Grund hierfür ist, dass 2011 das letzte Jahr war, in dem Solar exponentiell zugenommen hat. Zieht man Daten bis Juli 2013 sowie offizielle Vorhersagen für den Rest dieses Jahres heran, zeigt sich eindeutig, dass sich Solar keineswegs mehr auf einer exponentiellen Wachstumskurve befindet. Tatsächlich liegt es auf einer S-Kurve wie so ziemlich jede andere Technologie auch, immer. Unbegrenztes exponentielles Wachstum gibt es in der physikalischen Welt nicht (13).

Man beachte auch die riesige Lücke auf der Graphik zwischen der tatsächlichen Erzeugung und der Nennleistung. Hier kommt der miserable Kapazitätsfaktor ins Spiel. (Ich glaube, dass dieser die Quelle des großen Optimismus hinsichtlich der Wachstumsrate von Solar ist, der völlig fehl am Platze ist). Grüne Medien berichten von Solar nur entweder mit der Spitzenkapazität oder als Prozentzahl des Verbrauchs an sonnigen Sommertagen. Beide diese Maßzahlen müssen durch etwa 10 dividiert werden, um den wirklichen Output im Verlauf eines Jahres zu bekommen.

In Wirklichkeit steigt Solar viel langsamer als konventionelle Energiequellen in der Vergangenheit aufgestiegen sind, obwohl Solar viel mehr Unterstützung seitens der Regierung erfährt. Diese Graphik zeigt die Wachstumsrate der jüngsten Energie-Übergänge während der ersten 10 Jahre, nachdem jede Quelle netz-maßstabsgerecht geworden ist (1% der gesamten Versorgung):

(13)

Ich glaube, dass man mit dieser Graphik am besten Äpfel mit Äpfeln vergleichen kann hinsichtlich der Steigerungsraten. Nur etwa ein Viertel der Linie der „Erneuerbaren“ ist Solar geschuldet (die Mehrheit bildet Biomasse, Wind und Müllverbrennung). Also beträgt die wahre Wachstumsrate Solar von 2001 bis 2011 nur etwa ein Viertel so schnell wie Kernkraft von 1974 bis 1984 und ein Sechstel so schnell wie Gas von 1965 bis 1975 (13).

Wen eine neue Energiequelle viel besser ist als ältere Energiequellen, wächst sie schnell. Bei Solar ist das nicht der Fall. Und doch besitzt Solar jeden Vorteil, den die Regierung bieten kann.

All dies impliziert: Ohne Eingriffe der Regierung kann PV niemals eine wichtige Quelle von Energie für das Netz sein. Die Solar-Ökonomie in Deutschland war bis hier nur sinnvoll, weil die Regierung bis zum Anschlag Steuern auf alle Arten von Energie erhebt (sogar auf andere Erneuerbare) und dann diese Gelder nutzt für Subventionen von Solarpaneelen. Die Unternehmen werden gezwungen, die Solarenergie zu kaufen zu Preisen, die um ein Vielfaches über dem Marktwert von Strom liegen, was zu massiven Verlusten führt. Das deutsche EEG hat im August 2013 allein zu Verlusten in Höhe von 540 Millionen Euro geführt (16). Das ist eine schockierende Menge Geld, die da geflossen ist. Entkleidet man diesen Vorgang von der in guter Absicht errichteten Fassade vom Umweltschutz, ist dies kaum etwas anderes als ein erzwungenes Geldtransfer-System. Man nimmt es den Unternehmen und von jedem, der keine Paneele auf seinem Dach besitzt, und schaufelt es in die Taschen von jedem, der Paneele besitzt oder installiert. Im Klartext, dies ist sowohl eine massive Marktverzerrung als auch eine regressive Steuer für die Armen.

Dies erklärt, warum die Pro-Kopf-Aufnahme von Solar in Deutschland so hoch ist. Die Regierung hat ein Umverteilungssystem in Gang gebracht, bei dem jeder, der keine Solarpaneele besitzt, denjenigen Geld gibt, die sie besitzen. Dies ist eine Steuer für jeden, der kein nach Süden geneigtes Dach hat oder sich die Aufstellungskosten nicht leisten kann. Menschen mit geringem Einkommen (z. B. Empfänger von Wohlfahrts-Zahlungen und die Älteren) sind am stärksten betroffen, weil die Bemühungen der Regierung vernachlässigbar waren, die Zahlungen zu erhöhen als Ausgleich für die in die Höhe schießenden Energiepreise. Die Armen leben buchstäblich im Dunklen, um ihre Energierechnungen niedrig zu halten. Die Energiewende* ist eindeutig schlecht für die soziale Gleichheit. Aber die deutschen Politiker scheinen ein Gentleman’s Agreement zu haben, dass die Kritik daran in der Öffentlichkeit vermieden wird, vor allem seit Merkel im Jahre 2011 der Kernkraft eine Absage erteilt hat (17).

[*Der Begriff „Energiewende“ taucht so kursiv gesetzt im Original auf.]

2:Variabilität des Angebots

Ein wesentliches Problem dieses Solarbooms ist ironischerweise Überversorgung. Ich staune immer wieder darüber, dass eine Erzeugungs-Technologie, die weniger als 5% der Stromversorgung eines Landes ausmacht, verantwortlich sein kann für schmerzhaft exzessive Stromerzeugung, aber es ist so. An sonnigen Sommernachmittagen exportiert Deutschland tatsächlich Energie zu negativen Strompreisen: Das Land zahlte im Jahre 2012 etwa 0,056 Euro pro kWh (18) im Vergleich zu 0,165 Euro pro kWh der Kosten der mittleren Lebenszeit für alle Solarinstallationen in Deutschland von 2000 bis 2011 (14). [Original: „On sunny summer afternoons, Germany actually exports power at a loss compared to generation costs: EUR 0.056/kWh average electricity export sale price in 2012, (18) vs EUR 0.165/kWh average lifetime cost for all German solar installed from 2000 to 2011. (14)“]. Dies ist optimistisch mit der Annahme eines Lebenszyklus‘ von 40 Jahren und einem Kapazitätsfaktor von 10% – die Realität sind möglicherweise über 0,20 Euro pro kWh). Deutsche Unternehmen müssen oftmals die Schwerindustrie und benachbarte Länder bezahlen, damit diese unnötigen Strom verbrennen. An sonnigen Sommertagen heizen Unternehmen leere Öfen an und werden dafür bezahlt, Energie auf den Müll zu werfen.

Nun könnte man sagen, dass diese exzessive sommerliche Solarerzeugung gratis ist, aber das ist sie nicht. Nicht nur, dass diese Spitzen-Sommererzeugung bei den Kosten zu Buche schlägt, sondern der überschüssige Solarstrom drängt auch konventionelle Kraftwerke aus dem Markt, was den Kapazitätsfaktor von Kohle- und Gaskraftwerken erniedrigt. Ja, das bedeutet, dass die Übernahme von Solarstrom in großen Mengen die nicht-solare Energie pro kWh auch teurer macht! Unter dem Strich ist die exzessive Solarstromerzeugung eine gewaltige Bremse für die Energiewirtschaft. Man zahlt für die gleiche Stromerzeugung doppelt – einmal für Spitzenwerte konventioneller Energie an wolkigen Tagen und dann noch einmal für Spitzen-Solarenergie an sonnigen Tagen – und dann verkauft man den Überschuss für einen Hungerlohn.

Warum gibt man sich damit ab, einen Verlust zu exportieren? Weil die Gesetze zum Einspeisetarif es den Versorgern nicht erlauben, Solarpaneele auf Dächern abzuschalten. Die Versorger werden per Gesetz gezwungen, den lokalen Verbrauchern Strom, der nicht gebraucht wird, zu Preisen zu verkaufen, die weit über den Marktpreisen liegen. Inzwischen profitieren die fossile Treibstoffe verbrennenden Nachbarn Deutschlands von den künstlich niedrig gehaltenen Energiemarktpreisen. Dies hält sie davon ab, ihrerseits sauberere Energie zu erzeugen. Es ist einfach eine verschwenderische, verzerrte Energiepolitik.

Zur Erinnerung, Strom muss im gleichen Moment verbraucht werden, in dem er erzeugt wird (29). Die Technologie zur Stromspeicherung in großem Maßstab gibt es noch nicht, und nichts innerhalb der Pipeline der Entwicklung ist um weniger als zwei Größenordnungen billiger. Pumpspeicher sind in kleinem Maßstab eine gute Sache, aber alle guten Stellen sind bereits in Gebrauch, und zwar sowohl in Europa als auch in den USA. Die einzige Möglichkeit für eine großmaßstäbliche Speicherung sind elektrische Autobatterien als Puffer, während sie sich aufladen. Aber auch das würde nicht einmal annähernd ausreichend Kapazität bieten, um die rapiden Variationen des solaren Outputs auszugleichen (19). Und falls die Menschen ihre Autos gleich nach der Rückkehr von der Arbeit und bei Sonnenuntergang an die Steckdose anschließen, könnte sich das Problem noch erheblich verschlimmern. Die kalifornischen Gesetzgeber haben jüngst eingeräumt, dass das Erzeugungsprofil bei Sonnenuntergang das größte Hindernis für das Wachstum von Solarenergie ist. Die klassische Illustration hiervon ist die „Entengraphik“ (weil sie aussieht wie eine Ente). Sie zeigt, wie Solar konventionelle Kraftwerke dazu zwingt, in enormem Umfang Energie zu erzeugen, wenn die Sonne abends aufhört zu scheinen:

(29)

[…] Hinzu kommt, dass alle Solarpaneele am Netz Energie zur gleichen Zeit erzeugen, was tagsüber Überschuss und nachts Defizit bedeutet. Das ist an jedem einzelnen Tag der Fall, für immer und ewig. Zumindest in warmen Ländern fällt der maximale Gebrauch von Air Condition in etwa zusammen mit dem Spitzenwert des solaren Outputs. Aber in Deutschland gibt es kaum Air Condition. Es ist einfach ein Alptraum der Netzmanager. Die Rate „extremer Vorkommnisse“ in Deutschlands Stromnetz hat seit Beginn der Energiewende um drei Größenordnungen zugenommen (20).

Die ernsten Schwingungen beim Output haben sogar einen Punkt erreicht, an dem das deutsche Netz nicht operieren kann, ohne sich auf Nachbarländer zu verlassen, die die Variabilität auffangen. Die Abnahme des solaren Outputs am Abend erfolgt schneller als die Erzeugungskapazität in Deutschland hochgefahren werden kann. (Massive Kraftwerke können ihren Output nicht so rasch verändern). Das bedeutet entweder Blackouts, wenn die Menschen von der Arbeit heimkommen, oder den Gebrauch nicht solar erzeugten Stromes aus den Nachbarländern. Hier folgt das Erzeugungsprofil eines Tages von Solarenergie in Deutschland, das zeigt, wie Stromimporte und -exporte gezwungen werden, hin und her zu oszillieren, um die Schwingungen bei der Erzeugung auszugleichen:

(21)

Würden Deutschlands Nachbarn genauso viele Solarpaneele haben, würden sie alle gleichzeitig versuchen, zu exportieren/importieren, und das System würde zerfallen. Die maximale Kapazität des gesamten EU-Netzes zum Verbrauch von Solarenergie ist daher viel kleiner als das Level, das von individuellen Ländern wie Deutschland und Spanien erreicht wird.

Solarfreaks sagen oft, dass die Menschen ihre Gewohnheiten hinsichtlich des Energieverbrauchs ändern müssen, um mit der Erzeugung Schritt zu halten. Das ist bis zu einem gewissen Grad machbar – vielleicht 20% des Energieverbrauchs können zeitlich verschoben werden, zumeist durch Umplanungen von Großverbrauchern, die gegenwärtig nachts produzieren wie Aluminium-Werke. Aber die moderne Zivilisation dreht sich nun einmal um ein bestimmtes Verhältnis von Schlafen und wach sein, und man kann nicht erwarten, das zu verändern. Die Menschen werden nicht das Kochen aufgeben und abends fernzusehen, oder bis drei Stunden nach Sonnenuntergang zu warten, bevor sie die Lampen anschalten. Und an Wochenende unterscheidet sich das Verbrauchsprofil drastisch von Werktagen.

Alles kommt zusammen. Photovoltaik kann nicht mit der Energienachfrage synchronisiert werden. Das setzt dem maximalen prozentualen Anteil an unserer Energie sehr enge Grenzen. In Deutschland liegt dieses Limit bei etwa 4%. Man macht dort gerade die Erfahrung, was passiert, wenn man dieses Limit anzuheben versucht.

3:Ersetzen der falschen Energiearten

In der Graphik oben ist erkennbar, wie bei der täglichen Erzeugung die Windenergie zurückgestoßen wird, wenn die Sonne hervorkommt. Heimische Solarenergie ist gegenüber Wind bevorzugt. Eine Menge Stromerzeugung, die die Sonne ersetzt, stammt tatsächlich aus anderen Erneuerbaren. Der Rest ersetzt zum größten Teil Erdgas und Kernkraft. Kohlekraft wächst rapide (6, 8).

Hier folgt das wöchentliche Erzeugungsprofil, wie es für das Jahr 2020 vorhergesagt wird:

(22)

Man beachte die Sägezahnkurve der großen grauen „konventionellen“ (Kohle/Gas)-Kategorie. Alles, was Solar macht, ist sich einbringen in die Grundlasterzeugung tagsüber, was scheinbar gut ist, um fossile Treibstoffe zu ersetzen. Aber langfristig wird genau das Gegenteil erreicht.

Der größte Teil des weltweiten Stromes stammt von grundlastfähigen Kohle- und Kernkraftwerken. Sie sind groß, effizient und billig. Aber Grundlasterzeugung ist extrem schwierig und teuer, wenn sie jeden Tag hoch- und heruntergefahren wird. Zur Vereinfachung, man kann Kernkraftwerke nicht so schnell hoch- und herunter regeln wie die täglichen Schwingungen des solaren Outputs. Das Herunterfahren und danach das erneute Anfahren benötigt viele Tage, und Kernkraftwerke außerhalb Frankreichs sind nicht dazu gedacht, zurückgefahren zu werden, so dass Kernkraft nicht mit den täglichen Oszillationen von PV Solar zusammen gebracht werden kann. Das Angebot könnte unmöglich die Nachfrage decken. Man endet sowohl mit Lücken als auch mit Überschüssen.

Die meisten Menschen glauben, dass Deutschland seine Kernkraftwerke nach der Havarie in Fukushima stilllegt, aber die Deutschen haben in Wirklichkeit keine Wahl. Sie werden gezwungen, allen ausfallenden Strom durch die Stilllegung durch die ganze Variabilität des solaren Outputs zu kompensieren. Das ist ein großes, großes Problem – Deutschland bekommt vier mal soviel Strom aus Kernkraft wie aus Solar. Die Mathematik geht also nicht auf. Das Zeit-Erzeugungs-Profil ist falsch, und der totale Energie-Output von der Sonne ist zu niedrig. Sie müssen die Kernkraftwerke mit etwas Anderem ersetzen.

Der normale Weg, der variablen Energienachfrage zu begegnen, geht über Gaskraftwerke. Aber in Deutschland gibt es nur minimal heimische Gas-Ressourcen, und laständerungsfähige Gaskraftwerke sind sehr teuer zu betreiben. Also bilden sie mehr Kohlekraftwerke, und ältere werden wiederbelebt (6, 8, 22). Das ist teuer und ineffizient, aber ein Kohlekraftwerk kann auch die ganze Nacht über laufen und dann herunter geregelt werden, wenn die Sonne aufgeht. Es hat bessere Laständerungs-Möglichkeiten als Kernkraft (aber schlechtere als Gas). Die Grünen in Deutschland bekämpfen die Kernkraft seit den siebziger Jahren und haben schließlich gewonnen. Kernkraft ist out, Kohlekraft ist in.

Wer regelmäßig meine Beiträge liest, wird wissen, was für eine furchtbare Idee das ist (23). Der Ersatz von Kernkraft durch Kohlekraft ist ohne Frage der wissenschaftlich schlimmste und tödliche Fehler, den irgendeine Gruppe von Umweltaktivisten jemals gemacht hat. Es ist unglaublich, wie viel sauberer und sicherer Kernkraft im Vergleich zu Kohle ist. Die Fukushima-Havarie war so ziemlich ein „Worst Case Scenario“ – eines der stärksten jemals gemessenen Erdbeben, der größte Tsunami, der jemals auf Japan getroffen ist, sieben Reaktorschmelzen und drei Wasserstoffexplosionen – und nicht ein einziger Mensch ist durch Strahlenbelastung ums Leben gekommen (24). Die erwartete Zunahme der Krebsrate infolge der freigesetzten Strahlung liegt irgendwo zwischen Null und einem Wert, der zu klein ist, um gemessen werden zu können (25). Sogar spektakuläre Kernkraft-Katastrophen sind für die Öffentlichkeit kaum schädlich. Inzwischen zeigen Studien, dass der Stress durch die Evakuierung mehr Menschen getötet hat als durch Strahlung gestorben wären, falls jeder einfach nur zu Hause geblieben wäre.

Zum Vergleich: Durch Kohlekraft kommen jedes Jahr etwa 1 Million Menschen zu Tode [?]. Sie füllt die Ozeane mit Quecksilber und Arsen, setzt mehr Kohlendioxid frei als jede andere menschliche Aktivität und ist vermutlich eine der größten Umweltschädlinge der industrialisierten Welt (23).

Das ist nicht eingängig, aber Folgeauswirkungen sind enorm wichtig. Die Expansion von PV Solar über 1 bis 2% der Gesamt-Energienachfrage hinaus bedeutet weniger Kernkraft und mehr Kohle. Die Größenordnung der dadurch auftretenden Schäden überwiegt in hohem Maße die umweltlichen Vorteile durch die Solarpaneele selbst. Man muss die Installation von zu viel Solarenergie vermeiden, denn dies würde andere saubere Energiequellen destabilisieren und eliminieren. Kommt man zum Stadium der „Enten-Graphik“, wird es schlimm. Anderenfalls wird man schlimmer dran sein als zu Beginn, wie Deutschland zu seiner Bestürzung erfahren musste.

All das ist schon ziemlich schlimm; Deutschlands Solarenergie schädigt die Menschen und den Planeten. Aber das ist noch nicht alles.

4: Der Kicker

Die Kategorie „Biomasse“, die in allen Graphiken erkennbar ist, besteht tatsächlich aus dem Verbrennen von Feuerholz in Kohlekraftwerken. 38% von Deutschlands „erneuerbarer Energie“ kommen aus gerodeten Wäldern und importiertem Holz aus anderen Ländern (28). Verdammtes Brennholz, als ob wir zurück im Mittelalter sind. Infolge der übereifrigen Ziele bzgl. Erneuerbarer und wegen einer Marotte beim EU-System des Kohlenstoff-Preissystems, das Brennholz als kohlenstoffneutral einstuft, schlägt Europa seine Wälder mit einer alarmierenden Rate kaputt, um sie als „erneuerbare Biomasse“ zu verbrennen. Die Umweltbewegung hat die meiste Zeit der letzten 200 Jahre der Industrialisierung darauf verwendet, die Entwaldung zu stoppen, und dieses ehrenwerte Ziel wurde augenblicklich in sein Gegenteil verkehrt durch betrügerische Kohlenstoff-Emissionsberechnungen.

Über lange Zeiträume, 100 Jahre oder so, ist Brennholz annähernd kohlenstoffneutral, weil man diese Bäume erneut anpflanzen kann, und sie absorbieren CO2 während ihres Wachstums. Unglücklicherweise wird eine lebendige Kohlenstoffsenke zerstört, wenn man statt Treibstoff Brennholz verwendet und das gesamte Kohlendioxid jetzt in die Atmosphäre bläst. Wenn man bedenkt, dass man sowohl eine Kohlenstoffsenke zerstört als auch gespeicherten Kohlenstoff freisetzt, ist Brennholz tatsächlich viel schädlicher als Kohle für viele kommende Jahrzehnte (28). Die nächsten paar Jahrzehnte sind die kritischste Zeit für die Menschheit, Kohlenstoffemissionen zu reduzieren. Daher ist diese Politik ein einziger riesiger Idiotismus.

Deutschland konzentriert sich so stark auf das Erreichen der Ziele durch Erneuerbare, dass es gewillt ist, die Umwelt zu zerstören, um das zu schaffen. Sie haben es fertig gebracht, Erneuerbare unhaltbar zu machen. Das ist tragikomisch.

Zusammenfassung: Die Energiewende ist das schlimmstmögliche Beispiel zur Durchführung einer Energie-Transition. Der übereifrige Schub für die falsche Energie-Erzeugungs-Technologie hat Bürger, Industrien und die Umwelt alle zugleich geschädigt.

Ich möchte klarstellen, dass ich nicht sage, man sollte Solar aufgeben. Es sollte definitiv Teil unseres Energiemix‘ sein. Durch eine Mischung ungünstigen Klimas und schlechter Politik ist Deutschland auf Probleme gestoßen, nämlich auf einen sehr geringen solaren Output. Andere Länder werden in der Lage sein, einen höheren Output zu erreichen. Aber selbst wenn wir die Kosten ignorieren, gibt es immer noch ein maximales praktisches Limit der Solarenergie, das auf den Realitäten der Netzbetreibung basiert.

• Man kann nicht mehr Solarpaneele errichten, als das Netz in der Lage ist zu verarbeiten. Die notwendige Speicherkapazität in großem Umfang ist eine „vielleicht-eines-Tages“- Technologie und nicht etwas, das heute schon verfügbar ist. 50% Energie aus Solar während unserer Lebenszeit sind Phantasie, und in dieser Hinsicht müssen wir realistisch sein.

• Man kann die Versorger nicht zwingen, nicht benötigte Energie zu kaufen, nur weil sie aus erneuerbaren Quellen stammt. Die Energie und die Materialien zur Erzeugung dieser Überkapazität sind für den Müll. Das ist das Gegenteil von grün.

Wir müssen diese Lektionen lernen. Wir können die Zukunft nicht unter den Teppich kehren.

Jedes Mal, wenn ein Befürworter von Erneuerbaren Deutschland als ein leuchtendes Beispiel hervorhebt, schädigt er die Glaubwürdigkeit der Umweltbewegung. Die Realität stützt dies in keiner Weise und gibt dem Gegner Munition. Wir müssen aufhören, Deutschlands Energiesheiße [das steht wirklich so im Original!] anzupreisen, und wir müssen bessere Wege finden, Erneuerbare zu implementieren. Andere Modelle sollten besser funktionieren. Das müssen sie auch – die Zukunft der Welt hängt davon ab.

[1] Solar power by country
[2] Germany’s Energy Poverty: How Electricity Became a Luxury Good – SPIEGEL ONLINE
[3] German ‘green revolution’ may cost 1 trillion euros – minister
[4] Global Warming Targets and Capital Costs of Germany’s ‘Energiewende’
[5] Germany’s ‘Energiewende’ – the story so far
[6] Germany: Coal Power Expanding, Green Energy Stagnating
[7] Merkel’s Blackout: German Energy Plan Plagued by Lack of Progress – SPIEGEL ONLINE
[8] Merkel’s Green Shift Backfires as German Pollution Jumps
[9] Capacity factor, Price per watt
[10] German Solar Installations Coming In at $2.24 per Watt Installed, US at $4.44
[11] It Keeps Getting Cheaper To Install Solar Panels In The U.S.
[12] Germany Breaks Monthly Solar Generation Record, ~6.5 Times More Than US Best
[13] Germany and Renewables Market Changes (source link in original article is broken, here is an updated link:http://www.bp.com/content/dam/bp…)
[14] Cost of German Solar Is Four Times Finnish Nuclear  — Olkiluoto Nuclear Plant, Plagued by Budget Overruns, Still Beats Germany’s Energiewende
[15] 313 MWp German PV Capacity Added in July 2013 – 34.5 GWp Total
[16] EEG Account: 5,907 GWh of Renewable Energy in August Sold for EUR 37.75 at Expenses of EUR 399.52 per MWh – EUR 540 Million Deficit
[17] Germany will dilute – not abandon – its Energiewende plan
[18] German power exports more valuable than its imports
[19] Ryan Carlyle’s answer to Solar Energy: How large would an array of solar panels have to be to power the continental US? How much would such an array cost to build? And what are the major engineering obstacles to powering the US this way?
[20] Electricity demand response shows promise in Germany
[21] Energiewende in Germany and Solar Energy
[22] Problems with Renewables and the Markets
[23] Ryan Carlyle’s answer to Society: What are some policies that would improve millions of lives, but people still oppose?
[24] Stephen Frantz’s answer to Nuclear Energy: What is a nuclear supporter’s response to the Fukushima disaster?
[25] Fukushima Cancer Fears Are Absurd
[26] Evacuation ‘Fukushima’ deadlier then radiation
[27] Was It Better to Stay at Fukushima or Flee?
[28] The fuel of the future
[29] Fowl Play: how the utility industry’s ability to outsmart a duck will define the power grid of the 21st century

This question originally appeared on Quora. More questions on Energy:

Link: http://www.forbes.com/sites/quora/2013/10/04/should-other-nations-follow-germanys-lead-on-promoting-solar-power/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: In diesem Artikel stecken viele Fachbegriffe aus der Energiewirtschaft. Ich bin nicht sicher, diese alle richtig übersetzt zu haben, und bitte die hier lesenden Fachleute um Korrekturen.

C. F.




Klimawissenschaft ist nicht ,settled‘

Bild rechts: Wissenschaftler ziehen Eisbohrkerne in der Antarktis. Bild: EIKE

Meine Ausbildung als Mathematiker und Physiker – zusammen mit einer 40-jährigen Laufbahn in wissenschaftlicher Forschung, Beratung und Management in Akademien, der Regierung und im privaten Bereich – hat mir eine umfassende Perspektive der Klimawissenschaft verschafft. Detaillierte technische Diskussionen im vorigen Jahr mit führenden Klimawissenschaftlern haben mir ein sogar noch besseres Gefühl dafür vermittelt, was wir über das Klima wissen und was wir nicht wissen. Ich bin inzwischen dabei zu erkennen, was für eine gewaltige wissenschaftliche Herausforderung die Antworten auf Fragen von Politikern und der Öffentlichkeit ist.

Die grundlegende wissenschaftliche Frage für die Politik lautet nicht, ob sich das Klima ändert. Das ist in der Tat settled: Das Klima hat sich immer geändert und wird sich auch weiterhin immer ändern. Geologische und historische Aufzeichnungen zeigen das Auftreten großer Klimaverschiebungen, manchmal innerhalb von nur wenigen Jahrzehnten. Wir wissen zum Beispiel, dass die globale mittlere Temperatur der Erde im 20. Jahrhundert um ca. 0,7°C gestiegen ist.

Die grundlegende Frage lautet auch nicht, ob die Menschen das Klima beeinflussen. Das ist kein Scherz: Es gibt unter den Wissenschaftlern wenig Zweifel daran, dass die kontinuierliche Zunahme von Treibhausgasen in der Atmosphäre das Klima beeinflussen, im Wesentlichen erzeugt durch CO2-Emissionen durch den konventionellen Verbrauch fossiler Treibstoffe. (Anmerkung der Redaktion: Darüber wird zu Recht heftig gestritten) Auch gibt es kaum Zweifel daran, dass das CO2 in der Atmosphäre viele Jahrhunderte lang verbleiben wird. (Anmerkung der Redaktion: Diese Aussage teilen wir nicht, die Verweilzeit dürfte bei wenigen Jahren liegen) Der heutige Einfluss menschlicher Aktivitäten scheint vergleichbar mit der inhärenten natürlichen Variabilität des Klimasystems selbst. (Anmerkung der Redaktion: Diese Aussage teilen wir nicht)

Vielmehr lautet die grundlegende, unsettled Frage für die Politik: „Wie wird sich das Klima im nächsten Jahrhundert ändern unter sowohl natürlichen als auch menschlichen Einflüssen?“ Antworten auf diese Frage im globalen und regionalen Maßstab sollten ebenso wie gleichermaßen komplexe Fragen über die Auswirkungen auf Ökosysteme und menschliche Aktivitäten Eingang finden bei der Entscheidungsfindung bzgl. Energie und Infrastruktur.

Aber – und das ist der Punkt: Diese Fragen sind die am schwierigsten zu beantwortenden Fragen. Sie fordern auf fundamentale Weise heraus, was die Wissenschaft uns über zukünftige Klimate sagen kann.

Obwohl menschliche Einflüsse ernste Konsequenzen für das Klima haben könnten, sind sie physikalisch gering in Relation zum Klimasystem als Ganzes. Zum Beispiel wird erwartet, dass zusätzliche menschliche CO2-Einträge in die Atmosphäre bis zur Mitte des 21. Jahrhunderts den natürlichen Treibhauseffekt der Atmosphäre nur um 1% bis 2% beeinflussen. Da das Klimasystem selbst hoch variabel ist, bedeutet diese Geringfügigkeit eine sehr hohe Barriere für die sichere Projektion der Konsequenzen menschlichen Einflusses.

Eine zweite Herausforderung des „Wissens“ über das zukünftige Klima ist das heute noch geringe Verständnis hinsichtlich der Ozeane. Die Ozeane, die sich im Zeitmaßstab von Jahrzehnten und Jahrhunderten ändern, enthalten den größten Teil der Wärme des Klimas und beeinflussen die Atmosphäre sehr stark. Unglücklicherweise sind präzise und umfassende Beobachtungen der Ozeane nur für die letzten paar Jahrzehnte verfügbar; die zuverlässige Aufzeichnung ist immer noch viel zu kurz, um angemessen zu verstehen, wie sich die Ozeane ändern werden und wie dies das Klima beeinflussen wird.

Eine dritte fundamentale Herausforderung stellen die Rückkopplungen dar, die die Reaktion des Klimas auf menschliche und natürliche Einflüsse dramatisch vergrößern oder abschwächen. Eine wichtige Rückkopplung, von der man glaubt, dass sie den direkten Erwärmungseffekt von Kohlendioxid in etwa verdoppelt, besteht zwischen Wasserdampf, Wolken und Temperatur.

Aber Rückkopplungen sind unsicher. Sie hängen ab von den Details bei Prozessen wie Verdunstung und Strahlungsfluss durch die Wolken. Sie können nicht sicher bestimmt werden aus den grundlegenden physikalischen und chemischen Gesetzen. Also müssen sie verifiziert werden durch präzise, detaillierte Beobachtungen, die in vielen Fällen noch gar nicht verfügbar sind.

Über diese Beobachtungs-Herausforderungen hinaus gehen die Herausforderungen durch die komplexen Computer-Modelle, die verwendet werden, um das zukünftige Klima zu projizieren. Diese massiven Programme versuchen, die Dynamik und Wechselwirkungen der verschiedenen Komponenten des Systems Erde zu beschreiben – die Atmosphäre, die Ozeane, das Festland, das Eis und die Biosphäre. Während einige Bereiche der Modelle auf gut getesteten physikalischen Gesetzen basieren, beruhen andere auf Schätzungen. Die Modellierung komplexer Systeme mit Computern ist Wissenschaft genauso wie Kunst.

Zum Beispiel beschreiben die globalen Klimamodelle die Erde mittels eines Netzes, das gegenwärtig begrenzt ist durch die Möglichkeiten der Computer. Es hat eine Auflösung, die nicht kleiner als 60 Meilen [ca. knapp 100 km] ist. (So wird beispielsweise die Entfernung von New York City nach Washington D.C. lediglich durch vier Gitterquadrate abgedeckt). Aber Prozesse wie Wolkenbildung, Turbulenz und Regen ereignen sich in viel kleinerem Maßstab. Diese kritischen Prozesse erscheinen dann im Modell lediglich durch adjustierbare Hypothesen, die zum Beispiel spezifizieren, wie die mittlere Wolkenbedeckung abhängt von der mittleren Temperatur und Feuchtigkeit in dem Gitterquadrat. In einem gegebenen Modell müssen Dutzende solcher Hypothesen adjustiert (im Jargon der Modellierer „frisiert“ [tuned]) werden, um sowohl die gegenwärtigen Beobachtungen als auch ungenügend bekannte historische Aufzeichnungen zu reproduzieren.

Wir hören oft von einem „wissenschaftlichen Konsens“ über die Klimaänderung. Aber so weit es die Computermodelle betrifft, gibt es keinen brauchbaren Konsens auf der Ebene detaillierter Relevanz zur Bestimmung des menschlichen Einflusses. Seit 1990 hat das IPCC periodisch den Zustand der Klimawissenschaft überwacht. Jeder sukzessive Bericht dieser Institution mit Beiträgen von tausenden Wissenschaftlern aus der ganzen Welt wird als eine definitive Zustandsbeschreibung der Klimawissenschaft zum Zeitpunkt der Herausgabe angesehen.

Es gibt in der wissenschaftlichen Gemeinschaft nur wenig Zweifel daran, dass kontinuierlich zunehmende Treibhausgase in der Atmosphäre, hauptsächlich durch CO2-Emissionen durch den konventionellen Verbrauch fossiler Treibstoffe, das Klima beeinflussen.(Anmerkung der Redaktion: Nur leider nirgendwo messbar)

Im jüngsten IPCC-Bericht (September 2013) verwendet die Arbeitsgruppe 1, die sich auf physikalische Wissenschaft konzentriert, ein Ensemble von 55 verschiedenen Modellen. Obwohl die meisten dieser Modelle frisiert wurden, um den Großteil der Klimaereignisse auf der Erde zu reproduzieren, zeigen sie markante Unterschiede in ihren Einzelheiten und Projektionen. Dies reflektiert all die Grenzen, die ich aufgezeigt habe. Beispiele:

• Die Modelle unterscheiden sich in ihren Beschreibungen der globalen mittleren Temperatur im vorigen Jahrhundert bis zu drei mal so stark wie die gesamte Erwärmung in jener Zeit. Solche Diskrepanzen zeigen sich auch in vielen anderen grundlegenden Klimafaktoren einschließlich der Regenmenge, welche fundamental hinsichtlich der Energiebilanz der Atmosphäre ist. Als Ergebnis liefern die Modelle stark variierende Beschreibungen der inneren Prozesse des Klimas. Da sie so stark divergieren, kann nicht mehr als eines richtig sein.

• Obwohl die mittlere Temperatur der Erde im letzten Viertel des 20. Jahrhunderts um ca. 0,5°C gestiegen ist, ist sie während der letzten 16 Jahre erheblich langsamer gestiegen, (Anmerkung der Redaktion: Diese Aussage teilen wir nicht, sie ist überhaupt nicht gestiegen) obwohl der menschliche Beitrag zum atmosphärischen CO2-Gehalt um etwa 25% zugenommen hat. (Anmerkung der Redaktion: Diese Aussage teilen wir nicht, auch das ist reine Vermutung) Diese überraschende Tatsache zeigt direkt, dass natürliche Einflüsse und Variabilität stark genug sind, um um die durch menschliche Aktivitäten ausgelöste Erwärmung zu kompensieren.

Und doch zeigt sich in keinem Modell diese Verlangsamung des Temperaturanstiegs. Viele Dutzend verschiedene Erklärungen für dieses Scheitern wurden präsentiert, wobei die ozeanische Variabilität höchstwahrscheinlich eine wesentliche Rolle spielt. Aber der gesamte Vorgang beleuchtet weiterhin die Grenzen unserer Modellierung.

• Die Modelle beschreiben grob den Rückgang des arktischen Eises, der während der letzten beiden Jahrzehnte beobachtet worden ist. Aber sie beschreiben in keiner Weise die immer größer werdende Ausdehnung des Eises um die Antarktis, die momentan einen neuen Rekord erreicht hat.

• Die Modelle sagen voraus, dass die untere Atmosphäre in den Tropen vieles der Wärme aus der atmosphärischen Erwärmung absorbieren wird. Aber dieser „Hot Spot“ wurde bislang nicht beobachtet. Dies weckt Zweifel an unserem Verständnis der grundlegenden Rückkopplung des Wasserdampfes auf die Temperatur.

• Obwohl der menschliche Einfluss auf das Klima in der Vergangenheit viel geringer war, tragen die Modelle nicht der Tatsache Rechnung, dass die Rate des globalen Anstiegs des Meeresspiegels vor 70 Jahren genauso hoch lag wie heute – etwa 30 cm pro Jahrhundert.

• Eine grundlegende Maßzahl unserer Kenntnisse über Rückkopplungen ist die Klimasensitivität, das heißt die durch eine hypothetische Verdoppelung des CO2-Gehaltes auftretende Erwärmung. Die derzeitige Schätzung [best estimate] der Sensitivität (zwischen 1,5°C und 4,0°C) unterscheidet sich nicht von und ist auch nicht besser als die Schätzung vor 30 Jahren. Und dies trotz heroischer Forschungsanstrengungen zu Kosten von Milliarden Dollar.

Diese und viele andere offene Fragen werden tatsächlich in den IPCC-Berichten beschrieben, obwohl eine detaillierte und sachkundige Lesart manchmal erforderlich ist, um sie zu erkennen. Dies sind keine „unwesentlichen“ Dinge, die durch weitere Forschungen „ausgeräumt“ werden können. Vielmehr handelt es sich dabei um Defizite, die das Vertrauen in die Computer-Projektionen untergraben. Arbeit zur Lösung dieser Defizite in den Klimamodellen sollte oberste Priorität für die Klimaforschung haben.

Die offizielle Lektüre von lediglich der „Summary for Policymakers“ würde das Ausmaß oder die Implikationen dieser Defizite kaum vermitteln. Das sind fundamentale Herausforderungen für unser Verständnis des menschlichen Einflusses auf das Klima, und sie wollten nicht mit dem Mantra beiseite geschoben werden, dass die „Klimawissenschaft settled ist“.

Zwar gab es während der letzten beiden Jahrzehnte gewisse Fortschritte in der Klimawissenschaft, doch ist dieser Bereich längst noch nicht ausgereift genug, um die schwierigen und wichtigen Fragen daraus brauchbar zu beantworten. Dieser ausgesprochen unsettled Zustand beleuchtet, was offensichtlich sein sollte: Das Verständnis des Klimas auf einem Niveau, das relevant zur Abschätzung des menschlichen Einflusses ist, ist ein sehr, sehr schwieriges Problem.

Wir können und sollten Schritte unternehmen, um die Klimaprojektionen mit der Zeit brauchbarer zu machen. Ein internationales Engagement für ein globales nachhaltiges Klima-Beobachtungssystem würde eine immer länger werdende Reihe präziser Beobachtungen zeitigen. Und immer bessere Computer können die Unsicherheiten in unseren Modellen verständlicher machen, und kleinere Gitterpunkts-Abstände und bessere Beschreibungen der Prozesse innerhalb dieser Modelle ebenso. Die Wissenschaft ist dringlich, da es uns auf dem linken Fuß erwischen würde, falls unser Verständnis nicht schneller zunimmt als sich das Klima selbst ändert.

Eine transparente Genauigkeit wäre ebenfalls eine willkommene Entwicklung, vor allem hinsichtlich der momentanen Politik und der politischen Entscheidungen. Dies könnte unterstützt werden durch regelmäßige unabhängige „Red Team“-Begutachtungen [?] mittels eines Stress-Tests und einer Infragestellung der Projektionen, indem man sich auf ihre Defizite und Unsicherheiten konzentriert; das würde mit Sicherheit am besten der wissenschaftlichen Methode folgen. Aber weil sich das natürliche Klima über Jahrzehnte ändert, wird es viele Jahre dauern, bis die benötigten Daten vorliegen, um die menschlichen Einflüsse zuverlässig zu isolieren und zu quantifizieren.

Politiker und die Öffentlichkeit könnten sich die Bequemlichkeit der Sicherheit in ihrer Klimawissenschaft wünschen. Aber ich fürchte, dass die rigide verkündete Behauptung, dass die Klimawissenschaft „settled“ (oder ein „Schwindel“) ist, den wissenschaftlichen Forscherdrang erniedrigt und abkühlt, was hinderlich für Fortschritte in diesen wichtigen Bereichen ist. Unsicherheit ist ein primärer Beweggrund für Wissenschaft und muss direkt angegangen werden. Dies sollte nicht auf Unterhaltungen in stillen Nebenräumen auf akademischen Konferenzen beschränkt sein.

Die Gesellschaft muss sich während der kommenden Jahre notwendigerweise auf das unsichere Wissen bzgl. des zukünftigen Klimas konzentrieren. Die Unsicherheit sollte keine Entschuldigung für Untätigkeit sein. Es ist sehr gerechtfertigt, die Entwicklung von Technologien mit geringen Emissionen und kosteneffektive Maßnahmen zur Energieeffizienz zu beschleunigen.

Aber Klima-Strategien, die über solche Bemühungen hinausgehen, verursachen Kosten, Risiken und Fragen hinsichtlich der Effektivität. Darum finden hier unvermeidlich wissenschaftsfremde Faktoren Eingang in die Entscheidungen. Darunter sind die Duldung von Risiken und die Prioritäten der wirtschaftlichen Entwicklung, Verringerung der Armut, Umweltschutz und Gleichheit geographisch und zwischen den Generationen.

Einzelpersonen und Länder können ganz legitim über diese Dinge unterschiedlicher Meinung sein, und darum sollte sich die Diskussion nicht um „Glauben“ oder „Leugnung“ der Wissenschaft drehen. Trotz der Statements zahlreicher wissenschaftlicher Gesellschaften kann die wissenschaftliche Gemeinschaft nicht irgendwelche besonderen Erfahrungen für sich in Anspruch nehmen, Themen anzusprechen, die in Beziehung stehen zu den grundlegendsten Zielen und Werten der Menschheit.

Jede seriöse Diskussion über das sich ändernde Klima muss beginnen mit der Anerkennung nicht nur der wissenschaftlichen Sicherheiten, sondern auch der Unsicherheiten, vor allem bei Projektionen der Zukunft. Das Erkennen jener Grenzen anstatt sie zu ignorieren wird zu einer saubereren und ultimativ produktiveren Diskussion der Klimaänderung und der Klimapolitik führen. Es anders zu machen wäre ein gewaltiger Bärendienst, den man der Wissenschaft erweisen würde.

Dr. Koonin war Unterstaatssekretär im Energieministerium während Präsident Obamas erster Amtszeit. Gegenwärtig ist er Direktor des Center for Urban Science and Progress an der New York University. Unter seinen früheren Posten waren Professor für theoretische Physik und Leiter bei Caltech ebenso wie leitender Wissenschaftler von BP, BP.LN -0.86%, wo sich seine Arbeit auf erneuerbare und Low-Carbon-Technologien konzentrierte.

Link: http://online.wsj.com/articles/climate-science-is-not-settled-1411143565

Übersetzt von Chris Frey EIKE