1

„Der Wetterfrosch in meinem Kopf“

Das neuerliche Interesse an dem Thema ist im Grunde zu begrüßen, wenn nicht der Eindruck des Lobbyismus wäre. Es wird bedauert, dass von den 14 Forschungsstätten nur noch eine existiere, das Zentrum für Medizin-Meteorologie des Deutschen Wetterdienstes in Freiburg. So wird auch unverhohlen Reklame gemacht für Jörg Scheidt von der Hochschule Hof, der gerne ein „individuelles Therapiekonzept für wetterbedingte Kopfschmerzen und Migräne“ errichten möchte und um Forschungsmittel wirbt. Solch ein Artikel kann dabei nützlich sein, auch wenn das Ziel des Vorhabens angesichts der Komplexität der Wechselwirkung zwischen „Mensch und Wetter“ wohl utopisch erscheint.

Warum Skepsis hinsichtlich des Erfolges angebracht ist, das bestätigt die Medizinmeteorologin Angelika Grätz. Sie wird zitiert mit dem Satz: „Der Mensch ist ein kompliziertes System, ebenso das Wetter. Beides in Zusammenhang zu bringen ist sehr komplex und schwer zu erforschen.“ Wenn auch die Systemforschung als Allheilmittel angepriesen wird, so wird gerne übersehen, dass sie selbst es ist, die der Erforschung komplexer wie komplizierter Zusammenhänge im Wege steht.

Systemforschung engt und grenzt ein, aber öffnet keine neuen Horizonte

Ein System ist ein geschlossenes Gedankengebilde. Es ist ein gedankliches Konstrukt, das die Wirklichkeit vereinfachen soll, um Sachverhalte besser verstehen zu lernen. In der Soziologie nennt man diese Vorgehensweise nach Herrmann Lübbe die „Suche nach dem komplexreduzierenden Punkt“. Doch weder Mensch noch Wetter sind Systeme, sind keine geschlossenen Gebilde, auch nicht in Gedanken. Sie sind ganz im Gegenteil stets „offene Systeme“. Diese Formulierung ist sehr unglücklich, aber besser als nichts.

Der Mensch muss nach außen hin, zur Umgebung „offen“ sein, denn er muss für äußere Reize empfänglich sein, allein um des Überlebens willen. Dafür ist er von Natur aus mit den entsprechenden Sinnen und Sensoren ausgestattet, um Gefahren sehen, riechen oder hören zu können. Man spricht auch von Instinkten, die die nicht von unserem Bewusstsein, dem schwerfälligen Verstand gesteuert werden. Wir schließen blitzschnell die Augenlieder, bevor wir das Insekt bewusst wahrgenommen haben. Der Mensch hat ein extrem feines Temperatursensorium, um auf Wärme- und Kältereize an den einzelnen Gliedmaßen sofort reagieren zu können.

Jeder Mensch, jedes Tier, jede Pflanze steht in direktem, offenen Kontakt zu seiner Umgebung. Das gleiche gilt für die Erde. Sie ist kein „Treibhaus“ und kein geschlossenes System. Sie ist zwar umgeben von einer Lufthülle, der Atmosphäre, die jedoch im Wesentlichen Transportfunktionen ausübt und dafür sorgt, dass überall auf der Erde Leben möglich ist. Die Atmosphäre transportiert warme und kalte Luft und sorgt damit für einen Austausch über die „Allgemeine Zirkulation“. Die Atmosphäre sorgt für eine optimale Durchmischung, dafür, dass überall auf der Erde Sauerstoff zum Atmen vorhanden ist. Ebenso muss das Kohlenstoffdioxid überall gleichmäßig verteilt sein, damit überall grüne Pflanzen wachsen können, ob in den Tropen, den Tundren oder den Wüstenregionen. Auch der Regen muss über die Erde verteilt werden, wenn auch extrem ungleichmäßig. Er mitsamt der Temperatur sorgt für das unterschiedliche Vegetationskleid auf Erden.

Die Erde kann kein „Treibhaus“ sein und darf, auch nicht als Hypothese, als geschlossenes System gedacht werden. Die Erde als Körper strahlt unentwegt „Wärme“ in Form von elektromagnetischer Strahlung ab. Die Erde kühlt sich unentwegt ab, was Sir Isaac Newton über sein 1666 formuliertes „Abkühlungsgesetz“ zum Ausdruck brachte. Damit auf der Erde Leben möglich ist, bedarf sie einer ständigen Beheizung. Die Licht- und Heizquelle ist die Sonne. Sie ist das Zentralgestirn, von dem aus alle Planeten mit Strahlungsenergie versorgt werden. Die Erde befindet sich in einer optimalen Entfernung von der Sonne und rotiert im 24-Stunden-Rhythmus um die eigene Achse, so dass sie einigermaßen gleichmäßig mit Energie versorgt wird. Dazu trägt auch die Schiefe der Ekliptik bei, der wir die Jahreszeiten verdanken. Steht die Sonne tief, ist die Einstrahlung gering, sind die Tage kurz, dann haben wir Winter.

Die Atmosphäre muss durchlässig, ja transparent für das Tageslicht wie die wärmende Infrarotstrahlung sein, damit die Erdoberfläche die Solarstrahlung absorbieren kann. Diese gibt die Wärme durch Leitung an die Luft weiter, die sich bei Erwärmung ausdehnt und mit der Wärmekonvektion die „Allgemeine Zirkulation“ in Gang setzt. Die Atmosphäre muss aber auch durchlässig für die Wärmestrahlung der Erde sein, um nicht überhitzt zu werden. Dies merkt man an der nächtlichen Abkühlung, insbesondere bei wolkenlosem Himmel. Der Bereich zwischen 7 und 13 Mikrometern, durch den die Wärmestrahlung unbehindert von den „Treibhausgasen“ die Lufthülle passieren kann, nennt man das „stets offene IR-Strahlungsfenster“.

Der Grund, warum alle gängigen Klimamodelle eine „Erderwärmung“ voraussagen, liegt einfach an deren Programmierung. Sie haben einen eingebauten „Treibhauseffekt“. Die diversen Klimamodelle sind alle als geschlossenes System mit Unter- und Obergrenze konzipiert. Die Atmosphäre hat zwar eine Untergrenze, den Boden, aber zum Himmel hin ist die offen. Sie hat keine „Obergrenze“, sondern verdünnt sich stetig, bis sie als „leerer Raum“ angesehen werden kann. Den „Treibhausgasen“ wird eine ‚radiative forcing‘, eine Strahlungskraft vorgegeben, so dass bei der Annahme eines „Anstiegs der Treibhausgase“ automatisch eine „Erderwärmung“ berechnet wird. Daher resultiert die Diskrepanz zwischen den Vorhersagen und dem realen Verhalten der Natur, das eine Abnahme der „Globaltemperatur“, und das schon seit 17 Jahren, zeigt.

Warum es zwar Wetterfühligkeit, aber keine Klimasensitivität gibt!

Zweifel daran, ob Elena Schad auch wirklich gedanklich durchdrungen und begriffen hat, was sie schrieb, ergeben sich anhand folgender Sätze. Sie schreibt: „Vor allem ältere Menschen leiden unter den Folgen des Klimas. Ihr Körper kann sich nicht schnell genug an die wechselnden Witterungsverhältnisse anpassen.“ Da geht es kunterbunt durcheinander mit den Begriffen Wetter, Witterung und Klima. Oder war das ein Kotau vor dem Zeitgeist, der das „Klima“ als Übeltäter für die drohende Klimakatstrophe wie alle Wetterextreme auserkoren und verurteilt hat?

Die Menschheit kennt keine „Klimafühligkeit“, weil es kein Klima als Naturereignis gibt. Auch das tropische Klima besteht aus Wetter! Seit seiner Existenz ist der Mensch dem Wetter ausgesetzt und muss sich dessen Normen und Launen anpassen. Schützt er sich nicht adäquat vor dem Wetter, so stirbt er den Hitze- oder den Kältetod. Der Mensch fühlt das Wetter über seine diversen Wetterelemente. Er spürt die Kälte und Wärme, spürt den Wind in seiner wechselnden Stärke. Nur eines spürt er nicht, kann er nicht spüren, das Klima, auch wenn ihm dies permanent eingeredet wird!

Das Klima wird vom Wetter abgeleitet, ist eine statistische Größe und ist damit nicht existent! Mit dem Klima verhält es sich wie mit dem Obst. Während Klima ein berechneter „Mittelwert“ ist, ist Obst ein pauschaler „Sammelbegriff“, unter dem sich Äpfel, Birnen, Kirschen, Pfirsiche, Pflaumen verbergen. Sind Äpfel und Birnen real und können gegessen werden, so ist „Obst“ ein abstrakter Oberbegriff. Obst ist nach Immanuel Kant ein „Ding an sich“. Obst existiert nicht, kann also folglich auch nicht gegessen werden, obgleich wir dem Arzt versichern, ob der Gesundheit willen fleißig Obst zu essen. Insofern kann Klima nicht gefühlt werden. Auch wenn ständig „Klimaängste“ in uns geweckt werden, wir brauchen vor dem Klima -ganz im Gegensatz zum Wetter- keine Angst zu haben.

Am Klima brauchen wir nicht zu verzweifeln, schon gar nicht am „Globalklima“! Zweifel sollten wir jedoch an all den „Klimaexperten“ wie „Klimapropheten“ haben, die um den Weltklimathron buhlen und uns solch abstruse Schauermärchen erzählen.

Dipl.-Meteorologe Dr. phil. Wolfgang Thüne




Die Kirche von der globalen Erwärmung und der Mauerfall- Ideologien halten der Realität auf Dauer nicht stand

Heute vor genau 25 Jahren fiel die Berliner Mauer.  Die freie Welt nahm begeistert an diesem symbolträchtigen Ereignis teil. Sie wurde auf Grund einer Ideologie errichtet, die vorgab das Gute, Gerechte zu wollen, stattdessen aber eine zutiefst inhumane, die Freiheit verweigernde Diktatur errichtete. Die zudem noch die Ressourcen, der dieser Ideologie folgenden Länder plünderte und sie so in den Bankrott trieb. Die Eigeninitiative wurde ausgerottet, der Mensch als Individuum zählte nichts, die „Masse“, organisiert in „der  Partei“, hingegen  alles. Also niemand.

Den Menschen wurde erst die Freiheit genommen und dann wurden ihnen Stück für Stück ihre Lebensgrundlagen geraubt. Begründet wurde diese „notwendige Diktatur des Proletariats“ mit dem „wissenschaftlichen“ Marxismus-Leninismus. Unzählige Lehrstühle, mit Studierenden, Doktoranden, Professoren und ihren Lehrstühlen  beschäftigten sich mit dieser Pseudowissenschaft. Bevölkert von Menschen, die gezwungen wurden diese Ideen zu pauken, weil sie ohne diese ordentlich bescheinigten Kenntnisse keinen Zugang zu den von ihnen gewünschten Berufen gehabt hätten und/oder gesellschaftlich geächtet wurden.

Als höheres Ziel wurde ihnen dafür ein fernes Paradies versprochen, der Kommunismus. Bis dahin aber wurde bedingungslose Unterwerfung unter die absolute Herrschaft der Partei verlangt, ausgeübt von nur wenigen Auserwählten. Die Geschichte, so die Lehre, würde sich nach den wissenschaftlichen Erkenntnissen des Marxismus-Leninismus richten und deshalb sei ein Aufbegehren dagegen nicht nur schädlich und  damit für den Einzelnen auch sehr gefährlich, sondern völlig zwecklos. „Den Sozialismus in seinem Lauf (hin zum Kommunismus) halten weder Ochs noch Esel auf“, dichtete nur wenige Wochen vor dem Fall der Mauer und etwas holprig, der letzte der Diktatoren in der ehemaligen DDR, Partei und Regierungschef  Erich Honecker. Doch die Geschichte dachte gar nicht daran, dieser törichten Heilsidee vom wissenschaftlich begründeten Verlauf zu folgen. Die Menschen nahmen ihr Schicksal selbst in die Hand, nachdem allen immer klarer wurde, dass die Substanz verbraucht war, und die vermeintlich heile Welt nur ein hohler Anspruch war, ohne jede Inhalt. Und den Mächtigen fehlten zunehmend die Ressourcen, um selbst ihre Minimalversprechungen zu erfüllen, die Folge ,das nunmehr und für alle sichtbar, hohle Gebäude brach fast lautlos zusammen.

Auch die Kirche von der globalen Erwärmung folgt einer Idee mit Erlösung zu sehr viel späterer Zeit. Doch anders als der Marxismus-Leninismus verspricht die Kirche von der globalen Erwärmung nicht ein zukünftiges, wenn auch sehr fernes Paradies, sondern die Vermeidung einer allumfassenden Menschheitskatastrophe. „Die Klimakatastrophe hat das Potential die gesamte Menschheit auszulöschen “ verkündete ex Cathedra  vor einigen Jahren die Päpstin dieser Kirche, die „Klimakanzlerin“ Angela Merkel. Die würde zwangsläufig, wissenschaftlich ehern begründet, eintreten, wenn die Gebote und Verbote dieser Kirche nicht eingehalten würden. Wie auch bei anderen Weltuntergangssekten – wie z.B. den Zeugen Jehovas- wird zwar auch und immer wieder aufs Neue, der Eintritt dieses Desasters in die fernere Zukunft verschoben, aber das tut der medialen wie politischen Glaubensbereitschaft keinen Abbruch. Denn es geht immer ums Ganze.

Und auch die  Kirche von der globalen Erwärmung behauptet ihre Gebote und Verbote würden wissenschaftlich und damit vernünftigerweise unangreifbar, begründet sein. Sogar ein Konsens unter „Wissenschaftlern“ wird immer wieder besungen, um ihren Unfehlbarkeitsanspruch zu untermauern. Auch die Kirche von der globalen Erwärmung verlangt von ihren Anhängern und dem Volk, zu dessen Herren sie sich aufschwingen will, absoluten Gehorsam. Du sollst kein CO2 erzeugen, heißt das oberste Gebot. Du sollst nicht mit dem Flugzeug oder Auto reisen, Du sollst kein Fleisch essen, Du sollst nicht mehr Energie einsetzen, als der Ärmste auf dieser Welt, etc. etc. heißen weitere Gebote. Und zur Durchsetzung  dieser Gebote muss die Demokratie abgeschafft – transformiert- werden. Ein Wohlfahrtsausschuss – wenn auch anders genannt- bestehend aus „Wissenschaftlern“ muss alle Vorhaben einer Regierung zuvor auf „Klimaverträglichkeit“ überprüfen und können, falls sie missfallen, verhindern, indem sie ihr Veto einlegen. Und die Regierungen samt ihren Völkern haben zu gehorchen.

Diese neue „wissenschaftlich“ zwingend begründete Utopie hatte nicht etwas empörte Ablehnung und Ächtung einer eben erst befreiten Gesellschaft zur Folge, sondern wird tagtäglich in Kindergärten und Schulen und Hochschulen, bei Kongressen und allerlei Veranstaltungen, wie in Verwaltungen und von Regierungen verkündet, gelehrt und gelebt. Die Berichte, des zum „Weltklimarat“ hochstilisiertem Intergovernmental Panel on Climate Change (IPCC), die schon per Mandat die Mini-Erwärmung der letzten 150 Jahre, als sehr gefährlich, aber vor allem menschgemacht, darstellen müssen, sind die heilige Schrift der Regierungen, Verwaltungen und daraus politischen Honig saugenden Parteien und NGO´s. Unantastbar, weil wissenschaftlich begründet-

Willfährige Medien berichten unter Ausblendung der Realität und jeglicher Objektivität ausschließlich  über diese Pseudowissenschaft und ihre großen Errungenschaften. Sämtliche  Katastrophen auf dieser Welt werden von Ihnen, als von der menschgemachten globalen Erwärmung ausgelöst, dargestellt und mit lauten Rufen nach Umkehr den Empfängern vermittelt.

Eine objektive und kritische Überprüfung und Beurteilung der vielfältigen Behauptungen  findet nicht statt, ja ist über die Maßen unerwünscht.  Es ist auch kein Wunder, dass diese Kirche von der globalen Erwärmung in der Wahl ihrer Mittel und Wege zur Zielerreichung auf teuflische Art und Weise zu den bereits untergegangen geglaubten Methoden des Marxismus-Leninismus greift. Planwirtschaft und Verweigerung der Freiheit des Individuums stehen ganz vorne auf ihrer Liste. In gut 30 Jahren, überwiegend von Protagonisten  dieser Weltanschauung herangezüchtet, hat sie unübersehbar die Züge einer totalitären Diktatur angenommen. Die letzten Äußerungen der UN-Tagung in Kopenhagen, wo nur alter Wein in neue Schläuche gekippt wurde und der Welt als Synthesereport aufgewärmt, verkauft wurde, belegen diese Einschätzung.

Doch irgendwann, in nicht all zu ferner Zukunft, werden die Menschen begreifen, dass sie erneut mit Unterstützung einer Pseudowissenschaft betrogen und ausschließlich um ihre Freiheit und ihren Wohlstand gebracht werden sollen. Denn nicht das Klima ist bedroht, sondern allein unsere Freiheit. Das müssen und werden die Menschen merken und entsprechend handeln. Dann wird auch diese Mauer – diesmal in den Köpfen- fallen. Und nochmals 25 Jahre wird es nicht dauern.




Wetter und Klima im Zeichen des 5. IPCC Berichts

Eilfertig hat das Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit den IPCC-Synthesebericht in Deutsch herausgegeben (hier). Zur Kennzeichnung des IPCC selber bedarf es nicht vieler Worte. Spätestens nach dem Skandal durchgesickerter E-Mails, in denen dem IPCC zuarbeitende Advokatenwissenschaftler geheimbündlerisch ihre Durchstechereien verabredeten, braucht man nicht mehr näher zu erläutern, um welche Art von Verein es sich handelt. Das IPCC, UN-Gastgeber einer Versammlung der weltbesten Klimaexperten, die nach sorgfältigem internen Review ihre wertvollen Erkenntnisse zur Weltrettung vor der kommenden Klimakatastrophe der Öffentlichkeit zur Verfügung stellt? Leider voll daneben!

Die IPCC-Berichte verfassen zu maßgebenden Teilen fachunkundige NGO-Mitglieder von Greenpeace, vom WWF oder ähnlichen Organisationen. So sehen die Berichte dann auch aus. Wem dies unwahrscheinlich vorkommt, lese im Büchlein der kanadischen Journalistin Donna Lafroboise nach (hier). Es titelt zwar etwas seltsam „Von einem Jugendstraftäter, der mit dem besten Klimaexperten der Welt verwechselt wurde“ (mit dem Straftäter ist das IPCC gemeint, das erschließt sich erst, wenn man das Buch liest), ist aber unbedingt empfehlenswert. Es ist sorgfältig recherchiert, mit nachprüfbaren Quellen versehen und liest sich locker – ein Büchlein für Zeitgenossen, die nicht glauben sondern wissen wollen. In Stichworten zusammengefasst belegt Frau Lafroboise unter anderem über IPCC-Autoren:

viele Autoren haben noch nicht einmal ihr Studium abgeschlossen
– weltweit anerkannte Experten mit unerwünschten Resultaten werden nicht in den IPCC-Berichten berücksichtigt
– die Auswahl der Autoren erfolgt nach politischen und nicht wissenschaftlichen Kriterien
– viele Autoren sind Aktivisten (also grüne Lobbyisten), so dass ihre Aussagen einseitig sind
– die Erstellung der Berichte ist intransparent und ohne Qualitätssicherung
– etwa ein Drittel der zitierten Quellen des IPCC-Berichts von 2007 genügt wissenschaftlichen Anforderungen nicht
– wenn es zu einem bestimmten Thema keine geeignete Studie gibt, wird sie  geschrieben und dann aus ihr zitiert
– manche Autoren geben die von ihnen zitierten Zeitschriften selbst heraus und beeinflussen somit ihren Inhalt

Nun geht es beim IPCC-Synthesebericht erst einmal um die Zusammenfassung für Politiker. Bekanntlich kommt ja für Politiker oft der größte sachliche Unsinn gerade recht. Frau Barabara Hendricks (Bundesumweltministerin), geschmückt mit der bahnbrechenden, hochinteressanten Doktorarbeit „Die Entwicklung der Margarineindustrie am unteren Niederrhein“, wird vom IPCC-Synthesebericht sicher begeistert sein. In klug-sachgerechter Beurteilung der drohenden Klimagefahr will sie jetzt sogar unsere letzten großen Grundlast-Kohlekraftwerke plattmachen, die noch für eine sichere Stromerzeugung sorgen können.

Da kann man nur in fröhlicher Untergangsstimmung „weiter so Frau Hendricks“ ausrufen, denn wer kennt schon die technischen Grundgesetze einer sicheren Stromversorgung besser als Experten der Margarineindustrie. Unser ehemaliger Umweltminister Peter Altmaier, als Jurist ähnlich fachnah wie Frau Hendricks, hat wenigstens in einer geistesblitzartigen Erleuchtung über das Energiewende-Herumfummeln an unserer Stromversorgung korrekt als von einer „Operation am offenen Herzen“ gesprochen. Hut ab vor dieser anscheinend schwer zu gewinnenden Erkenntnis und vor allem vor ihrem offenen Aussprechen! Wenn wir also jetzt von den Kohlekraftwerksplänen unserer sachkundigen Umweltministerin hören, sollten wir nicht in Panik verfallen. Angesichts ihrer Expertise können wir unbesorgt und ruhig schlafen, alles kann nur gut werden.

Zurück zum IPCC. Der wissenschaftlichere Teil der IPCC-Berichte hat zwar etwas mehr Substanz, ist aber dennoch sehr fragwürdig. So schätzte das IPCC bislang den Klimaeinfluss des anthropogenen CO2 als 17 mal (wenn ich mich richtig erinnere) stärker ein als den der Sonne – die entsprechende Stelle im neuen Bericht kenne ich noch nicht. Auf jeden Fall sind derartige Angaben absurd. Es ist nämlich bis heute keine begutachtete Studie bekannt, die auf der Basis von Messungen überhaupt ein Klimasignal des menschgemachten CO2 auffinden konnte! Hierzu meint die wohl renommierteste Klima-Forscherpersönlichkeit der USA, Prof. Judith Curry, auf ihrem Blog Climate Etc. vom 3.Okt.2014 unter „Challanging the 2 °C target“: …. the inconvenient truth that there is no detection of any increase in most types of extreme weather events and it is extreme difficult to attribute any change to humans … Nach üblichem naturwissenschaftlichen Vorgehen wäre daher in erster Näherung zunächst einmal von „anthropogenes CO2 = kein Klimaeinfluss“ auszugehen, und zwar so lange, bis aus ordentlichen Messungen diese Näherung verbessert werden kann. Auf der anderen Seite bietet aber die Fachliteratur unzählige Studien zum Einfluss von Sonnen- und Autozyklen auf Klimavorgänge, denen Messungen zu Grunde liegen – eine der jüngsten vom Autor zs. mit Koautoren (hier). Darf man also die wissenschaftlich orientierten Berichte des IPCC noch als „wissenschaftlich objektiv und neutral“ bezeichnen?

Es soll aber hier nicht nur um das IPPC und dessen 5. Bericht für Politiker gehen. Wir haben glücklicherweise einen schönen Oktober und einen noch schöneren Novemberanfang gehabt. Und schon scheint es wieder loszugehen – Oouuuch… die ungebremste globale Erwärmung! Jüngst im „TV Wetter“ wurde von der Meteorologin wieder einmal ein Verkündungsauftrag erledigt: „Vermutlich wird der November als der wärmste seit Beginn der Temperaturaufzeichnungen in die Statistik eingehen“. Seit Beginn der Aufzeichnungen? Hmmm, wann war das? Novemberrekord? Hmmm, an welchem Ort der Erde wird der wohl „gemessen“? Na, egal! Der Dame war diese Pflichterfüllung sichtbar peinlich, verständlich, denn als guter Meteorologin müssten ihr die realen Messungen bekannt sein, insbesondere die von Satelliten.

Solche TV-Statements belegen den heutigen Bildungsstand des TV-Konsumenten. Das öffentlich rechtliche Fernsehen braucht nämlich keineswegs bis über die Ohren rot zu werden, wenn es zum Zweck grün-ideologischer Zuschauererziehung explizit oder implizit wieder einmal Klimaänderung mit Wetteränderung vermengt oder Angst erzeugenden Klima-Mega-Unsinn unter die Leute streut. Der Zuschauer schluckt alles. Nur die Temperaturen der Erde scheren sich nicht um’s Fernsehen, sie stagnieren unbeeindruckt und wie immer stark zappelnd seit 18 Jahren vor sich hin und kühlen sich im Trend teilweise sogar deutlich ab. Der Objektivitätswert der TV-Berichterstattung ist zweifellos daran ablesbar, ob bzw. wann dieser durch Messungen belegte Temperaturstillstand der Öffentlichkeit nicht mehr vorenthalten wird.

Zur Einstimmung auf die Überraschungen, welche die reale Natur für uns bereithält, sei – zur Ergötzung und auch zum Genießen der schönen Sprachformen unserer Altvorderen – daran erinnert, was uns Johann Peter Hebel vor 200 Jahren im Rheinländischen Hausfreund über tradierte zeitgenössische Berichte seit dem 12. Jahrhundert betreffs „Klimakapriolen“ mitteilte:

“Der warme Winter von .. 1806 auf .. 1807 hat viel

Verwunderung erregt und den armen Leuten wohlgetan; der und jener

… wird … als alter Mann … seinen Enkeln erzählen, dass … man

Anno 6, als der Franzose in Polen war, zwischen Weihnacht und

Neujahr Erdbeeren gegessen und Veilchen gerochen habe. Solche Zeiten

sind selten, aber nicht unerhört, und man zählt in den alten

Chroniken seit siebenhundert Jahren achtundvierzig dergleichen

Jahrgänge …… 1289 … war es so warm, dass die Jungfrauen um

Weihnacht und am Dreikönigstag Kränze von Veilchen, Kornblumen und

anderen trugen … 1420 war der Winter und das Frühjahr so gelind,

dass im März die Bäume schon verblüheten. Im April hatte man schon

zeitige Kirschen und der Weinstock blühte. Im Mai gab es schon

ziemliche Trauben-Beerlein … Im Winter 1538 konnten sich auch die

Mädchen und Knaben im Freien küssen, wenns nur mit Ehre geschehen

ist; Denn die Wärme war so außerordentlich, dass um Weihnacht alle

Blumen blühten. Im ersten Monat des Jahres 1572 schlugen die Bäume

aus, und im Februar brüteten die Vögel. Im Jahre 1585 stand am

Ostertag das Korn in den Ähren … 1617 und 1659 waren schon im

Jänner die Lerchen und die Trosteln lustig … 1722 hörte man im

Jänner schon wieder auf, die Stuben einzuheizen. Der letzte

ungewöhnlich warme Winter war im Jahre 1748. Summa, es ist besser,

wenn am St.-Stephans-Tag die Bäume treiben, als wenn am

St.-Johannis-Tag Eiszapfen daranhängen.“

Diese Schilderung findet sich in „Hebel, Insel Verlag, Band 4, S. 427“, den Hinweis verdanke ich einem Leserbrief in der FAZ vom 2.7.2005 von Prof. Wolfgang Harms , Direktor für Energierecht der FU Berlin.

Aber Klimakapriolen? Natürlich nicht! Trotz dieser prachtvollen Schilderung von Hebel handelt es sich nur um Wetterkapriolen, wie es sie immer wieder gibt (Hebel kannte die Definition der WMO noch nicht). Wir gewinnen aus dieser Schilderung nur die jedem Meteorologen geläufige Kenntnis, dass ungewöhnliches Wetter die gewöhnliche Eigenschaft von Wetter ist. Weil Klimaänderungen gemäß Definition der Weltmeteorologieorganisation erst ab Zeiträumen von mehr als 30 Jahren als solche gelten, folgt, dass es sich bei der Schilderung um zeitlich und lokal begrenzte Wetterereignisse handelt. Leider verhält sich dies auch so bei unserem schönen Oktober und dem ungewöhnlich warmen Novemberanfang. Wir können nur ganz fest die Daumen drücken, dass die schöne Wärme so schnell als möglich wiederkommt.




IPCC Synthese-Report und die deutschen Medien samt Politik- Die Vorbeter, die Nachbeter

Die Medien beten gläubig nach, was der sogenannte Weltklimarat (IPCC) vorbetet. Das ist auch jetzt wieder zu besichtigen. In Kopenhagen war’s, vergangenen Sonntag. Dort hat der Internationale Klimawandel-Ausschuss (International Panel on Climate Change, IPCC) der Öffentlichkeit seinen Abschlussbericht präsentiert. Offiziell nennt er sich Synthesebericht des Fünften Sachstandsberichts. Für alle ist bombenfest klar: Anthropogene „Treibhausgase“ (im wesentlichen CO2) sind auf dem höchsten Stand aller Zeiten, diese Gase erwärmen das Klima, der Mensch ist schuld, runter mit den Gasen, dann klappt’s mit dem Klimaziel, nämlich die globale Erwärmung auf maximal zwei Grad zu begrenzen.

Dumm nur, dass der Globaltemperatur das CO2 gleichgültig ist

In den „Kernbotschaften“ (hier), die den Synthesebericht nochmals zusammenfassen, liest man: „Die Erwärmung des Klimasystems ist eindeutig, und es ist äußerst wahrscheinlich, dass der menschliche Einfluss die Hauptursache der beobachteten Erwärmung seit Mitte des 20. Jahrhunderts war.“ Der Fußnote entnimmt man, was „äußerst wahrscheinlich“ bedeutet: Die Aussage trifft zu 95 bis 100 Prozent zu. Dumm nur, dass der Globaltemperatur dieser CO2-Anstieg ziemlich gleichgültig sein muss, denn in den zurückliegenden siebzehn Jahren hat sie sich nicht verändert, sie ist sogar minimal rückläufig gewesen.

Aber das Hirn lässt sich mit allem Blödsinn füllen

Ferner liest man: Dieser Anstieg „führte zu einer Aufnahme von Energie in das Klimasystem. Davon wurde in den vergangenen 40 Jahren mehr als 90 Prozent durch die Ozeane gespeichert, so dass diese erwärmt wurden.“ Damit jedoch werden Ursache und Wirkung verwechselt. Denn wenn die Temperatur (durch Energieaufnahme von der Sonne) steigt, geben die Ozeane Teile des in ihrem Wasser gelösten Kohlendioxids frei, und wenn sie sinkt, binden sie das Gas. Also nicht der CO2-Anstieg erwärmt die Ozeane, sondern wenn die Ozeane erwärmt werden, gasen sie CO2 aus. Dass die Erwärmung auf der Erde vor dreihundert Jahren stärker war als heute, findet sich zum Beispiel hier. Damals gab es das anthropogene CO2 der industriellen Welt von heute nicht. Der Kabarettist Richard Rogler (Jahrgang 1949) hat einmal gesagt: „Wenn du zuviel säufst, geht die Leber am Alkohol kaputt. Wenn du zuviel rauchst, haut’s die Lunge auseinander. Aber das Hirn lässt sich mit allem Blödsinn füllen – es bleibt schmerzfrei.“

In den politisch folgsamen Medien rührt sich kein Zweifel

Bei der Pressekonferenz in Kopenhagen sagte UN-Generalsekretär Ban Ki-moon: „Der Einfluss des Menschen auf das Klima ist klar, und er nimmt weiter zu.“ Ebenso der IPCC-Vorsitzende Rajendra Pachauri: Der Klimawandel lasse sich mit einer Wahrscheinlichkeit von mehr als 95 Prozent auf den menschlichen Einfluss zurückführen. Aber das ist nicht nur mit Wahrscheinlichkeit, sondern mit Gewissheit falsch, denn die Tatsachen und viele andere Wissenschaftler belegen Gegenteiliges. .Aber der Klimawandel-Ausschuss und die politisch folgsamen Mainstream-Medien pflegen sie zu unterdrücken. Gegen die IPCC-Botschaften rührt sich in diesen Medien kein Zweifel. Sie geben unkritisch und alarmistisch die Darbietungen des Ausschusses wieder. Die ganze offizielle Darstellung siehe hier. Vom englischen Dramatiker und Humoristen Douglas Jerrold (1803 bis 1857) stammt das Wort „Die Wahrheit kann warten. Sie ist es gewohnt.“

Deine Wissenschaftler, meine Wissenschaftler

Mit imposanten Zahlen sollen die Menschen beeindruckt und die Verlautbarungen glaubhaft gemacht werden: Das Abschlussdokument gebe die Auswertung von mehr als 30 000 wissenschaftlichen Einzelveröffentlichungen wieder. Grundlage für die vierzigseitige Zusammenfassung des neuen Kompendiums sei die Arbeit von mehr als 2000 Wissenschaftlern weltweit und von mehr als fünftausend Seiten Papier. In der Pressemitteilung des Bundesumweltministeriums liest man: „Seit 2010 arbeiteten mehr als dreitausend Experten aus mehr als 70 Ländern am Gesamtbericht, davon mehr als 100 aus Deutschland.“ Die ganze Pressemitteilung hier. Aber viele tausend Wissenschaftler lassen sich auch gegen den CO2-Wahn und den IPCC aufbieten. Also Deine Wissenschaftler, meine Wissenschaftler. Fragen muss man aber stets, wer von wem finanziell abhängig und wer unabhängig (geworden) ist. Es fällt auf, wie oft sich erst pensionierte Wissenschaftler offen zu äußern wagen. Ohnehin kommt es nicht auf die Zahl der Wissenschaftler an. Für das, was als Erkenntnis belegbar ist, genügt ein einziger.

Was ist los mit unseren Klimagurus?

Aus Perth in Australien schickte der deutsche Unternehmer und Klimaschutzkritiker Frank Abels*) am 3. November folgenden Kommentar: „Was ist los mit unseren Klimagurus, schwächeln sie, muss man sich gar Sorgen machen, denn mit einem Mal ist das mit der Klimarettung gar nicht mehr so eilig. “Es gibt noch ein Zeitfenster von zwei bis drei Jahrzehnten in dem der Klimawandel zu akzeptablen Kosten gebremst werden kann”, heißt es nun neuerdings beim IPCC (Intergovernmental Panel on Climate Change). Dieser Satz manifestiert einmal mehr die Unglaubwürdigkeit und den Mangel an Seriosität der ganzen ‚Klimabranche’, denn zu Beginn der Klimahysterie hieß es doch, die Menschheit habe nur noch fünf Jahre Zeit, um die Katastrophe abzuwenden. 1997 warnte Prof. Rahmsdorff vom PIK (Potsdam Institut für Klimafolgenforschung), dass sich die Temperatur schon bis 2005 um 1° Celsius erhöhen werde. Und was trat wirklich ein? Seit 1997 ein leichtes Absinken der Globaltemperatur.“ (Teile dieses Kommentars sind in der Tageszeitung Die Welt vom 5. November auf Seite 2 als Leserzuschrift abgedruckt).

Also noch ‘ne Prognose

Frank Abels weiter: „Diesem Tatbestand des Ausbleibens der Klimaerwärmung seit 17 Jahren ist es vermutlich geschuldet, dass auf einmal vergleichsweise moderate Töne im jüngsten IPCC-Bericht stehen, denn im ‚Kleingedruckten’ dieses Berichtes, den fast nur Fachleute lesen, wird dieses Ausbleiben der prognostizierten Erwärmung durchaus erwähnt. Das ist peinlich, und das mochten die Experten des IPCC auch nicht in die für Politiker gedachte Kurzfassung des Berichtes schreiben. IPCC versucht sich mal wieder argumentativ in die Zukunft zu retten, indem nun prognostiziert wird, dass nach der gegenwärtigen Stagnations- und Abkühlungsphase in 10 bis 20 Jahren die Klimaerwärmung garantiert weitergeht, daher also das neue “Zeitfenster” im aktuellen IPCC-Bericht. Also noch ne´ Prognose, aber wie glaubwürdig ist das angesichts der vielen falschen Vorhersagen der Vergangenheit.“

Australische Medien im Unterschied zu deutschen

In einem weiteren Brief schrieb Abels am 4. November: „In Australien fühle ich mich nicht nur wegen des Wetters, der netten Menschen und der schönen Lage sehr wohl, sondern auch weil es hier keine dogmatische Festlegung in der Klimafrage oder anderen Politbereichen gibt. Besonders nicht, seit die Regierung Abbot dem Klimaspuk ein Ende setzte. Wo ist nun der entscheidende Unterschied? Gestern und heute waren in allen deutschen Medien Betroffenheitsartikel wegen des neusten Klimakatastrophenberichtes des IPCC zu lesen. Ich konnte nicht einen kritischen Artikel oder Leserbrief finden. In fast allen wichtigen australischen Zeitungen war es dagegen genau anders. THE AUSTRALIAN, wohl die größte Zeitung des Landes, brachte an prominenter Stelle einen Leitartikel, in dem die Aussagen des IPCC mit kompetenten Argumenten zerpflückt und der ganze Klimaunfug bloßgestellt wurde. Aber noch besser waren die vielen Leserbriefe, die fast alle in die gleiche Kerbe schlugen und die IPCC-Thesen verurteilten. Lediglich ein einziger war pro IPCC – der hatte wohl die Funktion Ausgewogenheit darzustellen.“

Für Frank Abels ein schöner Tag

„Aber es kam in der gleichen Ausgabe der Zeitung noch viel besser. In einem ausführlichen Artikel wurde gefordert, nun auch in Australien Kernkraftwerke der neusten Generation (inhärent sicher) zu bauen, weil der aus Tritium gewonnene Strom weniger als die Hälfte des ohnehin schon billigen Kohlestroms kostet. (übrigens hatte Australien bisher keine Kernkraftwerke).“ Abels schloss seinen Brief, dieser Dienstag, der 4. November 2014, sei also ein schöner Tag im Leben eines Klimaschutzkritikers

Ein Österreicher schreibt an Kanzlerin Merkel

Auch aus Österreich bekam ich Einschlägiges zugeschickt. Es war ein Brief an Kanzlerin Merkel vom 24. Oktober. Der österreichische Bürger Peter Kafka**) schrieb ihr: „In diesen Tagen haben Sie gegenüber der Öffentlichkeit mehrfach vertreten, dass Sie eine Reduktion der CO2-Emission um 40 Prozent bis 2020 für richtig halten und dies auch gegenüber der EU verlauten lassen.  Sie haben aber nicht gesagt:

Die CO2-Einsparmaßnahmen sind also nutzlos

1) „Wie und wo“ die CO2-Emission um 40 Prozent konkret vermindert werden muss.
Wo: Infrage kommen beispielhaft: der Autoverkehr, Luftverkehr, Kohle- und Gas- und Ölkraftwerke, der Hausbrand, sog. Bio-Kraftwerke, der Binnenschiffsverkehr, die Stahlindustrie, tausende Kleinbetriebe mit Feuerstellen, usw. und letztlich wir Menschen durch unsere Atmung.
Die Verantwortungsträger in Politik und Industrie müssen erkennen, dass die  planwirtschaftlichen Maßnahmen zur CO2-Einsparung dazu geführt haben, dass  die CO2-Emissionen zurzeit ansteigen. Die Maßnahmen sind also diesbezüglich  nutzlos. Das „Wie“ bleibt bei so einer simplen Aufzählung von CO2-Emittenten immer noch offen. Sie haben auch noch nicht gesagt:

Wer die Treiber von Temperaturänderungen wirklich sind

2) dass CO2 nicht der Verursacher der erdgeschichtlich immer ablaufenden lokalen und/oder globalen Klimaveränderungen ist. Die thermodynamischen Treiber von Temperaturänderungen sind die Sonnenaktivität, die Wolkenbildung, der Wasserdampf und Staub in der Atmosphäre durch die Landnutzung, Emissionen aus Vulkanen, großflächige Veränderungen der Erdoberfläche durch Bebauung, der Waldrodung oder der Landwirtschaft, Meeresströmungen und vieles anderes.“

Es gibt keinen messtechnischen Nachweis

„Sie wissen als Dr. rer. nat. sicherlich, dass es weltweit kein relevantes Experiment gibt, das die von Wissenschaftlern nur theoretisch begründete Korrelation zwischen CO2-Gehalt und Lufttemperatur nachweist. Ebenso gibt es auch keinen messtechnischen Nachweis, dass in einem Kontrollvolumen der erdnahen Atmosphäre die örtliche Lufttemperatur sich mit dem örtlichen CO2-Gehalt verändert. Auch die Mittelwerte der beiden Variablen in diesem Kontrollvolumen zeigen keine Korrelation.  Ihrem gut informierten Kanzleramtsbüro muss auch bekannt sein, dass sowohl die aus vielen örtlichen Messwerten weltweit gemittelte bodennahe Lufttemperatur sowohl weltweit als auch in Deutschland und z.B. auch in Wien und Graz in den vergangenen 15 Jahren leicht gesunken ist. Und dies, obwohl  der CO2-Gehalt rund um [auf] 400 ppm gestiegen ist.“

Das CO2 ist mutiert zu einem Geschäftsmodell von Wissenschaft und Industrie

„Schlussfolgerungen: Da die CO2-Frage für jeden Bürger bedeutsamen Einfluss auf seine Lebensweise hat und politische Entscheidungen dazu immense finanzielle Auswirkungen auf seine wirtschaftliche Existenz nach sich ziehen, bitte ich Sie dringend, zu den zwei von Ihnen nicht behandelten Fragen (siehe oben) Ihr Büro anzuweisen, mir eine konkrete und sachdienliche Antwort zukommen zu lassen. Die CO2-Frage ist ja nachweislich zu einem Geschäftsmodell von Wissenschaft und Industrie mutiert, dem die Politik – wegen des Mangels an Sachkunde – hilflos gegenüber steht. Mit besten Dank und mit freundlichen Grüßen Dr. techn. Peter Kafka.“

Abschließend Niels Bohr und Voltaire

Es trifft wohl zu, was der dänische Physiker Niels Bohr (1885 bis 1962) so ausgedrückt hat: „Alles ist möglich, vorausgesetzt, dass es genügend unvernünftig ist.“ Und da einem die Klimaschutzpolitik wie fanatische Besessenheit vorkommt, lässt sich auch an eine Bemerkung das französischen Autors Voltaire (1694 bis 1778) erinnern: “Bedenkt, dass Fanatiker gefährlicher sind als Schurken. Einen Besessenen kann man niemals zur Vernunft bringen, einen Schurken wohl.”
_________________________________________________________________________________
*) Wer ist Frank Abels? Er ist ein erfolgreicher mittelständischer Unternehmer. Er lebt jeweils ein halbes Jahr in Australien (Perth, Rockingham am Cockburn Sound) und das andere halbe Jahr in Deutschland (Munster, Lüneburger Heide), wo der Betrieb seiner Frank Abels Consulting & Technology GmbH (FAC) steht. Wer wissen will, womit sich das Unternehmen befasst, wird hier fündig: http://www.fac-gmbh.de/fac-gmbh.php Privat schreibt Abels an Freunde, Verwandte und Bekannte regelmäßig Briefe, in denen er anschaulich das Leben in Australien und die Besonderheiten dort schildert. Er schickt, seit ich ihn kenne auch mir. Ich habe mit ihm abgesprochen, dass ich seine Briefe veröffentlichen darf. Die Zwischenüberschriften im Brieftext sind von mir eingefügt.

**) Die Anschrift liegt mir vor. Die Zwischenüberschriften im Brieftext sind von mir eingefügt.




Die deutsche Energiewende – das Billionen-Grab

Wie sich die 7 Billionen Euro zusammensetzen

Allein die zusätzlichen Stromkosten, die das Erneuerbare-Energien-Gesetz (EEG) verursacht, beziffert Limburg auf rund 2 Billionen Euro. Die zusätzlichen Kosten für das Stromnetz mit weiteren Trassen veranschlagt er auf 1 bis 1,5 Billionen. Die Energiesparverordnung (EnEV) führt nach Limburg zu einer Kostenbelastung von rund 3 Billionen.

Hinzukommt: Mit zu hohen Stromkosten verlieren Betriebe an Wettbewerbsfähigkeit. Zwingt das, wie es schon geschieht, zu Schließungen oder zu Verlagerungen ins Ausland, gehen Arbeitsplätze dauerhaft verloren. Die Kosten, die sich daraus ergeben, sind noch nicht bezifferbar, aber es werden, so Limburg, weitere Milliarden sein. Hinzukommt, dass mit immer mehr Windkraft- und Fotovoltaikanlagen die Gefahr für die Netzstabilität noch größer wird als schon bisher. Denn der Strom mit Wind und Sonne ist höchst unzuverlässig, ist „Flatterstrom“. Netzzusammenbrüche führen zu flächendeckenden Stromausfällen. Auch diese Kosten lassen sich vorher schwer berechnen. In die Milliarden werden auch sie gehen.

7 Billionen Euro sinnlos verpulvert

Also rund 7 Billionen insgesamt. Wer nun sagt „Na ja, bis zum Jahr 2050 ist es noch ziemlich weit, und der jährliche Betrag – seit Beginn bis dahin durchschnittlich auf die Jahre gerechnet – sieht doch schon viel kommoder aus, das packen wir schon“, der unterschlägt, das auch der jährliche Betrag schon zuviel ist. Vor allem aber unterschlägt er dies: Diese Kosten von 7 Billionen sind völlig unnötig und werden sinnlos verpulvert. Denn ohne seine „Energiewende“ könnte sich Deutschland wie zuvor reibungslos und sicher mit Strom versorgen, ohne diese Billionen ausgeben zu müssen und ohne alle damit zu belasten. Und noch schlimmer: Das Klima wird damit schon gar nicht gerettet, dieses vorgebliche Ziel also noch nicht einmal erreicht.

Wieviel sind 7 Billionen? Zum Beispiel: 140 Milliarden 50-Euro-Scheine

Eine Billion ist bekanntlich eine Eins mit zwölf Nullen. Eine Billion sind tausend Milliarden, sieben Billionen also siebentausend Milliarden oder siebenhunderttausend Millionen oder sieben Millionen Millionen. Das sind Größenordnungen, die sich der Normalbürger schwer vorstellen kann. Versuchen wir es mal mit der 50-Euro-Banknote. Wer eine Billion Euro in 50-Euro-Scheinen auszahlen wollte, müsste sich 20 Milliarden dieser Scheine besorgen. Würde man alle diese Geldscheine der Länge nach hintereinander legen, so entstünde ein Band, das sich siebzigmal um den Erdball wickeln ließe. 2)   Das also ist eine Billion. Aber mit sieben Billionen Euro in 50-Euro-Noten (= 140 Milliarden Scheine) käme man vierhundertundneunzigmal um die Erde herum. Also ziemlich viel Holz, untertreibend salopp gesagt. Aber zuviel Holz, wenn man nicht verblödet ist, es sei denn, es stecken Ziele dahinter, die verborgen bleiben sollen. Aber was verborgen wird, ist noch gefährlicher.

Womit die Menschen für die „Energiewende“ geködert werden

An Zielen, an Absichten, die nicht verborgen werden, führte Limburg in Frankfurt (neben dem Vermeiden von CO2 als „Klimaschutz“) diese auf: eine nachhaltige Entwicklung der Energieversorgung ermöglichen, die volkswirtschaftlichen Kosten der Energieversorgung auch durch die Einbeziehung langfristiger externer Effekte verringern (Internalisierung externer Kosten), fossile Energieressourcen schonen und die Weiterentwicklung von Technologien zur Erzeugung von Strom aus erneuerbaren Quellen fördern sowie mit der EnEV bis 2050 einen nahezu „klimaneutralen“ Gebäudebestand zu erreichen. Ebenfalls ausdrückliches Ziel der Energiewende ist „Weg von der Stromerzeugung mit Kernkraft“. Aber für die Wende geködert werden die Menschen mit der bekannten, aber unbewiesenen Behauptung, anthropogenes CO2 führe zu einer zu starken Erwärmung der Erde und damit zu einem  Klimawandel, folglich sei das (bestehende) Klima zu retten.

Für 7 Billionen Euro ein Temperatursenkungseffekt in 36 Jahren um 0,004 Grad

Selbst dann, wenn man der Behauptung glaubt und ihr folgt: Das Ergebnis ist derart grotesk, dass es ein Wahnsinn ist, dafür 7 Billionen Euro auszugeben und zu verschwenden. Auch das führte Limburg vor. Geht man vom Jahr 2000 aus, dann belief sich der errechnete deutsche Ausstoß von anthropogenem CO2 in Deutschland (Industrie, Haushalte, Verkehr, Energie u.a.) auf rund 830 Millionen Tonnen. Da sind zwar auch andere sogenannte Treibhausgase dabei, aber zu 99 Prozent bestehen diese 830 Millionen aus CO2. Der Ausstoß dieses vorgeblichen Treibhausgases soll – unter anderem durch Stromerzeugung mittels Wind, Sonne und „Biogas“ – bis 2050 auf 166 Millionen Tonnen verringert werden. Dann hätte das einen errechneten Temperatursenkungseffekt von gewaltigen 0,004 Grad – aber nur rein theoretisch, denn ob es wirklich (in 36 Jahren!) so kommt, ist unbeweisbar.

Für zigtausend subventionierte Arbeitsplätze zigtausende bedrohte und vernichtete

Die Arbeitsplätze in der Windkraft-, Fotovoltaik- und Biogasindustrie sind hochsubventioniert. So beliefen sich die EEG-bedingten Zwangsbelastungen der Stromverbraucher 2013 netto auf rund 20 Milliarden Euro. Mit diesem Betrag wurden die Erzeuger von EEG-Strom (aus Wind, Sonne, Biogas) subventioniert. 2013 waren in dieser Industrie nach Angaben Limburgs rund 85 000 Menschen real beschäftigt. Jeder Arbeitsplatz ist also im Durchschnitt mit 235 000 Euro subventioniert worden, weit mehr als einst im deutschen Kohlebergbau. Diesen subventionierten Arbeitsplätzen muss man auch jene Arbeitsplätze gegenüberstellen, die die Energiewende durch die Stromverteuerung vernichtet. Als Beispiele direkter Arbeitsplatzverluste nannte Limburg diese: Bei den Stromversorgern seien 20 000 Beschäftigte bedroht, bei den Kraftwerkzulieferern akut derzeit etwa 10 000, EnBW baue 1350 Arbeitsplätze ab, RWE 10 400, EON 11 000, Siemens (bei der Windkraft) 1000, Vattenfall 1500 sowie RWE, Evonik, Lanxess zusammen 30 000.3)

1) Veranstalter dieser 8. Konferenz Internationalen Klima- und Energiekonferenz (IKEK-8) und der früheren sieben Konferenzen ist das Europäische Institut für Klima und Energie e.V., das sich abgekürzt EIKE nennt. Michael Limburg ist dessen Vize-Präsident.

2) Quelle für das Beispiel hier.

3) Limburg gab auch einen Überblick, womit alles begann, und darüber, wie es weiterging. Zuerst gab es das Stromeinspeisungsgesetz, in Kraft getreten am 1. Januar 1991. Seine Autoren waren Matthias Engelsberger (CSU) und Wolfgang Daniels (Grüne). 1991 standen in Deutschland rund 1000 Windkraftanlagen, 1999 waren es schon 10 000. Bundesumweltministerin von 1994 bis 1998 ist Angela Merkel (CDU) gewesen, danach hat bis 2005 Jürgen Trittin (Die Grünen) das Amt gehabt. Am 1. Januar 2001 folgte das Erneuerbare Energien Gesetz (EEG). Die Autoren: Michaele Hustedt, Hans-Josef Fell (beide Bündnis 90/Die Grünen), Hermann Scheer und Dietmar Schütz (beide SPD). 2001 waren rund 11 500 Windkraftanlagen aufgestellt und 2013 rund 24 000. Am 1. Februar 2002 trat die Energieeinsparverordnung (EnEV) in Kraft.

Der Beitrag erschien zuerst auf dem Blog von Dr. K.P.Krause als dessen erster Teil. Weitere Teile daraus folgen in Kürze




Taschenspielertricks mit der EEG Umlage – AGORA fordert weitere EEG Subventionen..

Reduzierung der EEG-Umlage

In den letzten Tagen wurde in der Presse die Reduzierung der EEG-Umlage von 6,24 Cent je Kilowattstunde auf 6,17 Cent angekündigt. Dies ist nicht gerade viel, aber selbst diese winzige Senkung scheint einzig auf einem Buchungstrick zu beruhen. Der Bund der Steuerzahler meldet:

„Trügerischer EEG-Überschuss: Das EEG-Konto weist zum Ende August einen Überschuss von 1,5 Mrd. Euro aus. Der Überschuss ist jedoch hauptsächlich aufgrund einer Buchungsänderung entstanden. Die Zahlungen der sogenannten Marktprämie, dem zweithöchsten EEG-Ausgabeposten, werden künftig erst im Folgemonat kontowirksam. Somit fielen im August einmalig Ausgaben von rund 700 Mio. Euro weg, die nun erst im September das Konto belasten werden. Aufgrund des Überschusses kann aber mit einer Reduzierung der EEG-Umlage zum Jahreswechsel gerechnet werden.“

http://www.handelsblatt.com/politik/deutschland/eeg-umlage-deutliche-entlastung-von-stromkunden-bleibt-aus/10860376.html

http://www.steuerzahler.de/Stromverbraucher-endlich-entlasten/63717c73763i1p637/index.html

Planer fordern eine neue Ökostrom-Abgabe

… der Kreativität sind keine Grenzen gesetzt:

http://www.welt.de/wirtschaft/energie/article133325028/Planer-fordern-eine-neue-Oekostrom-Abgabe.html

Die Frage ist, wer das bezahlen soll, wer davon profitiert und was es nutzt.

 

Schwarzbuch des Bundes der Steuerzahler kritisiert öffentliche Steuergeldverschwendung durch Windkraft

„Kein Glück mit der Windenergie

Die Naturstrom Landkreis Böblingen GmbH, eine Tochtergesellschaft des Landkreises Böblingen, hatte große Pläne. Im Dezember 2011 wurde die Planung für den Bau von zwei Windkraftanlagen auf einem Flurstück in der Nähe der Autobahn und unweit des Stuttgarter Flughafens auf der Gemarkung der Stadt Leonberg endgültig angestoßen. Dazu beauftragte man eine Fachfirma zur Begleitung und Erstellung der Genehmigungsunterlagen. Die Genehmigung schien kein Problem. Windmessungen ergaben eine positive Wirtschaftlichkeitsprognose, die Erschließung schien einfach und auch der Natur- und Artenschutz war gewährleistet. Als offener Punkt stand jedoch noch das Thema Flugsicherung aus – und das wurde dem Projekt zum Verhängnis. Im Juli 2013 wurden die Planungen aufgrund von Einwänden der Flugsicherung gestoppt und nach einer negativen Entscheidung durch die Fluglärmkommission im November 2013 endgültig eingestellt. An den bis dahin angefallenen Entwicklungskosten in Höhe von rund 373.000 Euro beteiligen sich die Stadtwerke Sindelfingen anteilig mit rund 27.000 Euro für einige Messungen. Den Löwenanteil von rund 346.000 Euro trägt dagegen die Naturstrom Landkreis Böblingen GmbH. Inzwischen ist klar: Auch die für 2014 vorgesehene Änderung des Erneuerbare-Energien-Gesetzes mit geringeren Einspeisevergütungen hätte – so die Ausführungen des Landrats – das wirtschaftliche Aus des Projekts bedeutet. Auf Nachfrage teilte der Landkreis Böblingen mit, dass er keine weiteren Windenergieanlagen plane.“

http://www.schwarzbuch.de/content/kein-gluck-mit-der-windenergie

Hier wird ein Projekt kritisiert, welches gar nicht realisiert wurde. Was ist aber mit all den kommunalen Windparks, welche im laufenden Betrieb Verluste produzieren? Bitte meldet alle defizitären kommunalen Windparks (auch kommunaler Energieversorger / Stadtwerke) an den Bund der Steuerzahler und den Landesrechnungshof, am besten mit entsprechendem Hintergrundmaterial (z.B. Auslastung in % [Volllaststunden], Gegenüberstellung IST-Ertrag mit SOLL-Ertrag aus Projektprospekt, IST-Ertrag als % des Referenzertrages, usw.).

http://www.schwarzbuch.de/node/add/verschwendungsfall

  

Neue Bauordnung mit Überraschungen

Ökologisches Bauen:  Jetzt kommt die Zwangsbegrünung

http://www.faz.net/aktuell/wirtschaft/wirtschaftspolitik/bauordnung-in-baden-wuerttemberg-zwangsbegruente-haeuser-13208204.html

http://www.faz.net/aktuell/wirtschaft/baden-wuerttemberg-gruene-fesseln-13208196.html

Ziemlich problemlos soll künftig jeder in seinem Garten Kleinwindkraftanlagen aufbauen können …

Wer einen Garten hat, darf dort zukünftig ein kleines Windrad hinstellen, damit die Energiewende noch mehr Schwung bekommt. Ob es dem Nachbarn nun passt oder nicht … 

Grüne Energie wird überproportional viel gefördert

40 Milliarden Euro Subventionen für Ökostrom

http://www.faz.net/aktuell/wirtschaft/eu-unterstuetzungen-helfen-am-ehesten-oekostrom-13204505.html

http://www.handelsblatt.com/politik/international/eu-studie-140-milliarden-euro-energiesubventionen/10833902.html

Den „niedrigen Kosten“ der Windenergie sind sicherlich noch die Kosten für Backup-Kraftwerke bzw. Stromspeicher und die Stromtrassen hinzuzurechnen um ein realistisches Bild zu bekommen.

Mit Dank an BÜRGERINITIATIVE  „PRO SCHURWALD“     

mailto: pro-schurwald-lichtenwald@web.de

Internet:  www.pro-schurwald.com




Die dunkle Seite von WIKIPEDIA: EIKE Zensur – kurz und knapp

So zensiert Wikipedia in Deutschland

EIKE wegzensiert – kurz und knapp

Auf Wikipedia geschieht nichts ohne Diskussionen. Auf jeder Seite findet man oben neben „Artikel“ den Knopf „Diskussion“, und dort sieht man, was an dem jeweiligen Artikel tatsächlich interessant ist und kontrovers diskutiert wird. Jeder kann hier durch Drücken von „Bearbeiten“ (ebenfalls ein Karteireiter oben) mitreden, ohne sich anmelden zu müssen. Allerdings wird ohne Anmeldung die IP-Nummer veröffentlicht, sobald man seine Bearbeitung speichert.

Nun würde man erwarten, dass bei einer so gewichtigen Angelegenheit wie der „Blacklist“, die ja immerhin eine handfeste Zensur darstellt, eine ausführliche Diskussion und Bewertung stattfindet, es sei denn, es handelt sich um eine offensichtliche SPAM-Seite. Die Diskussion, die zur Sperrung von EIKE geführt hat, ist über drei Jahre her, längst archiviert, kann aber hier nachgelesen werden. Vereinfacht dargestellt lief sie so ab (die Beteiligten Benutzer sind kmk, Jbo, hg6996 und seth)

  • kmk: „EIKE ist eine Klimaleugner-Seite! Immer wieder wird versucht, die Seite zu verlinken, zuletzt hier“ “(es folgen 2 Beispiele, beide mit dem selben Link, nämlich zu Cleves Vortrag zum THTR).
  • Jbo: „Es wird immer wieder versucht, EIKE als Belege zu verlinken. Daher SPAM!“ (Weitere Beispiele werden nicht angegeben)
  • Hg6996: „EIKE-Inhalte sind gruselig!“ (führt als Beispiel EIKEs Grundsatzbehauptung zur Zunahme des antarktischen Eisschilds an und als „Gegenbeweis“ einen Artikel aus den Geophysical Research Letters)
  • seth: „Ok, EIKE gehört auf die Blacklist.“
  • seth (5 Tage später): „Erledigt. Die Links aus den Artikeln und Diskussionen sind auch alle entfernt.“
  • Hg6996: „Super, danke!“

Eine wahrhaft kurze und knappe Diskussion. Nun mag dies bei einer Webseite mit offensichtlich rechtswidrigen Inhalten angemessen sein, hier geht es jedoch um einen als gemeinnützig anerkannten Verein, dem renommierte Doktoren und Professoren angehören, und der vom Potsdam-Institut für Klimafolgenforschung (PIK) immerhin schon als ernstzunehmender Streitpartner eingeladen wurde (siehe hier und hier). Diese „Diskussion“ ist um so erschreckender, als dass die Blacklist nach den eigenen Richtlinien so klein wie möglich gehalten werden sollte und Sperrungen grundsätzlich nur temporär sein sollten. Wäre EIKE ein Angeklagter vor Gericht, so käme dies einer Verurteilung zu lebenslanger Haftstrafe ohne Verhandlung und ohne „Indizien“ gleich. Wer weiss, wer als nächster dran ist.

Was passiert, wenn eine Webseite auf der Blacklist ist? Versucht nun ein Benutzer, einen Link auf irgendeine EIKE-Seite zu setzen, um damit Aussagen zu belegen oder auch nur weiterführende Informationen anderen Lesern zugänglich zu machen, so erhält er beim Abspeichern eine Fehlermeldung: „Die von dir vorgenommenen Änderungen werden durch den Spamfilter blockiert. […] Der folgende Text wurde vom Spamfilter gefunden: eike-klima-energie.eu“. Auch auf Diskussionsseiten kann EIKE nicht mehr verlinkt werden, was es natürlich besonders schwierig macht, dessen „Unschuld“ zu belegen. Mehr noch, jeder Speicherversuch wird ab jetzt registriert und kann von Administratoren kontrolliert werden, was in der großen Diskussion (s.u.) dann wiederum als Argument gegen EIKE angeführt wurde.

Das „Blacklisten“ von EIKE passierte im August 2011. Ein und zwei Jahre danach folgten zwei Wünsche von unterschiedlichen Benutzern auf Entsperrungen, wenigstens auf Unterseiten, die jedoch wiederum brüsk abgelehnt wurden (siehe Fortsetzung der Diskussion darunter). Der zuständige Administrator „seth“ blieb und bleibt hart. Die Blacklist wird nicht verändert.

Woher hat ein Administrator diese Rechte? Dazu ein kleiner Ausflug in das Wikipedia-Rechtesystem.

Von Administratoren, Sichtern und Benutzern…

Auf Wikipedia kann jeder mitschreiben – in der Theorie. Drückt man ohne Anmeldung den „Bearbeiten“-Knopf, so scheint dies auch zu gelingen – das Speichern ist erlaubt. Eine Überraschung erlebt man jedoch auf der deutschen Wikipedia, denn nach dem Speichern ist die Änderung keineswegs in den Artikel übernommen, sondern schlummert unter einem Karteireiter oben, unter „Ungesichtete Änderungen“. Nun muss man darauf warten, dass sich ein „Sichter“ des Artikels annimmt und die Änderung genehmigt.

Ein Sichter ist ein Benutzer, der mindestens 200 Bearbeitungen getätigt hat, in diesem Sinne also „erfahren“ ist (es gibt noch weitere Kriterien, die sich aber dann meist automatisch daraus ergeben). Nach 50 Bearbeitungen ist man aber bereits „passiver Sichter“, was bedeutet, dass die eigenen Bearbeitungen automatisch gesichtet werden – man ist also nicht mehr auf einen Sichter angewiesen. Von den 2 Millionen registrierten deutschen Benutzern haben 30 000 den passiven Sichterstatus erlangt, 15 000 den „aktiven“.

Administratoren (kurz Admins) werden im Gegensatz zu Sichtern durch Wahlen bestimmt, grundsätzlich für unbestimmte Zeit, es sei denn, eine Mindestzahl von Benutzern verlangt eine Wiederwahl (oder Abwahl, je nach Ausgang). Die Kriterien für die Wahlberechtigung sind dabei ganz ähnlich denen von Sichtern: Mindestens 200 Bearbeitungen. Admins haben besondere Rechte: Sie dürfen Artikel und Benutzer sperren, Artikel löschen, und Eintragungen auf der besagten Blacklist vornehmen. Auf Wikipedia gibt es zurzeit 253 Admins.

Es gibt noch weitere Typen von Benutzern wie „Checkuser“, „Bürokraten“ und „Oversighter“, die jedoch keine so große Rolle spielen. Die täglichen Grabenkämpfe spielen sich unter Benutzern, Sichtern, und Admins ab. Am meisten werden Artikellöschungen bemängelt, weil sie nach Meinung weniger Admins „nicht relevant“ seien. Ein interessantes Beispiel ist der Artikel des frisch gekürten deutschen Nobelpreisträgers Eric Betzig, der nach der Erstellung des Artikels vor 5 Jahren prompt von einem Admin zur Löschung vorgeschlagen wurde. Diese sogenannte „Löschadmin“-Diskussion ist ein ständiges Streitthema auf der deutschen Wikipedia.

…und was diese tatsächlich machen

Soweit die guten Absichten, aber wie sieht das in der Praxis aus? Ein Sichter soll in erster Linie Vandalismus verhindern, z.B. dass ein Benutzer, ob angemeldet oder nicht, Artikel verunstaltet, sei es aus Spaß oder als gezielte Platzierung von Links, denn Wikipedia gilt bei Suchmaschinen als „besonders wertvoll“, eine Link aus Wikipedia erhöht somit das eigene Ranking. Auf der englischsprachigen Wikipedia gibt es das Sichtersystem übrigens nicht, so dass jede Änderung sofort öffentlich ist. Bei offensichtlichem Vandalismus dauert es aber nicht lange, bis dies einem anderen Benutzer auffällt, und die Änderung wieder rückgängig gemacht wird. Bei häufig besuchten Artikel geschieht dies innerhalb einer Minute, denn es gibt viele Autoren, die den Artikel überwachen.

Es ist also fragwürdig, ob ein Sichtungssystem überhaupt notwendig ist, um so mehr, wenn man beobachtet, was die Sichter tatsächlich machen. Statt einer Änderung, die offensichtlich kein Vandalismus ist, stattzugeben, wird von den Sichtern fast immer eine inhaltliche Prüfung vollzogen, es sei denn, es handelt sich lediglich um die Verbesserung von Tippfehlern. Diese inhaltliche Prüfung sollte jedoch im Diskurs von den Benutzern untereinander vollzogen werden, nicht durch eine übergeordnete Instanz. Der Sichter wird damit zum Richter.

Ähnlich verhält es sich mit den Admins. Sie sollten nur Löschanträge, Benutzersperren und Blacklisteinträge auf formale Richtigkeit prüfen. Am Beispiel der Blacklistdiskussionen sieht man jedoch, dass auch eine aktive Teilnahme an den Diskussionen stattfindet. Mehr noch, Admins fühlen sich auch bemüßigt, selbst an den Richtlinien für die Blacklist mitzuarbeiten, während sie mit ihren Sonderrechten als einzige auch zum Vollzug und damit zur Auslegung berechtigt sind. Dass so etwas nicht gutgehen kann, ist der Grund, dass in unserem Staat eine Gewaltenteilung eingeführt wurde. Auf Wikipedia gilt das nur bedingt.

EIKE-Blacklistdiskussion 2014 – rekordverdächtig

Die grundlose Sperrung von EIKE erfüllt vermutlich den Straftatbestand der üblen Nachrede. Die Server stehen aber in den USA, weshalb Wikimedia Deutschland jede Verantwortung weit von sich weist. Einige Wikipedia-Benutzer wollten dies nicht hinnehmen, so dass es vor einigen Wochen zu einer erneuten, dritten Diskussion kam, die den Rahmen des Üblichen sprengte. Die komplette Diskussion ist hier zu finden, es wäre aber eine Zumutung, den Inhalt hier detailliert wiederzugeben – möge sich jeder selbst ein Bild machen. Es handelt sich um die vermutlich längste Diskussion im Wikipedia-Namensraum.

Am Ende war das Ergebnis: EIKE bleibt auf der Blacklist. Lediglich einen Einzellink hat der Admin seth nun freigegeben, und Sie dürfen raten, welchen. Richtig, es handelt sich um den Link zu Cleves Vortrag zum THTR, also jenen Link, der 2011 ursprünglich als Grund für die Sperre angegeben wurde, siehe oben. Alleine der Versuch, diesen Vortrag zu verlinken, wurde damals mit einer Komplettsperrung der Domain geahndet. 3 Jahre später gesteht der verantwortliche Admin ein, dass dies wohl ein Fehler war, entsperrt den Link, bleibt aber dabei, dass EIKE insgesamt auf die Blacklist gehört. Eine bemerkenswerte Logik.

Der tiefere Grund für das Scheitern, EIKE von der Blacklist zu entfernen, liegt in den Mehrheitsverhältnissen. Es gab zwar keine offizielle Abstimmung, jedoch standen am Ende der Diskussion 3 Verteidiger 12 Gegnern von EIKE gegenüber. Dies sieht zwar „demokratisch“ aus, berücksichtigt aber nicht, dass es hier um Grundsätze und deren Auslegung geht. Man legt in unserem Rechtssystem schließlich auch nicht per Mehrheitsbeschluss fest, dass eine Person hinzurichten sei. Dennoch bleibt die Frage, woraus sich diese Mehrheitsverhältnisse ergeben. Warum gibt es so viele „erfahrene“ Wikipedia-Benutzer, die so eine unerhörte Vorgehensweise billigen?

Dabei ist natürlich zunächst die Frage zu stellen, ob es sich bei diesen „Erfahrenen“ tatsächlich um normale Benutzer handelt. Es ist nämlich auffällig, dass diese teilweise mit mehreren Zehntausend (!) Bearbeitungen in nur wenigen Jahren aufwarten (Beispiel hier, Berechnung dauert etwas). Es ist schwer vorstellbar, dass sich hinter so einem Benutzerkonto nur jeweils eine Person verbirgt, und es gibt keine Möglichkeit, dies zu überprüfen. Es ist sogar denkbar, dass Cluster von Benutzerkonten systematisch von Interessengruppen aufgebaut und unterhalten werden, um über Wikipedia-Artikel die Wahrnehmung bestimmter Themen zu verändern. Die Bearbeitungen einzelner Benutzer können alle eingesehen werden, so dass man sich fragt, wie derartige dauerhafte Bearbeitungsorgien wie diese (Benutzer Andol) auf einen einzelnen Benutzer zurückzuführen sind. Wikipedia wird von derartigen „Benutzern“ langsam aber stetig umgestaltet.

Drumherum scharen sich dann oft Mitläufer, die wahrscheinlich real sind, aber dafür nur nach sehr einfachen Mustern argumentieren, bzw. den Unsinn der Wortführer nur wiederholen. Diese bestimmen jedoch die Mehrheitsverhältnisse in Diskussionen, was dann zu entsprechenden Ergebnissen wie die Sperrung von EIKE führt. Bei genauerem Hinsehen sind die Mehrheitsverhältnisse jedoch durchaus angreifbar. In der Blacklistdiskussion bedurfte es nur weniger zusätzlicher EIKE-Verteidiger, und die Lage wäre gekippt. Warum gibt es so wenige davon?

Eine naheliegende Erklärung ist die, dass naturwissenschaftlich-technisch ausgebildete Leute kaum Interesse an Bearbeitungen auf Wikipedia haben. Sie interessieren sich für ihren Beruf, den sie meist aus Leidenschaft und Interesse betreiben. Viel Zeit, sich auf Wikipedia mit unausgebildeten und meist aggressiv und auf schlechtem Niveau argumentierenden Leuten herumzuschlagen bleibt da nicht. Wissenschaftliche Aufarbeitung von Themen kostet Zeit, und diese Zeit fehlt eben beim Engagement auf Wikipedia. Das Problem: Derweil übernehmen diejenigen Wikipedia, die beliebig dafür Zeit haben, dafür aber nicht das nötige Fachwissen. Im Ergebnis entsteht ein Zerrbild, das wiederum auf die öffentliche Meinungsbildung zurückwirkt, denn Politiker und Journalisten bedienen sich auch gerne aus Wikipedia. Mit dieser Zurückhaltung sägen gute Wissenschaftler also am eigenen Ast. Was kann man tun?

Aufruf an die Leser

Daher appellieren wir an alle Leser und Mitglieder mit naturwissenschaftlich-technischer Ausbildung: Engagieren Sie sich bei Wikipedia! Nutzen Sie Ihr Fachwissen, um dort Artikel zu verbessern! Scheuen Sie sich nicht vor Diskussionen!

Seit einiger Zeit können Artikel auf Wikipedia ohne Kenntnis der Syntax bearbeitet werden, sobald man auf „Bearbeiten“ klickt wird die Seite so, wie sie ist, editierbar. Dies gilt jedoch nicht für Diskussionen, hier muss man sich noch etwas auskennen. Der Erfolg von Wikipedia beruht zu einem nicht geringen Teil aber gerade darauf, dass diese Syntax sehr einfach ist. Im einfachsten Fall kann man einfach Text schreiben, und er erscheint so, wie man ihn tippt. Für komplexere Formatierungen, z.B. bei Diskussionen, gibt es gute Anleitungen:

Aber wichtig: Man sollte immer erst diskutieren, bevor man wesentliche Änderungen in Artikeln vornimmt, sonst kann man ziemlich sicher sein, dass ein anderer Benutzer die Änderung gleich wieder revertiert. Niemals einen Edit-War anfangen.

Ein Anfang ist leicht gemacht. Gehen Sie mal auf die Diskussionsseite eines bekannten Artikels, z.B. der zu “Kernenergie“. Dort findet man gleich mehrere Themen, wo Sie auch ohne Anmeldung mitreden können. Besser ist es natürlich, sich zu registrieren – und keine Angst, die persönlichen Daten wie Email und Klarname können nicht mal Admins einsehen. Sie können also immer anonym bleiben. Der Vorteil: Ab jetzt zählt jede Bearbeitung. Und sobald Sie 50 Bearbeitungen in Artikeln (nicht in Diskussionen) gemacht haben, sind Sie bereits passiver Sichter. Die genauen Bedingungen stehen hier.

Beim Diskutieren können Sie auch ganz gut die Wikipedia-Gepflogenheiten und die Syntax kennen lernen. Seien Sie am Anfang eher unauffällig und lassen Sie sich nicht frustrieren – irgendwann klappt es. Sie werden nicht selten von anderen „(„erfahrenen“) Benutzern zurechtgewiesen werden, oder Ihre Bearbeitungen werden kommentarlos zurückgesetzt. Es ist trotzdem wichtig, dran zu bleiben, denn nur so kann auf Dauer die Übermacht derjenigen gebrochen werden, die Wikipedia nur als Plattform benutzen, ideologischen Unsinn zu verbreiten.

Hoffen wir also, dass sich auch unsere Leser engagieren, und dass wir langfristig etwa bewirken können. Denn, wie gesagt, wir wissen nicht, wer als nächstes auf die Blacklist kommt.




Die wahre AGW-Skeptiker-Lehre

Am Anfang war die AGW-Lehre: Anthropogenic Global Warming – die menschengemachte globale Erwärmung – und die geht so:

1.1 Das Klima verändert sich – es wird immer wärmer

1.2 und das geht auch noch durch dieses Jahrhundert und darüber hinaus immer weiter

1.3 Die Ursache dafür ist überwiegend das menschliche Wirtschaften durch die steigenden CO2-Emissionen

1.4 Diese Entwicklung hat katastrophale Folgen für die Menschen:

1.4.1 Die Eisschilde schmelzen ab – der Meeresspiegel steigt und überflutet Küsten

1.4.2 Die Meere „versauern“, d.h. werden weniger basisch, und schädigen die maritimen Ökosysteme

1.4.3 Es gibt zunehmende Extremwetter, die Menschen töten und Lebensgrundlagen zerstören

1.4.4 Die Klimaveränderungen schädigen die landwirtschaftliche Produktion

1.1   Darum müssen enorme Anstrengungen unternommen werden, um das zu verhindern

1.2   Durch globale Anstrengungen ist es möglich, die CO2 Emissionen zu begrenzen oder zu senken

1.3   Durch eine nationale Vorreiterrolle wird der Prozess unterstützt.

1.4   Erneuerbare Energien in der Stromversorgung stellen dazu die Grundlage bereit.

Dieses kurzgefasste Programm ist aber alles andere als unumstritten. Die AGW-Vertreter versuchten ihr Programm daher als Klima-Konsens zu vermarkten und bedienten sich effizienter Marktingkanäle mit den Hauptzielgruppen der Politiker und Wählerschichten. Kritiker wurden als ‚Klimaleugner‘ verunglimpft und ein moralisches Gebot zur Befolgung des Programms über eine Dauer-Medienkampagne dem Menschen eingeimpft.

Natürlich gibt es keine Klimaleugner, denn niemand leugnet die Existenz von Klima, egal wie es definiert wird. Auch den Klimawandel bestreitet wohl kaum jemand, denn Wetter und Klima haben sich stets gewandelt.

Allerdings sind nahezu alle o.g. Punkte zweifelhaft. Man nennt die Form des begründeten Zweifels AGW-Skeptizismus. Hier nur angerissen:

2.1   Die letzten 16 -18 Jahre (je nach Datenquelle, Satellit, terr. Stationen) zeigen keine weitere globale Erwärmung, obwohl die CO2 Konzentration deutlich gestiegen ist

2.2   Wie sich das Klima weiter entwickelt, ist ungewiss. Wenn man die These der sich überlagernden Zyklen mittels der erprobten Analysemethode FFT (Fast Fourier Transition) als Gegenmodell präsentiert, stehen wir am Beginn einer langen Abkühlung.

2.3   Der Einfluss des CO2 auf das Klima ist zumindest quantitativ ungewiss und umstritten – es kann also nicht von einer klaren quantifizierbaren Ursache-Wirkungsbeziehung ausgegangen werden.

2.4   Die unklare Entwicklung hat unklare Folgen für die Menschen:

2.4.1 Die Eisschilde an den Polen schmelzen ein wenig und wachsen wieder zyklisch. Dramatischer Schwund ist nicht zu erwarten.

2.4.2 Der pH-Wert der Meere schwankt leicht und das ausschließlich im basischen Bereich , aber das bedeutet nicht keineswegs zwingend eine Schädigung der maritimen Ökosysteme – denn diese sind  wie schon vielfach in der Vergangenheit bewiesen- sehr anpassungsfähig.

1.4.3 Es gibt keine zunehmende Extremwetter, den  dies ist weder statistisch noch kausal nicht nachweisbar

1.4.4 Die Klimaveränderungen begünstigen in weiten Teilen die landwirtschaftliche Produktion – Erträge wachsen durch CO2-Düngung, der Sahel ergrünt. Die bilanzierte Wirkung bleibt unklar.

2.5   Es müssen keine Anstrengungen unternommen werden, um irgend etwas zu verhindern, denn es gibt auch kein nachgewiesenes Problem.

2.6   Auch durch globale Anstrengungen ist es nicht möglich, die CO2 Emissionen wesentlich zu begrenzen oder zu senken, denn die Erfordernisse des Lebens und Wirtschaftens lassen sich in einer wachsenden Bevölkerung und Wirtschaft nicht deutlich reduzieren, zumal die jeweiligen nationalen Interessen divergieren.

2.7   Durch eine nationale Vorreiterrolle würde der Prozess der Dekarboniserung nur unterstützt werden, wenn demonstriert würde, dass kostengünstige und effektive Alternativen möglich sind. Die Realität zeigt für D das Gegenteil: Die Energiewende verschlingt Billionen, schädigt damit uns alle über die Wirtschaft und den Volkswohlstand. Der Nutzen zur Emissionsreduktion ist nicht nachweisbar. D fungiert als abschreckendes Beispiel.

2.8   ‚Erneuerbare‘ Energien in der Stromversorgung stellen dazu keine Grundlage bereit:  Sie haben eine marginale Energiebilanz bei hohen Kosten und geringer Versorgungssicherheit.

Das ist jedoch nur sehr oberflächlich betrachtet. Das Problem der wahre AGW-Skeptiker-Lehre fängt jetzt erst an. Denn der Teufel steckt im Detail.

Denn die kritischen Positionen teilen sich in mehrere Lager:

3.1   Radikale THE Skeptiker: Der Treibhaus-Effekt sei nicht nur ein irreführender Name, sondern der steigende CO2-Anteil trägt auch nichts zur Erwärmung bei. Wer etwas anderes behauptet, läge wissenschaftlich falsch, ggf. sei er/sie gekauft

3.2   Wissenschaftliche moderate Skeptiker: CO2-Einflüsse auf das Klima existieren, machen aber weit weniger Wirkung aus, als gemeinhin behauptet wird. Diese sind verglichen mit natürlichen Schwankungen vernachlässigbar. Wer dies bestreitet, würde die wissenschaftliche Basis verlassen. Und dem Ansehen der Skeptiker schaden.

3.3   Wissenschaftliche Agnostiker: Da man die Wirkung von CO2 nicht sicher bestimmen kann, ist jede Vermutung Makulatur und wissenschaftlich gar nicht vertretbar. Dies trifft sowohl 3.1 als auch 3.2. Beide argumentieren nicht der Wissenschaft entsprechend

Auch in vielen anderen Detailfragen gibt es teilweise erbitterte kontroverse Positionen.

Daran wird klar: Viele Positionen sind vermeintlich gegenseitig unvereinbar. Die wahre Lehre ist demnach unteilbar, und die Wissenschaftlichkeit wird einander gegenseitig aberkannt. Interessant darin, dass sich teilweise eher eine Akzeptanz gegen alarmistische Positionen aufbaut, als gegen jene, die eine andere skeptische Position vertreten. Man beschuldigt jeweils das andere Lager, den Pfad der Wissenschaften verlassen zu haben und wirft jenen vor, die Position der Skeptiker zu schwächen.

Ich halte das für einen fatalen Fehler. Auch wenn man in Sachargumenten sicher auch dem Einen oder Anderen Irrtümer nachweisen kann, sollte eine Rechthaberei besser außen vor bleiben. Denn diese führt nur in den Grabenkrieg und nutzt dem eigentlichen Gegner.

Eine Sachdiskussion sollte in dem Geiste getragen sein, dass niemand vor Irrtum gefeit ist. Auch die eigene Ansicht muss sich einer Revision unterziehen können, und gegnerische Irrtümer sollten verständnisvoller besprochen werden. Immerhin wurde von offizieller Seite so viel Unsinn aufgetischt, dass ein radikales Misstrauen gegen vermeintliche Experten zumindest verständlich wird.

Dies führt zu einem anderen Dilemma, dass sich auch vermehrt in Diskussionen abzeichnet. Einerseits werden komplexe Sachthemen diskutiert. Viele fühlen sich bei der Beurteilung dieser überfordert. Was ist die Lösung? Man vertraut auf Experten, denen man das eigene Urteil delegiert. Nur widersprechen sich aber die Experten. Wie erkenne ich aber den richtigen Experten und unterscheide sie von den Scharlatanen? Gegenseitige Vorwürfe bringen nur wieder den Grabenkampf oder die willkürliche Expertenwahl nach fachfremden Kriterien.

Ein beliebtes Stereotyp ist die Interessengebundenheit der Experten. Man kann für fast jede Meinung den passenden Experten selektieren. Nur ist dann die Sachbezogenheit nicht mehr der Maßstab, sondern tritt hinter völlig sachfremden Kriterien zurück. Allerdings ist in Diskussionen oft dieser Effekt zu beobachten:

Der Dieb zeigt mit den Finger auf einen Dritten und ruft: ‚Haltet den Dieb.‘

Tatsächlich gibt es falsche Experten, gekaufte Experten und handverlesene Experten. Diese sind aber nicht leicht als solche zu erkennen, denn auch die moralisch Ehrenhaften mögen von einer falschen Ideologie verblendet sein. Gegenseitige Vorwürfe sind nur wiederum charakteristisch für einen Grabenkampf und klären nichts. Auch wenn der Verdacht gerechtfertigt wäre, hilft dagegen nur das Sachargument und dessen möglichst nüchternen Beurteilung,

Andere setzen dagegen auf die überlegene eigene Erkenntnis und halten keinen Experten für vertrauenswürdig … und werden schließlich als Universaldilettanten und Ignoranten klassifiziert. Der Anspruch eigenen Expertentums mag zuweilen auch begründet sein. Zuweilen ist man als Einäugiger im Land der Blinden König. Aber eigene Selbstüberschätzung steigert die Gefahr der Selbstverblendung.

Einen Königsweg gibt es aus diesem Dilemma nicht. Denn ich kann mir eine eigene Meinungsbildung durch Delegation nicht seriös erleichtern, ohne ein leichtes Opfer für Blender, Scharlatane und falsche Experten zu werden. Andererseits kann ich in der Regel auch nicht genügend Wissen erwerben, um allen Experten qualifiziert widersprechen zu können und die Gefahr des Dilettantismus vermeiden.

Der beste Kompromiss bleibt, sich die Argumente anzusehen und Fragen zu stellen. Wenn ‚Experten‘ Argumente liefern und diese belegen, können diese zutreffend sein. Wenn die Gegenseite diese Argumente nicht überzeugend entkräften kann, wird man diesen auch folgen können. Auf diese Weise ist man zwar noch immer nicht vor Irrtümern gefeit, wird aber vielen Fallstricken entgehen und zu einer fundierteren Ansicht gelangen.

Ich kann von mir als interessierten Laien sagen, dass ich im Kontext der Diskussionen an verschiedenen Stellen meine Ansichten änderte, weil ich durch bessere Argumente überzeugt wurde. Nicht immer waren dabei Meinungsgegner nett, auch wenn sie die besseren Argumente hatten. Ich kann auch jeden verstehen, der aus der oft persönlichen Gesprächssituation heraus nicht bereit ist, sich einem rüpelhaften Gegner zu beugen, sondern sich gegen die gegnerischen Argumente immunisiert und ein Festungsdenken entwickelt. Das aber ist wirklich bedauerlich, denn darunter leidet die Sachlichkeit und behindert den Fortschritt der Erkenntnis. Darum meine Empfehlungen:

4.1        Gehen Sie stets davon aus, dass sich jeder Mensch irren kann. Sowohl man selbst, als auch der Meinungsgegner.

4.2        Versuchen Sie dem Meinungsgegner eine goldene Brücke zu bauen, wenn Sie sich im Recht sehen. Sie erleichtern ihm damit ein besseres Verständnis und legen ihm keine Steine in den Weg.

4.3        Wenn ihre Argumente besser sind, brauchen sie eine sachliche und nüchterne Auseinandersetzung nicht zu fürchten. Bewahren Sie Stil und Respekt für einen Meinungsgegner, der es vielleicht an Kenntnissen und Umgangsformen vermissen lässt. Man kann vom Meinungsgegner keine Vorleistungen fordern.

4.4        Wenn sich ein Meinungsgegner trotz überlegener Argumente nicht überzeugen lässt, lassen sie diese besser einfach stehen, und beschränken sich auf eine sachliche Kritik. Vielleicht braucht er einfach Zeit, um die besseren Argumente anzuerkennen.

4.5        Sie können sich von einer Argumentation, die sie für falsch halten, natürlich distanzieren. Das sollte aber nicht dazu führen, in fruchtlose Grabenkriege und kontraproduktive Ausgrenzungen abzugleiten.

4.6        Stürzen Sie sich in Diskussionen möglichst nicht auf besonders extreme Positionen, sondern fördern Sie vernünftige Beiträge – auch wenn sie nicht ihre Meinung teilen. Ein stumme Zustimmung zur Vernunft und ein lautstarker Protest gegen die Unvernunft verlagern den Fokus der Diskussion von der Vernunft zu Unvernunft.

4.7        Provokationen und persönliche Angriffe von Meinungsgegnern müssen nicht immer unbeantwortet bleiben, aber meist ist es besser, diese einfach zu ignorieren.

Wenn wir darauf verzichten, Verkünder der einzig wahren Lehre zu sein, wird dies die Überzeugungskraft der eigenen Position keineswegs schwächen. Verständige Zuhörer und Gesprächspartner werden die Qualität der Argumente würdigen. Wer sich jedoch von den eigenen Autoritätsansprüchen blenden lässt, wird sich einer anderen Autorität zuwenden, wenn ihm diese profunder erscheint … also eine zu schwache Strategie.

Würdigen Sie guten Stil in der Diskussion, auch beim Meinungsgegner. Das weckt Vertrauen und die Bereitschaft, bei der Sachebene zu bleiben.

Ich habe diese Empfehlungen nicht nur an Dritte adressiert, sondern predige sie mir auch selbst. Denn es ist nicht immer leicht, gute Vorsätze auch umzusetzen … Was dazu führt:

Nehmen Sie sich selbst nicht zu ernst!

Über den Autor: Martin Landvoigt ist Dipl. Agraringenieur und seit Jahren mit der Thematik befasst.




Grüne Projekte, tiefrote Zahlen

Der Fortschritt in Gestalt von Windrädern erreichte im Jahr 2012 auch den hessischen Odenwaldkreis. Eine staatliche Regionalgesellschaft, die Gemeinde Lützelbach und eine Energiegenossenschaft investierten dort in einen Rotor, und setzten so auf den durchschlagenden Erfolg des grünen Umgestaltungsprojekts.

Landrat Dietrich Kübler lobte damals das Unternehmen euphorisch: „Eines der gemeinsamen Ziele bei der Windenergienutzung muss sein, eine möglichst hohe Wertschöpfung in der Region zu erzielen und zum anderen den Abfluss der Erträge an anonyme Investoren von Außerhalb zu verhindern.“ Bürger ringsum könnten sich neben der öffentlichen Hand über die Genossenschaft beteiligen und an der guten Sache mitverdienen.

Einen Abfluss der Windkrafterträge muss in Lützelbach jedenfalls niemand befürchten. Es gibt nämlich keine.

Bisher erwirtschaftete die Gesellschaft 235 000 Euro Verlust, ein Minus, das gut 100 000 Euro über dem geplanten Anlaufverlust liegt. Allein 2013 verbuchte sie ein Defizit von 165 000 Euro. Die Betreiber klagten, gerade 2013 habe der Wind schlecht geweht, außerdem aus der für die Drehflügler ungünstigen Ostrichtung. Am Sinn der Steuergelder-Investition zweifeln die Verantwortlichen bisher nicht. Der Wind wehe sicherlich auch wieder besser.

Trösten können sich die hessischen Kommunalpolitiker immerhin damit, dass nicht nur sie tiefrote Zahlen mit grünen Ideen schreiben. Je weiter südlich in Deutschland Rotoren stehen, desto größer die Wahrscheinlichkeit, dass sie nicht nur die Landschaft ruinieren, sondern auch die das Vermögen ihrer Investoren. Werner Daldorf, Vorsitzender des Anlegerbeirates im Bundesverband Windenergie, untersuchte seit dem Jahr 2000 Jahresabschlüsse von rund 1 200 so genannten Bürgerwindparks. In 37 Prozent aller Fälle reichten die Erträge noch nicht einmal aus, um die Bankkredite für die Turbinen zu bedienen. Denn üblicherweise finanzieren die Gesellschaften das Windgeschäft zu 30 Prozent mit Anlegermitteln und zu 70 Prozent mit einem Darlehn. Nur eine Minderheit der von Daldorf durchleuchteten Windparks erreichte überhaupt eine Rendite oberhalb der Inflationsrate. Zwei Drittel der Windturbinen im Binnenland, stellte Daldorf fest, rotieren im roten Bereich. 

Für das massenhafte Minusgeschäft gibt es Gründe. Die liegen in der Physik und nicht etwa an sinisteren Machenschaften von Windkraftgegnern. Von Nord nach Süd nimmt die Windstärke ab – und damit auch die Zahl der so genannten Volllaststunden. So bezeichnen Fachleute die rechnerischen Stunden pro Jahr, in denen ein Windrad die maximal mögliche Stromausbeute liefert. Auf Ostsee-Windplattformen liegt diese Zahl im Schnitt bei 4 275, in der Nordsee bei 3092, in Rheinland-Pfalz dagegen nur noch bei 1503 und in Baden-Württemberg auf den Schwarzwaldhügeln nur noch bei bescheidenen 1 315 Vollaststunden pro Anlage. Ein Jahr zählt allerdings 8 760 Stunden. Mit anderen Worten: ein Rotor im Ländle liefert schon wegen seines Standorts nicht einmal ein Siebtel des Jahres volle Kraft. Selbst 2000 Volllaststunden, die schon als guter Schnitt gelten, entsprechen übrigens gerade einer Auslastung von gut 23 Prozent.

Selbst die hohen Subventionen für die Windenergie nützen den meisten Betreibern im Süden nichts. Denn die Ökostromumlage fließt nicht für die Anlage selbst, sondern für jede Kilowattstunde Strom, den sie liefert. Außerdem verlangen Landbesitzer selbst in Schwachwindgebieten bis zu 40 000 Euro Pacht pro Windrad und Jahr. Produziert ein Windrad im Süden also zu wenig Energie, dann treibt es den Eigentümer schnell in die Verlustzone, trotz einer gesetzlich garantierten Stütze über 20 Jahre. Diese Erfahrung mussten die Gesellschafter der Windpark Ettenheim GmbH & Co in Baden-Württemberg machen: Seit ihrer Gründung im Jahr 2000 schrieb sie Verluste. Im vergangenen Jahr demontierten die frustrierten Anleger schließlich das Windrad und schlossen die Bücher. Ein Einzelfall? Die Stadtwerke Mainz erwirtschafteten mit ihren 20 Windrädern nach Angaben ihres Chefs Detlev Höhne seit 2005 nicht einen Cent Gewinn. Im Gegenteil, klagt Höhne, die Propeller bescherten ihm einen „leichten Verlust“. Kalkuliert hatten die Stadtwerke mit einer Rendite zwischen 4,5 und acht Prozent. In Erlangen machten die Stadtwerke die gleiche Verlustrechnung auf: ihre drei Räder fuhren ein Minus ein. Das Unternehmen musste 3,8 Millionen Euro abschreiben.

Trotzdem werben Windkraftfonds unverdrossen für Investitionen in Windparks – mit Renditeversprechen, an die auch die Manager der Stadtwerke Mainz einmal geglaubt hatten. Der Fondsvertrieb „Grüne Sachwerte“ etwa wirbt für eine Direktbeteiligung an einem neuen Windpark in Bayern, der „hochrentabel“ sein werde. Ab 200 000 Euro könne jeder einsteigen; „durch Verzicht auf einen BaFin-geprüften Verkaufsprospekt wird eine sehr hohe Investitionsquote erreicht“. Ähnlich wie Anbieter geschlossener Immobilienfonds verdienen Verkäufer von Windfonds schon durch die Ausgabe des Anteils. Außerdem lassen sie sich die Managementleistung in der Regel ordentlich vergüten. Die Verluste tragen die Investoren. Das beantwortet auch die Frage vieler gutgläubiger Politiker: „Warum sollte denn jemand Windräder aufstellen, wenn es sich nicht lohnen würde?“ Für einige lohnt sich das Geschäft immer: Fondsmanager, Rotorenhersteller, Verpächter. Für andere weniger. Die rund 75 000 Anleger des insolventen Windkraftunternehmens Prokon dürften selbst im glücklichsten Fall nur 60 Prozent ihrer Einlagen wiedersehen – und das nur gestückelt über Jahre. Auch die Prokon-Werber versprachen ihren Kunden, die Anlage sei durch Subventionen ein „grünes Sparbuch“, also praktisch rundum verlustgeschützt.

Die Politiker in den Südländern lassen sich von roten Zahlen und Pleiten nicht im Geringsten beeindrucken. Sie wischen sie mit dem Argument beiseite: es handle sich um Einzelfälle, instrumentalisiert von notorischen Energiewendefeinden. Eveline Lemke, grüne Wirtschaftsministerin Rheinland-Pfalz, will bis 2030 die Windkraftleistung in ihrem Land verfünffachen und für ihren großen Plan sogar sensible Naturgebiete opfern. Baden-Württembergs Umweltminister wünscht sich 1000 neue Rotoren im Ländle, vorzugsweise in den Schwachwindgebieten des Schwarzwaldes.

Als der grüne Ministerpräsident Winfried Kretschmann kürzlich ins idyllische Taubertal reiste, versuchten Windkraftgegner, mit ihm über einen geplanten Rotorenpark ins Gespräch zu kommen. Sie führten die Landschaftszerstörung an – und die notorisch mauen Winderträge. Vergebens. „Die Regierung hat das so entschieden“, blaffte Kretschmann die Bürger an, „und so wird es auch gemacht.“

Zuerst erschienen beim Deutschen Arbeitgeberband hier

Mehr zum Thema: Alexander Wendt
„Der grüne Blackout. Warum die Energiewende nicht funktionieren kann“,
edition blueprint, Paperback 167 Seiten 9,99 Euro
Amazon, E-Book 3,99 Euro bei >> Amazon <<
oder unter www.alexander-wendt.com

• Taschenbuch via Amazon (9.99€)
• eBook-Bundle (Formate: PDF, ePub, Mobi)
Amazon Kindle




Über die Illusion, 80-100 des Stroms über alternative Energien erzeugen zu können

Durch das volatile Verhalten von Wind- und Solarstrom ist schon häufig auf die Notwendigkeit von Stromspeichern zum Gelingen der Energiewende 2010/2011 hingewiesen worden, ohne jedoch eine exakte Beschreibung von Anzahl und Zeitpunkt zu benennen.

H.-W. Sinn errechnete erstmals für einen ausschließlichen Einsatz von Wind- und Solarstrom die erforderliche Anzahl von Speichern auf der Basis des im Jahre 2011 und 2013 erzeugten volatilen Wind- und Solarstroms, um diesen „Zappelstrom“ überhaupt nutzen zu können.

Es stellt sich jedoch die Frage, ob bei der im Rahmen der Energiewende  vorgesehenen umfangreichen Installation von Wind- und Solarstrom bei deren volatilem Verhalten die Ziele dieser Energiewende wie Anhebung der Stromerzeugung über alternative Energien auf mindestens 80% überhaupt bzw. unter welchen Vorraussetzungen erreicht werden können. Gleichzeitig stellt sich die Frage  nach der gesicherten Stromerzeugung.

Die Ausarbeitung dieser Fragen führte zu folgenden Ergebnissen:

1. In naher Zukunft wird bei zunehmender Stromerzeugung über Wind und Solar die Netzkapazität überschritten.

2. Ab 2019-  also in 5 Jahren-   übersteigt das Stromangebot über Wind + Solar  sowie „Sonstige (Biomasse, Wasser, etc.)“ zunehmend den Strombedarf.

3. Um eine Stilllegung der Wind- und Solaranlagen zu vermeiden, müssen ab dem Jahre 2019 zunehmend Stromspeicher zur Verfügung stehen: 

2030       2040           2050

-zu speichernde Strommengen

(GWh/Tag)            119              260          268 

– Anzahl Speicher für das tägliche

Auffangen des Überschussstroms

(Basis Goldisthalspeicher)   (n)              14,2              31           31,9

4. Goldisthal ist das größte Pumpspeicherwerk Deutschlands, wurde in 11 Jahren erbaut und hat eine Leistung von 1 GW, die es jeweils für ca. 8 h leisten kann. Damit kann es ca. 8 GWh liefern. Dann ist es leer.

5. Diese zu speichernden Strommengen sind Mindestmengen und beziehen sich auf den jeweils höchsten Strombedarf, da unterhalb des höchsten Strombedarfes durch die Überlagerung von stochastisch anfallender Stromerzeugung über Wind und Solar und stochastischem Strombedarf eine Quantifizierung der Überschussstrommenge nur schwer möglich ist.

Wie aber bereits die Gegenwart zeigt, sind diese im Bereich der stochastischen Überlagerung anfallenden Überschussstrommengen beträchtlich.

6. Um eine 14-tägige Windflaute mit wenig Sonnenschein im Winter überbrücken zu können, müssten in den Jahren 2030 bis 2050 folgende Strommengen über Erdgas oder im Vorraus zu füllende Stromspeicher abgedeckt werden ( die Energiewende 2010/2011 sieht eine ausschließliche Stromerzeugung nur noch über alternative Energien und Erdgas vor): 

bis Jahr2030    2040    2050

–    über Erdgas abzudeckende Strommenge (GWh) 6350   7291    7493

–    erforderliche Anzahl von im Voraus zu

füllender Speicher (Goldisthal- Größe)        (n)     756      868      892

 

7. Wenn diese Pumpspeicherwerke weder in Deutschland noch im Ausland ab 2019  zur Verfügung stehen – wovon auszugehen ist – müssen die Wind- und Solaranlagen ab 2019 vermehrt still gesetzt werden und es ist eine nur geringe Stromerzeugung über alternative Energien möglich:

2050

-Anteil Stromerzeugung über alternative

Energien ( Wind + Solar +

„Sonstige“)                             (%)                           38,3

-nur über Wind und Solar       (%)                                 14,7

Dies ist eine erschreckende Abweichung von der Zielvorstellung von „mindestens 80%“.

8. Sollten bis 2050 ausreichend Stromspeicher zur Verfügung stehen, könnte der CO2- Gehalt der Atmosphäre von 0,039% ausgehend durch die deutsche Energiewende um 0,000 008% vermindert werden.

Sollte eine ausreichende Stromspeicherung nicht zur Verfügung stehen, kann der CO2-Gehalt nur noch um 0,000 0038% abgebaut werden- ein kaum messbarer Betrag.

Diese nicht bezahlbare Energiewende zur Absenkung des CO2-Gehaltes ist zudem vor dem Hintergrund zu sehen, dass aus thermodynamischen Gründen CO2 die Atmosphäre kühlen muß und nicht erwärmen kann. Fakt ist, dass die Temperatur seit der kleinen Eiszeit im 19.Jahrhundert ansteigt auch ohne anthropogenen CO2-Ausstoß und das seit fast 18 Jahren kein weiterer Temperaturanstieg trotz  zunehmender CO2-Konzentration stattfindet. 

9. Andere Speicherverfahren wie Batterien, Druckluftspeicher, CH4-Herstellung (Sabatier-Verfahren) sowie H2-Herstellung zur Aufnahme von Strom aus alternativen Verfahren scheitern am Wirkungsgrad sowie an den Kosten.

Der im September 2014 in Betrieb genommene größte deutsche Batteriespeicher hat eine Leistung von 0,005 GW und kostet 6 Millionen € (1.2 Milliarden €/GW).

10. Es ist geradezu absurd, wenn zur Zeit die für das Gelingen dieser Energiewende unabdingbaren Pumpspeicherwerke vermehrt geschlossen werden müssen durch die Einspeisung eines durch das EEG kostenfreien und bevorzugt abzunehmenden Stroms aus alternativen Energien, der zwangsläufig auch zur Schließung aller anderen Stromerzeugungsverfahren führen muss.

11. Stromausfälle der Vergangenheit  haben gezeigt, dass zu ihrer Vermeidung den Netzbetreibern nur Sekunden verbleiben, um gegenzusteuern. Diese Gegensteuerung ist nur über die kinetische Energie der rotierenden Massen der Turbinen und Generatoren konventioneller Kraftwerke möglich.

Dies setzt voraus, dass bei zunehmendem Anteil von Wind- und Solarstrom im Stromangebot eine kritische Grenze für konventionelle Kraftwerke von rund 28 GW nicht unterschritten werden darf.

Selbst Gaskraftwerke sind zur Gegensteuerung nicht geeignet, da sie Minuten bis zur Abgabe einer nennenswerten Leistung benötigen.  Auch diese Aussage belegt, dass eine Erzeugung von mindestens 80% des       Stroms über alternative Energien im Sinne einer gesicherten Stromerzeugung nicht darstellbar ist. 

12. Durch das volatile Verhalten der Stromerzeuger Wind und Solar müssen die Stromnetze bis zum Jahre 2050 mindestens um den Faktor 2,5 größer ausgelegt werden. Ohne Stromspeicherung steigt dieser Faktor um Größenordnungen.

Diese gewaltige Erweiterung schließt nicht die dezentrale Stromerzeugung durch die alternativen Energien und deren Transport zu den Netzknotenpunkten ein, von wo der Strom zu den Verbrauchszentren geleitet werden muß.           

13. Die im Jahre 2014 festgelegten Änderungen der Energiewende 2010 / 2011, die einschneidende Auswirkungen haben werden, bedürfen einer gesonderten Betrachtung.

Dr.Ing. Erhard Beppler EIKE

Related Files




Fracking – kann die Politik noch sachbezogen handeln?

Worum geht es?

Da sowohl Erdöl als auch Erdgas leichter sind als das umgebende Formationswasser, haben diese Kohlenwasserstoffe das Bestreben, nach oben aus den Muttergesteinen auszuwandern, um dann letztlich an der Erdoberfläche in die Atmosphäre zu gelangen. Auf diesem Weg nach oben können sie in „Fallen“ geraten, beispielsweise domförmige (antiklinale) undurchlässige Schichten, unter denen sie sich dann dauerhaft anreichern.  Ausschließlich auf diesen „sekundären“  Lagerstätten beruhte bisher die Förderung von Kohlenwasserstoffen, weshalb diese Lagerstätten oder auch deren Nutzung heute „konventionell“ genannt wird. Da die Kohlenwasserstoffe in diese Lagerstätten hineingewandert sind, sich also in diesen Gesteinen bewegen können, kann man sie auch verhältnismäßig leicht gewinnen. Ist dies in Ausnahmefällen durch zwischenzeitliche Gesteinsveränderungen nicht mehr der Fall, spricht man oft von „tight gas“ Lagerstätten. Die angesprochenen Sekundärlagerstätten sind global nahezu erschöpft, die Reichweiten liegen für Öl bei einigen Jahrzehnten und bei Gas etwas länger. Die Menge der Kohlenwasserstoffe, die im Muttergestein verblieben sind, ist ungleich größer. Gelingt es, diese zu fördern, steigen die verfügbaren Vorräte und somit die Reichweiten drastisch an. Die Tatsache, dass noch Öl und Gas im Muttergestein ist, ist natürlich ein Hinweis darauf, dass es dort nicht ohne Anstrengung heraus zu bekommen ist.  Brauchbare Technologien sind heute jedoch verfügbar und werden seit Jahrzehnten, inzwischen auch millionenfach, angewendet. Einerseits müssen die Förderbohrungen über lange Strecken in der Kohle- oder Tonsteinschicht geführt werden (oft unpräzise horizontales Bohren genannt), andererseits muss erreicht werden, dass Öl oder Gas aus der Umgebung der Bohrung dieser zufließen kann. Es geht dabei um Entfernungen von einigen hundert Metern. Dies alles wird durch hydraulisch erzeugte (gefrackte) und künstlich offen gehaltene kleine Risse in der Umgebung der Bohrung erreicht. Im tight gas wird dies seit Jahrzehnten weltweit erfolgreich und ohne große Risiken praktiziert. Für unkonventionelle Lagerstätten hat dies in den USA einen Öl- und Gasboom ausgelöst und von dort aus einen weltweiten Technologieschub bewirkt, der nur aus politischen Gründen das eine oder andere Land noch nicht erreicht hat.

Und was sagt die Öffentlichkeit?

Jahrzehnte lang nahm die Öffentlichkeit von der neuen Technologie (eben diesem Fracking) keine Notiz, erfreute sich aber dennoch an niedrigen Energiekosten. Dann kam der Film „Gasland“, der mit spektakulären Falschbehauptungen und gefälschten Bildern – beispielhaft erwähnt das „brennende Wasser“ – nicht nur einen Oskar einheimste und zum wirtschaftlichen Riesenerfolg wurde, sondern geradezu eine Anti-Fracking-Volksbewegung begründete. Trockene Dementis amerikanischer Fachbehörden hatten gegen die „Kraft der Bilder“ keine Chance. In Deutschland, das ja ohnehin zu überzogener Angst neigt, war die Verbreitung der Angst vor Fracking besonders durchdringend. Populismus-Tendenzen taten ihr übriges. Medien fühlten sich ihren Lesern, Zuhörern und Zuschauern verpflichtet, die großen Naturschutzverbände handelten so, wie es ihre Mitglieder und Kleinsponsoren erwarteten, die großen Kirchen nutzten die Chance, zu zeigen, dass ihnen das Wohl der Gläubigen am Herzen liegt. Dann kamen in einer zweiten Welle die Bierbrauer, die Bauern, die Ärzte und viele andere dazu. Es wimmelte plötzlich bei den Veranstaltungen der Bürgerinitiativen von selbsternannten Frackingexperten.

Und die Politik?

Die Politik besann sich auf die Basisdemokratie als dem schöner klingenden Bruder des Populismus. Was die Mehrheit der (zuvor irregeleiteten) Wählerschaft denkt, muss umgesetzt werden. Die Lobbyarbeit der Verbände und Bürgerinitiativen tat ein übriges. Die Politik schwenkte ein, wollte sich aber zunächst noch ein „Wissenschaftsmäntelchen“ umhängen. Es wurden Gutachten und Studien in Auftrag gegeben (NRW und UBA 1 und 2). Die Wissenschaftler wurden sorgfältig so ausgesucht, dass sie von Fracking möglichst keine Ahnung hatten, zumindest aber noch nie etwas zum Thema veröffentlicht hatten. Dennoch entstanden überraschenderweise brauchbare Gutachten, die zum größten Leidwesen der Politik deren populistische Positionen nicht begründeten. Die Gutachten stuften Fracking nicht als Risikotechnologie ein, sondern bezeichneten es als „beherrschbar“. Freilich formulierten sie auch eine ganze Reihe von „Handlungsempfehlungen“, die einerseits die Beherrschbarkeit sicherstellen, andererseits aber die Zukunftstechnologie ermöglichen sollten. Die Politik stand nun vor einem Problem, da die unbedarfte Bevölkerung nach wie vor große Risiken im Fracking sieht, die Wissenschaft diese aber verneint. Auf wen wird die Politik hören?

Und was macht die Wissenschaft?

In vielen Fragen ist sich ja „die Wissenschaft“ uneins und es wäre vermessen, dies zu leugnen. Das war auch bei der Sicherheit der Atomkraftwerke so. Beim Fracking ist es aber grundsätzlich anders. Es gibt keinen seriösen Wissenschaftler, der im Fracking eine Risikotechnologie sieht (verglichen mit anderen Methoden der Energiebereitstellung). Die Wissenschaft versucht aktuell, dies der Politik, den Medien und der Bevölkerung zu verdeutlichen. Universitäten und Großforschungseinrichtungen haben sich gemeldet,  die Bundesanstalt für Geowissenschaften und Rohstoffe, auch die geologischen Landesämter sind sich einig. Ein Schulterschluss mit den Kompetenzzentren der europäischen Nachbarländer wurde hergestellt. Die Wissenschaft freut sich verständlicherweise nicht, wenn sie gegenüber den Laienmeinungen untergeht – sie wehrt sich aber entschieden dagegen, dass uminterpretiert und umgedeutet wird, was sie geschrieben hat. Die Politik sollte zumindest den Mumm haben, deutlich zu sagen, dass sie gegen die einheitliche Meinung der Wissenschaft handelt, wenn es denn unbedingt so sein muss.

Und wie geht es weiter?

Das Kind ist ja noch nicht in den Brunnen gefallen. Vielleicht entscheidet sich ja die Politik doch noch gegen den Technologiestillstand. Wir müssen abwarten, wie der Entwurf des  Fracking- oder Antifracking-Gesetzes aussehen wird. Die Politik sollte sich dann auch erinnern, dass es sich oft bewährt hat, Entscheidungen auf der Basis wissenschaftlich begründeter Argumente zu fällen: beispielsweise beim Heilen des Ozonlochs. Politiker hätten im übrigen ohne die Arbeit der Wissenschaft dieses Loch sicher nicht selbst bemerkt. Und sollte es mit dem Fracking erst 2021 (nach Ablauf des Moratoriums durch das geplante „Totregeln“) losgehen, ist das Gas sicher noch immer dort, wo es schon seit einigen Millionen Jahren auf uns wartet.

Prof. Dr. Horst Rüter ist Präsident von HarbourDome
und Mitglied der folgenden Organisationen:
 
  • Deutsche Geophysikalische Gesellschaft (DGG)
  • Geothermische Vereinigung – Bundesverband Geothermie (Vice-president)
  • International Geothermal Association (IGA), (Director)
  • European Geothermal Council (EGEC)
  • Geounion- Alfred Wegener Stiftung (Board Member)
  • European Association of Geoscientists and Engineers (EAGE)
  • Society of Geophysicists (SEG)
  • Australian Society of Geophysicists (ASEG)
  • Society of Professional Well Log Analysts
  • Deutsche Gesellschaft für Polarforschung
  • Indian Geophysical Union (IGU) Foreign Fellow

Mit Dank übernommen von der Website des Deutschen Arbeitgeberverbandes hier




Mietervertreibung für das Klima – Eine weitere Folge der Energiewende

Teil 1: Die gesetzlichen Instrumente

1.1 Die Energieeinsparverordnung EnEV

Die Verordnung und das Gesetz sollen den Verbrauch von vorwiegend fossilen Energieträgern für das Heizen privater und öffentlicher Gebäude vermindern und damit der geplanten Absenkung der CO2-Emissionen dienen. Die EnEV wurde 2002 erlassen (Lit.1). Zwischenzeitlich wurde sie mehrfach mit dem Ziel novelliert, zuletzt 2013, insbesondere die Forderungen an die Wärmedämmung und die Heizsysteme der Gebäude, weiter zu verschärfen .

Beide gesetzlichen Maßnahmen stehen deutlich seltener als das EEG im öffentlichen Fokus, obwohl die durch diese gesetzlichen Maßnahmen verursachten Kosten für die Haus- und Wohnungseigentümer und anschließend auch für die Mieter in die Milliarden gehen. Nach vielen negativen Erfahrungen, die insbesondere die nicht eingetroffenen Einsparungseffekte sowie auch negative Auswirkungen der Fassadendämmung betreffen, hat sich nun deutliche Kritik erhoben, die sich insbesondere in Fernsehberichten niederschlug.

„Wärmedämmung – der Wahnsinn geht weiter“ und „Wärmedämmung – die große Energiesparlüge“.

Das waren die Titel umfangreicher Berichte im NDR (Lit.2; 3) und im WDR (Lit.4; 19), die schonungslos die überwiegende Nutzlosigkeit der teuren Dämmungsmaßnahmen, aber auch die damit verbundenen Gefahren offenlegten. Die folgenden Ausführungen beruhen weitgehend auf diesen Berichten.

1.2 Das Erneuerbare- Energien-Wärme-Gesetz EEWärmeG

Zweck des am 01.01.2009 in Kraft getretenen EEWärmeG ist 1. der Klimaschutz, 2. die Schonung fossiler Ressourcen, 3. die Senkung von Energieimporten, 4. die Weiterentwicklung von Technologien zur Erzeugung von Wärme und Kälte aus „Erneuerbaren Energien“ EE und 5. bis 2020 den EE-Anteil am Endenergieverbrauch für Wärme und Kälte auf 14% zu erhöhen (Ist 2011: 10,2%). Es ist damit das zentrale regulatorische Instrument, um den Einsatz von EE im Gebäudesektor und weitere Maßnahmen voranzutreiben.

Die bei derartigen Zwangsmaßnahmen eintretenden Reaktionen der Betroffenen beklagte die Bundesregierung bereits 2012 in einem „Erfolgsbericht“ des BMU (40): „Es zeigten sich sogar rückläufige (!) Trends beim EE-Anteil an Sanierungsmaßnahmen.“ Offenbar versuchen die Bürger nicht nur mit der Verschiebung von eigentlich fälligen Erneuerungen ihrer Heizungsanlagen den Einbau teurer EE-Anlagen zu vermeiden; sie haben alte Anlagen repariert und sie zum Teil wiederum unauffällig durch funktionierende Anlagen ersetzt. Diese Zwangsmaßnahmen führen mit Sicherheit dazu, dass sich ein Schwarzmarkt für die Installation von Heizungsanlagen entwickelt, die keine EE-Anlagen einbeziehen, die aber sehr wohl aus modernen und effizienten konventionellen Anlagen – z.B. Brennwertkessel – bestehen können.

Bei Neuerrichtung von Gebäuden müssen die Eigentümer für die Erzeugung von Wärme und Kälte bestimmte Anteile an der gewählten „Erneuerbaren Energie“ nutzen (48 § 5, § 7). Die Mindestanteile sind u.a.: Für Solare Strahlung 15%; für feste Biomasse 50%; für Geothermie oder Umweltwärme 50%. Bei s.g. Ersatzmaßnahmen gilt ein Mindestanteil von 50% bei Nutzung von Abwärme oder KWK-Anlagen. Als Ersatzmaßnahmen kann z.B. auch die zusätzliche Einsparung von Energie durch besonders gute Wärmedämmung der Gebäudehülle angerechnet werden, wenn der jeweilige Höchstwert des Jahres-Primärenergiebedarfs nach der EnEV um mindestens 15% unterschritten wird. Fernwärme und Fernkälte gelten nur dann als Ersatzmaßnahme, wenn sie zu einem wesentlichen Anteil aus EE oder zu mindestens zu 50% aus der Nutzung von Abwärme oder von KWK-Anlagen oder aus einer Kombination der drei Varianten stammt.

Auch von E. Gawel et al (Lit.10) wird diese Entwicklung beklagt: „Kritisch bei einer anlassbezogenen Nutzungspflicht (Anm.: einer Modernisierung) im Bestand sind die möglichen Auswirkungen auf die Heizungs-Modernisierungs-Rate, soweit Investoren Sanierungen hinauszögern, um den gesetzlichen Geboten bei unzureichender Wirtschaftlichkeit zu entgehen“.

Die Öko-Bürokratie in den Berliner Ministerien wird diesen logischen Reaktionen der Betroffenen auf die gesetzlich vorgeschriebene Installation unwirtschaftlicher Anlagen sehr wahrscheinlich mit Verschärfungen begegnen. Das könnte vor allem einer Ausdehnung der EnEV und des EEWärmeG auf alle Bestandsgebäude bedeuten. Die wirksamste und wahrscheinlichste neue Zwangsmaßnahme wird vermutlich eine Modernisierungspflicht für alle Heizungsanlagen sein, die ein bestimmtes Alter erreicht haben, wobei dann EE-Anlagen eingesetzt werden müssen.

Die Deutsche Energie-Agentur GmbH (dena) und die Allianz für Gebäude-Energie-Effizienz (geea) haben sich bereits für eine „deutliche Verschärfung der Anforderungen an Neubauten“ ausgesprochen.

Der Bundesrat hat – wie auch die geea – die Bundesregierung aufgefordert, das Ordnungsrecht zur Energieeffizienz von Gebäuden zu vereinfachen, indem die EnEV und das EEWärmeG zusammengelegt werden. Das bildet dann auch die Gelegenheit, endlich alle Bestandsgebäude diesen Regelungen zu unterwerfen.

(Anm.: Die dena gehört zu 50% dem Staat, zu 26% der mehrheitlich bundeseigenen Kreditanstalt für Wiederaufbau KfW. Die geea wurde von der dena gegründet und versteht sich als „Plattform der Akteure (Anm.: Profiteure) in den Branchen Bauen und Energie“; sie wird von der dena koordiniert.)

Teil 2: Die Maßnahmen und ihre Bewertung

A) Die Rolle der Hersteller von Dämmstoffen ( Lit.5; 15; 16) )

Über 80% der Häuser, die eine Dämmung der Außenwände bekamen, wurden mit dem Dämmmaterial Polystyrol – bekannt als Styropor – verkleidet. Dieses Material kostet etwa die Hälfte der Mineralwolle, was ihre bevorzugte Verwendung erklärt. Dieser Markterfolg ist aber auch durch die massive Werbung der Polystyrol-Hersteller erreicht worden, die ganz außerordentliche Energieeinsparungen verkünden: So wirbt der Fachverband Wärme-Verbundsysteme WDV mit einer 50-prozentigen Einsparung durch die Fassadendämmung.

Der Leiter der Deutschen Energieagentur dena, Stephan Kohler, nannte sogar einen erreichbaren Einsparungswert von enormen 70%. Das habe eine Studie ergeben, an der sich auch Dämmstoffhersteller – z.B. die BASF – mit Fördermitteln beteiligt hätten. Die dena gehört allerdings zu 50% dem Staat, zu 26% der mehrheitlich bundeseigenen Kreditanstalt für Wiederaufbau KfW. Ob diese Abhängigkeit zu dieser extremen Aussage führte, die nicht einmal von den Materialherstellern benutzt wird, sei dahingestellt.

WDV-Verbandschef Wolfgang Setzler nannte im TV-Interview des WDR eine Amortisationszeit von 8 Jahren. Dann hätten die Einsparungen alle Dämmungs-Kosten ausgeglichen. In Abschnitt E.) „Bewertung durch Wissenschaftler“ findet man allerdings gänzlich andere Zahlen (s.u.).

Polystyrol ist offenbar brandgefährlich. Versetzt mit Flammschutzmitteln und oberflächlich geschützt durch eine Putzschicht gelten Wärmeverbundsysteme mit diesem Kunststoff als „schwer entflammbar“. Doch sie sind brennbar, wie das Ergebnis eines Brandversuchs für die 45-Minuten- NDR-Dokumentation „Wärmedämmung – Der Wahnsinn geht weiter“ (Lit.2) zeigte. Näheres unter Absatz C.) „Wärmedämmung und Brandgefahr“.

B.) Die Rolle der Energieberater ( Lit. 2; 17)

Zu dem Markterfolg trugen auch die Energieberater bei, die als unabhängige Fachleute auftreten, jedoch oft keine sind und dazu auch nicht frei von Eigeninteressen. Sie sollen eigentlich Hausbesitzern helfen, Geld zu sparen und die Umwelt zu schonen. Tatsächlich verdienen viele ihr Geld auch mit der Planung und Beaufsichtigung der von ihnen selbst empfohlenen Sanierungsmaßnahmen. Mit der Empfehlung einer Wärmedämmung können sie daher wesentlich mehr Geld verdienen als mit der bloßen Beratung.

Die Berater berechnen die Einsparmöglichkeiten einer Wärmedämmung gemäß der EnEV anhand des Wärmedurchgangskoeffizienten, des sog. U-Wertes. Jeder Dämmstoff hat einen durch Prüfungen ermittelten U-Wert. Je niedriger dieser U-Wert, desto wirksamer ist die Dämmung und damit die angeblich erzielbare Energieeinsparung – das ist das Bewertungsschema.

Aber diese schlichte Argumentationskette liefert keine realistischen Ergebnisse, kritisiert Architekt Konrad Fischer, ein bundesweit bekannter Kritiker der Wärmeverbundsysteme. Er bemängelt, dass die in der EnEV festgeschriebenen Berechnungsmethoden nicht alle wesentlichen Faktoren berücksichtigen. So spielt die Wärmedurchlässigkeit von Fenstern, Türen und Dach eine wichtige Rolle. Außerdem hätten die verschiedenen Materialien auch bei gleichem U-Wert verschiedene Energiespeicher-Eigenschaften, die für eine Entscheidung für oder gegen eine Wärmedämmung des Gebäudes sehr wichtig sei.

So heizt sich eine massive Backsteinfassade tagsüber langsam auf und speichert die Wärme lange. Abends gibt sie immer noch Wärme ab und spart Heizwärme. Die zumeist leichtgewichtigen Wärmeverbundsysteme – Extrembeispiel Styropor – erkalten in der Nacht rasch, weil ihre Speicherfähigkeit gering ist. Diese Eigenschaften bleiben bei den o.g. Berechnungen unberücksichtigt, obwohl sie von zentraler Bedeutung sind, sagt Konrad Fischer.

Er weist außerdem auf einen weiteren Fehler bei den Energieberatungen hin: Es wird oft ein zu hoher bisheriger Energieverbrauch angenommen. Das geht durch, weil die meisten Hausbesitzer diese Zahl nicht kennen. Mit dem U-Wert der empfohlenen Dämmung wird dann eine eindrucksvolle theoretische Energieersparnis berechnet, die den Hausbesitzer überzeugen soll.

Frank Essmann, selbst Energieberater, nennt einen weiteren Trick: „Man setzt die voraussichtliche jährliche Steigerung der Energiekosten sehr hoch an, dann hat sich die Sanierung auf dem Papier sehr schnell gelohnt. Oder man verzichtet darauf, alle Schwierigkeiten bei der Fassadenverkleidung aufzulisten – etwa komplizierte Ecken und Überhänge. Auch die Gerüstkosten werden häufig nicht eingerechnet und dann kann eine Sanierung, die vielleicht mit 60.000 € kalkuliert wurde, auf einmal 100.000 € teuer sein.“ Das liege auch daran, dass viele sogenannte Energieberater nur oberflächliche Wochenendkurse belegten, bemängelt Essmann. Die Software, mit denen sie das angebliche Energiesparpotenzial berechnen, werde zudem häufig von den Dämmstoffherstellern programmiert. (Lit.19). Wie man die für eine solche Tätigkeit erforderlichen Kenntnisse in der außerordentlich komplexen und anspruchsvollen Bauphysik in solchen Kursen erwerben kann, müsste der Bundesbauminister einmal erläutern.

Der Hauptfehler liege aber in den Vorgaben der Energie-Einsparverordnung, sagt Essmann. „Das was ich (auf Grund dieser Vorgaben) technisch ausrechne, ist der sogenannte Energiebedarf. Der kann von dem tatsächlichen Energieverbrauch des Gebäudes in den vergangenen Jahren deutlich abweichen.“ Verbraucht das Gebäude vor der Dämmung bereits viel weniger Energie als berechnet, dann sind auch die tatsächlich erzielbaren Einsparungen an Energie und an Energiekosten viel geringer. Entsprechend verlagert sich der Zeitpunkt, an dem die geringen Kosteneinsparungen die teure Dämmaktion bezahlt haben, in eine ferne Zukunft (siehe dazu unten die Bewertungen der Wissenschaftler).

C.) Wärmedämmung und Brandgefahr

Die Berichterstattung über Brände, an denen Polystyrol als Verkleidungs- oder Dämm-Material entscheidend beteiligt war, gefällt dem Herstellerverband WDV nicht. Die NDR-Redaktion empfand die Reaktion der Wärmedämm-Lobby auf ihre umfangreiche Dokumentation vom November 2012 (2) als „ungewöhnlich massiv“. Die gut vernetzte Branche hätte „mit den verschiedensten Mitteln versucht, Einfluss auf die Berichterstattung zu nehmen: Ob über anwaltliche Schreiben, das gezielte Eingreifen in eine Hörerbefragung oder Kampagnen-Vorwürfe“. ( Lit.4 ).

Die Sendung vom November 2012 (2) stellte anschließend Augenzeugen der verschiedenen Brandereignisse mit ihren Berichten vor. Ein besonders tragischer Fall war der Brand auf dem Flughafen Düsseldorf im Jahre 1996, der 17 Menschen das Leben kostete. Der Experte Bernd Haarmann, damals Brandschutzexperte vor Ort, erklärte, dass 8 cm dicke Polystyrolplatten „in großem Maßstab in die Zwischendecke eingebaut“ waren und dass dieses Material sowohl „für die rasende Ausbreitung des Feuers als auch für den hoch toxischen Rauch verantwortlich war“. Die Opfer seien an diesen Rauchgasen erstickt.

Nur für öffentliche Gebäude, z.B. Krankenhäuser, gebe es eine Sonderbauverordnung in der Landesbauordnung NRW, die die Verwendung brennbaren Materials verbietet. Polystyrol darf deshalb dort nicht eingesetzt werden. Haarmann: „Normalerweise sollte es auch in Ein- und Zweifamilienhäusern verboten werden.“

Der WDR brachte ein weiteres Beispiel: Am 22.12.2012 gab es in einer Wohnung in Weißwasser einen Brand. Frank Wolsch von der Feuerwehr Weißwasser schilderte den Vorfall: Die Flammen hätten schnell auf die Fassade übergegriffen; das Feuer sei schnell nach oben gegangen; die Balkonverkleidung hätte gebrannt. Brennendes Material sei herabgetropft und habe einen „brennenden See“ gebildet. Es habe 9 Verletzte gegeben. Das Löschen einer derart wärmegedämmten Fassade sei sehr schwierig, weil sie durch den Unterbau hinterlüftet ist und damit eine Kaminwirkung für das Feuer vorliegt. Nach der Wirkung von Brandschutzriegeln befragt, erklärte er, dass die Flammen von außen über diese Barriere überspringen.

Im NDR-Beitrag „Wärmedämmung: Ignoranz der Brandgefahr“ ( Lit.13) wurde der Vorfall im Hamburger Schanzenviertel, der Ende November 2013 geschah, beschrieben: Zunächst habe eine Mülltonne gebrannt. Als die Feuerwehr nach wenigen Minuten eintraf, hatten sich die Flammen bereits bis in das Dachgeschoss des sechsstöckigen Altbaus gefressen. „Wir konnten das in dem Moment nicht fassen, wie so ein kleines Feuer so explosionsartig nach oben schnellen konnte“, sagte Brigitte Seibold, die hinter dem Gebäude wohnt. Wie ein Fahrstuhl hätten sich die Flammen in einem Schacht nach oben bewegt, berichtete eine weitere Anwohnerin. Schnell hatte sich das gesamte Gebäude mit giftigen Rauchgasen gefüllt, so dass die Treppe als Fluchtweg ausfiel. Neun Menschen wurden mit der Drehleiter gerettet. Die Einsatzleitung war ratlos: Wie konnte sich ein kleiner Mülltonnenbrand so rasant ausbreiten? Am nächsten Tag die Gewissheit: Der rückwärtige Lichtschacht war kurz zuvor mit Polystyrol gedämmt worden. Im NDR-Bericht wird weiter berichtet, dass „immer wieder wärmegedämmte Gebäude brennen“.

Weiter heißt es: „In Delmenhorst traf es 2011 gleich fünf Mehrfamilienhäuser, die komplett ausbrannten, weil Jugendliche zwei Verschläge angezündet hatten. 200 Menschen wurden obdachlos. Bekannt wurden bisher über 50 Brände von Fassadendämmungen aus Polystyrol, die genaue Zahl kennt niemand, denn eine offizielle Statistik gibt es nicht.“

„Nach einem Großbrand 2012 in Frankfurt – dort brannte die noch unverputzte Fassade eines größeren Gebäudes – äußerte sich der Chef der dortigen Feuerwehr und forderte, die Zulassung für Polystyrol als Dämmstoff zu überprüfen. Folgenlos. Zwar wurde das Material Thema bei der Bauministerkonferenz; geändert wurde nichts“. (Lit.13).

Aus dem NDR-Bericht: „Die Autoren der NDR-Dokumentation haben einen Brandversuch in der Materialprüfanstalt Braunschweig durchführen lassen. Ein Fachbetrieb hatte dort das Wärmedämmverbundsystem eines Markenherstellers aufgebaut. 20 Minuten hätte es der Einwirkung heftig lodernder Flammen standhalten müssen. Doch das System fing so schnell Feuer, dass der Versuch bereits nach acht Minuten außer Kontrolle geriet. Die Feuerwehr musste wegen der heftigen Flammen und extremer Rauchgasentwicklung unter Atemschutz umgehend löschen.

Entscheidend für die rasante Brandausbreitung könnte eine Abweichung im Prüfaufbau gewesen sein. Für den Versuch wurde bewusst auf den Einbau eines sog. Brandschutzstreifens aus nicht brennbarer Mineralwolle über dem simulierten Fenstersturz verzichtet. Der Verzicht spiegelt die Praxis wieder – bei der Wärmedämmung wird entweder ganz oder teilweise auf Brandschutzstreifen verzichtet. Das kann verheerende Folgen haben wie etwa im November 2011 in Delmenhorst (s.o.)….oder im Mai 2012 in Frankfurt… (s.o.)“.

Die oben erwähnten Brandriegel oder Brandschutzstreifen sind 10 – 20 cm breite Streifen aus nicht brennbarer Steinwolle, die in regelmäßigen Abständen im Gebäude verbaut werden können. Wie oben berichtet, werden sie keineswegs regelmäßig angebracht. Aber auch Ihr praktischer Nutzen ist bereits zweifelhaft geworden, denn im Hamburger Schanzenviertel – s.o. – gab es sie. Es half nichts.

D) Das Ignorieren der Bauphysik bringt den Schimmel

Wie im oben beschriebenen Fall droht allen Bewohnern durch Außendämmung sanierter Häuser die Schimmel-Gefahr. Man hat es mit der Bauphysik zu tun, die im Falle einer ungenügenden oder fehlenden Wasserdampf-Durchlässigkeit häufig zu Schäden durch Durchfeuchtung und Schimmel führt.

Wenn vor der Fassadendämmung neue Fenster eingebaut wurden, droht Schimmel an den Wänden, wenn sich die Bewohner jetzt nicht an einen strikten Lüftungsplan halten, warnt der Bauphysiker Essmann. „Bei alten Fenstern war das Lüftungsverhalten egal; die haben sich automatisch gelüftet. Bei neuen Fenstern müsste die Wohnung zwei- bis dreimal täglich komplett durchgelüftet werden. Das ist für viele, die berufstätig sind, kaum zu schaffen“. Weil moderne Fenster wesentlich besser dämmen als die Wände, schlägt sich die Raumfeuchtigkeit nicht mehr an den Scheiben nieder, sondern gerne in den Ecken.“

Wer das korrekte neue Lüftungsverhalten nicht leisten kann, müsste dann wohl die Thermostaten höher einstellen und die Wohnung stärker aufheizen. Energiesparen wäre das nicht. Oder eine Zwangsbelüftung des ganzen Hauses muss installiert werden – mit erheblichem Komfortverlust und zusätzlichen Mietkosten.

Wer dies vermeiden will und an einer Wärmedämmung interessiert ist, die einen geringeren Heizungsaufwand bei Erhalt eines angenehmen Raumklimas bewirkt, muss auf alte und jahrzehntelang erfolgreich angewandte Maßnahmen zurückgreifen: Dickere Wände, die mehr Masse für eine bessere Wärmespeicherung besitzen, dampfdurchlässig sind, das Eindringen der durch die Sonnenstrahlung erzeugten Wärme in die Außenwände erlauben und damit die Schwankungen der Außentemperatur besser ausgleichen. Wer hingegen allein auf den U-Wert schaut und ohne wandverstärkende Ziegel auskommen will, sollte das Material Steinwolle wählen und dessen Mehrkosten nicht scheuen.

Aber bevor überhaupt über die Außenwände und die Fassade als Gegenstand von Energiesparmaßnahmen nachgedacht wird, sollten die besseren Alternativen realisiert werden, die von den Bauphysikern empfohlen werden – siehe unten.

E.) Bewertung der Wärmedämmungsmaßnahmen durch Wissenschaftler

Prof. Jens Fehrenberg von der Hochschule Hildesheim hat sich viele Jahre mit dem Thema Wärmedämmung befasst. Seine grundsätzliche Warnung: „Es ist ein verbreiteter Irrtum, dass mit einer Wärmedämmung Energie eingespart wird.“ (Lit.2). Die Dämmung verhindere nicht den Durchgang der Wärmeenergie, sondern verlangsame ihn nur.

Die Konsequenz einer Wärmedämmung für die Bewohner sei ein geändertes Verhalten: Es muss mehr gelüftet werden (s.o.). Unterlässt man das, erhöht sich der Energiebedarf sogar, weil feuchte Luft mit mehr Energie aufgeheizt werden muss.

Selbst der Geschäftsführer des Fachverbandes Wärmedämm-Verbundsysteme, Wolfgang Setzler, sprach in der WDR-Sendung die Mahnung aus, „dass wir auch mit der Übertreibung der Einsparquoten aufhören müssen“.

Prof. Fehrenberg und die WDR-Expertin Sabine Brinkenstein halten die Bevorzugung der Wärmedämmung bei einer beabsichtigten Verringerung des Energiebedarfs für Gebäude für falsch. Die effizienteste, wirtschaftlichste Reihenfolge von Sanierungsmaßnahmen sei:

1.     Wärmedämmung des Dachs

2.     Dämmung der Kellerdecke

3.     Einbau einer hocheffizienten Heizungsanlage

4.     Modernisierung der Fenster

5.     Dämmung der Außenwände – die somit an letzter Stelle rangiert.

Sein oben angeführtes Rechenbeispiel von Bosfeld/Hannover beruht auf dieser Bewertung, die durch die Schilderungen der Betroffenen bekräftigt wird. Die Kosten aller dieser Maßnahmen zusammen sind enorm – siehe das oben beschriebene, geradezu irrwitzige Beispiel aus Berlin (Lit.6).

In der Studie von Prof. Simons, Forschungsinstitut empirica, Berlin, „Energetische Sanierung von Ein- und Zweifamilienhäusern“ (Lit.7) wurden zur Beurteilung des energetischen Zustands der Gebäude in die Berechnungen die Heizungsanlage, Fenster, Außenwanddämmung, obere Geschossdecke/Dach und Fußboden/Kellerdecke einbezogen. Zusammengefasst kommt die Studie zum Ergebnis, dass eine energetische Sanierung im Regelfall unwirtschaftlich ist, da die eingesparten Energiekosten nicht die Kosten dieser Sanierung decken. Der mittlere Energieverbrauch von nicht wesentlich modernisierten Ein- und Zweifamilienhäusern beträgt 167 kWh/(m²a). Bei Energiekosten von 0,08 €/kWh belaufen sich die Energiekosten vor Sanierung auf 13,36 €/(m²a). Unterstellt, durch eine energetische Sanierung ließen sich tatsächlich 60 % der Energie einsparen – ein ambitioniertes Einsparziel, das in der Realität nur selten erreicht wird – so sinken die Energiekosten um 8,01 €/(m²a). Innerhalb von 15 Jahren summierten sich die eingesparten Energiekosten entsprechend auf 120 €/m² und damit bei Weitem nicht auf die Sanierungskosten, die bereits bei einfachen Fällen zwischen 300 und 500 €/m² liegen.

Auf einer Fachtagung zur Gebäudesanierung stellte Prof. Simons fest (8):

„Eine Sanierung trotz noch relativ gutem Zustand der Bauteile macht wenig Sinn“. Und weiter: „Besonders die Materialkosten der energetisch relevanten Bauprodukte sind in den Jahren 2000-2011 zwischen 10 und 50% angestiegen“.

Auch eine aktuelle Studie der Kreditanstalt für Wiederaufbau KfW beleuchtete das Dilemma steigender Bauproduktpreise und deren Auswirkung auf die dadurch weiter sinkende Wirtschaftlichkeit energetischer Modernisierungs-Maßnahmen (Lit.11). Hierzu M. Kleemann, Jülich: „Neben der oftmals sehr knappen Wirtschaftlichkeit energetischer Sanierungsmaßnahmen mit Amortisationszeiten von über 25 Jahren ist auch das „Dilemma der mittleren Qualität“ ein Problem. Das Anforderungsniveau … wird nur zu 69% umgesetzt“.

Da die EnEV seit Jahren großräumig in allen Teilen des Landes angewendet werden muss, führt sie folglich zu einer extrem aufwendigen Umhüllung der Fassadenflächen, die zugleich die am wenigsten geeignete Maßnahme für eine Energieeinsparung darstellt.

Die Kosten, die die Vermieter ggf. auf die Mieter abwälzen können, sind erheblich, und werden bis zum Ende des Programms 2050 ca. 3 Billionen € allein durch die Fassadendämmung erreichen. Da die Dämmung oft mit einer ohnehin notwendigen Renovierung der Fassade einhergeht, werden die für die EnEV aufzuwendenden Beträge in der Regel weniger sichtbar. Kaum einer der Auftraggeber der Dämmmaßnahmen macht sich die Mühe diese Kosten herauszurechnen. So fehlt die Transparenz. In so gut wie in keinem Fall rechnen sich die Investitionen innerhalb der in der EnEV vorgegebenen Amortisationszeit von 10 Jahren.

Teil 3: Erfahrungen und Folgen für Hausbesitzer und Mieter

Die Berichte der beiden TV-Sender zeigen mehrere Beispiele für Wärmedämmaktionen in Siedlungen, die ohne merkliche Energieeinsparungen blieben, aber erhebliche Kosten verursachten. Während die Eigenheimbesitzer darauf hoffen, ihre Investitionen durch eine Heizkostenersparnis zu refinanzieren, können Vermieter die Kosten mit 11% pro Jahr 1:1 auf ihre Mieter umlegen. Deren Miete steigt beträchtlich; auf die versprochenen Einsparungen bei ihren Heizkosten warteten die präsentierten Mietparteien vergeblich.

Ein spektakulärer Fall ereignete sich im Stadtteil Bosfeld von Hannover, wo drei Häuser einer Siedlung mit Fassaden-Wärmedämmung saniert werden sollten. Man agierte allerdings vorsichtig und übertrug Prof. Jens Fehrenberg, Bauingenieur, Sachverständiger und Professor an der Hochschule Hildesheim, die Aufgabe, ein erstes gedämmtes Haus dieser Siedlung mit seinem neuen Energieverbrauch für eine Zeit zu überwachen und es mit den anderen zu vergleichen. Das Ergebnis mehrerer Jahre war eindeutig: Die Fassaden-Wärmedämmung hatte absolut nichts gebracht. Daraufhin unterblieb die Sanierung der übrigen Häuser.

Prof. Fehrenberg rechnete in dem WDR-Beitrag ein Beispiel vor:

Wenn die jährlichen Kosten für die Heizung 2.500,- € betragen, können über eine Fassadendämmung nur 400,- € eingespart werden. Hat diese Dämmung 20.000,- € gekostet, dann dauert es 50 Jahre, bis die Einsparungen diese Investition ausgeglichen haben – im günstigsten Fall seien das 35 Jahre.

Dieses Rechenbeispiel gilt jedoch nur für Haus- und Wohnungsbesitzer. Mieter hingegen, deren Miete durch die Umlage der Dämmungskosten deutlich erhöht wurde, zahlen ohne eine adäquate Verringerung ihrer Heizkosten vom ersten Monat an nur drauf – und dieser Verlust steigt unablässig weiter an. Dazu kommen die unten beschriebenen weiteren Nachteile.

Die energetische Gebäudesanierung wird zum Instrument der Mietervertreibung

Die Regierung hat soeben ihre „Mietpreisbremse“ verkündet, die 2015 in Kraft treten soll.

Bei Neuvermietungen soll die Miete nur maximal 10 Prozent höher werden dürfen.

Für die vielen Mieter, die gerade die Opfer der energetischen Sanierung ihres Miethauses geworden sind, muss diese Ankündigung wie Hohn klingen, denn vor den oft unerträglich hohen Mietsteigerungen, die ihnen anschließend abverlangt werden, schützt sie die Regierung nicht – im Gegenteil: Sie hat diese Möglichkeit selbst durch die oben beschriebenen Gesetze geschaffen und sie will, dass bis 2050 der Energieverbrauch aller Häuser um 80 Prozent sinken soll. Begründung: „Klimaschutz“. Die Hausbesitzer dürfen jährlich 11 Prozent dieser Kosten auf die Mieten aufschlagen.

Was das bedeutet, hat das Erste Fernsehen gerade am 22.September in seiner Dokumentation „Der Mietreport – Wenn Wohnen unbezahlbar wird“ gezeigt (Lit.6). Im krassesten der Fälle wurde einer vierköpfigen Berliner Familie, die in einem älteren Haus zu einer Miete von 645 Euro wohnt, nach einer umfassenden Energie-Sanierung eine Mieterhöhung von 2.282 Euro präsentiert – insgesamt also 2.927 Euro, was eine Mietsteigerung um das 4,5-fache bedeutet.

Die Liste der in diesem Falle durchgeführten „Klimaschutz“-Maßnahmen:

♦  Außenwanddämmung

  Isolierglasfenster

  Wohnraumbelüftungsanlage

  Dämmung Kellerdecke und oberste Geschoßdecke

  Warmwasserbereitungsanlage mit Solarvakuumanlage

  Zentrale Gasheizungsanlage

  und dazu die laufenden Kosten für die Heizung und die Zwangsbelüftung.

Hier wurde keine der technisch überhaupt möglichen Maßnahmen ausgelassen und dieser Fall ist somit ein eindrucksvolles Beispiel für eine sowohl Handwerksbetriebe und Industrieunternehmen als auch die Klimaschutz-Ideologen beglückende komplette Energiesanierung eines Gebäudes dienen – und kann damit im Grunde nur Angst und Schrecken verbreiten.

Die Zwangsbelüftung wurde offensichtlich deshalb installiert, um Schimmelbildung zu verhindern, weil das wegen der dampfundurchlässige Styroporpanzerung drohte – siehe unten.

Rechtsberater klärten die entsetzten Mieter darüber auf, dass alles rechtens und gültig sei. Wie dieser Fall ausgeht, kann man sich vorstellen: Diese Mieter werden wohl ausziehen müssen. Das wäre dann eine Vertreibung aus ihrer Wohnung durch eine angeblich dem Klimaschutz dienende Maßnahme. Man kann sich des Eindrucks nicht erwehren, dass genau das mindestens ein sehr erwünschter Nebeneffekt der totalen „Klimaschutzmaßnahme“ war.

Der zweite präsentierte Fall betraf eine Rentnerin aus Pankow, die in einem Mietshaus einer städtischen Wohnungsbaugesellschaft zu 385 Euro Warmmiete wohnt. Auch sie hat eine Energie-Modernisierungsankündigung erhalten und muss danach 596 Euro zahlen. Das sind 50 Prozent ihrer Rente.

Professor Andreas Pfnür, der Leiter des Instituts für Immobilienwirtschaft und Baubetriebslehre der TU Darmstadt, erläuterte in dieser Sendung (6) das Ergebnis seiner Studie zu den Folgen dieser Entwicklung: Wenn das politische Energie-Einsparziel von 80 Prozent bestehen bleibt und die energetischen Sanierungsmaßnahmen wie bisher weitergeführt werden, würde die Hälfte aller Mieter am Ende zwischen 45 und 50 Prozent ihres verfügbaren Einkommens für die Wohnung zahlen müssen. „Ich glaube, dass das in vielen Fällen nicht mehr funktionieren kann“, war sein Schlußwort.

Wie wir inzwischen von wissenschaftlichen Beratergremien der Regierung, vom Weltklimarat IPCC, von der EU-Kommission und von zahlreichen weiteren Fachleuten gesichert wissen, sind sämtliche „Klimaschutz“-Anstrengungen Deutschlands zur Verringerung der CO2-Emissionen wegen des EU-Zertifikatehandels völlig sinnlos. Die auf die EU bezogene Nettowirkung der deutschen Maßnahmen ist Null (Lit. 12). Dafür dürfen die Mieter ausgeplündert und auch aus ihren Wohnungen vertrieben werden. Die Abschaffung dieser unsinnigen Gesetze wäre die wahre Mietpreisbremse.

Teil 4: Schlussfolgerungen

Solarwärme und Erdwärme– die einzigen sinnvollen regenerativen Energien in Deutschland für die Heizung – wurden vernachlässigt

Der Wärmesektor ist jedoch der einzige Bereich, in dem in Deutschland die Energie der Sonnenstrahlung – und zwar auch ihr beträchtlicher Rot- und Infrarotanteil – wirtschaftlich genutzt werden kann.

Ferner bietet auch die Nutzbarmachung der Umwelt- oder Erdwärme zu Heizungszwecken – z.B. mittels der Wärmepumpen-Technik – eine weitere sinnvolle Anwendung für die regenerativen Energien in Deutschland – dies auch insbesondere in Verbindung mit der Solarwärmenutzung.

Bei einer konsequenten Förderung der betreffenden Forschung und Entwicklung (F&E) mit Fokus auf eine Senkung ihrer Investitions- und Betriebskosten stellt dies eine große Chance für eine importunabhängige und kostengünstige Klimatisierung der Gebäude dar. Die Regierung hat jedoch die Chance versäumt, diese erprobten Techniken konsequent und verlässlich zu unterstützen ; statt dessen hat sie ausschließlich ungeeignete und teure Techniken wie Windkraft, Photovoltaik und Biomasseanbau mit Verstromung extrem auf Kosten der Stromverbraucher gefördert. Mit massiven Umweltschäden, Stromversorgungsproblemen und zu immensen Kosten.

Der Versuch auch im Gebäudebereich die „Erneuerbaren“ für Techniken zur Erzeugung von Wärme und Kälte zu erschließen, beruht abermals auf Zwang und bevorzugt wiederum die unwirtschaftlichen, aber politisch-ideologisch gewollten EE-Technologien.

Zusammenfassend ist festzustellen:

1.     Sämtliche Maßnahmen der Regierung zur Realisierung ihrer Energiewende sind fatalerweise nicht nur in Bezug auf das große Ziel „Klimaschutz“ vollkommen wirkungslos, sondern sogar mit massiven Schäden für die Bürger, die Wirtschaft und die Umwelt verbunden. Auch die Gesetze und Verordnungen zur Verringerung des Wärmebedarfs in Gebäuden fügen sich nahtlos in die lange Reihe laienhafter und unprofessioneller Maßnahmen ein, die sogar zum Teil im Konflikt mit der Physik stehen und daher die Bewertung „Pfusch“ verdienen. Sie genügen allerdings den Ansprüchen von Ideologen, die über die Energiepolitik den Menschen ihr spezielles Gesellschaftsbild aufzwingen wollen.

2.     Die Energie-Einspar-Verordnung EnEV ist ein sehr stark von Lobbyinteressen – hier insbesondere die Dämmstoffindustrie – geprägtes gesetzgeberisches Machwerk, das die am wenigsten geeigneten technischen Maßnahmen für eine Senkung des Wärmebedarfs von Häusern an die erste Stelle gesetzt hat. Sie führt zu einer riesigen Verschwendung von Geld und Material bei gleichzeitig geringem oder nicht vorhandenem Nutzen für die Umwelt und für die Bewohner, jedoch mit sehr großen Mietkostensteigerungen für die von der energetischen Sanierung betroffenen Bewohner.

3.     Der politische Vorwand, diese Maßnahmen dienten dem „Klimaschutz“ ist erwiesenermaßen falsch.

4.     Es deutet sich an, dass die Regierung mit der Energieeinspar-Verordnung eine für Mieter älterer Wohnhäuser katastrophale Entwicklung in Gang gesetzt hat, die sämtlichen Lippenbekenntnissen zu bezahlbarem Wohnraum und Mieterschutz Hohn spricht: Die energetischen Sanierungen, gegen deren Durchführung es keine Rechtsmittel gibt, ermöglichen es Immobilienspekulanten, in erworbenen Altbauten durch extrem aufwendige Maßnahmen äußerst hohe Kosten zu produzieren und anschließend mit deren gesetzlich ermöglichter Umlage von jährlich 11 Prozent ebenso extreme Mieterhöhungen zu erzwingen. Die erwünschte Folge ist die schnelle und vollständige Räumung des Hauses. Unkündbare Mietverträge nutzen nichts mehr, wenn sich die Mieten verdoppeln oder – wie im oben vorgestellten Beispiel – mehr als vervierfachen. Die Regierung hat also nicht das Geringste für den sogenannten Klimaschutz geleistet, aber der unbegrenzten Vertreibung gerade der Mieter mit geringem Einkommen aus ihren Wohnungen Tür und Tor geöffnet.

Literatur, Quellen

(1) Energie-Einsparverordnung EnEV, http://www.gesetze-im-internet.de/enev_2007/

(2) NDR-Ratgeber-Verbraucher: „Wärmedämmung – Der Wahnsinn geht weiter“, mit 6 Themenartikeln und 2 Bildergalerien, 26.11.2012,

http://www.ndr.de/ratgeber/verbraucher/Waermedaemmung-Der-Wahnsinn-geht- weiter,waermedaemmung117.html

(3) NDR-Ratgeber Verbraucher: Nicolai Kwasniewski: „Die Folgen für Mieter und

Hausbesitzer“, 21.9.2011, http://www.ndr.de/ratgeber/verbraucher/waermedaemmung105.html

(4) NDR-Zapp: „Wärmedämm-Lobby: Erschwerte Berichterstattung“, 8.6.2014,http://www.ndr.de/fernsehen/sendungen/zapp/Waermedaemm-Lobby-Erschwerte-Berichterstattung.daemmlobby100.html

(5) WDR: Könnes kämpft: „Wärmedämmung – die große Energielüge“, 2.12.2013,http://www1.wdr.de/mediathek/video/sendungen/koennes_kaempft/videokoenneskaempft114.html (über Google suchen)

(6) Das Erste: „Der Mietreport – Wenn Wohnen unbezahlbar wird“, 22.9.2014,

http://www.ardmediathek.de/tv/Reportage-Dokumentation/Der-Mietreport-

Wenn-Wohnen-unbezahlbar/DasErste/Video?documentId=23639250&bcastId=799280

(7) Harald Simons: „Energetische Sanierung von Ein- und Zweifamilienhäusern“, empirica

Forschung und Beratung, Berlin, Okt. 2012

http://www.bausparkassen.de/fileadmin/user_upload/pdf_service/empirica_ Energetische_Sanierung.pdf

(8) „Klasse statt Masse? Die politischen Ziele der Gebäudesanierung in Deutschland“, Bericht

über eine Fachtagung im IÖR Dresden, Energiewirtschaftliche Tagesfragen 63. Jg. (2013)

Heft 11, S. 117-118

(9) BMU: „Erfolgsbericht zum Erneuerbare-Energien-Wärme-Gesetz“, Berlin, 2012

(10) E. Gawel et al: „EEWärmeG: Hindernisse und Potentiale für Biomethan im Wärmemarkt“,

Energiewirtschaftliche Tagesfragen 63. Jg (2013) Heft 11, S. 48-53

(11) KfW: „Ermittlung der Wachstumswirkungen der KfW-Programme zum energieeffizienten

Bauen und Sanieren“, Studie, Berlin 2013

(12) Erneuerbare-Energien-Wärmegesetz EEWärmeG,

http://www.gesetze-im-internet.de/eew_rmeg/

(13) NDR, Panorama 3: Güven Purtul: „Wärmedämmung: Ignoranz der Brandgefahr“, 10.12.2013,

www.ndr.de/nachrichten/hamburg/waermedaemmung205.html

(14) NDR, Panorama: Bastian Berbner, Christian Kossin, Güven Purtul: „Wärmedämmung:

Wie aus Häusern Brandfallen werden“, 5.7.2012,

http://daserste.ndr.de/panorama/archiv/2012/waermedaemmung193.html

(15) NDR: „Dämmen oder nicht dämmen?“, 26.11.2012,

www.ndr.de/ratgeber/verbraucher/waermedaemmung121_page-3.html

(16) NDR: „Gibt es Alternativen zur Polystyroldämmung?“, Interview mit Ing. Heike Böhmer,

26.11.2012, www.ndr.de/ratgeber/verbraucher/waermedaemmung199.html

(17) NDR, Florian Pretz: „Die Tricks der Energieberater“, 26.11.2012,

www.ndr.de/ratgeber/verbraucher/waermedaemmung115.html

(18) NDR, Nicolai Kwasniewski: „Die Mär von der CO2-Einsparung“, 26.11.2012,

www.ndr.de/ratgeber/verbraucher/waermedaemmung111.html

(19) NDR, Nicolai Kwasniewski: „Die Wärmedämm-Lüge“, 22.9.2011,

www.ndr.de/ratgeber/verbraucher/waermedaemmung107.html

Der Beitrag erschien zuerst bei Science Sceptical hier




Wie deutsche „Qualitätsmedien“ Ruf und Auflage ruinieren

1983: Der „stern“ muss zugeben, dass die angeblichen Hitler-Tagebücher gefälscht sind. Unter den Nachwirkungen des Presseskandals leidet die Illustrierte noch heute.

1986: Der Spiegel verkündet –  wieder einmal –  den nahen Weltuntergang. 28 Jahre später dreht die Welt sich immer noch. Aber die Auflage des Spiegel kennt nur einen Weg: Den nach unten.

Heute möchte man beim Spiegel an die reisserische Titelschichte aus dem Jahre 1986 wohl lieber nicht mehr erinnert werden.

23. September 2014, der Sommer ist vorbei, die CO2-Sekte veranstaltet in New York einen grossen Menschenauflauf.

Und im ARD-Morgenmagazin tut WDR-„Moderatorin“ Anne Gesthuysen das, was sie am besten kann. Mit betroffenen Gesichtsausdruck Menschen, die die gleiche Meinung wie sie haben, Stichworte zu geben.

Eine phantastische Chance für Martin Kaiser  (Martin Kaiser (@martinkaisergp) | Twitter ),

Kaiser: Klimagipfel kann wichtige Signale bringen | DasErste.de

vorgestellt als Mitglied von Greenpeace, die Sendezeit im durch Zwangsgebühren  finanzierten öffentlich-rechtlichen Fernsehen für eine Werbeverkaufsveranstaltung des Öko-Konzerns zu benutzen.

Dafür wurde Herr Kaiser aus New York in die Sendung zugeschaltet,

Frau Gesthuysen wertete das Greenpeace-Mitglied (Fördermitglied ohne Stimmrecht oder eines der erlesenen „echten“ Mitglieder?) zunächst einmal als „Delegations-Mitglied“ zur UNO-Klimakonferenz auf, das klingt ja schliesslich seriös und fast amtlich.

Wenn drei Kegelbrüder abends einen trinken gehen, bilden sie ja auch eine Kneipen-Delegation. Möglicherweise ist einer sogar „Delegationsleiter“.

Einmal auf Sendung verbreitet der „Leiter Internationale Klima- und Waldpolitik“ bei Greenpeace dann seine wenig überraschenden Ansichten über Klimawandel, Treibhausgase und CO2.

Kritische Nachfragen der sich doch sonst immer besonders kritisch gebenden ARD-Dame? Fehlanzeige. Einmal mehr entpuppt sich der WDR als weitgehend recherchefreie Zone.

Man stelle sich vor, Frau Gesthuysen hätte Herrn Kaiser von Greenpeace gefragt, was eigentlich Klima sei? Ob es dann ähnliche peinlichen Antworten aus dem Hause Greenpeace gegeben hätte wie bei den denkwürdigen Interviewfragen, die Lord Monckton an die UMweltaktivisten richtete?

Video einer Straßenbefragung von Greenpeace Anhängern gegen eine Klimakonferenz von EIKE vom Dezember 2010 

Hier der Link Monckton vs Greenpeace

 

Da darf Springers WELT natürlich nicht fehlen. Wenn es ALLE machen, wollen wir auch dabei sein, scheint man sich dort zu denken. Und legt den Spiegel-Titel von 1986 neu auf.

Macht der Klimawandel London zum zweiten Venedig?

Der Artikel in der WELT zeigt, dass es bei angeblichen Qualitätsmedien selbst für einfachsten Google-Journalismus nicht mehr reicht.

Dabei hätte Frau Nina Trentmann eigentlich nur einmal „Climategate“ (1,54 Mio. Treffer bei Google) das in Verbindung mit „University of East Anglia“ (190.000 Treffer beri  Google) googeln müssen.

Muss mal wieder ein rabenschwarzer Tag für Springer-Chef Döpfner sein, dass so etwas immer wieder bei der WELT passiert.

Ob es einen Zusammenhang gibt zwischen diesen Pleiten des angeblichen Qualitätsjournalismus und den Auflagenzahlen?




Klimaforscher, die neuen Weltuntergangspropheten und ihre Kirche und willige Gefolgschaft

Und hier kommt die Klimaforschung ins Spiel. Einige Klimawissenschaftler haben sich inzwischen von der seriösen Klimaforschung abgewandt und präsentieren der willigen Gefolgschaft ein Weltuntergangsszenario nach dem anderen. Eines noch schrecklicher als das andere. Und das nicht ganz uneigennützig, wie ich meine, sondern auch um ihre persönliche politische Agenda durchzusetzen und die eigene Karriere voranzubringen.

Jüngstes Beispiel ist ein Artikel von Stefan Rahmstorf in seinem Klimablog der KlimaLounge: “Westantarktis überschreitet den Kipppunkt”.

CO2 und Umweltangst: Video über einen physisch Kranken der sich für Umweltschäden voll verantwortlich fühlt

Dort verkündet er:

“Jetzt ist der Westantarktische Eisschild instabil geworden und hat seinen unaufhaltsamen Zerfall begonnen. Das wird den Meeresspiegel deutlich steigen lassen. Eine Zäsur der Menschheitsgeschichte. […] Damit sind mehrere Meter Meeresspiegelanstieg und der Untergang von Küstenstädten und ganzen Inselstaaten vorprogrammiert und praktisch unausweichlich geworden.”

Und die Medien und die treue Gefolgschaft greifen diese Botschaft willig auf und verkünden sie.

Video einer 3Sat-Sendung zur zur Kirche avancierten Klimaangst

Hans Joachim Schellnhuber, der Leiter vom Potsdam Institut für Klimafolgenforschung (PIK) und Klimaberater der Kanzlerin,präsentierte im ZDF heute journal am 23.09.2014 Stefan Rahmstorfs Weltuntergangsszenario vom unaufhaltsamen Zerfall des Eisschildes der Westantarktis. Mehre Meter Meeresspiegelanstieg, der Untergang von Ganzen Küstenlinien und Völkerwanderungen seinen damit vorprogrammiert. Und die Schuld daran trägt natürlich die vom Menschen ausgelöste Klimaerwärmung! “Deutlicher kann die Natur nicht mehr zu uns sprechen!”, sagt Schellnhuber.

Ja früher, früher wären, wenn die Natur zu einem spricht, vielleicht noch die Leute in den weißen Kitteln gekommen. Heute ist das eine weltbewegende Botschaft.

Geht man dem Weltuntergangsszenario von Rahmtorf und Schellnhuber auf den Grund, so stellt man sehr schnell fest, dass es sich hierbei um eine maßlose Übertreibung handelt, die so kein anderer, außen stehender Glaziologe, oder Ozeanograph getätigt hat, oder sogar veröffentlicht hat. Eine derartige Aussage würde ein Peer-Review-Verfahren in einem seriösen Fachjournal nicht überstehen. Und auch eine Schuld des Menschen nicht nicht nachweisbar. Denn das Wasser, welches vermehrt vor der Antarktis durch eine verstärke Westwinddrift aufsteigt und das Schefeis der Westantarktis von unten antaut und zum Aufschwimmen und Abbrechen bringt ist altes Tiefenwasser, dessen Temperatur unterm Eis bei nur +1°C liegt. Dieses Wasser ist über 100 Jahre alt, hatte also vor über 100 Jahren zuletzt Kontakt mit der Atmosphäre gehabt. Die sogenannte Kleine Eiszeit war zu diesem Zeitpunkt gerade erst abgeklungen und der Mensch hatte erst angefangen vermehrt Treibhausgase zu produzieren.

Die Gläubigen kaufen die Botschaft von Rahmstorf und Schellnhuber aber bereitwillig ab. Zweifel sind nicht erlaubt und Abtrünnige werden angegangen und diskreditiert.

“Ich war am weltweiten Treffen der Geophysiker in diesem Winter in San Francisco. Al Gore sprach. Und seine Botschaft lautete: “Haben Sie den Mut, dem Konsens beizutreten, machen Sie das öffentlich, und nehmen Sie sich die Freiheit, Abtrünnige zu unterdrücken.” Das Publikum war begeistert.” (Richard Lindzen 2007)

Der halbwegs aufgeklärte Mensch sollte bei derartigen Weltuntergangs-Botschaften glauben, jetzt ist das Kind endgültig in den Brunnen gefallen und alle weiteren Rettungsmaßnamen für das Klima vergebens. Aber weit gefehlt. Es werden neue, noch erschreckendere Szenarien aus den Hut gezogen, die gerade noch verhindert werden können. Ja wenn, wenn der Mensch noch einschneidendere Gegenmaßnahmen trifft und für seine getätigten Sünden noch mehr Buße tut.

Anders Levermann, Kollege von Rahmstorf und Schellnhuber vom PIK verkündete am 24.09.2014 in den Potsdamer Neuste Nachrichten:

“Auch im Osten des Eiskontinents tut sich etwas. „Wir haben entdeckt, dass es auch dort eine ähnliche Situation gibt, die allerdings noch nicht gekippt ist“, erklärt der Klimaforscher. Das Abschmelzen eines Eisbeckens im Wilkes-Land könnte einen Meeresspiegelanstieg auslösen, der nach Einschätzung der Wissenschaftler ebenso stark das Gesicht unseres Planeten verändern würde wie der Prozess im Westen. Mit großer Wahrscheinlichkeit wäre dann auch für Küstenstädte wie Tokio, Mumbai und Dublin ein erhebliches Risiko der Überflutung gegeben.

Die Wissenschaftler haben berechnet, dass ein Abschmelzen des relativ kleinen „Eiskorkens“, der ein Eisfeld an der ostantarktischen Küste derzeit zum Meer hin begrenzt, einen unaufhaltsamen Prozess auslösen würde. Große Eismassen würden dann für mehrere Jahrhunderte in den Ozean fließen und damit den Meeresspiegel weiter ansteigen lassen. Dadurch würden zu den drei Metern Anstieg des Meeresspiegels durch den Eisschild der Westantarktis noch einmal weitere drei bis vier Meter hinzukommen – zusammengenommen also bis zu sieben Meter.”

Spätestens hier sollten alle Alarmglocken leuten und zwar jene, die einem sagen, kann das wirklich alles angehen? Aber nichts da. Die Verkündungen der Weltuntergangspropheten werden von der treuen Anhängerschaft bis aufs Messers Schneide verteidigt, auch hier im Blog.

Aber es geht noch weiter. Stefan Rahmstorf hat am 06.09.2014 in climatestate eine Botschaft an die Menschen gerichtet, die den Klimawandel ernst nehmen:

Chris Machens: Hast du eine Nachricht für die Menschen die den Klimawandel ernst nehmen?

Stefan Rahmstorf: Darüber sprechen. In der Familie, im Freundeskreis, am Arbeitsplatz. Die norwegische Sozialwissenschaftlerin Kari Norgaard hat schön herausgearbeitet, wie bewusst wir die Klimakrise aus unseren Alltagsdiskursen verdrängen.(3) Weil wir uns hilflos und mitschuldig fühlen oder auch nicht als Moralapostel und Spielverderber daherkommen wollen.

Trotzdem müssen wir Wege finden, darüber zu sprechen und auch in unserem Wirkungskreis das Thema positiv anzupacken. Aufs Rad umsteigen, Ökostrom beziehen, im Nahbereich Ferien machen usw., und dabei auch merken und weitersagen, dass dies nicht Verzicht bedeutet. Ein nachhaltiger Lebensstil mit Entschleunigung und weniger Konsum bringt auch Freude und Lebensqualität.

Es geht also um Jene, die sich hilflos und mitschuldig fühlen. Solche Schuldgedanken plagen aber nur die wirklich Gläubigen. Skepsis an den Weltuntergangsszenarien ist also gar nicht erst gefragt, oder vorgesehen und geduldet. Es gilt sich schuldig zu fühlen, oder eine solche Schuld zu vermitteln.

Und mal ehrlich, Radfahren, Ökostrom beziehen und Ferien in Nahbereich machen, sind nur Alibihandlungen, echter Klimaschutz sieht anders aus. Spätestes an diesem Punkt sollte jeder echte Klimaschützer merken, dass es hier nicht um dem Klimaschutz geht.

Währen ein Herr Rahmstorf, Schellnhuber und Levermann von ihren Botschaften überzeugt, würden sie sofort das Fliegen einstellen und sich selbst und ihren Familien ein Leben in CO2-Verzicht auferlegen. Das können aber dann doch lieber die anderen tun.

Viel besser ist es da doch, sich durch den Erwerb von CO2-Pins, wie sie Stefanie Rahmstorfs anbietet, Ablass von seinen CO2-Sünden zu erkaufen.

Offenbar sind sich die Weltuntergangspropheten auch nicht darüber bewusst, oder sie nehmen es billigend in Kauf, dass labile Menschen besonders anfällig für solche Weltuntergangs-Botschaften sind und das zu schweren psychischen Erkrankungen bis hin zum Suizid führen kann. Hier nur ein Beispiel dafür:

Die Weltuntergangspropheten verkünden statt dessen immer weitere und noch erschreckendere Schreckensszenarien.

Auf der AGU-Tagung in Dezember 2008 erklärte James Hansen gar einen venusartigen “Runaway Greenhouse Effect” für möglich. Ein sich verselbstständigender Treibhauseffekt, bei dem sich verschiedene Rückkopplungsmechanismen im Klimasystem soweit aufschaukeln, dass es zu weitaus höheren Temperaturen kommt, als bisher angenommen (Venus-Syndrom).

Ein weiteres Szenario sieht ein sich verselbstständigendes Abtauen des grönländischen Eisschildes und einen Meeresspiegelanstieg von mehreren Metern vor, wenn eine bestimmte Schwelle erst überschritten wird.

Auch über ein mögliches Versiegen des Nordatlantikstroms und einer damit einhergehende großen Abkühlung in Europa wird noch spekuliert, erneut von Stefan Rahmstorf.

Es gibt noch etliche solcher Kipppunkte, die einige Klimaforschung parat haben, um einen weiteren noch radikaleren Klimaschutz zu fordern und rechtfertigen.

Ich hätte da auch noch ein Szenario parat:

Aus Steven Hawkins Idee eines möglichen, mathematischen Modells machen einige Leute ein Weltuntergangsszenario. Genauer: aus dem Vorwort zu einem Buch, in dem Hawkins schrieb: “Das Higgs-Potential hat die beunruhigende Eigenschaft, bei Energien über 100 Milliarden Gigaelektronenvolt möglicherweise metastabil zu werden. Das könnte bedeuten, dass das Universum einen katastrophalen Vakuumzerfall erleben könnte, wobei eine Blase des echten Vakuums sich mit Lichtgeschwindigkeit ausdehnt. Das könnte jederzeit geschehen und wir würden es nicht kommen sehen.”

In dem Sinne, frohes Spekulieren.

Anmerkung der Redaktion:

Passend dazu das Wort der österreichischen Dichterin Marie-Luise Ebner Eschenbach: „Wer nichts weiß muss alles glauben“ 

Dass diese Analyse die Realität beschreibt zeigt glasklar der Artikel: “Spiritualität statt Naturwissenschaft: Theologische Analysen zum Klimadiskurs Angst als moderne Form der Gottesfurcht” in der jüngsten Ausgabe der „Jungen Freiheit“ in der diese Auffassung ausführlich als überwiegende Meinung der katholischen Kirche zitiert wird. Siehe Zitat unten. Unser Leser Elmar Oberdörfer hat an den Verfasser, dem Prof. für (katholische) Moraltheologie Michael Rosenberg einen Brief dazu geschrieben. Sie finden ihn als pdf im Anhang

Artikel über Prof. Rosenberg

Spiritualität statt Naturwissenschaft: Theologische Analysen zum Klimadiskurs 

Angst als moderne Form der Gottesfurcht

Für Michael Rosenberg, Professor für Moraltheologie an der Katholisch-Theologischen Privatuniversität in Linz, ist der Klimadiskurs „mehr ein ethisch-spiritueller als ein naturwissenschaftlich-technischer Diskurs“. Das heißt, „es geht nicht primär um Klimadaten und deren Deutung, sondern um Weltanschauungen und Wertorientierungen“ (Gaia – Ökologische Perspektiven für Wissenschaft und Gesellschaft, 2/2014). Deshalb befürwortet der erklärte Gegner „klimaskeptischer“ Positionen auch den apokalyptischen Duktus der Apologeten des Klimawandels: „Angst rüttelt wach, reine Vernunft schläfert ein. Klimaschützerische Positionen wollen aus diesem Grund gezielt und mit guten Gründen Angst wecken.“ Das gleiche gelte für die Sorge vor Radioaktivität und Ressourcenerschöpfung: Infolge all dieser Ängste entstehe jetzt unter den Menschen eine moderne Form der Gottesfurcht, welche nach alttestamentarischem Verständnis als Mutter der Weisheit gelte. Damit liegt nun erstmals das explizite Eingeständnis eines akademischen Theologen vor, daß der Glaube an den Klimawandel tatsächlich eine zutiefst religiöse Dimension hat. Zugleich erklären die Ausführungen Rosenbergs den bemerkenswerten Eifer der Deutschen Bischofskonferenz und des katholischen Hilfswerkes Misereor in Sachen „Klimaschutz und Energiewende“. (wk)

ÄHNLICHE BEITRÄGE (AUTOMATISCH GENERIERT):

♦  Rahmstorf in 3sat nano – Fehler ändern die Botschaft des IPCC-Berichts nicht

  Die Gletscher lügen nicht

  Das Klima-Kartell? Von Storch, Latif und Rahmstorf äußern sich zu Climategate

Der Beitrag wurde von Science Sceptical (hier) übernommen

Related Files




Kohle, Gas, Öl, Kernenergie? — Teil 2

Das Mengenproblem

Zumindest solange die Weltbevölkerung noch weiter wächst, wird der Energieverbrauch weiter steigen müssen. Er wird sogar überproportional steigen, da Wohlstand und Energieverbrauch untrennbar miteinander verknüpft sind. All das Geschwafel von “Energieeffizienz” ist nur ein anderes Wort für Wohlstandsverzicht und schlimmer noch, für eine neue Form des Kolonialismus. Woher nimmt z. B. ein “Gutmensch” in Deutschland das Recht, Milliarden von Menschen das Leben vor enthalten zu wollen, das er für sich selbst beansprucht? Das wird nicht funktionieren. Nicht nur China, läßt sich das nicht mehr gefallen.

Wenn aber der Energieeinsatz mit steigendem (weltweiten) Wohlstand immer weiter steigen muß, welche Energieträger kommen in Frage? Die additiven Energien Wind, Sonne etc. werden immer solche bleiben. Dies liegt an ihrer geringen Energiedichte und den daraus resultierenden Kosten und ihrer Zufälligkeit. Die fossilen Energieträger Kohle, Öl und Erdgas reichen zwar für (mindestens) Jahrhunderte, führen aber zu weiter steigenden Kosten. Will man z. B. noch größere Mengen Kohle umweltverträglich fördern, transportieren und verbrennen, explodieren die Stromerzeugungskosten weltweit. Dies ist aber nichts anderes als Wohlstandsverlust. Man kann nun mal jeden Dollar, Euro oder Renminbi nur einmal ausgeben!

Um es noch einmal deutlich zu sagen, das Problem ist nicht ein baldiges Versiegen der fossilen Energieträger, sondern die überproportional steigenden Kosten. Je mehr verbraucht werden, um so mehr steigt z. B. die Belastung der Umwelt. Dem kann aber nur durch einen immer weiter steigenden Kapitaleinsatz entgegen gewirkt werden. Ab einer gewissen Luftverschmutzung war einfach der Übergang vom einfachen Kohleofen auf die geregelte Zentralheizung, vom einfachen “VW-Käfer” auf den Motor mit Katalysator, vom “hohen Schornstein” auf die Rauchgaswäsche nötig… Jedes mal verbunden mit einem Sprung bei den Investitionskosten.

Der Übergang zur Kernspaltung

Bei jeder Kernspaltung – egal ob Uran, Thorium oder sonstige Aktinoide – wird eine unvergleichbar größere Energiemenge als bei der Verbrennung frei: Durch die Spaltung von einem einzigen Gramm Uran werden 22.800 kWh Energie erzeugt. Die gleiche Menge, wie bei der Verbrennung von drei Tonnen Steinkohle,13 barrel Öl oder rund 2200 Kubikmeter Erdgas.
Man kann gar nicht nicht oft genug auf dieses Verhältnis hinweisen. Auch jedem technischen Laien erschließt sich damit sofort der qualitative Sprung für den Umweltschutz. Jeder, der schon mal mit Kohle geheizt hat, weiß wieviel Asche 60 Zentner Kohle hinterlassen oder wie lange es dauert, bis 2000 Liter Heizöl durch den Schornstein gerauscht sind und welche Abgasfahne sie dabei hinterlassen haben. Wer nun gleich wieder an “Strahlengefahr” denkt, möge mal einen Augenblick nachdenken, wie viele Menschen wohl momentan in Atom-U-Booten in den Weltmeeren unterwegs sind. So schlimm kann die Sache wohl nicht sein, wenn man monatelang unmittelbar neben einem Reaktor arbeiten, schlafen und essen kann, ohne einen Schaden zu erleiden. Der größte Teil der “Atomstromverbraucher” wird in seinem ganzen Leben nie einem Reaktor so nahe kommen.

Die nahezu unerschöpflichen Uranvorräte

Allein in den Weltmeeren – also prinzipiell für alle frei zugänglich – sind über 4 Milliarden to Uran gelöst. Jedes Jahr werden etwa 32.000 to durch die Flüsse ins Meer getragen. Dies ist ein nahezu unerschöpflicher Vorrat, da es sich um einen Gleichgewichtszustand handelt: Kommt neues Uran hinzu, wird es irgendwo ausgefällt. Würde man Uran entnehmen, löst es sich wieder auf.
Bis man sich diesen kostspieligeren – weil in geringer Konzentration vorliegenden – Vorräten zuwenden muß, ist es noch sehr lange hin. Alle zwei Jahre erscheint von der OECD das sog. “Red book”, in dem die Uranvorräte nach ihren Förderkosten sortiert aufgelistet sind. Die Vorräte mit aktuell geringeren Förderkosten als 130 USD pro kg Uranmetall, werden mit 5.902.900 Tonnen angegeben. Allein dieser Vorrat reicht für 100 Jahre, wenn man von der weltweiten Förderung des Jahres 2013 ausgeht.

Der Uranverbrauch

Die Frage, wieviel Uran man fördern muß, ist gar nicht so einfach zu beantworten. Sie hängt wesentlich von folgenden Faktoren ab:

·       Wieviel Kernkraftwerke sind in Betrieb,

·       welche Reaktortypen werden eingesetzt,

·       welche Anreicherungsverfahren zu welchen Betriebskosten und

·       wieviel wird wieder aufbereitet?

Im Jahre 2012 waren weltweit 437 kommerzielle Kernreaktoren mit 372 GWel in Betrieb, die rund 61.980 to Natururan nachgefragt haben. Die Frage wieviel Reaktoren in der Zukunft in Betrieb sind, ist schon weitaus schwieriger zu beantworten. Im “Red book” geht man von 400 bis 680 GWel im Jahre 2035 aus, für die man den Bedarf mit 72.000 bis 122.000 to Natururan jährlich abschätzt. Hier ist auch eine Menge Politik im Spiel: Wann fährt Japan wieder seine Reaktoren hoch, wie schnell geht der Ausbau in China voran, wie entwickelt sich die Weltkonjunktur?
Der Bedarf an Natururan hängt stark von den eingesetzten Reaktortypen ab. Eine selbsterhaltende Kettenreaktion kann man nur über 235-U einleiten. Dies ist aber nur zu 0,7211% im Natururan enthalten. Je nach Reaktortyp, Betriebszustand usw. ist ein weit höherer Anteil nötig. Bei Schwerwasserreaktoren kommt man fast mit Natururan aus, bei den überwiegenden Leichtwasserreaktoren mit Anreicherungen um 3 bis 4 %. Über die gesamte Flotte und Lebensdauer gemittelt, geht man von einem Verbrauch von rechnerisch 163 to Natururan für jedes GWel pro Kalenderjahr aus.

Das Geheimnis der Anreicherung

Diese Zahl ist aber durchaus nicht in Stein gemeißelt. Isotopentrennung ist ein aufwendiges Verfahren. Standardverfahren ist heute die Zentrifuge: Ein gasförmiger Uranstrom wird durch eine sehr schnell drehende Zentrifuge geleitet. Durch den – wenn auch sehr geringen – Dichteunterschied zwischen 235-U und 238-U wird die Konzentration von 235-U im Zentrum etwas höher. Um Konzentrationen, wie sie für Leichtwasserreaktoren benötigt werden, zu erhalten, muß man diesen Schritt viele male in Kaskaden wiederholen. So, wie sich in dem Produktstrom der Anteil von 235-U erhöht hat, hat er sich natürlich im “Abfallstrom” entsprechend verringert. Das “tails assay”, das ist das abgereicherte Uran, das die Anlage verläßt, hat heute üblicherweise einen Restgehalt von 0,25% 235-U. Leider steigt der Aufwand mit abnehmendem Restgehalt überproportional an. Verringert man die Abreicherung von 0,3% auf 0,25%, so sinkt der notwendige Einsatz an Natururan um 9,5%, aber der Aufwand steigt um 11%. Eine Anreicherungsanlage ist somit flexibel einsetzbar: Ist der aktuelle Preis für Natururan gering, wird weniger abgereichert; ist die Nachfrage nach Brennstoff gering, wie z. B. im Jahr nach Fukushima, kann auch die Abreicherung erhöht werden (ohnehin hohe Fixkosten der Anlage).
Hier tut sich eine weitere Quelle für Natururan auf. Inzwischen gibt es einen Berg von über 1,6 Millionen to abgereicherten Urans mit einem jährlichen Wachstum von etwa 60.000 to. Durch eine “Wiederanreicherung” könnte man fast 500.000 to “Natururan” erzeugen. Beispielsweise ergeben 1,6 Millionen to mit einem Restgehalt von 0,3% 235-U etwa 420.000 to künstlich hergestelltes “Natururan” und einen neuen “Abfallstrom” von 1.080.000 to tails assay mit 0,14% 235-U. Man sieht also, der Begriff “Abfall” ist in der Kerntechnik mit Vorsicht zu gebrauchen. Die Wieder-Anreicherung ist jedenfalls kein Gedankenspiel. In USA ist bereits ein Projekt (DOE und Bonneville Power Administration) angelaufen und es gibt eine Kooperation zwischen Frankreich und Rußland. Besonders vielversprechend erscheint auch die Planung einer Silex-Anlage (Laser Verfahren, entwickelt von GE und Hitachi) zu diesem Zweck auf dem Gelände der stillgelegten Paducah Gasdiffusion. Die Genehmigung ist vom DOE erteilt. Letztendlich wird – wie immer – der Preis für Natururan entscheidend sein.

Wann geht es mit der Wiederaufbereitung los?

Wenn ein Brennelement “abgebrannt” ist, ist das darin enthaltene Material noch lange nicht vollständig gespalten. Das Brennelement ist lediglich – aus einer Reihe von verschiedenen Gründen – nicht mehr für den Reaktorbetrieb geeignet. Ein anschauliches Maß ist der sogenannte Abbrand, angegeben in MWd/to Schwermetall. Typischer Wert für Leichtwasserreaktoren ist ein Abbrand von 50.000 bis 60.000 MWd/to. Da ziemlich genau ein Gramm Uran gespalten werden muß, um 24 Stunden lang eine Leistung von einem Megawatt zu erzeugen, kann man diese Angabe auch mit 50 bis 60 kg pro Tonne Uran übersetzen. Oder anders ausgedrückt, von jeder ursprünglich im Reaktor eingesetzten Tonne Uran sind noch 940 bis 950 kg Schwermetall übrig.
Hier setzt die Wiederaufbereitung an: In dem klassischen Purex-Verfahren löst man den Brennstoff in Salpetersäure auf und scheidet das enthaltene Uran und Plutonium in möglichst reiner Form ab. Alles andere ist bei diesem Verfahren Abfall, der in Deutschland in einem geologischen “Endlager” (z. B. Gorleben) für ewig eingelagert werden sollte. Interessanterweise wird während des Reaktorbetriebs nicht nur Uran gespalten, sondern auch kontinuierlich Plutonium erzeugt. Heutige Leichtwasserreaktoren haben einen Konversionsfaktor von etwa 0,6. Das bedeutet, bei der Spaltung von 10 Kernen werden gleichzeitig 6 Kerne Plutonium “erbrütet”. Da ein Reaktor nicht sonderlich zwischen Uran und Plutonium unterscheidet, hat das “abgebrannte Uran” immer noch einen etwas höheren Gehalt (rund 0,9%) an 235-U als Natururan. Könnte also sogar unmittelbar in mit schwerem Wasser moderierten Reaktoren eingesetzt werden (DUPIC-Konzept der Koreaner). Das rund eine Prozent des erbrüteten Plutonium kann man entweder sammeln für später zu bauende Reaktoren mit schnellem Neutronenspektrum oder zu sogenannten Mischoxid-Brennelementen (MOX-Brennelement) verarbeiten. Im Jahr 2012 wurden in Europa 10.334 kg Plutonium zu MOX-Brennelementen verarbeitet. Dies hat rund 897 to Natururan eingespart.
Man kann also grob sagen, durch 1 kg Plutonium lassen sich rund 90 kg Natururan einsparen. Setzt man den Preis für Natururan mit 100 USD (entspricht ungefähr dem derzeitigen Euratom-Preis) an, so ergibt diese einfache Abschätzung Kosten von höchstens 9.000 USD pro kg Plutonium bzw. 900 USD für eine Tonne abgebrannter Brennelemente. Dies ist – zugegebenermaßen mit einem dicken Daumen gerechnet – doch eine brauchbare Einschätzung der Situation. Es wird noch eine ganze Zeit dauern, bis die Wiederaufbereitung in großem Stil wirtschaftlich wird.
Wegen der hohen Energiedichte sind die Lagerkosten in einem Trockenlager sehr gering. Außerdem hat “Atommüll” – im Gegensatz z. B. zu Quecksilber oder Asbest – die nette Eigenschaft, beständig “weniger gefährlich” zu werden. Die Strahlung ist aber der Kostentreiber beim Betrieb einer Wiederaufbereitungsanlage (Abschirmung, Arbeitsschutz, Zersetzung der Lösungsmittel etc.). Je länger die Brennelemente abgelagert sind, desto kostengünstiger wird die Wiederaufbereitung.

Erdgas- oder Kernkraftwerke?

Kraftwerke mit Gasturbinen und Abhitzekesseln erfordern die geringsten Investitionskosten. Sie sind deshalb der Liebling aller kurzfristigen Investoren. Ihre guten Wirkungsgrade in der Grundlast (!!) von fast 60% werden gern als Umweltschutz ausgegeben, sind jedoch wegen der hohen Erdgaspreise (in Deutschland) eher zwingend notwendig.
Auch hier, kann eine einfache Abschätzung weiterhelfen: Geht man von den 163 to Natururan pro GWael aus (siehe oben), die ein Leichtwasserreaktor “statistisch” verbraucht und einem Preis von 130 USD pro kg Natururan (siehe oben), so dürfte das Erdgas für das gleichwertige Kombikraftwerk nur 0,51 USD pro MMBtu kosten! Im letzten Jahr schwankte der Börsenpreis aber zwischen 3,38 und 6,48 USD/MMBtu. Dies ist die Antwort, warum sowohl in den USA, wie auch in den Vereinigten Emiraten Kernkraftwerke im Bau sind und Großbritannien wieder verstärkt auf Kernenergie setzt. Ganz nebenbei: Die Emirate haben 4 Blöcke mit je 1400 MWel für 20 Milliarden USD von Korea gekauft. Bisher ist von Kosten- oder Terminüberschreitungen nichts bekannt.

Vorläufiges Schlusswort

Das alles bezog sich ausdrücklich nicht auf Thorium, “Schnelle Brüter” etc., sondern auf das, was man auf den internationalen Märkten sofort kaufen könnte. Wenn man denn wollte: Frankreich hat es schon vor Jahrzehnten vorgemacht, wie man innerhalb einer Dekade, eine preiswerte und zukunftsträchtige Stromversorgung aufbauen kann. China scheint diesem Vorbild zu folgen.
Natürlich ist es schön, auf jedem Autosalon die Prototypen zu bestaunen. Man darf nur nicht vergessen, daß diese durch die Erträge des Autohändlers um die Ecke finanziert werden. Die ewige Forderung, mit dem Kauf eines Autos zu warten, bis die “besseren Modelle” auf dem Markt sind, macht einen notgedrungen zum Fußgänger.

Der Beitrag wurde übernommen von Nukeklaus hier