1

Zum Märchen von der Erde als einem Treibhaus

Seit einigen Jahrzehnten werden Wissenschaftler und Politiker nicht müde, die Erde mit einem Treibhaus zu vergleichen. Ist der Treibhaus-Vergleich statthaft oder etwa unsinnig? Ein Treibhaus ist nichts anderes als ein Gewächshaus, in dem in einem vor dem Wetter geschützten und zudem klimatisierten Raum Samen zum schnelleren Austreiben gebracht und Pflanzen aufgezogen und kontrolliert gezüchtet werden sollen. Gewächshäuser zeichnen sich dadurch aus, dass sie eine feste Umhüllung aus Glas oder Plastikfolie haben. Die Umhüllung muss für das Sonnenlicht durchlässig sein, weil nur die Sonne die Photosynthese aktiviert und nur bei Licht Pflanzen wachsen können. Die Umhüllung muss luftdicht und windundurchlässig sein, damit die im Gewächshaus erwärmte Luft nicht sofort vom Winde verweht werden kann. Die Wärme muss einige Zeit „gespeichert“ werden, damit nachts die Pflanzen vor schneller Unterkühlung, ja Frost geschützt werden. Diese Gefahr ist besonders im Frühling zur Zeit der „Eisheiligen“ groß. Ist trockene Polarluft eingeflossen und klart es nachts auf, dann entweicht bei wolkenlosem Himmel die Wärmestrahlung der Erde durch das „stets offene atmosphärische Strahlungsfenster“ ungehindert in das Weltall, die Pflanzen unterkühlen und die jungen Triebe und Blüten erfrieren. Eine Schutzwirkung kann nur erzielt werden, wenn ein geschlossener Raum geschaffen wird oder ganze Felder mit Folien abgedeckt werden.

 Video Fernsehmeteorologe Sven Plöger in einer VOX Aufzeichnung zum Treibhauseffekt. Mit Dank an R. Hoffman für diesen Ausschnitt

Gewächshäuser sind menschengemachte, künstliche Gebilde und werden gebaut, weil die Erde eben kein Treibhaus und von keinerlei Glas- oder Plastikhülle umgeben ist. Die Luft ist eine bewegliche Gashülle, die insbesondere für infrarote Wärmestrahlung durchlässig ist und keinerlei Wärmestau verursachen kann. Insofern ist der Vergleich physikalisch völlig unstatthaft und damit irreführend. In der Atmosphäre werden ständig Luftmassen extrem unterschiedlichen Charakters von Nord nach Süd, von West nach Ost oder umgekehrt transportiert und vermischt. Über die Atmosphäre läuft ein gigantischer Austausch von Luft zwischen dem Äquator und den Polen. Luft ist für Strahlung weitestgehend durchlässig, ja durchsichtig. Dies gilt für das sichtbare Sonnenlicht wie die unsichtbare, infrarote Wärme-Strahlung der Erde. Unter freiem Himmel gibt es keine Gewächshauswirkung. Dieses Wissen ist allgemein und wird von Niemand bestritten. Luft wird horizontal vom Winde verweht oder steigt über erwärmtem Boden thermisch auf. Die Erde schützt sich vor übermäßiger Erwärmung durch Konvektion. An heißen Sommertagen erkennt man dies am Flimmern der Luft. Die Erde mit einem Treibhaus zu vergleichen ist somit nicht statthaft, physikalisch nicht richtig. Es ist zutiefst unwissenschaftlich, eine bewegliche Gashülle mit einer starren Glashülle gleichzusetzen!

All das bisher Gesagte leuchtet jedem Menschen sofort ein. Nie würde ein Mensch einen derartig missglückten Vergleich ziehen. Kein Mensch würde sich nachts bei klarem Himmel zur Zeit der „Eisheiligen“ unter freiem Himmel auf eine grüne Wiese legen, um sich allein von der „Gegenstrahlung“ ohne schützende Bettdecke erwärmen zu lassen. Warum glaubt dennoch dieser Mensch -trotz gegenteiliger Erfahrung- an die These der Klimaexperten, die Erde sei ein „Treibhaus“ und funktioniere auch so? Dieses widersprüchliche Verhalten ist bei Schizophrenie zu beobachten und ist auf die Autorität der Wissenschaftler zurückzuführen. Sie haben, und das beginnt beim Lehrer in der Grundschule, ob ihres Wissens und ihrem Status als Gelehrte eine Ehrfurcht gebietende Machtstellung, der man sich unterordnet und nicht laut zu widersprechen vermag, trotz gegenteiliger Erfahrung. Eine konkrete Widerlegung wird dadurch erschwert bis unmöglich gemacht, indem die Wissenschaft mit „Globalwerten“ operiert und argumentiert, die einem normalen Sterblichen nicht zugänglich sind. Vergiss deine Erfahrungen, denk global. Und da Du das nicht kannst, machen wir das für Dich. So werden wir Menschen von Experten ausgetrickst und meiden öffentliche Auseinandersetzungen, zumal wir als letztes Argument hören müssen. Die Mehrheit glaubt dies und die Mehrheit ist dafür. Der Einzelne kapituliert vollends, wenn die Konsensmeinung ins Feld geführt wird, als ob diese sakrosankt wären. Der Verweis auf große Gremien wie das IPCC-Schiedsgericht ist ein Spiel mit der angeblichen Wissensmacht. Auch ist der Einzelne gegen die geballte Macht der über die Medien verbreiteten und als „öffentliche Meinung“ verkauften „Treibhaushypothese“ argumentativ machtlos. Doch selbst wenn Jemand fachlich bestens geschult ist und die notwendige Zivilcourage besitzt, dem Zeitgeist die Stirn zu bieten und gegen den Strom zu schwimmen, hat ein kaum eine Chance zu Gehör zu kommen. Notfalls wird er als Querulant und als Ewig-Gestriger verschrien, wenngleich Jeder weiß, dass alle Naturgesetze von „gestern“ sind und keinen politischen Mehrheitsmeinungen unterliegen.

Um den instinktiven Widerstand gegen die Hypothese vom „Treibhauseffekt“ vollends zu brechen, wird dieser als „natürlich“ angepriesen und als „lebensnotwendig“ hingestellt. Ohne ihn hätte die Erde nur eine „Globaltemperatur“ von -18° C. Sie gliche einem Eis-Haus und Leben wäre nicht möglich. Es ist also ein Segen, dass es diesen Effekt gibt. Soll man einen „Effekt“ infrage stellen, der so viel Gutes bewirkt und die Erde auf angenehme +15° C aufheizt? Natürlich nicht. Dies kann man vom Volke nicht erwarten, zumal sich auch viele Naturwissenschaftler politisch korrekt verhalten und ins Bockshorn jagen lassen. Bei direktem Vergleich jedoch ist der angeblich „natürliche Treibhauseffekt“ an Unnatürlichkeit nicht zu überbieten. Dies wussten schon „Adam und Eva“, als sie nach dem Sündenfall aus dem Paradies vertrieben und verurteilt wurden, sich im Schweiße ihres Angesichts ihr Brot zu verdienen. Dieses gefühlte Wissen hat im Jahre 1666 Sir Isaac Newton experimentell überprüft und in eine Gleichung gekleidet, das „Newton‘sche Abkühlungsgesetz“. Es besagt mit schlichten Worten, dass sich ausnahmslos jeder mit Energieaufwand erwärmte Körper auf seine Umgebungstemperatur abkühlt und dies umso schneller vonstatten geht, je größer die Temperaturdifferenz ist. Newton formulierte auch das Gravitationsgesetz.

Hätte die Erde keine Lufthülle, dann würde sie Wärme allein durch Strahlung verlieren. Mit Lufthülle verliert die Erde sogar zusätzlich Wärme durch Leitung und durch Konvektion oder durch thermischen Auftrieb infolge des Archimedischen Prinzips. Warme Luft steigt auf, dehnt sich aus, kühlt sich ab und bei Erreichen des Taupunktes setzt Kondensation ein, bilden sich Haufen- oder Kumuluswolken. Eine Erde mit Lufthülle kühlt sich schneller ab, als eine Erde ohne Atmosphäre. Der „natürliche Treibhauseffekt“ ist in Wirklichkeit noch unnatürlicher. Es gibt es nicht. Er ist ein Betrug, eine Lüge! Dies hat 1888 bereits der Physiker Josef Stefan experimentell nachgewiesen. Auf ihn geht das Stefan-Boltzmann-Gesetz zurück. Man merke sich als Faustformel: Die Wärmestrahlung eines Körpers steigt oder fällt mit der 4. Potenz der absoluten Temperatur (°Celsius + 273 = Kelvin). Deswegen kühlt glühende Lava so schnell ab und wird schwarz, kühlen sich glühende Herdplatten zuerst sehr schnell und dann immer langsamer ab! Auch wenn sie optisch „schwarz“ sind, kann man sich noch bei Berührung gewaltig die Finger verbrennen.

Für den „natürlichen Treibhauseffekt“ gibt es keinerlei Beweis. Schlimmer: er ist physikalisch unmöglich! Er ist ein phantastisches Rechenkonstrukt, gewonnen unter völlig unnatürlichen Annahmen. Wie unmöglich diese sind, das lässt sich in dem ersten Bericht der Enquete-Kommission „Vorsorge zum Schutz der Erdatmosphäre“ vom 2. 11. 1988 nachlesen! Der fiese Trick ist, dass man bei der Sonneneinstrahlung die Erde als „Scheibe“ ansieht, die Ausstrahlung aber über die Erde als Kugel mit der vierfachen Oberfläche erfolgen lässt. Über die Division durch 4 werden aber heimlich 50 % der Sonnenenergie unterschlagen, denn die Sonne bestrahlt von der rotierenden Erdkugel immer eine Halbkugel, also die doppelte Kreisfläche. Wenn schon der Mensch in seiner Arroganz glaubt, Tag und Nacht aufheben und die eingestrahlte Sonnenenergie gleich über die Erdoberfläche verteilen zu können, dann hätte eine Division durch 2 genügt. Dann hätte  „Strahlungsgleichgewichtstemperatur“ nicht -18° C betragen, sondern +30° C. Mit dem plumpen Scheibe-Kugel-Trick hat man den völlig „unnatürlichen Treibhauseffekt“ erfunden, um ihn als warmen Leben spendenden Segen zu verkaufen. Nun war der Gedankensprung nicht mehr weit. Emittiert der Mensch mehr CO2 als vorgegeben. dann beginnt die Sünde: Jedes zusätzlich „anthropogen“ emittierte CO2-Molekül ist schädlich, heize den Planeten auf und führe direkt in die Klimakatastrophe.

Damit war nicht nur eine neue Ideologie geboren, sondern eine Religion. Die Klimareligion ist wie die christliche Religion mit einer „Erbsünde“ für alle Menschen ausgestattet, gleich welcher Religion er auch angehören möge. Emittiert er zu viel CO2, dann erwärmt sich das Treibhaus und wird zur Hölle. Zudem steigt noch der Meeresspiegel und es droht eine selbst sündhaft verursachte Sintflut. Die Klimareligion präsentiert sich als ideologischer „Überbau“ über alle Religionen!

Was ist als Lehre daraus zu ziehen? Nur die unabdingbare Gedanken- und Meinungsfreiheit kann uns noch aus dem Dilemma befreien und vor dem Treibhaus bewahren, das als Zuchthaus für Menschen konzipiert ist. Expertenaussagen, auch wenn sich die auf einen Meinungskonsens berufen, bleiben nichts als fragwürdige Hypothesen, solange sie jedweder Erfahrung und Beobachtung widersprechen und zudem experimentell nicht bestätigt werden können. Man muss nur die Gesetze der Logik befolgen. Fällt man nicht auf den Scheibe-Kugel-Trick herein, sondern geht man gleich von der Kugel aus, dann wird der „Faktor 4“ zu einem Faktor 2 und als ohnehin unsinnige „Strahlungsgleichgewichtstemperatur“ ergäbe sich ein Wert von +30° C. Gegenüber den -18° C würde der „natürliche Treibhauseffekt“ von +33° sich in sein Gegenteil, einen Abkühlungseffekt von -15° C verkehren. Auch ohne diese Korrektur bleibt das ganze Rechenverfahren eine reine Schauspielerei, denn die angebliche „Globaltemperatur“ von +15° C gibt es auch nicht, außer als rechnerischen Spielwert.

Welche Konsequenz sollte die Politik daraus ziehen? Sie sollte von den Klimaexperten sofort einen experimentellen Nachweis des angeblich „natürlichen Treibhauseffektes“ verlangen. Kann dieser nicht erbracht werden, dann sollten, ja müssten alle Forschungsgelder sofort gestrichen werden. Doch die Politik wird nichts tun, unterstützt sie doch mit Unsummen an Forschungsgeldern diesen größten Wissenschaftsbetrug aller Zeiten. Wir Bürger sind zu aktivem Widerstand aufgefordert, denn wir wissen: Das Vorhaben Klimaschutz scheitert ganz einfach daran, dass das Wetter nicht geschützt werden kann.

Oppenheim, den 19. Mai 2014

Dipl.-Met. Dr. phil. Wolfgang Thüne




Klima-Weiterbildung für Journalisten in Hamburg -Teilnahme erwünscht

Unter den Ausbildungskräften befindet sich unter anderem auch Toralf Staud, der vor zwei Jahren einen regelrechten medialen Feldzug gegen unser Buch “Die kalte Sonne” geführt hatte. Staud ist freier Journalist und schreibt regelmäßig für das Greenpeace-Magazin. Die Teilnahme am Workshop ist für Journalisten kostenlos und bei Bedarf können sogar die Fahrtkosten für die An- und Abreise auf Antrag übernommen werden. So funktioniert´s.

Im Folgenden die vollständige Ankündigung der Veranstaltung:

Presseeinladung: Journalistenworkshop “Klimawandel als Thema für regionale Medien” am 22. Mai 2014 in Hamburg

Bonn (ots) – Wir laden Sie herzlich ein zum Journalistenworkshop zu Extremwetter, Katastrophenschutz, Risikovorsorge und Strategien für weniger Treibhausgase.

Termin: 22. Mai 2014 von 10.00 Uhr bis 17.00 Uhr Ort: Seewetteramt Hamburg, Bernhard-Nocht-Straße 76, 20359 Hamburg

Der aktuellen Erkenntnisse der Klimaforschung zeigen: In Deutschland werden Hitzewellen, Starkregen und Überschwemmungen in den kommenden Jahrzehnten immer wahrscheinlicher – allesamt Wetterextreme mit großem Gefährdungs- und Schadenspotenzial.

Was bedeuten die Szenarien der Klimaforschung für die Regionen in Deutschland? Lässt sich der Klimawandel abmildern? Wo werden welche Wetterextreme häufiger vorkommen und mit welchen Konsequenzen? Wie sind Kommunen, Unternehmen und die Politik auf den Klimawandel vorbereitet und was kann jede/r Einzelne tun?

Dazu beziehen Fachleute aus fünf Bundesbehörden Stellung: Bundesamt für Bevölkerungsschutz und Katastrophenhilfe (BBK), Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR), Deutscher Wetterdienst (DWD), Technisches Hilfswerk (THW) und Umweltbundesamt (UBA). Die Expertinnen und Experten geben Ihnen einen kompakten Überblick zu aktuellen Fakten des Klimawandels sowie Vermeidungs- und Anpassungsstrategien.

Programm:

·       09.30 Uhr: Eintreffen der Gäste

·       10.00 Uhr: Begrüßung und Vorstellungsrunde

·       10.15 Uhr: Aktuelle Erkenntnisse der Klimaforschung: Von der globalen bis zur regionalen Veränderung des Klimas, Dr. Lydia Gates, DWD

·       11.00 Uhr: Treibhausgase mindern: Politik und Bürger ziehen an einem Strang, Benno Hain, Umweltbundesamt

·        11.45 Uhr: KLIWAS – Auswirkungen des Klimawandels auf Wasserstraßen und Schifffahrt, Dr. Birgit Klein, BSH

·       12.15 Uhr: Mittagspause

·       13.15 Uhr Wer macht was in Deutschland bei Klimaschutz und Klimaanpassung?, Toralf Staud, Freier Journalist

·       13.45 Uhr: Klimawandel und Bevölkerungsschutz: Aktivitäten des BBK Susanne Krings, BBK

·        14.00 Uhr: Klimawandel: eine Herausforderung für das Technische Hilfswerk, Jörg Behling, THW

·       14.15 Uhr: Anpassung an den Klimawandel – Grundlagen und Beispiel aus der Praxis, Inke Schauser, Umweltbundesamt (KomPass)

·       14.45 Uhr: Kaffeepause

·       15.15 Uhr: Hochwasser – wie können wir unsere Gebäude besser schützen?, Dr. Bernhard Fischer, BBSR

·       15.45 Uhr: Wie sich Städte an den Klimawandel anpassen – gute Beispiele aus Modellprojekten, Dr. Fabian Dosch, BBSR

·       16.15 Uhr: Schlussrunde und Verabschiedung

Programm als PDF: http://bit.ly/1jH1zxc

Kontakt und Anmeldung

Wenn Sie Interesse an einer Teilnahme haben, melden Sie sich bitte bis 19. Mai 2014 per Mail an bei christian.schlag@bbr.bund.de. Bitte geben Sie an, in welcher Funktion Sie für welches Medium tätig sind.

Kosten

Die Teilnahme an der Veranstaltung ist kostenlos. Bei Bedarf können die Fahrtkosten für die An- und Abreise auf Antrag übernommen werden. Teilen Sie uns dies bitte im Einzelfall bereits bei der Anmeldung mit.

Veranstalter

Der Workshop findet statt im Rahmen der Strategischen Behördenallianz “Anpassung an den Klimawandel”. Die Veranstaltung wird unterstützt von klimafakten.de.

Weiterer Termin: 25.06.2014 Leipzig, Ort noch unbekannt.

Pressekontakt:

Christian Schlag, Bundesinstitut für Bau-, Stadt- und Raumforschung, Telefon: +49 22899 401-1484, christian.schlag@bbr.bund.de

Entdeckt von Dr. Sebastian Lüning die kalte Sonne




Bundesrechnungshof: Energiewende kostet 50 Mrd € jährlich – In der Strompolitik umsteuern

Augenwischerei der Regierung und ihrer Altparteien

Die Bundesregierung, gestützt auf die Altparteien CDU/CSU und SPD, versucht gegenzusteuern und das Erneuerbare-Energien-Gesetz (EEG) zu reformieren. Das ist Augenwischerei (siehe u.a.hier). Das EEG ist ein Missbrauchsinstrument staatlicher Gewalt (siehe hier) – auch dann, wenn es „reformiert“ wird. In fünf Sätzen lässt sich kurz zusammenfassen, was stattdessen getan werden muss:

1. Die staatliche Planwirtschaft in der deutschen Stromversorgung ist zu beenden.

2. Das EEG und die Folgegesetze (wie die EnEV und EEWärmeG) sind ersatzlos zu streichen, Marktwirtschaft und Wettbewerb in der Stromversorgung wieder herzustellen.

3. Der Staat hat sich darauf zu beschränken, den Wettbewerb auf dem Markt für Strom zu schützen und ihn von Beschränkungen freizuhalten.

4. Der Staat unterstützt in allen Bereichen der Energieversorgung nur Forschung und Entwicklung, aber er unterlässt es, die Stromerzeugung zu subventionieren.

5. Alle Reglementierungen für die Emissionen von CO2 werden vorerst eingestellt.

Die fast ebenso kurze Begründung

1. Der Bundesrechnungshof (Quelle: hier) hat die Kosten der Energiewende ermittelt. Es sind über 50 Milliarden Euro jährlich, davon

– mehr als 20 Milliarden ausgewiesene Kosten durch das EEG,
– gut 10 Milliarden Euro als steuerliche Beihilfen und Verwaltungskosten sowie
– über 20 Milliarden Euro aus Förderprogrammen der Kreditanstalt für Wiederaufbau (KfW)

Diese Kosten sind sogar noch weit höher als die Kosten, die uns durch die sogenannte Euro-Rettung drohen, und sind unnötig. Von unnötigen Kosten lässt man die Finger.

2. Die Stromversorgung v o r dem EEG hat sich bewährt, sie war sicher und preisgünstig. Die Stromversorgung s e i t dem EEG ist unsicher geworden (Stromausfälle häufen sich), und sie wird trotzdem teurer und teurer.

3. Die behaupteten Wirkungen menschlicher CO2-Emissionen auf das Klima (übermäßige Erwärmung) sind in der Wissenschaft zumindest sehr umstritten. Daher ist die These, diese Emissionen seien zu begrenzen, um das Klima zu schützen, also die Erwärmung aufzuhalten, ebenfalls sehr umstritten. Belegt ist die These bisher nicht. Dagegen ist belegt, dass Wärmephasen in der Erdgeschichte schon immer stattgefunden haben, als es menschliche CO2-Emissionen noch gar nicht gab. Was nicht belegt ist, bedeutet Unsicherheit. Auf Unsicherheit darf keine derart weitreichende und kostspielige Politik gegründet sein, wie es mit den CO2-Reglementierungen geschieht. Daher sind diese Reglementierungen so lange einzustellen, bis die Unsicherheit überzeugend ausgeräumt ist.

Die AfD setzt sich auch hier von den Altparteien deutlich ab

Bei dieser Sachlage ist es abenteuerlich und für Deutschlands wirtschaftliche Kraft ruinös, dass die Altparteien an dieser Stromerzeugungswende festhalten – als wollten sie ebendiesen Ruin herbeiführen. Anders dagegen verhält sich die junge Partei Alternative für Deutschland (AfD), auch hier setzt sie sich von den Altparteien deutlich ab. Sie immerhin vertritt in ihrem Parteiprogramm zur bevorstehenden Wahl in das EU-Parlament dies:

Erstens: Komplett weg mit dem EEG

„Das EEG muss komplett abgeschafft werden. Ansprüche von Altanlagen-Besitzern sind rechtskonform abzufinden. Alle Energiemarkt-Eingriffe durch Subventionen wie z. B. staatlich garantierte Vergütungen oder Vorrangeinspeisung für bestimmte Stromerzeugungsanlagen, sind sofort einzustellen. Sie führen zu einer noch stärkeren Beeinträchtigung der Wettbewerbsfähigkeit der deutschen Wirtschaft im EU-Binnenmarkt und weltweit, denn sie verteuern den Strom in Deutschland auf unverantwortliche Weise und schädigen die bisher hohe Sicherheit der Stromversorgung in Deutschland.“

Zweitens: Der anthropogene CO2-Einfluss ist sehr unsicherheitsbehaftet

Und: „Wissenschaftliche Untersuchungen zur langfristigen Entwicklung des Klimas aufgrund menschlicher CO2-Emissionen sind sehr unsicherheitsbehaftet. Zudem kann ein globales Problem nur durch ein koordiniertes Vorgehen aller großen Wirtschaftsnationen gelöst werden. Deshalb lehnt die AfD nationale und europäische Alleingänge ab.“ Dieses koordinierte Vorgehen gibt es nicht: Mit dem Kernkraftausstieg und dem EEG steht Deutschland allein. Und das, was unsicherheitsbehaftet ist, darf  nicht zu Gesetzen werden, wie es aber mit den Emissionsgrenzwerten für das anthropogene CO2, mit den CO2-Zertifikate-Vorgaben und dem CO2-Emissionshandel geschieht.

Doch verfängt sich die AfD in einen Widerspruch

Doch ist die AfD nicht konsequent. Eine andere Formulierung in ihrem Wahlprogramm steht dazu im Widerspruch. Sie lautet: „Um dem Vorsichtsprinzip Rechnung zu tragen, kann aber im Rahmen internationaler Abkommen eine graduelle Reduktion von CO2-Emissionen vereinbart werden. Diese sollte ausschließlich durch marktwirtschaftliche, technologieneutrale Instrumente wie z. B. CO2- Zertifikate erfolgen. Da die Auswirkungen menschenverursachter CO2-Emissionen auch nicht annähernd genau bestimmt werden können, muss sich ein Zertifikatesystem daran orientieren, was für Haushalte und Unternehmen finanziell tragbar ist.“

Wenn etwas unsicher ist, lässt man die Finger ganz davon

Hier eiert die Partei herum: Was sie einerseits zutreffend als „unsicherheitsbehaftet“ bezeichnet, billigt sie andererseits dann doch zu, indem sie sich auf das „Vorsichtsprinzip“ beruft und für international vereinbarte CO2-Reduktion eintritt. Das ist nicht folgerichtig: Wenn etwas unsicher und zugleich so teuer ist, lässt man die Finger ganz davon. Also ein bedauerlicher Makel. AfD-Mitglieder, die sich auf dem Parteitag am 22. März in Erfurt dagegen auflehnten, fanden – auch aus zeitlichen Gründen – nicht genügend Gehör und daher (noch) nicht die nötige Gefolgschaft. Der Vorstand, hier als Sprecher vor allem Konrad Adam, blockte es ab. Die Partei mochte sich daher nicht dazu entschließen, die von der Programmkommission und dem Vorstand vorgeschlagenen Aussagen zur Energiepolitik durch die fünf schlichten Sätze (siehe oben) zu ersetzen. Es war der Antrag von mir. Aber hinter ihm stand auch der AfD-Bundesfachausschuss für Energie.

_________________________________________________________________________

*) Politiker und Mainstream-Medien haben mit ihrer Angstmacherei vor radioaktiver Strahlung ganze Arbeit geleistet. Aber gegenüber Kernkraftwerken in Deutschland mit ihrer Sicherheit und ihrem radioaktiven Restmaterial ist sie unbegründet. Die Gefahr, hier zu Schaden zu kommen, ist im heutigen Verkehrsalltag weit höher als die Gefahr, ein Leben lang neben einem deutschen Kernkraftwerk zu wohnen (zitiert nach Prof. Dr. Hans-Günter Appel). Die „German Angst“ auch vor der Kernkraft hat hysterische Züge, siehe u.a. hier. Zu hundert Prozent sicher ist nichts, auch das Nutzen der Kernkraft nicht. Aber der Rest an Unsicherheit und die Wahrscheinlichkeit, dass der gefürchtete Reaktorunfall eintritt, sind derart gering, dass es töricht wäre, die Kernkraft nicht zu nutzen.

Dr. K.P. Krause. Der Beitrag erschien zuerst im Blog von K.P.Krause hier




Klimaforscher wetteifern mit dem „Lügenbaron“ Münchhausen

Der GDCh-Klimaexperte Prof. Dr. Reinhard Zellner forderte eine bessere Anpassung an den Klimawandel: „Bereits das heutige Klima hält Klimaextreme, also Starkniederschläge, Überschwemmungen, Dürren, Stürme, Kälte- und Hitzeperioden bereit, die schon jetzt eine deutlich bessere Anpassung erforderlich machen.“ Was für eine wissenschaftlich nachhaltige Aussage, doch sollte man von einem Naturwissenschaftler erwarten können, dass er Wetter von dem statistischen Konstrukt „Klima“ unterscheiden kann.

Der Mensch als Anpassungs- und Überlebenskünstler

Verdichtet man das Alter der Erde auf einen 24-Stunden-Tag, dann entsprechen 1 Million Jahre etwa 19 Sekunden. Geht man davon aus, dass der ‚homo sapiens‘ circa 200.000 Jahre alt ist, so entspricht das einer Zeit von 3,8 Sekunden. Der Mensch fand eine Welt vor, deren Wetter ebenso wechselhaft und unbeständig war wie heute, für viel Gesprächsstoff sorgte und ihn zwang sich ihm anzupassen. Das ist die Glanzleistung unsere Vorfahren, die es sogar geschafft haben, sich über die ganze Erde auszubreiten und in allen „Klimazonen“ anzusiedeln. Auch heute muss der Mensch das Wetter so nehmen, wie es kommt. Ändern kann er im Großen und Ganzen daran nichts! Was soll also die hohle Phrase „bessere Anpassung“?

Wenn Bundesumweltministerin Barbara Hendricks am 31. März 2014 ernsthaft empfiehlt, die Räume weniger zu beheizen und aus Klimaschutzgründen „kühler zu wohnen“, da der Klimawandel das Risiko für Krieg und Hungersnot vergrößere, dann mag Sie sich politisch korrekt verhalten. Sie kann ja eine „klimaschonende Lebensweise“ führen, aber ist diese auch wetterschonend? Auf das Wetter braucht der Mensch keine Rücksicht zu nehmen, es braucht keine Schonung, denn es erhält täglich ein Übermaß von Arbeitsenergie von der Sonne. Wie viele Mal in der Menschheitsgeschichte hat es schon größere und kleinere Klimaschwankungen gegeben, ohne das ein UN-Bericht die ungemein törichte Aussage traf: „Klimawandel gefährdet Milliarden Menschen“. Diese Art Politik mit dem „Knüppel der Angst“ ist überreizt und verfängt nicht mehr!

Wissenschaftlicher Streit über „pausierende Erderwärmung“

Doch kaum hatte der Weltklimarat die „Pause der Erderwärmung“ eingestanden und sich der nicht zu leugnenden Realität angepasst, da fragte wohl aus Profilneurose in einem Anflug von Übereifer Michel Jarraud, Chef der Weltorganisation für Meteorologie (WMO),: „Welcher Stillstand“? Als „Herr über die Wetterdaten“ präsentierte er eine Graphik, die einen leichten Anstieg der Globaltemperatur in den vergangenen 16 Jahren zeigte. Da kann man nur mit Winston Churchill empfehlen: Glaube keiner Statistik, die du nicht selbst gefälscht hast.

Aber nun zu Carl Friedrich von Münchhausen, dem „Lügenbaron“ (1720-1797), der sich am Schopf selbst aus dem Wasser zog. Daran wurde erinnert, wer am 5. Mai 2014 die Presse-Mitteilung (EIKE berichtete hier) des Potsdam-Instituts für Klimafolgenforschung „Entkorken der Ost-Antarktis führt zu Anstieg es Meeresspiegel“. Es ist schon erstaunlich, was das PIK schreibt: “ Das Abschmelzen bereits einer kleinen Menge Eis an der ostantarktischen Küste könnte eine große Wirkung haben – nämlich dass große Eismassen unaufhaltsam jahrtausendelang in den Ozean fließen und damit den Meeresspiegel um 300 bis 4000 Zentimeter ansteigen lassen.“ Sind Sie zu einem Eiszapfen erstarrt bei dieser Meldung, die natürlich im Konjunktiv erscheint und auf Computersimulationen beruht?“

Dieses sonderbare Phänomen wird wie folgt erklärt: „Das Wilkes-Becken der Ost-Antarktis ist wie eine gekippte Flasche; wenn der Korken gezogen wird, dann entleert sie sich“. Ein wahrlich hübscher Vergleich, doch wer zieht den Korken und wer lässt das Eis in der Flasche schmilzen? Levermann als Leitautor des Meeresspiegel-Kapitels fügt hinzu: „Wir haben vermutlich bislang die Stabilität der Ost-Antarktis überschätzt. Wenn die Hälfte dieses Eisverlustes aus der Korken-Region käme, würde das unaufhaltsame Abfließen der Eismassen beginnen.“ Dem „käme, würde“ fügen die PIK-Autoren zum Trost hinzu: „In den Simulationen dauert das vollständige Ausströmen aller Eismassen aus der betroffenen Region in der Ost-Antarktis fünftausend bis zehntausend Jahre.“ Sie brauchen also nicht darauf zu warten, zumal eine kleine Programmieranweisung dieses Gespenst schnellstens wieder beseitigen könnte und kann.

Zur Beruhigung: Bei den numerischen Computermodellen werden Szenarien nach dem Motto wenn, dann durchgespielt und berechnet. Hier kann der Phantasie gemäß den politischen Rahmenbedingungen freier Lauf gelassen werden. Die Berechnungen beruhen nicht auf Messungen in der real existierenden Welt, sondern auf fiktiven Annahmen.

Mit dem „Paternoster“ durch die Sperre Tropopause in die Stratosphäre

Am 3. April 2014 ließ das Alfred-Wegener-Institut für Polarforschung in Bremerhaven (AWI) verlauten: „Wie ein riesiger Fahrstuhl in die Stratosphäre“. Stolz verkündete man, über dem tropischen Westpazifik ein „natürliches, unsichtbares Loch von mehreren tausend Kilometer Ausdehnung“ in der Tropopause, „die den Transport der meisten natürlichen und menschgemachten Stoffe in die Stratosphäre verhindert“ entdeckt zu haben. Wie in einem „riesigen Fahrstuhl gelangen viele chemische Verbindungen aus bodennahen Luftschichten ungehindert durch die so genannte „Waschmittelschicht“ oder „OH-Schicht“ der Atmosphäre in die Stratosphäre. Sei in Bodennähe kein Ozon da, werde die OH-Bildung unterdrückt und es entstehe ein „OH-Loch“. Weiter zur Erklärung: Das OH-Molekül werde als Waschmittel der Atmosphäre bezeichnet. Es baue die chemischen Substanzen ab. Daher könne kein Stoff in die Stratosphäre aufsteigen. Habe sich so ein OH-Loch gebildet, dann habe das verheerende Auswirkungen auf das Klima.

Bei dem nicht näher umrissenen „tropische Westpazifik“ muss es sich um das Seegebiet zwischen Japan und Papua Neu Guinea handeln. Nach der Erfolgsstory mit dem „Ozon-Loch“ hat man eine neuartige „natürliche Waschmittelschicht“, die ausgerechnet über dem tropischen Westpazifik ein „OH-Loch“ hat, so dass aller bodennaher Dreck mangels Ozon ungewaschen in die Stratosphäre aufsteigen kann, um dann sein Unwesen zu treiben, sich insbesondere verheerend auf das Klima auszuwirken. Statt froh zu sein, im Westpazifik ein troposphärisch besonders reines Seegebiet gefunden zu haben, wird hier eine Gefahr für das „Globalklima“ konstruiert, die gar nicht existieren kann. Warum soll ausgerechnet hier die Tropopause als dynamische Sperrschicht ein „Loch“ haben?

Warum soll ausgerechnet über dem Westpazifik die Erdanziehungskraft oder Schwerkraft nicht funktionieren, so dass wie in einem riesigen „natürlichen Fahrstuhl“ die bodennahe Luft gegen die Gravitationskraft gen Himmel aufsteigen kann? Dabei gibt es über dem warmen tropischen Westpazifik genügend Thermik und Konvektion, insbesondere in der innertropischen Konvergenzzone, so dass es solcher abstruser OH-Loch-Konstruktionen gar nicht bedurfte. Doch die Klimaexperten scheinen so von ihrer Arbeit an immer neuen Katastrophenszenarien fasziniert zu sein, dass sie kaum mehr verifizieren, was für einen „Schwachsinn“ sie produzieren. Aber sie fühlen sich im „Weltklimarat“ (IPCC) in bester Gesellschaft, der zudem unter dem Schutzschirm der Vereinten Nationen (UNO) steht. „Schwachsinn“ ist summarisch die Bewertung des 5. IPCC-Berichts durch Leslie Woodcock, der Chemische Thermodynamik in Manchester lehrte.

Währenddessen treibt die Klimaschutz-Manie immer neue Blüten. Aus der Steiermark kam die Meldung, dass „Murau die erste CO2-neutrale Brauerei Europas“ sei. Die Hansestadt Bremen verkündete voller Stolz, dass eine Firma „klimaneutrale Altkleider-Container“ herstelle. Im Rahmen einer „Welt-Wald-Klima-Initiative“ pflanze man 8,8 Bäume pro Behälter und kompensiere damit den CO2-‚Fußabdruck‘. Die Tat ist zwar lobenswert, doch was daran „klimaneutral“ sein soll, das bleibt ein Rätsel. In Wiesbaden hat sich eine Umzugsfirma einen „Corporate Carbon Footprint“ erstellen lassen und wirbt nunmehr mit dem Angebot „klimaneutraler Umzüge“.

Zum 270. Todestag von Anders Celsius

Anders Celsius wurde am 27. November 1701 in Schweden geboren. Er starb am 25. April 1744 an Tuberkulose. Er ist bekannt geworden durch seine Temperaturskala. Dass Körper sich bei Erwärmung ausdehnen, war in der Antike bekannt, aber erstmals machte sich 1592 Galileo Galilei (1564-1641) daran, die Ausdehnung zu nutzen, um die Temperatur des Körpers zu messen. Dieses Prinzip nutzte Evangelista Torricelli (1608-1647) aus und baute das erste Quecksilber-Barometer zur Luftdruckmessung. Nachdem zuerst Daniel Gabriel Fahrenheit (1686-1736) im Jahre 1714 die noch heute in den USA gültige Fahrenheit-Skala entwickelt hatte, kam Celsius 1741 auf die Idee, eine T-Skala von null Grad (kochendes Wasser) bis einhundert Grad (gefrierendes Wasser) zu entwickeln. Dabei war er so genial, dabei auch den Luftdruck zu berücksichtigen. Dieser nimmt mit der Höhe ab und mit ihm auch der Siedepunkt. Wer in 4000 Meter Höhe ganze 10 Minuten ein Ei gekocht hat und dieses köpft, merkt, welch große Rolle der Luftdruck spielt. Das Ei ist keineswegs hart, sondern noch flüssig, weil der Siedepunkt bei 70° und nicht 100° Celsius liegt. Nach dem frühen Tod von Anders Celsius wurden dann die Fixpunkte getauscht. Es entstand die heutige Celsius-Skala mit O°C als Gefrierpunkt und 100°C als Siedepunkt.

Nicht nur feste und flüssige Körper dehnen sich bei Erwärmung aus und ziehen sich bei Abkühlung zusammen. Dies geschieht auch mit der Luft, die als Gasgemisch die Erde umgibt. Deren Ausdehnung beträgt 1/273 pro 1 Grad Erwärmung. Bei Erwärmung um 273 Grad verdoppelt sich ein Luftvolumen. Wird durch die Sonne der Boden erwärmt, so überträgt sich diese Erwärmung durch molekulare Leitung auf die Luft, die sich ausdehnt, spezifisch leichter wird und damit thermischen Auftrieb erhält. Statt Thermik sagt man auch Konvektion. Durch die bei der Ausdehnung zu leistende Arbeit wird der Luft Wärmeenergie entzogen, sie kühlt sich um 1 Grad pro 100 Meter Aufstieg ab. Ist der Taupunkt der Luft erreicht, dann kondensiert der Wasserdampf in ihr, es bilden sich Wolken ganz unterschiedlicher Mächtigkeit, von kleinen Schönwetterwolken bis zu mächtigen Gewitterwolken.

Damit soll nur angedeutet sein: Wer von Klima spricht, kommt am Wetter nicht vorbei. Es ist das Wetter, von dem Klima abgeleitet wird. Das Wetter macht das Klima! Wer dies verinnerlicht, wird ermessen, wie unsinnig der Ausdruck „klimaneutral“ ist.

Neues Schauermärchen aus dem Potsdam-Institut für Klimafolgenforschung

Am 6. Mai 2014 kam aus dem PIK die Meldung: „Brennpunkte des Klimawandels in Afrika: Unsicherheiten nutzbar machen“. War Sigmund Freud der Wortführer? „Unsicherheiten nutzbar machen?“ Das heißt im Klartext: Geschäfte mit der Angst machen! Und so stand es dann auch in der PM: „Wo mehrere Folgen des Klimawandels zeitgleich spürbar werden – Dürren oder Überflutungen, Missernten oder Schäden in Ökosystemen – entstehen in gewissen Teilen Afrikas Brennpunkte des Risikos“. Auch hier wieder ein logischer Fehler! Wenn mehrere Folgen zeitgleich spürbar sein sollen, dann müssen sie auch zeitgleich eintreten, aber wie ist das möglich? „Dürren oder Überflutungen“? Das „oder“ ist falsch! Aber merken tut das kein Experte, obgleich noch einmal betont wird, dass „gerade das gleichzeitige Eintreten mehrerer Klimafolgen die Verwundbarkeit erhöht“. Doch diese Art Wahrscheinlichkeit ist so unwahrscheinlich wie das Ereignis, dass Ostern und Weihnachten auf einen Tag fallen!

Oppenheim, im Mai 2014

Dipl.-Met. Dr. phil. Wolfgang Thüne




Deutsche Physikalische Gesellschaft (DPG) verbreitetet öffentlich Unsinn in Bezug auf die Erwärmungspause beim Klimawandel!

EIKE hat diese Pressemitteilung sowie die Beiträge in PHYSIK Konkret der Frau Johanna Stachel zum Anlass genommen um sie mit Schreiben vom 3. April 2014 aufzufordern entweder Belege für diese falsche und weitere Behauptungen zu liefern oder aber davon Abstand zu nehmen . Eine Antwort steht bis heute aus.

Hier der offene Brief vom 3.4.14 im Wortlaut:

Frau Professor  Dr. Johanna Stachel

Präsidentin  Deutsche Physikalische Gesellschaft e. V.

Hauptstraße 5

53604 Bad Honnef

Betrifft: „Physik Konkret“, Nr. 19, „Klimawandel: Erwärmungspause ja oder nein?

Sehr geehrte Frau Stachel,

Sie haben in „Physik Konkret“, Nr. 19 vom 19.3.2014 den Beitrag  „Klimawandel: Erwärmungspause ja oder nein?“ verfasst und dabei die Warnung ausgesprochen „Wir warnen vor der Auffassung, dass der Klimawandel zum Stillstand gekommen sei, die globale Erwärmung schreitet ungehindert fort“. Im ersten Satz Ihres Beitrags schreiben Sie dann „Anthropogene Emissionen von Treibhausgasen, vor allem CO2, haben seit Beginn der Industrialisierung einen nachweisbaren Beitrag zur globalen Erwärmung geleistet“. Diese Aussage ist sachlich falsch. Es gibt bis heute keine begutachtete Fachveröffentlichung, in der ein solcher Nachweis geführt wird, wobei wir „Nachweise“ durch Klimamodelle ausschließen. Die natürlichen Temperaturfluktationen übersteigen den anthropogenen Beitrag bei weitem. Vermutlich ist Ihnen auch unbekannt, dass weltweit ein Viertel aller das 20. Jahrhundert abdeckenden Temperaturreihen Abkühlung und keine Erwärmung zeigen [1], [2]. Wie ferner ein Papier [3] mit zwei der hier Unterzeichnenden als Autoren zeigt (erschienen im Climate of the Past der Europäischen Geophysikalischen Union), bestimmt der de-Vries-Sonnenzyklus die Klimageschichte der letzten 250 Jahre, ein Einfluss des anthropogenen CO2 konnte nicht aufgefunden werden.

In Ihrer „Warnung“ ist dann sachlich alles falsch. Kein vernünftiger Mensch behauptet, der Klimawandel sei zum Stillstand gekommen. Klimawandel gibt es seitdem die Erde sich dreht, Klimastillstand gab es noch nie. Ihrem „die globale Erwärmung schreitet ungehindert fort“ widersprechen im Übrigen alle meteorologischen Messungen weltweit. Der aktuelle Stillstand fing spätestens mit dem El Nino Jahr 1998 an, er existiert somit bereits seit rd. 16 Jahren. Im Rest Ihres Beitrags ziehen Sie dann einen sachlich grob unzulässigen Schluss, wenn Sie sagen „Ingesamt zeigen die Messungen, insbesondere im Ozean an, dass die Erwärmung der Erde im Ganzen ungebremst weitergeht“. Welche Messungen meinen Sie? Uns sind keine bekannt. Die Autoren Yair Rosenthal et al. schreiben zu „insbesondere im Ozean“ im Abstract ihrer Veröffentlichung „Pacific Ocean Heat Content During the Past 10,000 Years“, Science, 342, 2013 (das Papier ist frei in Google Scholar als pdf herunterladbar):

Abstract: Observed increases in ocean heat content (OHC) and temperature are robust indicators of global warming during the past several decades. We used high-resolution proxy records from sediment cores to extend these observations in the Pacific 10,000 years beyond the instrumental record. We show that water masses linked to North Pacific and Antarctic intermediate waters were warmer by 2.1 ± 0.4°C and 1.5 ± 0.4°C, respectively, during the middle Holocene Thermal Maximum than over the past century. Both water masses were ~0.9°C warmer during the Medieval Warm period than during the Little Ice Age and ~0.65° warmer than in recent decades. Although documented changes in global surface temperatures during the Holocene and Common era are relatively small, the concomitant changes in OHC are large.

Erwärmungsphasen im Ozean (als „large“ bezeichnet) kamen bereits mehrfach ohne jedwedes anthropogene Zutun in der Klimageschichte vor und übten dabei nur wenig Einfluss auf die bodennahe Lufttemperatur aus. Wir fragen Sie daher, wie Sie zu Ihrer Schlussfolgerung eines „ungebremsten“ weiteren Anstiegs kommen. Die Klimahistorie der Erde widerspricht. Immer gab es Umkehr nach Erwärmung wie auch nach Abkühlung – auf allen Zeitskalen. Wenn dies nicht mehr der Fall sein sollte, geht konsequenterweise die Welt unter, was nicht so schnell zu erwarten ist.

Leider ist Ihr hier kritisierter Beitrag in „Physik Konkret“ kein Einzelfall. Das Bemühen der DPG, dem politischen Zeitgeist zu dienen, wird immer deutlicher. So erfüllte der von den Autoren A. Bachem und C. Buchal im Dezemberheft des „Physik-Journals“ (PJ) verfasste Artikel „Energiewende – Quo Vadis“ wenigstens noch fachliche Ansprüche, wenn auch die Folgerungen der Autoren „Die Erfolgsgeschichte von Solar- und Windenergie muss sich fortsetzen“ nur noch mit Humor zu nehmen ist. Welche Erfolgsgeschichte meinen die Autoren, leben sie wirklich im heutigen Energiewende-Deutschland oder denken sie an erfolgreiche Mitteleinwerbungen für ihre Institute? Der im Februar-Heft des PJ, S. 21 (2014) erschienene Propaganda-Artikel für die Photovoltaik (PV) überschreitet schließlich alle Grenzen. Hier kam im sonst hochwertigen PJ der wirtschaftliche Interessenvertreter Dr. W. Hoffmann zu Wort. Den sachlichen Inhalt seines Beitrags übergehen wir besser mit freundlicher Nachsicht. Ganz offensichtlich haben sich Ökoideologen und Profiteure in der DPG durchgesetzt. Dass die PV als mit Abstand kostspieligste Methode der elektrischen Energieerzeugung mit ihrer unstetigen Stromlieferung für eine Industrienation völlig ungeeignet ist (allenfalls in Entwicklungsländern mit hoher Insolation mag sie eine Nische finden), braucht nicht näher erläutert zu werden – nur noch ein Zitat von Dr. Großmann, ehemals Vorstandsvorsitzender RWE AG: „Photovoltaik in Deutschland ist genauso wenig sinnvoll, wie Ananas in Alaska zu züchten“. Stellvertretend erinnern wir an den Vortrag von Prof. Hans-Werner Sinn „Energiewende ins Nichts“ vom 16.12.2013 in der Münchner Ludwig-Maximilian-Universität vor hohem politischem und wissenschaftlichem Publikum. Die Grenzen zur unfreiwilligen Komik überschreitet W. Hoffmann im PJ schließlich mit seinem Schlussplädoyer für die PV “Damit verbunden ist die Hoffnung, dass diese Einsichten auch in der Finanzwelt Fuß fassen und die Geldströme in die entsprechende Richtung lenken“ – ein absoluter Tiefpunkt für die DPG!

Sehr geehrte Frau Stachel, „Audiatur et altera pars!“ sollte auch die Politik der DPG beachten. Sachkritiker der kostspieligen industriezerstörenden Klima-Hysterie und der volks- und betriebswirtschaftlich unsinnigen Energiewende kommen im PJ und bei der DPG aber nicht mehr zu Wort, Fachartikel über die zivile Nutzung der Kernenergie, von China vehement ausgebaut, werden im PJ nicht mehr gedruckt,. Wir möchten angesichts dieser Entwicklung unsererseits eine Warnung aussprechen: Die Führung der DPG hat eine besondere Verpflichtung zu wissenschaftlicher Objektivität und politischer Unabhängigkeit. Dem vorgeblichen Klimakonsens, der Energiewende oder gar dem politischen Zeitgeist unkritisch zu folgen, kann nur zu solchen Zuständen führen, wie wir sie schon aus der „deutschen Physik“ eines P. Lennartz und J. Stark kannten. Möchten Sie, sehr geehrte Frau Stachel, riskieren, dieses dunkle Kapitel deutscher Wissenschaftsgeschichte durch unkritische Veröffentlichungen ungeprüfter Behauptungen und durch PJ-Propaganda für fragwürdige Interessenvertreter zu wiederholen? 

Mit freundlichen Grüßen

                                 

Prof. Dr. Dieter Ameling (Stahlmetallurge)    Prof. Dr. Friedrich-Karl Ewert (Geologe)

Michael Limburg (Dipl.-Ing.)                 Prof. Dr. Horst-Joachim Lüdecke (Physiker)        

Klaus Eckhart Puls (Dipl. Meteorologe)  Prof. Dr. Carl-Otto Weiss (Physiker)

Literaturnachweise

[1] R. Rohde et al.: Berleley Earth temperature Averaging Process, Geoinformatics & Geostatistics: An Overview (2013)

[2] H.-J. Lüdecke, R. Link, F.-K. Ewert: How Natural is the Recent Centennial Warming? An Analysis of 2249 Surface Temperature Records, Int. J. Mod. Phys. C, Vol. 22, No. 10 (2011)

[3] H.-J. Lüdecke, A. Hempelmann, and C.O. Weiss: Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records, Clim. Past. 9, 447-452 (2013)

Related Files




Prominente Klima-Wissenschaftler werden Skeptiker: Bengtsson und Zellner

Er wird Mitglied der Organisation „The Global Warming Policy Foundation“, deren Direktor der Sozialwissenschaftler Dr. Benny Peiser ist. Somit wird Bengtsson nach wie vor ein Verfechter der Hypothese  vom Treibhauseffekt bleiben.

Doch skeptisch war Bengtsson schon immer. So auch bereits 2004 als ich das erst Mal mit ihm telefonierte. Meine Notiz über das Gespräch diente damals der Vorbereitung einer Sitzung des FDP Bundesfachausschusses Umweltpolitik in Berlin. Der Inhalt ist nach wie vor aktuell. Daher füge ich den Text im Wortlaut ein:

„Beim Internet Studium der neusten wissenschaftlichen Modellrechnungen der Klimaforschung der „National Center for Atmospheric Research“ (NCAR), dessen Arbeit praktisch vollständig im Internet verfügbar ist, habe ich mich für ein spezielles Meeting interessiert, bei dem die zwei aktuellsten Modelle miteinander verglichen wurden:

CCM3 (das aktuelle amerikanische) und

ECHAM4.5 (das aktuellste europäische).

Folgender Titel einer Powerpoint Präsentation sprang mir ins Auge: “Comparing the Greenhouse Sensitivities of CCM3 and ECHAM4.5” von Ed Schneider (George Mason U), Ben Cash und Lennart Bengtsson (MPI Hamburg, Reading U.). Der dritte Autor ist mir als emeritierter Direktor und Vorgänger von Prof. Graßl namentlich bekannt.

Die letzte Zeile dieser PPT lautet wie folgt:

„We are probably approaching this problem in the wrong way, but at least we’re doing something. Maybe our mistakes will suggest a better approach.“

So viel Selbstzweifel veranlassten mich, Kontakt zur Professor Bengtsson aufzunehmen. Im Telefonat mit ihm ergab sich folgendes:

Die globalen Modelle (GM) passen zur Zeit bei keinem Klimamodell mit einigen lokalen Modellen (LM) zusammen. Lokal wird es in Nordamerika und in der Südhemisphäre klimatisch (d. h. über einen Zeitraum länger als 10 Jahre) kälter, in Westeuropa und der Arktis wird es wärmer. Die Abkühlung passt nicht zum CO2-Effekt. Die Erwärmung in Westeuropa und der Arktis aber überraschend passt auch nicht, weil es hier kälter werden sollte, weil der gemessene Aerosolgehalt hier so hoch ist und abkühlend wirkt, dass der den Effekt der CO2-Zunahme deutlich überkompensieren sollte.

Soweit die wissenschaftlichen Fakten aus dem Telefonat.

Prof. Bengtsson ist ein absoluter Verfechter der CO2-Hypothese. Die beobachteten Klimaänderungen sind für ihn nur Ausdruck der derzeitigen natürlichen Klimaschwankungen. Über einen Zeitraum von 100 Jahren werde sich der CO2 Effekt in wenigen Graden Temperaturerhöhung auswirken. Wie viele Grade das dann nach 100 Jahren sein werden, kann kein Modell berechnen, weil alle Modelle viel zu ungenau seien.

Die urbanen Wärmeinseln hält er nicht relevant für das globale Klima. Über eine Tag-Nacht-Dynamik der Wolkenbedeckung weiß er nichts. Die Wolken, der alles entscheidende Unsicherheitsfaktor.

Die amerikanische Klimaforschung ist für Prof. Bengtsson weitweit mit Abstand führend. Den Impuls der Bush Administration, Unsicherheiten der Klimamodelle zu problematisieren und Mittel für die Verbesserung des Standes der Wissenschaft auszugeben, hält er für richtig.

Schweden, sein Heimatland, betrachtet er etwas spöttisch:

Schweden habe nicht mehr den geringsten Zweifel an der CO2-Hypothese und stellt dafür auch keine Mittel mehr bereit. Bengtsson muss daher in Deutschland, England und USA arbeiten.“

Seinen Satz im aktuellen SPON Interview:

„Ich halte es für essentiell, dass es Gesellschaftsbereiche gibt, wo kein Konsens erzwungen wird. Gerade in einem Gebiet, das so unvollständig verstanden ist wie das Klimasystem, ist ein Konsens sinnlos.“

sollten alle Medien beherzigen. Sie sollten daher verstärkt jene Wissenschaftler zu Wort kommen lassen, die in ihren papers auch mit Peer Review zeigen, dass es keinen Treibhauseffekt der Atmosphäre gibt. Denn auch Naturwissenschaftler, außerhalb der Meteorologie, befassen sich mit dem, worauf es bei der Temperaturbildung an der Erdoberfläche ankommt und was vollständig verstanden wird. Nämlich mit den vertikalen Energieflüssen im System Sonne (6000°C), Erdoberfläche (15°C), Atmosphäre (-18°C) und Weltall (-271°C).

Auch Reinhard Zellner scheint ins Lager der Skeptiker zu wechseln.

Reinhard Zellner war zusammen mit Christian-Dietrich Schönwiese Hauptgutachter der Enquete Kommission des Deutschen Bundestages zum Schutz der Erdatmosphäre. [BT DRS 11/8030] Auch Zellner ist nach wei vor ein Anhänger der Hypothese vom  Treibhauseffekt. Sein Interview im Mai Heft der „Nachrichten aus der Chemie“, der Mitgliederzeitschrift der Gesellschaft Deutscher Chemiker, wird ein Interview mit ihm abgedruckt. Es springt freilich der Medienschaffenden nicht so ins Auge, wie das SPON Interview mit Bengtsson.

Dafür sind dort wissenschaftliche Aussagen gemacht worden, die die CO2 Debatte nachhaltig beeinflussen sollten. Hier ein Auszug aus dem längeren Interview:

„Nachrichten:

Typisch ist der Einwand, dass der Treibhauseffekt nicht nachzuweisen sei.

Zellner:

Das stimmt, es gibt kein Laborexperiment, das die Erwärmung durch Infrarotabsorption des CO2 direkt nachweist.

Das System Atmosphäre kann aufgrund seines Temperatur- und Druckgradienten in einem stationären Experiment gar nicht reproduziert werden.“

[Nachr. Chem. 2014, 62, 513 -515] (Für private Zwecke kann das vollständige Interview als pdf Datei beim Autor angefordert werden.)

Dr. Gerhard Stehlik, Hanau (www.gerhard-stehlik.de)

Ergänzung der Redaktion

(mit Dank an Frau H. Thiele, die diesen Bericht von 2005 ausgrub)

Aus einem Bericht über

 

Das Klima fuhr schon immer Achterbahn

Vortragstagung zum Klimawandel der Veranstalter: Friedrich-Naumann-Stiftung und Rudolf v. Bennigsen-Stiftung, 15.05.2004 Göttingen vom 18-5-4, Bericht von Helga Meyer

Auszug:

Prof. Dr. Reinhard Zellner, Physiko-Chemiker, der mit seinem Sachverständigenkreis aus Pro und Contra-Meinungen das Bundesministerium für Bildung und Forschung berät, räumte ein, dass das Kyotoprotokoll ein reines Politikum sei, welches  die Nationen verpflichten soll, ihre klimarelevanten Gase zu verringern. Es werde aber genau wie der CO2- Emissionshandel keinen Einfluß auf das Klima haben .Ein grundsätzliches Umsteuern sei aus seiner Sicht zwar notwendig aber aus sozio- ökonomischen Gründen weltweit gar nicht machbar.

Den ganzen Bericht können Sie als pdf Dokument im Anhang herunter laden

Weiterführende Links:

Marcel Crok mit Lennart Bengtsson über das Interview mit GWPF

Lennart Bengtsson: “The whole concept behind IPCC is basically wrong”

Peter Heller von Science Sceptical :

Der Fall Bengtsson

Basler Zeitung

Er weiss, dass er wenig weiss

Related Files




Neues vom Panikchester des PIK: Entkorken der Ost-Antarktis führt zu Anstieg des Meeresspiegels

Zwei besonders schöne Sätze ind dieser Modell-Geschichte aus 1001 Nacht:

Ein Abschmelzen von  Eis an der Küste könnte diesen relativ kleinen Korken verschwinden lassen – und damit einen Meeresspiegelanstieg von 300 bis 400 Zentimetern verursachen. „Der vollständige Meeresspiegelanstieg wäre letztlich bis zu 80 mal größer als der durch das anfängliche Abschmelzen des Eiskorkens“,

und etwas später

In den Simulationen dauert das vollständige Ausströmen aller Eismassen aus der betroffenen Region in der Ost-Antarktis fünftausend bis zehntausend Jahre.

Simulanten unter sich. Es ist aber sehr wahrscheinlich, dass unsere Mainstream-Journalisten diese Feinheiten nicht mal bemerken und nicht darauf kommentierend eingehen werden. Sonst würden sie diesen Bericht bestenfalls im Feuilleton unter „Fiction“ bringen, nicht aber auf der Wissenschaftsseite. Doch berichtet wird schon fleißig – Hier und hier und hier.

Werden Zweifel angemeldet, z.B. darüber, dass jemand sich vorgibt zu wissen, was die Antarktis in 5000 bis 10.000 Jahren an Eis verliert? Nirgends!

Hier die Pressemitteilung im Wortlaut

05.05.2014 – Das Abschmelzen bereits einer kleinen Menge Eis an der ostantarktischen Küste könnte eine große Wirkung haben – nämlich dass große Eismassen unaufhaltsam jahrtausendelang in den Ozean fließen und damit den Meeresspiegel ansteigen lassen. Dies zeigt eine jetzt von Wissenschaftlern des Potsdam-Instituts für Klimafolgenforschung (PIK) veröffentlichte Studie in Nature Climate Change. Die Ergebnisse beruhen auf Computersimulationen des antarktischen Eisflusses mit verbesserten Daten zum Untergrund der Antarktis.

„Das Wilkes-Becken der Ost-Antarktis ist wie eine gekippte Flasche“, erklärt Leitautor Matthias Mengel, „wenn der Korken gezogen wird, entleert sie sich.“ Das Becken bildet das größte marine Landeis-Gebiet in der Region. Derzeit hält ein Eisstück an der Küste die dahinter liegenden Eismassen zurück: eben wie ein Korken, der den Inhalt einer Flasche zurückhält. Ein Abschmelzen von  Eis an der Küste könnte diesen relativ kleinen Korken verschwinden lassen – und damit einen Meeresspiegelanstieg von 300 bis 400 Zentimetern verursachen. „Der vollständige Meeresspiegelanstieg wäre letztlich bis zu 80 mal größer als der durch das anfängliche Abschmelzen des Eiskorkens“, sagt Ko-Autor Anders Levermann. „Bislang galt nur die Westantarktis als instabil, aber jetzt wissen wir, dass ihr zehnmal größeres Gegenstück im Osten möglicherweise auch in Gefahr ist“, sagt Levermann, der die Forschung zu globalen Anpassungs-Strategien am PIK leitet und einer der Leitautoren des Meeresspiegelkapitels im aktuellen Sachstandsbericht des Weltklimarates (IPCC) ist. Dieser Bericht, der Ende September veröffentlicht wurde, sieht einen Beitrag der Antarktis zum globalen Meeresspiegelanstieg von bis zu 16 Zentimetern innerhalb unseres Jahrhunderts. „Wenn die Hälfte dieses Eisverlustes aus der Korken-Region käme, würde das unaufhaltsame Abfließen der Eismassen beginnen. Wir haben vermutlich bislang die Stabilität der Ost-Antarktis überschätzt“, so Levermann. Treibhausgas-Ausstoß könnte das Eis unkontrollierbar schmelzen lassen  Ein Abschmelzen würde die Aufsetzlinie des Eises landeinwärts verlagern – das ist der Bereich, in dem das kontinentale Eis in Kontakt mit dem Wasser tritt und schließlich beginnt, als Eisschelf an der Meeresoberfläche aufzuschwimmen. Der felsige Untergrund unter dem Eis bildet ein riesiges, zum Landesinneren hin abfallendes Tal. Wenn die Aufsetzlinie von ihrer derzeitigen Position am Kamm in das Tal zurückweicht, wird die dem Meer zugewandte Eis-Kante höher. Mehr Eis wird dann in den Ozean geschoben, bis es schließlich abbricht und schmilzt. Und je wärmer es wird, desto schneller geschieht dies.  In den Simulationen dauert das vollständige Ausströmen aller Eismassen aus der betroffenen Region in der Ost-Antarktis fünftausend bis zehntausend Jahre. Wenn diese Entwicklung jedoch erst einmal begonnen hat, wird sich das Auslaufen unaufhaltsam fortsetzen, bis das gesamte Becken leergelaufen ist; selbst wenn die Klimaerwärmung aufhören sollte. „Das ist das grundlegende Problem hier“, sagt Matthias Mengel. „Indem wir mehr und mehr Treibhausgase ausstoßen, lösen wir möglicherweise heute Reaktionen aus, die wir in Zukunft dann nicht mehr stoppen können.“ Ein so erheblicher Meeresspiegelanstieg würde das Gesicht unseres Planeten verändern – er wäre mit großer Wahrscheinlichkeit ein erhebliches Risiko für Küstenstädte von Dublin bis Mumbai, von Tokio bis New York.  Artikel: Mengel, M., Levermann, A. (2014): Ice plug prevents irreversible discharge from East Antarctica. Nature Climate Change (online) [DOI: 10.1038/NCLIMATE2226] Weblink zum Artikel:www.nature.com/nclimate/journal/vaop/ncurrent/full/nclimate2226.html




Gorleben- Offizielle vorläufige Sicherheitsanalyse ergibt: Gorleben ist geeignet

Frau Dr. Barbara Hendricks, die neue Ministerin des Bundesministeriums für Umwelt Naturschutz Bau und Reaktorsicherheit, sagte in der RHEINISCH POST vom 21.12.2013 „Wir beginnen jetzt nach strengen wissenschaftlichen Kriterien die Suche nach einem bestmöglichen Endlagerstandort … Für sie als überzeugte Christin sei es immer ‚gotteslästerlich‘ gewesen, dass Menschen dachten, sie könnten etwas für Millionen Jahre garantieren …“ . Die Existenz natürlicher Kernreaktoren und natürlicher Endlager (OKLO) (2*) ist ihr anscheinend nicht  bekannt.

Anlass

In einer gemeinsamen Erklärung von Bundesminister Röttgen und dem Präsidenten des BfS König wurde im November 2010 die Erstellung einer vorläufigen Sicherheitsanalyse für den Standort Gorleben (VSG) angekündigt: „Das Moratorium würde zum 1. Oktober 2010 wieder aufgehoben. Mit der Wiederaufnahme der Erkundungsarbeiten solle endlich Klarheit geschaffen werden … eine ergebnisoffene Erkundung muss die Eignung oder Nichteignung des Salzstocks Gorleben umfassend begründen. Sollte sich der Salzstock als ungeeignet erweisen, müssen wir neue Wege finden …“ Bei der Gesellschaft für Anlagen- und Reaktorsicherheit (GRS) wurde deshalb diese vorläufige Sicherheitsanalyse für Gorleben (SVG) in Auftrag gegeben, die alle bisherigen Untersuchungen analysieren und zusammenfassen soll (H. Fuchs; 2013) (3*). Der Ergebnisbericht der GRS zur „Vorläufige Sicherheitsanalyse für den Standort“ Gorleben (VSG) liegt inzwischen vor (GRS-290; 2012) (4*).

Hauptziele

Als die drei Hauptziele des Auftrags an die GRS werden genannt:

♦„Gestützt auf die Ergebnisse von Analysen zur Integrität der Salzstruktur Gorleben und einer radiologischen Konsequenzanalyse … sollte eine vorläufige Eignungsaussage zum Standort Gorleben  abgeleitet werden  …Dabei wäre nachvollziehbar darzulegen gewesen, ob … am Standort Gorleben wärme entwickelnde radioaktive Abfälle sicher eingelagert werden könnten, oder ob jetzt schon Fakten vorliegen, die gegen eine Eignung sprechen.

  „Da die sicherheitliche Beurteilung eines Endlagersystems nicht alleine auf der Basis der Standorteigenschaften erfolgen kann … sollten Endlagerkonzepte entwickelt werden, welche, soweit dies während der Laufzeit des Vorhabens VSG möglich ist, optimiert werden.

  „Weiterhin sollte der aus heutiger Sicht erforderliche FuE-Bedarf identifiziert und systematisch zusammengestellt werden.“

Erhellend ist jedoch die politische Wende, die allerdings an der fachlichen Aussage der vorläufigen Sicherheitsaussage nichts verändert: Zur Amtszeit von Herrn Minister Altmaier wurde auf Wunsch des BMU am 21.08.2012 im Rahmen eines Änderungsvertrages zu diesem Vorhaben vereinbart: „Auf eine dezidierte vorläufige Eignungsprognose für den Standort Gorleben zu verzichten“. Dies erklärt, dass die ursprünglichen Ziele im Endbericht nun im Konjunktiv geschrieben wurden. Die Wissenschaftler haben sich an diesen politischen Aufruf jedoch nur begrenzt gehalten.

Vorgehensweise

Die „Vorläufige Sicherheitsanalyse Gorleben“ zeichnet sich dadurch aus, dass die seit Mitte der 1990er Jahre erarbeiteten Einzelergebnisse der Endlagerforschung bezüglich des lang zeitigen Einschlusses radioaktiver Abfälle in Salzstöcken und die bisherigen Erkundungsergebnisse zum Standort Gorleben für die durchzuführende Langzeitsicherheitsanalyse zusammengeführt wurden. Die Beteiligung vieler Wissenschaftseinrichtungen, die über Jahrzehnte langes Knowhow zu allen endlagerrelevanten Aspekten verfügen, und deren direkte interdisziplinäre Zusammenarbeit unter wissenschaftlicher Führung eines Steering Committee hat sich bewährt. Für eine interne Qualitätsprüfung war der Einbezug von Wissenschaftseinrichtungen wie z. B. Universitäten, die nicht in aktuelle Endlagerprojekte involviert sind und die daher prädestiniert waren, Methodik und Datenlagen im Vorhaben VSG kritisch zu hinterfragen.

Ergebnis

Es ist ein umfassender Bericht, der nicht nur die bisherigen Ergebnisse der Untersuchungen von Gorleben in fünfzehn einzelnen Arbeitspaketen zusammenführt und ausführlich bewertet, sondern auch eine Anzahl von Vorschlägen aufzeigt, welche Untersuchungen und Analysen noch durchzuführen sind, um eine endgültige Sicherheitsanalyse für eine Planfeststellung zu erstellen. K.O. -Kriterien zum Gesamtprojekt Gorleben sind weder in den fünfzehn Arbeitspaketen noch in dem Gesamtbericht zu finden. 

Der Bericht zeigt die Komplexität der Erstellung einer Langzeitsicherheitsanalyse eines Standortes für ein Endlager. Diese Komplexität macht es politischen und ideologischen Gegnern leicht, mit einfachen Sprüchen sachliche Argumente nicht zur Kenntnis zu nehmen und diese Sprüche in Parteien, Bürgerforen, Netzwerken etc. aber auch mit Hilfe der Presse zu verbreiten. Hier ist es die  Aufgabe der Wissenschaft, über die Wirklichkeit Klarheit zu schaffen. Denn wenn Gegner der Endlagerung die Aufmerksamkeit der Massen suchen, produzieren sie statt Aufklärung Schattenwahrheiten, die sich über Jahrzehnte wie Mehltau auf alle Sektoren von Staat, Wirtschaft und Gesellschaft legt. Und dies führte zu nicht gerechtfertigten Vorurteilen, Massenbefindlichkeiten und gefühlten Risiken und festigen oder auch verstärken Befindlichkeiten – ein leider vermutlich nicht zu ändernder Grundmangel der Demokratie: „In einer Demokratie wird der gewählt, der sich dem Publikum angenehm macht. Das ist einer der schweren Geburtsfehler jeder Demokratie …“ Das hat schon Helmut Schmidt erkannt. 

Für zukünftig zu erwartende Schadensersatzforderungen sind der Bericht  „International Group Gorleben“ (2001) (5*) sowie die „Vorläufige Sicherheitsanalyse Gorleben (VSG)“ der GRS wichtig, denn in beiden gibt es keine Hinweise zu den wissenschaftlichen sowie technischen Ergebnissen, die einer Eignungshöffigkeit von Gorleben widersprechen. Die Verzögerungen sind somit ausschließlich eine Folge der Politik. Die Furcht vor diesem Sachverhalt dürfte wohl der Grund für die schwammige Aussage von Bundesumweltministerin Dr. Hendricks sein (Zeit online, Newsticker, 10. April 2014): „… sie hält ein Ausscheiden des Salzstocks Gorleben aus der Suche nach einem Atommüll-Endlager für möglich. Sie könne es sich ’sehr gut vorstellen‘, dass Gorleben nach wissenschaftlichen Kriterien nicht weiter in Frage komme. Eine ‚politische Vorfestlegung‘ gegen Gorleben könne es aber nicht geben, betonte sie. Gorleben müsse genauso untersucht werden wie alle anderen denkbaren Standorte“.( ???)

Transparenz

Bei der Endlagerung geht es um Transparenz und Glaubwürdigkeit. Und um diesen Ansprüchen gerecht zu werden, habe ich davon Abstand genommen, selbst eine zusammenfassende Bewertung der Ergebnisse einzelner Arbeitspakete zu erstellen. Dies  würde den Rahmen dieses Berichtes sprengen. Für interessierte Laien und möglicherweise auch für die Presse möchte ich die Wissenschaftler selbst sprechen lassen, indem ich die Ergebnisse (Fazite) zu ihren Arbeitspaketen mit Angabe der Seitenzahl im ANHANG aufliste. So kann der interessierte Leser schnell die Themen, die ihn besonders interessieren, identifizieren und die wissenschaftliche Begründung dazu anhand der Originaltexte schnell finden.  Die Auswahl der aufgeführten Arbeitspakete ist beliebig.

Zukunft

            Jede Berichterstattung über Gorleben, sei sie von Politikern, selbsternannten Fachleuten, Zeitgeist-Journalisten, NGOs, Bürgerforen, sogenannten „Gutmenschen“ und vielen mehr – siehe negativ-Beispiel „Hans Brakhagen (6*) – sollte sich in Zukunft an den nachvollziehbaren Ergebnissen der Wissenschaftler messen lassen. Damit würde sich die immer wieder gebetsmühlenartig geforderte Transparenz für die Bürger beträchtlich erhöhen.

Der Bericht zeigt aber auch, dass die Suche nach zwei zusätzlichen Standorten  für die Endlagerung von wärme entwickelnden radioaktiven Abfällen und deren Erkundung und Bewertung – man verpflichtet sich ja, den besten zu finden –  in nicht Salinaren Formationen bedeutend schwieriger sein wird als bei Gorleben (N. Deisenroth & R. Kokorsch, 2011, S.14ff ) (7*). Beispielhaft sind hier einige der bedeutendsten Nachteile zu nennen: Insbesondere bei Tongesteinen aber auch bei Graniten müssen wegen der geforderten niederen Inaktivierungstemperaturen der Endlagerbehälter bedeutend größere Erkundungs- und später Einlagerungsbereiche untersucht werden, um einen geforderten mineralischen und tektonischen Homogenbereich in der gewählten Gesteinsformation abzugrenzen (z.B. ca. 3 Quadratkilometer im Salz bzw. 10 bis 15 Quadratkilometer bei Ton und Granit). Denn von den physikalischen Eigenschaften der Tongesteine werden vor allem die Wärmeleitfähigkeit und die Temperaturbelastung sowie die Hohlraumstabilität als gering bis sehr gering eingestuft. Auch dürfen keine Erkenntnisse vorliegen, welche die Einhaltung der geowissenschaftlichen Mindestanforderungen zur Gebirgsdurchlässigkeit, Mächtigkeit und Ausdehnung des einschlusswirksamen Gebirgsbereiches für lange Zeiträume erscheinen lässt. Die Mächtigkeit der deutschen Tonsteinvorkommen erlaubt z.B. für Bohrlocheinlagerung nur Bohrlängen von max. 50 Metern. Die bergmännische Auffahrung und Unterhaltung der Einlagerungsräume im Tongestein, das Stahl- oder Betonausbau erfordert, ist deutlich aufwendiger als  im Steinsalz etc. etc.

Vom Umweltministerium wird gefordert :Wir beginnen jetzt nach strengen wissenschaftlichen Kriterien die Suche nach einem bestmöglichen Endlagerstandort ..“, Deshalb ist es notwendig, für den Vergleich zwischen dem heute bestehenden hohen Erkenntnisstand von Gorleben, für die zwei neuen Standorte zumindest den Erkenntnisstand zu erarbeiten, der heute bei Gorleben erreicht ist. Dies wird Jahrzehnte dauern, die Kosten werden sich auf zweistellige Milliardenbeträge belaufen, wenn es ohne Bürgerproteste abläuft. Sind Bürgerproteste wie beispielsweise bei dem Bau der Stromautobahn von Norden nach Süden als Folge der sogenannten Energiewende zu erwarten, wird alles noch viel teurer werden und das nur, weil in Deutschland Ideologie vor Vernunft und Wissen steht (H. Fuchs & R. Kamradek, 2013) (8*). Der finanzielle Aufwand für diesen Weg ist – ohne die mehrstelligen Milliarden Beträge für die Suche nach neuen Standorten auf der grünen Wiese – an den Kostenprognosen der Energiewende absehbar (F.A.Z vom 21. Februar): Stand 2004: 2,3 Milliarden Euro, Stand 2014: 23,6 Milliarden und das mit rasant steigendem Kohleverbrauch und beträchtlich weniger Landschaft- und Klimaschutz.

Erinnert die heutige Situation nicht an das Mittelalter, als der Naturwissenschaftler Nikolaus Kopernikus ohne Erfolg lebenslang gegen den Glauben der Kirche argumentierte, die Erde sei der Mittelpunkt des Universums.

Die Finnen sind heute schon weiter (F.A.Z vom 22. April: „Bis zur nächsten Eiszeit“)! Sie haben begonnen, einen Standort für ein sicheres – nicht das sicherste – Endlager zu untersuchen.

(1*)       GRS-VSG Bericht: GRS 290

            GRS ist eine gemeinnützige technisch-wissenschaftliche Forschungs- und    Sachverständigenorganisation. Sie verfügt über interdisziplinäres Wissen,fortschrittliche Methoden         und qualifizierte Daten, um die Sicherheit technischer Anlagen zu bewerten und weiterzuentwickeln.          Sie gehört zu 46 % der          Bundesrepublik Deutschland und zu 46 % den Technischen Überwachungs- Vereinen (TÜV) und dem Germanischen Lloyd.            Jeweils 4 % der Anteile der GRS haben das Land Nordrhein-Westfalen und der Freistaat Bayern inne.

(2*)       OKLO: „Der natürliche Reaktor von Oklo“ G.Ries, SciLogs online, 2011,

(3*)       H.Fuchs, Gorleben, das Endlagersuchgesetz, NovoArgumente online,2013

(4*)       GRS-290 (PDF 10.07 MB) oder, ISBN 978-3-939355-66-3

(5*)       International Expert Group Gorleben, 2001: , „Repository Project Gorleben – Evaluation of the    Present Situation, online 31.07.2013.

(6*)       Hans Brakhage: www.hans-brakhage.de/belgaraths-turmzimmer/asse-gorleben-html

(7*)       N. Deisenroth & R. Kokorsch, „Vergleich der Salzstöcke Asse und Gorleben hinsichtlich ihrer           Eignung für die Endlagerung radioaktiver Abfälle“ in der Zeitschrift GEZÄHEKISTE, Heft 7,          Nr.1; 2011.

(8*)       H.Fuchs & R. Kamradek, „Die German Angst“, Bookshouse Verlag, 2013

Anhang zur Bewertung 

            Kapitel 5 Umsetzung des Sicherheits- und Nachweiskonzept im Vorhaben VSG S.77 bis S. 256

            Fazit S.103, M

            „Zusammenfassend ist festzustellen, dass keine grundsätzlichen Zweifel an der technischen Umsetzbarkeit der im Vorhaben entwickelten  Auffahrungs- und Einlagerungskonzepte bestehen …“ 

            Fazit S.110, M1

            „… dass die Maßnahme M1 bei der Auslegung der Grubengebäude auf konzeptioneller Basis umgesetzt wurde. Die Anzahl, Längen und Querschnitte der Einlagerungsstrecken bzw. Einlagerungsbohrlöchern ergeben sich aus der Anzahl der und den Abmessungen der Behälter … In zukünftigen Optimierungen können sicherheitstechnische Zielsetzungen von Bedeutung sein …“

            Fazit S.118, M10

            „… dass die geforderte Maßnahme M10 konzeptionell insgesamt umgesetzt und auch in der Realität betriebstechnisch mit heutiger Bergbautechnik umsetzbar ist .“ 

            Fazit S.126 M12, M15

            „… dass die Forderung, die sich aus den Maßnahmen M12 und M15 ableiten, im Vorhaben  VSG auf konzeptioneller Basis für den Fall der Strecken-und Bohrlochlagerung umgesetzt wurden …“ 

            Fazit S.131  M13 M14

            „… dass das Hauptsalz im Kernbereich des Salzstocks und damit auch in der Umgebung des Einlagerungsbereiches auf Grund der geologischen Entwicklungsgeschichte durch eine halokinetisch bedingte intensive Deformation und daraus resultierende Homogenisierung gekennzeichnet ist. Gleichzeitig weist es einen hohen Rekristallisationsgrad und die Abwesenheit von hydraulischen Klüften, Störungen oder makroskopischen Lösungsvorkommen auf …

„Die Erfüllung der mit der Maßnahme M2 verbundenen Anforderungen an die Eigenschaften der geologischen Barriere kann daher unter der grundlegenden Annahme im Vorhaben VSG, dass die im Erkundungsbereich 1 erzielten Erkundungsergebnisse auf nicht erkundete Hauptsalzpartien übertragen werden können, grundsätzlich als gegeben angesehen werden …“ 

            Fazit S.137, M13, M14

            „Die im Vorhaben VSG durchgeführte Endlagerplanung sieht den Einlagerungsbereich der Streckenlagerung auf der 870-m-Sohle vor. Auch das Prinzip der Bohrlochlagerung (Variante C) sieht das Niveau der Überfahrungsstrecken, von denen aus die Bohrlöcher beladen werden, auf einer Teufe von 870m vor. Durch die Endlagerplanung ist gewährleistet, dass große Mächtigkeiten der Salzbarriere zu den Seiten sowie nach oben zum Salzspiegel vorhanden sind …“

            Fazit S.138 M14

            „Für die nächste eine Million Jahre ist davon auszugehen, dass aufgrund der geringen verbliebenen Mengen mobilisierbaren Hauptsalzes im Bereich der Zechstein-Basis und unter dem Einfluss des rezenten Hauptspannungsfeldes keine erneute massive Salzeinwanderung in die Struktur mit entscheidenden Änderungen der geologischen Standortverhältnisse stattfinden …“

            Fazit S.170, M6, M7, M8, M16

            „… dass die Maßnahme M7 zwar durch das im Vorhaben VSG entwickelten Verschlusskonzept auf konzeptioneller Basis formal umgesetzt wurde und erfolgversprechend erscheint. Trotz umfangreicher Untersuchungen in der Vergangenheit fehlt jedoch noch ein fundiertes Prozessverständnis bezüglich der erreichbaren Endporosität und zur Geschwindigkeit der Salzgruskompaktion bei geringer Feuchtigkeitszugabe unter realen Endlagerbedingungen. Es gelten diesbezüglich die gleichen Vorbehalte, die im Zusammenhang mit der Umsetzbarkeit der Maßnahmen M6, M8, und M16 dargestellt wurden …“ 

            Fazit S. 229 Einschluss der Nuklide

            „Aufgrund der großräumigen Integrität der an das Endlagerbergwerk angrenzenden Bereiche der geologischen Barriere, der Integrität der Verschlussbauwerke über ihre Funktionsdauer sowie der Einschlusseigenschaften des kompaktierten Versatzes kann für den Standort ein einschlusswirksamer Gebirgsbereich in Lage und Grenze ausgewiesen werden …

            Kapitel 6  Zusammenfassung der Ergebnisse S. 257 bis S.312

            Kapitel 6.1 Grundlegende Annahmen  S. 257 „… Ein Großteil der im Vorhaben VSG erzielten Ergebnisse und die nachfolgenden Ausführungen stehen unter dem Vorbehalt, dass die Ergebnisse zukünftiger Erkundungs- bzw. Forschungsarbeiten bestätigen, dass die  nachfolgend aufgelisteten grundlegenden Annahmen zutreffen…“ 

            Kapitel 6.2 Umsetzung der Sicherheitsanforderungen des BMU im Vorhaben VSG 

            Kapitel 6.2.1 Anforderungen an die Endlagerauslegung

            Fazit S.267

            „… Zusammenfassend ist folgendes festzustellen: Die Sicherheitsanforderungen des BMU an die Endlagerauslegung können generell auf der für eine vorläufige Sicherheitsanalyse typischen konzeptuellen Ebene als erfüllt bzw. in Zukunft als erfüllbar angesehen werden. …“  

            Kapitel 6.2.2 Anforderungen an die Nachweisführung

            Fazit: S.288

            „Aus den im vorangegangenen dargelegten Gründen wird davon ausgegangen, dass die Anforderungen an die langzeitsicherheitsgerichteten Nachweise, soweit diese den dauerhaften Einschluss der aus den Abfällen stammenden Radionuklide betreffen, auf konzeptioneller Basis umgesetzt wurden …

             …. Die zusammenfassenden Aussagen am Ende des Kapitels 6.2.1 zum FuE-Bedarf bei den im Vorhaben VSG projektierten Verschlussprojekten und zum langfristigen Kompaktionsverhalten von Salzgrusversatz gelten hier gleichermaßen, ebenso wie die Einschränkungen zur Durchführung von Optimierungsmaßnahmen im Vorhaben VSG …“ 

            Kapitel 6.2.3 Anforderungen an Qualität, Dauerhaftigkeit und Robustheit des         Einschlussvermögens des einschlusswirksamen Gebirgsbereiches

            Fazit: S. 301

            „Zusammenfassend wird festgestellt, dass einer zukünftigen potenziellen Beeinträchtigung des Einschlussvermögens des einschlusswirksamen Gebirgsbereichs durch natürliche Ereignisse und Prozesse planerisch Rechnung getragen wird. Gegen kurzfristige Ereignisse wie Erdbeben … wurden die Verschlussbauwerke ausgelegt.  Den Auswirkungen durch Subrosion, Erosion, Diapirismus sowie Klimaveränderungen wurde durch … eine ausreichende Teufenlage der Einlagerungsbereiche begegnet …“

            Fazit: S. 312

            „… Bezogen auf die Endlagerung von wärmenentwickelnden radioaktiven Abfälle können unter den in Kapitel 6.1 angeführten Vorbehalte sowohl die projektierten Endlagersystemen als auch die hiermit verbundenen Sicherheitsaussagen als robust angesehen werden. Für das Freisetzungsverhalten gasförmiger Radionuklide gilt dies vorbehaltlich der Modell- Prozess- und Datenungewissheiten nur, wenn Behälter unterstellt werden, die über etwa 500 Jahre gasdicht sind. … Die im Vorhaben VSG entwickelten Endlagerkonzepte werden einschließlich der Rückholungskonzepte als realisierbar angesehen…“ 

            Zusammenfassung der im Anhang der Synthese genannten geowissenschaftlichen         Standortbeschreibungen. Bericht zum Arbeitspakete 13 (S. 379 – 424).

            In diesen Anhang wird die Geologie im Zusammenhang mit der zukünftigen geologischen Entwicklungsgeschichte des Endlagers genau beschrieben. Ein Inhaltsverzeichnis zu diesem Anhang ist allerdings nicht zu finden. Deshalb ist für den interessierten Leser diese Themengliederung angeführt:

            A.1 : Schichtenfolge und Lagerungsverhältnisse im Deck- und Nebengebirge: A1.1: Prä-salinarer Untergrund; A1.2: Zechstein; A1.3: Trias bis Oberkreide; A1.4: Tertiär A1.5: Quartär;

            A.2 : Hydrogeologie:  A2.1 Hydrologischer Bau des Deckgebirges; A2.2: Das Süß-/ Salzwassersystem; A2.3: Grundwasserbewegung im Süßwasserkörper; A2.4: Grundwasserbewegung im Salzwasserkörper: 

            A.3 : Geologie des Salzstocks Gorleben:  A3.1: Entwicklungsgeschichte der Salzstruktur Gorleben-Rambo; A3.2: Hutgestein des Salzstocks Gorleben; A3.3: Salzspiegel; A3.4: Subrosion; A3.5: Stratigraphie und Lithologie; A3.6: Klüfte und Störungen im Salinargestein; A3.7: Lösungsvorkommen im Salinargestein; A3.8: Kohlenwasserstoff- und Gasvorkommen im Salinargestein; A3.9: 

            A.4 : Geologische Langzeitprognose: 4.1: Ableitung der zukünftigen Rahmenentwicklung; 4.2: Wahrscheinliche zukünftige geologische Entwicklung am Standort Gorleben; 4.3: Überregionale Entwicklungen; 4.4 Kaltzeitliche Entwicklungen; 4.5: Wenig wahrscheinliche oder auszuschließende Entwicklungen des geologischen Systems am Standort Gorleben. Literaturverzeichnis.

***

Was sagte Hans Magnus Enzensberger noch vor kurzem: „Der Schlaf der Vernunft wird bis zu dem Tag anhalten, an dem die Mehrheit der Einwohner unseres Landes am eigenen Leib erfährt, was ihnen widerfahren ist. Vielleicht werden sie sich die Augen reiben und fragen, warum sie die Zeit, zu der Gegenwehr noch möglich gewesen wäre, verschlafen haben:“

Helmut Fuchs

——————————————-

Der Autor ist auch – zusammen mit Rolf Kamradek – Autor des Politthriller „Die German Angst“ 

 

Näheres zu Dr. Helmut Fuchs finden durch googeln unter „helmut.fuchs.geologe“




Was das Schlachten einer Giraffe und ein Freihandelsabkommen gemeinsam haben

von Lorenz Teufel und Hans-Dieter Radecke

„Natur, rot an Zahn und Klaue.“ Die Zeile stammt von Alfred Lord Tennyson. Er spielt hier auf die unheilbare Hoffnung des Menschen an, „dass Gott Liebe wärʼ / Und Liebe das Gesetz, auf das die Schöpfung baue.“ Unheilbar ist sie nach Tennyson, weil seine Mitmenschen trotz gegenteiliger Erfahrungen daran festhielten, selbst dann „wenn die Natur auch, rot an Zahn und Klaue / Vor Raublust, dieses Credo niederschrie.“
Der Glaube an eine gütige Mutter Natur ist gerade heute wieder allgegenwärtig und trägt nicht selten die Züge religiöser Verblendung. Nachhaltig, gerecht und innovativ ist sie. Mit sanfter ruhiger Hand hält sie alles in der Balance, sorgt in einem perfekten Gleichgewichtssystem uneigennützig für alle ihre Geschöpfe und bringt dabei einen Gleichklang aus Schönheit, Harmonie und erhabener Perfektion hervor. Werden wir mit ihren blutigen Zähnen und Klauen konfrontiert, reagieren wir mit sentimentalem Unverständnis. „Der Sentimentale“, meinte einst Oscar Wilde, „ist einer, der in allen Dingen lächerlich hohe Werte sieht und von nichts den Marktpreis kennt.“

Häufig genug geht dieses naive Naturverständnis bereits so weit, dass Naturkatastrophen gar nicht mehr der Natur selbst zugeschrieben, sondern gänzlich „der Menschheit“ angelastet werden. Lawinen sind dann nur noch die zwangsläufige Folge von Naturraubbau; Stürme, Trockenheiten, Überschwemmungen und Erdbeben sind durch unseren verantwortungslosen CO2-Ausstoß verursacht; Tsunamis werden durch geheime militärische Experimente oder ganz allgemein durch die menschliche Hybris ausgelöst. Da ist es dann nur noch ein Roth-grünes Handumdrehen, und 16 000 japanische Tsunamitote mutieren zu Opfern eines Reaktorunfalls. Niemand hat diesen Naturkitsch besser und kürzer zum Ausdruck gebracht als Herbert Grönemeyer: „Die Erde ist freundlich / Warum wir eigentlich nicht?”

Als vor einigen Wochen in einem dänischen Zoo die Giraffe Marius öffentlich geschlachtet und danach an die Raubtiere verfüttert wurde, brach ein weltweiter Sturm der Entrüstung über die Verantwortlichen herein. Meinungsstarke aber geistesschwache Online-Petitionen wurden gestartet, der Zoodirektor bedroht. Die blutige Fratze der ach so gerechten Natur wollte niemand sehen. Über 90 Prozent aller jemals existierenden Arten hat die angeblich doch so nachhaltige „Mutter Natur“ ausgerottet.

Ähnliche Empörungsstürme brechen bezeichnenderweise los, wenn die Marktwirtschaft ihre von Freiheit verzerrte Fratze erhebt. „Eigentlich“ wird die Marktwirtschaft ja von der Mehrheit aller Deutschen geliebt und geschätzt. Quer durch alle Parteien wird sie hochgelobt und anerkannt. Selbst Stalin-Verehrerin Wagenknecht bekommt feuchte Augen, wenn sie uneigennützig ihre Vollendung fordert. Allerdings ist hier die Rede von einer ganz bestimmten Art von Marktwirtschaft. Sozial, gerecht, nachhaltig, innovativ und moralisch muss sie sein, Arbeitsplätze soll sie schaffen und sichern. Und statt bloß quantitativen Besitz für den Einzelnen, muss sie qualitativen und genfreien Wohlstand für jeden erzeugen. Alles Mögliche darf sie sein, nur allzu frei, das darf sie nicht sein. Denn dann wird sie zum „Morallehrer“.

Besonders deutlich wird die Abscheu gegen diese ungeliebte Seite des Marktes angesichts des bevorstehenden Freihandelsabkommens mit den USA und der Entscheidung des EU-Ministerrates, gentechnisch veränderten Mais NICHT zu verbieten. Da geht ein Gespenst um in Deutschland – das Gespenst des rücksichtslos selektierenden freien Marktes. Ein Massensterben europäischer Filmkulturen stehe uns bevor, warnen Subventionscineasten und Kulturnationalisten. Verordnungsschützer und Regelhüter sehen unkalkulierbare Risiken für unmündige Verbraucher und unsere unbefleckte Genflora voraus, fürchten gar um die letzten Biotope staatlicher Gouvernantenwillkür. Am Ende könne selbst die Wim-Wenders-Förderungsfauna in ernste Gefahr geraten. „Ihr habt nichts zu gewinnen als Freiheit“, schallt es aus allen Subventionspalästen – „aber unser Niveau zu verlieren.“

In seiner sentimentalen Einfalt gleicht dieses Wunschbild vom sozialen Markt auf verblüffende Weise dem romantischen Zerrbild von der Natur. Auch hier finden wir die selben geistlosen Versatzstücke einer romantischen heile-heile-Gänschen-Weltsicht. So wie auf der einen Seite der maßlos konsumierende Mensch für die Katastrophen in einer eigentlich gütigen Natur verantwortlich ist, so ist es in der eigentlich perfekten Welt der sozialen Markwirtschaft die böse Kapitalistin (Bänkerin, Hedgefondsmanagerin), die die heile Welt durch ihre unmäßige Gier in ein Armenhaus verwandelt. Analysiert man es zu Ende, dann gibt es natürlich keinen Zweifel, dass die Kapitalistinnen letztendlich auch für Naturkatastrophen und Artensterben verantwortlich sind. Wer sonst?

Als Charles Darwin vor mehr als 150 Jahren über seiner Evolutionstheorie brütete, sah er sich einem Problem gegenüber. Seine Theorie der natürlichen Selektion basierte auf einem radikalen Individualismus. Nach seiner Ansicht wirkte die Selektion nämlich nicht zum Wohl von Arten, sondern ausschließlich zum Wohl von Individuen und ihres Fortpflanzungserfolges. Damit stand sie im krassen Gegensatz zu den gottgefälligen Ideen seiner Zeitgenossen über eine gütige Schöpfung, die sich liebevoll um jede Spezies sorgt und kümmert. Wenn es aber so war, wie Darwin glaubte, wie konnte dann ein nur auf das Wohl des Einzelnen gerichteter Mechanismus zu so komplexen sozialen Strukturen und artübergreifenden Beziehungen führen, wie er sie überall in der Natur vorfand?

Die Lösung seines Problems fand er unter anderem in Adam Smiths Wirtschaftstheorie des „laissez-faire“. Durch geniale Ideenübertragung gelang es Darwin, die Perfektion und Stabilität der Naturprozesse aus seiner rein individualistischen Selektionstheorie heraus plausibel zu machen. Für den schottischen Philosophen Smith war klar, dass der Wettbewerb von Unternehmen (Arten), von denen jedes die Freiheit besitzt, nach dem eigenen Nutzen (Fortpflanzung) zu streben, dazu führen würde, dass weniger fähige Konkurrenten vom Markt gedrängt würden. Zwischen den jeweils Erfolgreichsten könnte sich ein Gleichgewicht bilden, wodurch eine geordnetes Wirtschafts- (Öko)system entstünde. Smith drückte es so aus: „Jeder glaubt nur sein eigenes Interesse zu verfolgen, tatsächlich erfährt so aber indirekt auch das Gesamtwohl der Volkswirtschaft die beste Förderung. Der einzelne wird hierbei von einer unsichtbaren Hand geleitet, um ein Ziel zu verfolgen, das er keineswegs intendiert hat.“

Heute werden weder Darwins Selektionstheorie noch Adams Wirtschaftstheorie von Wissenschaftlern als uneingeschränkt richtig erachtet. Beide Theorien haben Erweiterungen und Veränderungen (Populationsgenetik, Spieltheorie etc.) erfahren. Vielen von uns ist auch klar, dass „Natur“ und „Markt“ nur abstrakte Begriffshülsen sind, deren Inhalt und Bedeutung ganz wesentlich von den jeweils favorisierten menschlichen Norm- und Wertesystemen abhängen. Wer in der „Natur“ nur einen unschuldigen Hort des Heils sieht, den man mit allen Mitteln vor dem Zugriff des gierigen Menschen schützen muss, projiziert damit seine eigenen Wert- und Wahnvorstellungen ebenso nach außen, wie derjenige, der in ihr nur die Blaupause für seinen perversen Kampf gegen alles „Schwache“ und „Unvollkommene“ sieht.

Ein objektives Ding namens „Natur“ mit klar definierten Grenzen und Eigenschaften gibt es ebenso wenig, wie es „den Markt“ gibt. „Dem Markt“ vorzuwerfen, er bringe aus sich heraus keine Moral hervor und sei deshalb auf äußere Moralquellen angewiesen, ist deshalb in etwa so sinnvoll, wie „der Mathematik“ oder „der Zeit“ vorzuwerfen, sie seien lieblos. Selbstverständlich produzieren Drogen- oder Gemüsemärkte keine Moral, das tun aber Religionen, Ideologien oder Gebote auch nicht. Die einzige Moralquelle, die wir kennen, ist der Mensch, der seine Moralvorstellungen auf abstrakte Entitäten wie Götter oder Gebote projiziert. „Der Markt“ ist eine Abstraktion, er ist so gut oder schlecht oder frei, wie die Menschen, die ihn durch Regeln und Handlungen konstituieren.

Die Bilder und Vorstellungen, die wir uns vom Markt oder der Natur machen, sagen uns damit etwas über unsere Ideologien und Wertesysteme. Wer in der Natur nur ein armes und wehrloses Opfer des Menschen sieht, für den ist es ein Leichtes, daraus das Recht abzuleiten, soweit in das Leben eines jeden einzelnen Menschen einzugreifen, bis ihm jede Möglichkeit genommen ist, „die Natur“ zu schädigen. Und wer im „Kapitalismus“ nur ein ungerechtes amoralisches Raubtier mit blutigen Klauen sieht, für den ist es eine selbstverständliche Pflicht, „den Markt“ soweit in Fesseln zu legen, bis er nur noch Gleichheitsmoral nach Plan produziert und jedem Menschen die Freiheit genommen ist, „ungerechten“ Reichtum anzuhäufen.

Wer wie Jürgen Habermas „den Kapitalismus“ zähmen will, der muss sich darüber klar sein, dass es hier nicht darum geht, ein abstraktes Etwas zu bändigen. Hier geht es schlicht darum, Menschen durch staatliche Gewalt zu zähmen, sie am Handeln zu hindern und ihre Freiheit einzuschränken. Denn „der Kapitalismus“ stellt die Freiheit des Individuums ins Zentrum aller wirtschaftlichen Aktivitäten – und damit die Quintessenz der Aufklärung. „Der Markt“ mag ein abstraktes Konstrukt sein, aber seine konkreten Regeln betreffen uns alle real. Jede Regulierung des freien Austausches von Waren und Dienstleistungen ist ein konkreter Eingriff in unser Leben. Und dabei spielt es nur eine untergeordnete Rolle, ob wir Anbieter oder Kunden sind, denn die meisten von uns sind beides. Wir kaufen Waren und Dienstleistungen und bieten unsere Talente und Arbeitszeit an. Das bedeutet nun nicht, dass „der Markt“ keine Regeln braucht, ganz im Gegenteil, ein Markt braucht Regeln, sonst ist er kein Markt, und „ungeregelter Kapitalismus“ ist ein Widerspruch in sich. Doch diese Regeln sollten den freien Austausch von Waren und Dienstleistungen sichern und ihn nicht durch staatliche Gewalt in ideologische Bahnen zwingen oder gar unmöglich machen. Moralische Marktfeindlichkeit mit dem Ziel der Schaffung einer „gerechten“ Gesellschaft führt überall hin, nur nicht zu einer „humaneren“ Welt.

Nach einer Emnid Umfrage fordern 83 Prozent aller Deutschen, dass sich die Bundeskanzlerin für noch strengere Klimaschutzziele einsetzen soll. DREIUNDACHZIG Prozent aller Deutschen wünschen sich also, der Staat solle sich noch mehr als er das ohnehin schon tut, in das Leben eines jeden Bürgers einmischen, um „das Klima“ zu retten, das nach fast übereinstimmender Meinung vom Menschen bedroht wird. Das Ganze trägt Züge eines religiösen Wahns. Im sogenannten Klimaschutz“ gehen die beiden beschriebenen Ideologien von „Markt“ und „Natur“ eine fast perfekte Symbiose ein. Wer glaubt, hier gehe es nur um die Verschärfung einiger Grenzwerte, der irrt sich gewaltig. Hier nimmt sich der Staat das Recht heraus, seinen Bürgern vorzuschreiben, was sie kaufen, was sie produzieren und was sie verkaufen müssen. Der grüne Umweltsenator in Bremen plant gar das Grundrecht auf die Unverletzlichkeit der Wohnung „einzuschränken“, damit „Blockwarte“ ohne Gerichtsbeschluss überprüfen können, ob jemand mit Strom heizt. Um es klar zu sagen, wer so etwas tut, missbraucht das staatliche Gewaltmonopol und tritt die Freiheit seiner Bürger mit Füßen.

Hier wird Adams „unsichtbare Hand“ durch Ideologie ersetzt. „Der Markt“ soll durch Zwang in eine bestimmte Richtung gelenkt werden, um festgelegte Vorgaben (für Elektroautos, Ökostrom, CO2-Ausstoß, Frauen und Löhne) zu erreichen. Kennzeichen eines freien Marktes hingegen ist es, dass jeder Akteur in Freiheit und eigener Verantwortung seine jeweiligen Interessen verfolgen kann. Das führt dann dazu, dass Marktentwicklungen zwar nicht vorhersehbar sind, aber durch das Wirken der Freiheit auf vielfache Weise das Gemeinwohl fördern. Erfolgreiche freie Unternehmer zeichnet es nämlich aus, dass sie etwas anbieten, was die Kunden wirklich haben wollen. Nur wer sich Gedanken darüber macht, was seine Mitmenschen brauchen, sich wünschen oder in Zukunft für ihr Glück und Wohlbefinden benötigen werden, wird am freien Markt erfolgreich sein. Denn im Gegensatz zur Staatsgewalt hat keine „Kapitalistin“ die Macht, ihre Kunden zum Kauf bestimmter Produkte (oder TV-Programme) zu zwingen. Sie muss den Kunden durch Qualität und Preis für sich gewinnen. Henry Ford, George Westinghouse und Walt Disney waren nicht erfolgreich, weil sie selbstlos zu Planerfüllungsgehilfen und Subventionsschmarotzern degenerierten, sondern weil sie aus Eigeninteresse ihren Mitmenschen gute und preiswerte Offerten machten. Mut zur Innovation, Kreativität und Risikobereitschaft sind die entscheidenden Merkmale eines produktiven Marktes – nicht Gesetze, die dem Bürger bestimmte Quoten, Produkte und Dienstleistungen aufzwingen.

Doch mit rationalen Argumenten und Erfahrungswerten ist hier, wie bei fast jeder religiösen Gemeinschaft, wenig bis nichts auszurichten. Wer davon überzeugt ist, uneigennützig und selbstlos zum Wohl der Menschheit und der Schöpfung zu handeln, dem ist mit Vernunft nicht beizukommen. So wie sich die Ideologen der sozialen Planwirtschaft nicht durch die Tatsache kurieren lassen, dass sämtliche derartigen Versuche zum Leid von Millionen Menschen jämmerlich gescheitert sind – jüngstes Beispiel ist Venezuela, wo eines der ölreichsten Länder in einem Sumpf aus Verbrechen und Korruption versinkt – so lassen sich die sogenannten Natur- und Klimaschützer weder durch das menschliche Leid, das durch die Palmölproduktion verursacht wird, noch durch die Tatsache zum nachdenken bringen, dass im eigennützigen freien Markt der USA Energiepreise und CO2-Ausstoß sinken, während sie in unserer selbstlosen Planwirtschaft munter steigen.

Selbstlos und uneigennützig fordert deshalb Wim Wenders, seine Subventionen nicht durch ein Freihandelsabkommen zu gefährden; selbstlos und uneigennützig verschandeln deshalb Wind- und Solarfirmen ganze Landstriche, ehe sie in Insolvenz gehen; selbstlos und uneigennützig muss die Kanzlerin deshalb um das diabolische amerikanische Frackinggas betteln. Wir jedoch, „wir sind nicht bereit, von irgendjemandem anzunehmen, dass es ihm an Selbstsucht mangelt.“ (Adam Smith) Und dennoch vertrauen wir darauf, dass der Mensch vernünftig ist, und Freiheit das Gesetz, auf das der Fortschritt baut, selbst dann, wenn der Gutmensch auch, rot an Faust und Fahne, vor Dummheit dieses Credo niederschreit.

Die Autoren sind Physiker und haben gemeinsam das Buch “Was zu zweifeln war. Die Lüge von der objektiven Wissenschaft” verfasst.

Zuerst veröffentlich auf ACHGUT hier 




Mao lebt: Der große EE-Sprung nach vorn! Oder Spastik – die tödliche Erbkrankheit des EE-Stroms

An den „Großen Sprung nach vorn“ erinnert man sich in China noch heute mit Grauen. Es war der untaugliche Versuch fanatischer Ideologen, eine bäuerliche Nation innerhalb kürzester Zeit zu einer Industriegesellschaft umzukrempeln, mit „Volkshochöfen“ in den Dörfern sowie anderen technisch wie wirtschaftlich unsinnigen Maßnahmen. Den Ideologen, die dies durchzuziehen versuchten, war völlig egal, dass ein fast reines Agrarland mit einer mittelalterlich anmutenden Bauernkultur weder die technischen und logistischen noch die kulturellen Voraussetzungen hierfür bieten konnte. Das Resultat waren willkürliche Zwangsmaßnahmen, Missernten und unsägliches Elend. Letztlich endete alles in einer Katastrophe, die dem Land schwer schadete. China brauchte Jahre, um sich von diesem grausam missglückten Experiment zu erholen.

Ohne Speicherung keine Energiewende…

Die heute in Deutschland bei der Stromversorgung betriebene Energiepolitik erinnert in fataler Weise an diesen „Großen Sprung“, weil auch in diesem Fall aus ideologischen Gründen mit Macht ein lebenswichtiges System komplett umgekrempelt werden soll, ohne dass die grundlegenden Voraussetzungen für seine „Runderneuerung“ gegeben sind. Man will 80 % eines bestens funktionierenden Stromversorgungssystems (Bild 1) ersetzen, obwohl wesentliche technische Voraussetzungen hierfür nicht verfügbar sind.

 

Bild 1: Deutschland verfügte bisher über eines der weltweit stabilsten Stromversorgungssysteme

In erster Linie ist hier das Speicherproblem zu nennen. Unsere Stromversorgung wurde bisher von „klassischen“ Kraftwerken sichergestellt: Kohlekraftwerke, Kernkraftwerke, Gaskraftwerke und in geringerem Umfang auch Wasserkraftwerke. Alle diese Kraftwerkstypen sind dafür ausgelegt, den Strom zu exakt dem Zeitpunkt und in genau der Menge zu erzeugen, wie er benötigt wird. Im Gegensatz dazu liefern Windenergieanlagen und Solarpaneele ihren Strom nicht dann, wenn er gebraucht wird, sondern dann, wenn die Wetterlage es zulässt. Um Industrie und Bürger dennoch bedarfsgerecht mit Strom versorgen zu können, müsste man über große Speicher verfügen, in denen man den wetterbedingten Überschuss speichern könnte, um ihn bei Bedarf dann abrufen zu können.

 

Bild 2: Stromspeicherung mit Batterien bereitet schon im Kleinstmaßstab Probleme: Solargartenleuchten sind Schönwetter-Sommerkinder, im Winter sterben die Batterien

und das Speicherproblem ist unlösbar

Die zu speichernden Strommengen sind enorm, der künftige Bedarf dürfte eine Größenordnung von 1,5 bis 2 TWh für jeden Tag erreichen, an dem die „Erneuerbaren“ nicht liefern. Im Vergleich dazu beträgt die gesamte Pumpspeicherkapazität Deutschlands gerade einmal 0,04 TWh [DRRA]. Hinzu kommt, dass gerade im Winter, wenn die Solarproduktion über Monate hinweg nahezu bedeutungslos ist, manchmal wochenlange Flauten aufgrund der sogenannten Sibirienhochs auftreten. Wenn dann in Deutschland die Lichter nicht ausgehen sollen, müssten Speicher mit entsprechend hohen Kapazitäten einspringen. Es gibt jedoch zurzeit kein Speichersystem (Bild 2), das imstande wäre, diese Anforderungen zu erfüllen. Der Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung stellte im Zusammenhang mit der Energiewende bereits 2013 fest: „Vor etwas mehr als zwei Jahren wurde von der Regierungskoalition aus CDU/CSU und FDP die beschleunigte Energiewende ausgerufen. Dieses Großprojekt wird derzeit ohne ein schlüssiges Gesamtkonzept verfolgt“ [WIGU].

Auch Deutschlands Nachbarn können da nicht aushelfen. Die Kapazität der in ganz Europa vorhandenen Pumpspeicherwerke reicht nicht einmal ansatzweise für den künftig erforderlich werdenden Bedarf aus, und andere ins Feld geführte Alternativen wie Batterien, Druckluftspeicher, Wasserstoffproduktion oder die Erzeugung von Methan („Power-to-Gas“) haben so schlechte Wirkungsgrade bzw. so enorme Kosten, dass sie als Alternativen definitiv ausscheiden [DRRA]. Dies liegt an physikalischen Gesetzmäßigkeiten und kann auch durch noch soviel Forschung nicht behoben werden. Die häufig zu hörende Behauptung, man könne doch für die Zukunft entsprechende Entdeckungen nicht ausschließen, kommt meist von technischen Laien, während Naturwissenschaftler solche Aussagen in der Regel zusammen mit Laserschwert, Zeitsprüngen und Reisen in ferne Galaxien der Kategorie „Science Fiction/ Fantasy“ zurechnen.

 

Bild 3: Norwegens Bevölkerung zeigt bislang wenig Neigung, sich ihre wunderschönen Fjorde mit Staumauern zumörteln zu lassen

Konventionelle Kraftwerke bleiben unverzichtbar…

Da der zufallsbedingt auftretende Überschuss von Strom aus Wind- und Solarenergieanlagen nicht sinnvoll genutzt werden kann, müssen konventionelle Kraftwerke ständig in Bereitschaft gehalten werden, um die Netzversorgung trotz der schwankenden EE-Einspeisung stabil zu halten. Da zurzeit bereits rund 32000 MW Windkapazität und 35000 MW Solarkapazität am Netz sind, übersteigt ihr kumulierter Output an manchen Tagen bereits 40000 MW, während zu anderen Zeiten nur wenige 100 MW geliefert werden. Aufgrund des gesetzlichen Einspeisevorrangs der „Erneuerbaren“ müssen die konventionellen Kraftwerke die jeweilige Differenz zum Verbrauch in Höhe von bis zu 70000 – 80000 MW ausgleichen. Im Jahresdurchschnitt sichern diese konventionellen Kraftwerke zurzeit rund 75 % des Bedarfs. Doch aufgrund ihrer Funktionsweise haben sie damit bereits jetzt zunehmend Probleme, die mit dem fortschreitenden Ausbau der „Erneuerbaren“ ständig weiter zunehmen. Für ihren Einsatz sind nämlich technisch bedingte Grenzen zu beachten. Kohlekraftwerke kann man nicht einfach so wie ein Auto durch eine Umdrehung des Zündschlüssels starten und danach gleich Vollgas geben. Für einen Kaltstart brauchen sie etliche Stunden bis Tage. Je mehr sie durch den Ausbau von Wind- und Solarkraftwerken an den Rand gedrängt werden, desto geringer wird deshalb auch ihre Möglichkeit, im Notfall schnell einzuspringen. Und ein Ausweichen auf reine Gasturbinenkraftwerke wäre aufgrund des schlechten Wirkungsgrads sowie des teuren Brennstoffs Erdgas nicht vertretbar. Erschwerend kommen die aktuellen Unwägbarkeiten bezüglich der Versorgungsmöglichkeiten mit Erdgas hinzu.

 

Bild 4: Konventionelle Kraftwerke – hier das Kraftwerk Gersteinwerk – liefern Strom dann, wenn er auch wirklich gebraucht wird (Foto: kohlekraftwerke.de)

und werden überfordert

Wie bereits erwähnt, lassen sich große Kraftwerke nicht so ohne weiteres einschalten und hochfahren. Das gilt insbesondere für Kohlekraftwerke mit ihren riesigen Dampfkesseln, deren Gesamtmasse oft 10000 Tonnen übersteigt. Für einen völligen Kaltstart brauchen große Kohlekraftwerke mindestens einen Tag, manchmal sogar noch länger. Selbst aus einem sogenannten „hot Standby“ heraus, d.h. mit bereits angewärmtem Kessel und auf Sparflamme laufender Feuerung, benötigen sie je nach Größe und Bauart rund 40 Minuten, bevor sie überhaupt nennenswerte Mengen Strom erzeugen können, und bis zum Erreichen der Nennleistung kann es mehr als zwei Stunden dauern, Bild 5. Auch die vielgelobten Gas- und Dampfkraftwerke (GuD) sind keine wirklichen Sprinter und brauchen mindestens 10-15 Minuten Anlaufzeit, und bis zum Erreichen ihrer vollen Leistung vergeht zwischen einer halben und einer vollen Stunde. Lediglich reine Gasturbinen sind imstande, innerhalb von ca. 5 Minuten auf volle Leistung zu kommen.

Bild 5: Anfahrverhalten konventioneller Kraftwerke (GT=Gasturbine, GuD=Gas und Dampf-Kombikraftwerk) (Grafik: [VDE])

Hinzu kommt, dass sich alle diese Kraftwerke nicht beliebig über den ganzen Leistungsbereich betreiben lassen. Unterhalb einer gewissen Mindestauslastung ist ihr Betrieb aus einer Reihe von Gründen nicht vertretbar, Bild 6. Hierzu zählen Verschlechterungen der Emissionswerte bzw. geringere Effektivität der DENOX-Katalysatoren, die Unterschreitung der Taupunkttemperatur im Rauchgas, was zu Korrosion führen könnte, sowie diverse weitere, nur dem Fachmann bekannte Faktoren. Die direkte Folge dieser Beschränkungen bedeutet, dass man größere Schwankungen der Stromerzeugung aus Wind und Sonne nur dann ausgleichen kann, wenn ausreichende Kapazitäten an konventionellen Kraftwerken mit einem Mindestmaß an Auslastung aktiv betrieben werden. In dem Moment, wo diese Kraftwerke aufgrund der Priorität für EE-Strom vom Netz genommen werden müssen, verlieren sie ihre Fähigkeit, bei Leistungsschwankungen von Wind oder Sonne schnell einzugreifen. Dann wird das Netz instabil.

Bild 6: Mindestauslastungsgrad konventioneller Kraftwerke in % der Nennlast (Grafik: [VDE])

Was bringt die Zukunft?

Angesichts dieses Widerspruchs stellt sich die Frage, wie dieses Nebeneinander von „erneuerbarer“ und konventioneller Stromerzeugung mit zunehmendem Ausbau der Wind- und Solarkapazitäten in Zukunft entwickeln wird. Grundlage für eine solche Betrachtung ist im vorliegenden Fall eine Projektion der voraussichtlichen Erzeugung aus Wind- und Solarkraftwerken in den Jahren 2025 (min 40 % EE-Anteil laut aktueller Planung der Bundesregierung) und 2050 (80 %). Um die Betrachtung realistisch zu gestalten, wurde die reale Produktion beider EE-Quellen für den Monat Dezember 2013 zugrunde gelegt. Hieraus wurde zunächst der Gradient, d.h. die Geschwindigkeit, mit der sich die Erzeugung ändert, berechnet, Bild 7. Diese Werte wurden entsprechend der gestiegenen Anteile für 2025 bzw. 2050 für jeweils einen fiktiven Dezember 2025 bzw. 2050 hochgerechnet.

Bild 7: Gradient der Erzeugung von Wind- und Solarstrom im Dezember 2013 bei viertelstündlicher Auflösung in MW/ h (Daten: EEX)

Die zugrundeliegenden Annahmen für die Gesamtproduktion sowie die Anteile einzelner Kraftwerksarten wurden bereits in einer früheren Veröffentlichung dargelegt [FRED]. Hieraus ergeben sich folgende Zahlen zur Produktion aus Windenergie und Fotovoltaik:

Jahr 2025:                                                                   TWh

Wind Onshore (erforderl. Kapazität 86660 MW, Nutzungsgrad 17,4 %)    132,1

Wind Offshore (erforderl. Kapazität 6500 MW, Nutzungsgrad 34,8 %)      19,9

Solar (erforderl. Kapazität 52000 MW, Nutzungsgrad 8,3 %)   37,8

Jahr 2050:                                                 TWh

Wind Onshore (erforderl. Kapazität 272500 MW, Nutzungsgrad 17,4 %)  415,4

Wind Offshore (erforderl. Kapazität 27500 MW, Nutzungsgrad 34,8 %)    83,8

Solar (erforderl. Kapazität 52000 MW, Nutzungsgrad 8,3 %)                    37,8

Gradienten des Wind- und Solarstroms im Dezember 2025

Mit den aus obigen Annahmen errechneten Faktoren wurden dann die realen Verläufe der Wind- und Solarstromproduktion unseres Beispielmonats Dezember 2013 für einen fiktiven Dezember 2025 hochgerechnet. Die entsprechende Kurve zeigt Bild 8. Der wilde Zickzackverlauf zeigt, in welchem Ausmaß die Stromerzeugung aus diesen „erneuerbaren“ Quellen erratisch nach oben wie auch nach unten schwankt, weshalb sich hierfür zunehmend auch der Begriff „Zappelstrom“ durchzusetzen beginnt. Die Extremwerte liegen für unseren Mustermonat Dezember 2025 bei +5643 bzw. -2970 MW. Dies bedeutet eine Differenz von 8600 MW, die permanent von konventionellen Kraftwerken ausgeglichen werden muss. Für diesen Fall kann man auch ausrechnen, welche konventionelle Mindest-Kraftwerksleistung allein zu diesem Zweck ständig am Netz gehalten werden muss. Für diese Abschätzung wurde angenommen, dass im Jahre 2025 alle Kernkraftwerke stillstehen und deren Anteile zu 2/3 von Braunkohlekraftwerken und zu 1/3 von Steinkohlekraftwerken übernommen wurden. Der konventionelle Brennstoffmix würde sich bei dieser Annahme aus 49,5 % Braunkohle, 34,4 % Steinkohle, 14,7 % Gas und 1,4 % Öl zusammensetzen. Ausgehend von diesen Annahmen lässt sich errechnen, dass unter optimalen Bedingungen mindestens 14000 MW konventioneller Kraftwerkskapazität mit einem durchschnittlichen Nutzungsgrad von rund 60 % allein schon deshalb in Produktion sein müssen, um die zu erwartenden Lastschwankungen des EE-Stroms sowohl nach unten als auch nach oben abfangen zu können. Das Problem dürfte sein, noch europäische Nachbarn zu finden, denen man den überschüssigen EE-Strom bei Starkwind und blauem Himmel ins Netz drücken könnte.

Bild 8: Verlauf des Gradienten der Erzeugung von EE-Strom aus Sonne und Wind für einen fiktiven Monat Dezember 2025

und im Jahr 2050

Noch dramatischer stellt sich die Lage dar, wenn man die gleichen Berechnungen für das Jahr 2050 mit einem angenommenen EE-Stromanteil von 80 % anstellt. Die entsprechenden Gradienten des Stroms aus Wind und Fotovoltaik zeigt Bild 9. Sie schwanken in der Spitze zwischen +17180 MW und -10240 MW, mithin eine Gesamtspanne von 27400 MW, für deren Ausgleich konventionelle Kraftwerke ununterbrochen unter Dampf stehen müssen. Analog zur oben aufgeführten Betrachtung für das Jahr 2025 ergibt sich daraus eine Reserve-Gesamtkapazität von stolzen 42000 MW, die aufgrund des erforderlichen durchschnittlichen Nutzungsgrades von rund 60 % im Schnitt 25200 MW elektrischer Leistung abgeben. Wo man diesen Strom zusammen mit der bei guten Wetterlagen zu erwartenden Flut an EE-Strom unterbringen möchte, mögen die Götter wissen, die Technik hat darauf keine Antwort.

Bild 9: Die Gradienten des Stroms aus Wind und Fotovoltaik für einen fiktiven Dezember 2050 schwanken zwischen 17180 MW und -10240 MW

Dass dieses „Gezappel“ für EE-Strom nicht nur bei der gewählten Darstellungsweise über einen vollen Monat, sondern auch bei geringerer zeitlicher Auflösung typisch ist, zeigt die Darstellung in Bild 10, das den Verlauf des EE-Gradienten für einen 24-Stunden-Zeitraum am fiktiven 23. Dezember 2050 darstellt. Hier ist zu erkennen, wie der Gradient vor allem gegen 22.00 Uhr in kürzester Zeit wild zwischen -8000 MW und +17000 MW hin- und herpendelt. Eine Vorstellung, die bei jedem Fachmann der Stromerzeugung Alpträume hervorrufen dürfte.

Bild10: Verlauf des Gradienten der Stromerzeugung aus Wind- und Solarkraftwerken am fiktiven 23.12.2050

Fred F. Mueller

Quellen:

[DRRA] http://www.eike-klima-energie.eu/energie-anzeige/die-im-dunkeln-sieht-man-nicht-regelenergie-die-versteckten-zusatzkosten-des-eeg/

[EEX] http://www.transparency.eex.com/en/

[FRED] http://www.eike-klima-energie.eu/climategate-anzeige/die-im-dunkeln-sieht-man-nicht-regelenergie-die-versteckten-zusatzkosten-des-eeg/

[VDE] Brauner, Glaunsinger, John, Schwing, & Bofinger, Magin, Pyc, Schüler, Schulz, Seydel, Steinke. VDE-Studie: Erneuerbare Energie braucht flexible Kraftwerke – Szenarien bis 2020. 18.04.2012

[WIGU] Gegen eine rückwärtsgewandte Wirtschaftspolitik Jahresgutachten 2013/14 Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung Statistisches Bundesamt 65180 Wiesbaden November 2013




Energiewende wirkt – Eingeständnis Gabriel:“Für die meisten anderen Länder in Europa sind wir sowieso Bekloppte.”

Erkenntnis Gabriel am 17.4.14 in Kassel:

“Für die meisten anderen Länder in Europa sind wir sowieso Bekloppte.”

Mit dieser ebenso bemerkenswerten, wie richtigen Aussage zur Energiewende machte sich Bundeswirtschaftsminister Siegmar Gabriel bei seinem Auftritt in der Kasseler Solar Firma SMA Solar sicherlich keine Freunde. Nach Aussagen des Teilnehmers  Rainer Hahne in „lokalo 24 Nachrichten“, fiel dieser Satz, aber es fielen noch andere, ebenso richtige Sätze, die wir hier als wörtliche Zitate aus seiner Rede vom 17.4.14 in Kassel wiedergeben[1]: „Die Energiewende steht kurz vor dem Aus“

Update: Siegmar Gabriel feiert bei einem Vortrag am 5. März 2012 die „gesamten Erneuerbaren“ als deutsche Erfolgsgeschichte die mehr als „350.000 neue Jobs mit Zukunft“ „geschaffen“ hätte…mit Dank an Spürnase Reiner Hoffmann Solarkritiker der ersten Stunde jetzt im Exil. 

…..und weiter in seinem Vortrag sagte Gabriel:

“Die Wahrheit ist, dass die Energiewende kurz vor dem Scheitern steht.”

“Die Wahrheit ist, dass wir auf allen Feldern die Komplexität der Energiewende unterschätzt haben.”

Den anwesenden Verantwortlichen der hessischen Photovoltaik-Firma SMA Solar und allen sonstigen EEG Gewinnlern fiel fast die Kinnlade  herunter, als sie dieses sehr späte, dafür unverblümtere Eingeständnis vernahmen.

Hier ein paar Ausschnitte aus der Hessenschau vom 17.4.14 – mit einigen aber kaum den wesentlichen Zitaten aus der denkwürdigen Rede des Bundeswirtschaftsministers. Mit Dank an Spürnase den Solarkritiker im Exil R. Hoffmann

Auch im nordhessischen lokalen Sender von SAT 1 werden diese Teile seiner Rede gebracht. Anschauen lohnt.

Der streitbare Diskutant im Sat1 Film in welchem über diese Tagung berichtet wird, der mit Gabriel über den Kohlepfennig diskutiert, heißt übrigens Stefan Grüger und  ist im Vorstand des Solarlobby Verein „Eurosolar Deutschland“. Er ist ein ehemaliger Spezi des verstorbenen Gründers von „Eurosolar“, des SPD Bundestagsabgeordneten Hermann Scheer, der es fast zum hessischen Wirtschaftsminister gebracht hätte. Grüger hat es jetzt über die Landesliste der SPD in den hessischen Landtag geschafft. Dort wird er weiter im Sinne seiner Lobby wirken. Zu diesem Lobbyverein gehört oder gehörte übrigens auch die heutige Grünenvorsitzende Simone Peter.

Zu dieser ministeriellen Bankrotterklärung passt es, dass nun auch die Verbraucherzentrale für Kapitalanleger die Deutsche Bank vor weiteren Windkraftengagements warnt.

In einer Presserklärung heißt es dort:

Berlin. 30.03.2014 – Die Verbraucherzentrale für Kapitalanleger (VzfK) hat heute in einem offenen Brief an Jürgen Fitschen, den Vorstandssprecher der Deutsche Bank AG, vor Engagements im Bereich der Erneuerbaren Energien gewarnt. Insbesondere bat die VzfK um eine kritische Überprüfung der Kundenbeziehung zum kontroversen Projektentwickler juwi AG aus dem pfälzischen Wörrstadt.

Die VzfK argumentiert, dass nach den spektakulären Insolvenzen von Prokon, Windwärts, Windreich, Solar Millennium AG und vielen anderen dubiosen Renewable-Unternehmen weitere Schädigungen von Kapitalanlegern, aber auch Aktionären von Kreditinstituten, angesichts krasser Missstände im Bereich Renewables zu erwarten seien. Die VzfK bittet den Deutsche Bank-Vorstand daher, durch geeignete Portfoliomaßnahmen und Kreditentscheidungen sicherzustellen, dass der Schaden für die Deutsche Bank AG, ihre Aktionäre und Kunden minimiert wird. Insbesondere bittet man um eine kritische Prüfung des Kreditengagements bei der aufgrund eines Korruptionsskandales in Thüringen sowie umstrittener Windkraftprojekte insbesondere im Naturpark Hochtaunus in die Kritik geratenen Projektentwicklers juwi AG.

Unter Verweis auf den Sachverständigenrat der Bundesregierung geht die VzfK davon aus, dass das EEG-System kollabieren müsse und dass volkswirtschaftliche Verluste in mindestens dreistelliger Milliardenhöhe zu erwarten seien. Bereits heute ächzten Verbraucher und die deutsche Industrie unter einer im europäischen und internationalen Vergleich aberwitzig hohen Kostenbelastung…

Für uns und unsere Leser stellt sich damit umso dringender die Frage, wann endlich die Regierung Merkel mit ihrem hyperaktiven Bundeswirtschaftsminister und Vizekanzler Gabriel nun die Wende von der Energiewende einleitet, nachdem die Erkenntnis ihrer praktischen Undurchführbarkeit offensichtlich nun auch die höchste Regierungsmitglieder erhellt hat.

Dort beginnt man wohl einzusehen, dass man zwar Politik gegen jede Vernunft, auch gegen die eigenen Landsleute machen kann, aber  niemals gegen geltende Naturgesetze, seien es physikalische oder ökonomische.

Oder wird diese dringend notwendige Wende von der Wende deshalb solange hinausgezögert, bis keine Bestrafung durch den Wähler – dank seiner Vergesslichkeit- oder durch entsprechende Wirtschaftsstrafkammern wegen vorsätzlichem Wuchers wg, Verjährung, zu erwarten ist?

Wir vermuten, dass es auch deshalb solange dauert, weil keiner der derzeit Verantwortlichen in Bund und Ländern in diesem Zusammenhang eine weiße Weste hat. Denn niemand von denen kann sagen: Wir wussten es nicht besser! Sie alle, von ganz wenigen -namentlich bekannten- Ausnahmen abgesehen, haben zusammen mit ihren Parteifreunden in Bund- und Länderparlamenten, inklusive der „Opposition“, fröhlich lachend, diesem verwerflichen und schädlichen Gesetzeswerken zugestimmt. Sie haben damit keine Möglichkeit gesichtswahrend herauszukommen.  Es müssen wohl neue Gesichter her, die diesen Albtraum für unser Land beenden könnten.

Ergänzung: Auf Klimaretter.info finden wir diesen passenden Grabgesang:

Nächster Solarpionier pleite

Das hessische Solarpionier-Unternehmen Wagner & Co. Solartechnik GmbH ist insolvent. Die hessische Firma hatte sich auf Solarstrom und -wärme spezialisiert und Solarthermie-Kollektoren hergestellt. 1979 von acht Studenten und Mitgliedern der Anti-Atom-Bewegung gegründet, hatte Wagner in seinen besten Zeiten 400 Mitarbeiter.


[1] http://www.1730live.de/sigmar-gabriel-nimmt-in-kassel-stellung-zur-energiewende/ Hier sind nur wenige Ausschnitte zu hören, aber die haben es auch in sich.




Strahlenschutzkommission will Sicherheitszonen um KKW erweitern – und fördert so nur die Strahlenangst der Deutschen

Was sagt die Strahlenschutzkommission?

Es wurden Rechnungen mit Freisetzungen von 3,1*1017Bq Jod-131 und 2,9*1016Bq Cs-137 gemacht, das sind etwa doppelt so große Werte als wie sie von Japan berichtet worden sind. Als berechnete Häufigkeit des Ereignisses wird mit 2,1*10-7 pro Jahr angegeben, das bedeutet, daß einmal in 5 Millionen Jahren mit dieser Freisetzung zu rechnen ist. Die Rechnungen wurden für die Wetterverhältnisse der Kernkraftwerke Unterweser, Grohnde und Philippsburg durchgeführt. Das Kriterium zur Evakuierung war 100mSv innerhalb von 7 Tagen bei angenommenem ungeschütztem Daueraufenthalt im Freien. Es wurde berechnet, bis zu welcher Entfernung vom KKW mit schwerwiegenden deterministischen Effekten zu rechnen ist, wenn bestimmte Schwellendosen überschritten werden. Bei den Schwellendosen handelt es sich um Werte, die bei 99% der exponierten Personen noch KEINE Effekte hervorrufen.

Die SSK kommt zu der Empfehlung, die Planungsgebiete rund um ein KKW für den Fall der schlimmsten Katastrophe (GAU, INES 7) zu erweitern, und zwar

·       die „Zentralzone“ mit den vorgesehenen Maßnahmen „Evakuierung“, „Einnahme von Jodtabletten“ und „Aufenthalt in Gebäuden“ von 2km auf ca. 5km. Die Maßnahmen sind vor einer absehbaren Freisetzung von Nukliden durchzuführen, eine Evakuierung soll nach 6 Stunden abgeschlossen sein.

·       die „Mittelzone“ soll auf 20km Entfernung ausgedehnt werden. Die Maßnahmen sind identisch mit denen der Zentralzone, jedoch bleibt zur Durchführung der Evakuierung 24 Stunden Zeit.

·       Die „Außenzone“ reicht bis 100km Entfernung. Dort sollen die Maßnahmen „Aufenthalt in Gebäuden“, Verteilung von Jodtabletten und Warnung vor dem Verzehr frischer Lebensmittel vorbereitet werden.

Was ist dazu zu sagen?

·       Die Freisetzungen in Japan stammen von den Kernschmelzen dreier Reaktoren, diese hatten zusammen eine elektrische Leistung von 2028MW. Die deutschen Vergleichsreaktoren haben jeder eine geringere Leistung um 1400WM. Obwohl also die deutschen Reaktoren im Vergleich zu denen in Japan kleiner sind, wurden höhere Freisetzungen als in Japan angenommen, es wurde von der SSK also ein schlimmeres Ereignis als in Japan angenommen. Ein Grund dazu wird nicht genannt.

·       Deutsche Reaktoren besitzen Filter, in denen eventuell austretende radioaktive Nuklide aufgefangen werden und abklingen können. Diese gab es in Fukushima nicht, nur deshalb gab es die Freisetzungen. Die hohen angenommen Freisetzungen kann es bei deutschen Reaktoren nur ohne Filter geben. Ist das möglich?

·       Im März 2011 konnte man aus den täglich veröffentlichten online-Berichten mit den Aufzeichnungen zur Ortsdosisleistung auf dem Kraftwerksgelände von Fukushima schließen, daß außerhalb des Kraftwerksgeländes kein Mensch einen gesundheitlichen Schaden durch Strahlung erleiden wird. Diese Schlußfolgerung wurde ein Jahr später bei den Vorträgen der Fachtagung [2] bestätigt.

·       UNSCEAR hat in seinem kürzlich veröffentlichten Bericht [3] vom 2.4.2014 festgestellt, daß auch in Zukunft keine gesundheitlichen Schäden durch Strahlen für Menschen (Krebs) in Japan zu erwarten sind.

·       Der Fukushima-Unfall wurde als INES 7-Ereignis eingestuft. Zur Definition von INES 7 heißt es: „Auswirkungen außerhalb der Anlage: Schwerste Freisetzung, Auswirkungen auf Gesundheit und Umwelt in einem weiten Umfeld, Gesundheitliche Spätschäden über große Gebiete, ggf. in mehr als einem Land.“ Folglich stehen die Einstufung als INES 7 und der Bericht von UNSCEAR im Widerspruch zueinander.
Dazu ist zu bemerken, daß die Reaktoren in Fukushima etliche Mängel hatten: zu kleines Containment, unzureichender Tsunamischutz, keine Wasserstoffrekombinatoren, keine Filterstrecken, und dennoch ist KEIN Mensch zu Schaden gekommen. Also trotz der Mängel kein Schaden, das kann als grandioser Erfolg der weltweit verfolgten Sicherheitsphilosophie im Reaktorbau angesehen werden.

Worin liegt die Gefährlichkeit bei der Kernenergie?

Bei der friedlichen Nutzung der Kernkraft gibt es eine Gefahr, die bei Nutzung der fossilen Energien nicht vorhanden ist, das ist die Strahlung. Diese Gefahr konnte man im Anfang (1953, „Atome für den Frieden“) noch nicht richtig einschätzen, weil die Wirkung der hochenergetischen Strahlung auf Lebewesen nur wenig erforscht war. Man hatte daher aus Vorsicht damals recht niedrige Grenzwerte für die erlaubte Exposition von Menschen angesetzt [4]. Diese Werte flossen in die Gesetzgebung ein und wurden in späteren Jahren immer nur herab gesetzt. Die Vorsicht hatte letztendlich zur Folge, dass es von 1945 bis 2007 weltweit nur ca. 147 Todesopfer durch Strahlung gegeben hat, dabei sind die Opfer des Tschernobyl-Unfalles und Unfälle durch Fehler im medizinischen Bereich eingeschlossen [3]. Es gibt Erläuterungen zu diesen Unfällen in [5]. Man kann festhalten:

Die friedliche Nutzung der Kernenergie war von Anfang an eine einzigartige Erfolgsgeschichte mit einer Sicherheit, wie sie in keinem anderen technischen Bereich erreicht worden ist.

Heute ist die Gesetzgebung zum Schutze vor Strahlung durch Radioaktivität sehr streng. Sie verlangt, jede noch so kleine Strahlendosis zu vermeiden. Der Grund für diese Vorgabe ist die Annahme, dass jede noch so kleine Strahlendosis unabhängig von der Zeit der Einwirkung schädlich sei (Konjunktiv!!!). Das ist die LNT-Hypothese (linear-no-threshold). Man weiß, dass diese Hypothese nicht die Realität beschreibt. Im Niedrigdosisbereich ist genau das Gegenteil der Fall, dort ist Strahlung der Gesundheit förderlich. Es gibt sehr viel Literatur darüber [6]. In der Fachzeitschrift „StrahlenschutzPRAXIS“ wird zuweilen über diese Dinge berichtet. Allerdings waren früher gesundheitsfördernde Effekte von Niedrigdosisstrahlung oft schwach, Zweifel kamen auf. Neuerdings gibt es mit dem Co-60-Ereignis von Taiwan [7] ein sehr deutliches Zeichen auf die Nützlichkeit von Strahlung an einem großen Kollektiv von Menschen. Es ist ein unfreiwilliger Großversuch mit Ganzkörper-Langzeitbestrahlung von Menschen mit harter gamma-Strahlung, wo die Krebsrate fast auf NULL sank. Daraus sollten Konsequenzen gezogen werden: Diese Effekte sollten von den internationalen und nationalen Strahlenschutzauthoritäten nicht mehr ignoriert, sondern in alle Überlegungen einbezogen werden.

Was nützt eine Evakuierung bei Unfällen?

Die Evakuierung in Japan hat Todesfälle zur Folge gehabt, das wird von der SSK berichtet: Entwurzelung der Evakuierten, Suff, Suizide sind die Folge. Es wurden an verschiedenen Stellen Zahlen um 1000 Opfer genannt, was plausibel erscheint. Ähnliches ist aus den weitreichenden Evakuierungen nach dem Tschernobyl-Unfall bekannt, die IAEA kritisierte 1991 die überzogenen Evakuierungsmaßnahmen und Lebensmittelrestriktionen. Allerdings hatte die ganze Welt nichts aus der IAEA-Kritik gelernt. Die Maßnahmen der Regierung in Japan sind noch weitgehender als diejenigen beim Tschernobyl-Unfall.

Durch die beim Strahlenschutz ignorierte nützliche Wirkung von Niedrigdosisstrahlung kommt ein weiterer Gesichtspunkt hinzu, denn durch die Evakuierungen hat man den Menschen eine nützliche Strahlendosis vorenthalten. Schon beim Tschernobyl-Unfall wurde eine um 15% bis 30% niedrigere Krebsrate unter den „emergency workers“ und 5 bis 17% weniger Krebs bei den Bewohnern der Gegend von Bryansk festgestellt [8], so daß bei NICHT-Evakuierung einige tausend bis vielleicht sogar 10 000 Menschen vor Krebs bewahrt worden wären. Ein ähnliches ist in Japan zu sagen, bei NICHT-Evakuierung wären viele Menschen vor Krebs bewahrt worden.

Was ist zu tun?

Die weltweit seit einem halben Jahrhundert gültige Strahlenschutzphilosophie sollte geändert werden. Das ist in der Fachwelt bekannt, aber es wird offenbar nicht darüber geredet. So fanden die Leser der Fachzeitschrift „StrahlenschutzPRAXIS“ dort 2006 in einem Bericht von Prof. Becker die Schlußfolgerung:

Aus diesen und Gründen wissenschaftlicher Korrektheit und intellektueller Redlichkeit ist ein baldiger Paradigmenwechsel im Strahlenschutz erforderlich.“

Prof. Becker erhielt für einen Aufsatz mit ähnlichem Inhalt in Nuclear Europe Worldscan 1998 in London den Preis der European Nuclear Society für die beste Publikation des Jahres 1998. Die Erkenntnisse vom Co-60-Ereignis von Taiwan waren darin noch NICHT eingeflossen, ein überaus wichtiger Grund für erforderliche Änderungen also noch nicht bekannt.

Die SSK hat die Erkenntnisse zu den nützlichen Effekten von Strahlung im Niedrigdosisbereich nicht beachtet. Evakuierungen könnten im engen Nahbereich eines Kernkraftwerkes nützlich sein, nicht jedoch im Fernbereich.

Alle Erkenntnisse, Meinungen, Gesetze werden von Menschen gemacht, und Menschen können irren. Die Geschichte hat dazu Beispiele parat. Die Strahlenschutz-Fachwelt sollte den Mut besitzen, zum Wohle der Menschen die Politik auf Irrtümer aufmerksam zu machen und auf Korrektur zu drängen.

Literatur

[1] http://www.ssk.de/SharedDocs/Beratungsergebnisse_PDF/2014/Planungsgebiete.pdf?__blob=publicationFile

[2] Fachsymposium „Strahlenschutz – Ein Jahr nach Fukushima“ des Deutsch-Schweizerischen Fachverbandes für Strahlenschutz e.V. (FS), 8. und 9.März 2012 in Mainz

[3] http://www.unscear.org/

[4] Paul Laufs, „Reaktorsicherheit für Leistungskernkraftwerke“, Springer-Vieweg 2013, Abschnitt 3.2.2. „Gefahrenpotenzial und Reaktorsicherheit“

[5] http://www.kernfragen.de/kernfragen/documentpool/strahlenexpo_03_2014.pdf

[6] http://www.energie-fakten.de/pdf/hormesis.pdf; Berichte in www.buerger-fuer-technik.de unter 5. Radioaktivität, Strahlung; ein exzellentes Buch ist kostenlos unter http://tinyurl.com/nlsm4wm zu finden

[7] http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2477708/ , oder: http://www.eike-klima-energie.eu/climategate-anzeige/die-dosis-macht-das-gift-auch-bei-strahlung/

[8] Z. Jaworowski in http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2889503/

[9] StrahlenschutzPRAXIS 2/2006, Seite 44 bis 48; auch in www.buerger-fuer-technik.de mit der Überschrift „LNT or not LNT, that ist he question“




Energiewende: Grüne Zauberlehrlinge oder der Wettlauf in den Untergang

All das sei aber nur um den Preis der Zerstörung der Natur und der Gefährdung der menschlichen Gesundheit möglich gewesen, behaupten die Grünen aller Parteien. Nur durch den Vorrang für die Einspeisung von „sauberem“ erneuerbaren Strom in das Netz und die 20-jährige Garantie der dafür gezahlten Vergütung sei es möglich, den „schmutzigen“ Strom aus Kohle- und Kernkraftwerken zurückzudrängen.
Unter diesen Umständen verwundert es nicht, dass die Kosten-Nutzen-Bilanz des EEG wie der ganzen „Klimapolitik“ eindeutig negativ ausfällt. Obwohl die Verbraucher den EEG-Strom über Zuschläge auf den Strompreis jährlich schon mit über 22 Milliarden Euro subventionieren, ist der Einsatz der besonders „schmutzigen“ Braunkohle nicht zurückgegangen. Im Gegenteil: Im vergangenen Jahr erreichte er den höchsten Stand seit der Wiedervereinigung Deutschlands. Dem entsprechend stieg auch der Ausstoß des „Klimagases“ CO2. Deutschland ist das einige Mitgliedsland der Organisation für wirtschaftliche Zusammenarbeit (OECD), in dem das der Fall ist. Dabei sahen sich die Bundesregierungen unter Angela Merkel stets als „Vorreiter“ der Klimapolitik und steckten sich entsprechend ehrgeizige CO2-Reduktions-Ziele.
Der Ökonom Ottmar Edenhofer, stellvertretender Direktor des Potsdam Institut für Klimafolgenforschung und Co-Vorsitzender des „Weltklimarates“ der UN (IPCC), gab vor einigen Jahren in einem Interview mit der Neuen Zürcher Zeitung in bemerkenswerter Offenheit zu, mit Umweltschutz habe der „Klimaschutz“ nichts zu tun. Es gehe vielmehr um die Umverteilung von Weltvermögen. Statt der ursprünglich angestrebten Fortsetzung des Kyoto-Abkommens wurde nämlich Ende 2009 auf dem „Klima-Gipfel“ von Kopenhagen lediglich die Einrichtung eines Green Climate Fund (GCF) beschlossen, in den wohlhabende Länder bis 2020 jährlich 100 Milliarden Dollar einzahlen sollen. Das Geld soll es ärmeren Ländern ermöglichen, sich an den unvermeidlichen Klimawandel anzupassen. Wie das zu verstehen ist, bleibt selbstverständlich Auslegungssache. Die Definitionsmacht liegt dabei wohl bei der global agierenden Finanzindustrie.
Um die Umverteilung von Vermögen geht es bei der Energiewende aber auch auf nationaler Ebene, und zwar von den relativ armen Bewohnern von Mietskasernen zu den Eigentümern von Villen mit Solardach und den Planern und Anteilseignern von Wind- und Solarparks sowie den Banken, die solche Projekte finanzieren. Die enge Verbindung zwischen Selbsthass und gutmenschlicher Doppelmoral sorgt dafür, dass das alles mit gutem Gewissen vonstatten geht. Naturschutz gilt dabei lediglich als Störfaktor. In Nordhessen sollen zum Beispiel 50 bis zu 200 Meter hohe Windräder mitten im Naturpark Kaufunger Wald errichtet werden. In Mittelhessen sollen die bewaldeten Kammlagen des Taunus Windparks geopfert werden. Ähnlicher Frevel bahnt sich im Pfälzer Wald, Deutschlands größtem zusammenhängenden Waldgebiet, an. Eine vor Jahren vom Bundestag einstimmig durchgewunkene Änderung des Paragrafen 35 des Baugesetzes macht es möglich, 200 Meter hohe Ungetüme in Gegenden zu pflanzen, in denen bislang selbst die Errichtung kleiner Regenschutzhütten für grasende Kühe verboten war. Deshalb hatten Bürgerinitiativen bislang kaum Chancen, Windparks zu verhindern.
Alles, was kräftig subventioniert wird, ist nach kurzer Zeit im Überfluss vorhanden. Davon zeugen die Milchseen und Butterberge, die noch vor wenigen Jahrzehnten durch die europäischen Agrar-Subventionen geschaffen wurden. Die älteren Leser werden sich noch gut daran erinnern. In der ökonomischen Literatur ist das als „Kobra-Effekt“ bekannt. Das Schlagwort bezieht sich auf Kopfprämien, die ein britischer Gouverneur im kolonialen Indien auf das Fangen der Giftschlangen ausgesetzt hatte, um der Kobra-Plage Herr zu werden. Durch die Prämien wurden aber schlaue Bauern zum Züchten von Kobras veranlasst und es gab auf dem Subkontinent bald mehr Kobras als je zuvor.
Etwas Ähnliches passiert gerade bei uns infolge der üppigen Subventionierung so genannter erneuerbarer Energien. An sonnigen und/oder windreichen Wochenenden produzieren Windräder und Photovoltaik schon jetzt deutlich mehr Elektrizität, als in Deutschland gebraucht wird. Am letzten Sonntag, dem 13. April, war das wieder einmal der Fall. Zu Ostern könnte es noch dicker kommen, sofern uns das “Kaltluft-Ei” erhalten bleibt. Damit das Stromnetz nicht zusammenbricht, müssen dann die Netzbetreiber entweder überschüssiger Strom gegen saftige Zuzahlungen an Nachbarländer verschenken oder die Betreiber von Wind- und Solarparks großzügig für die Notabschaltung ihrer Anlagen entschädigen. In jedem Fall müssen die Stromkunden für die zusätzlichen Kosten aufkommen. Gleichzeitig macht der im Überfluss in das Netz eingespeiste Grünstrom tendenziell alle konventionellen Kraftwerke unrentabel. Zurzeit rechnen sich nur noch Braunkohle- und abgeschriebene Kernkraftwerke. Bald wird es aber wohl keine Form der Stromerzeugung mehr geben, die nicht subventioniert werden muss. Schon jetzt wird jeder der schätzungsweise 50.000 Beschäftigten im Geschäftsbereich „Erneuerbare“ jährlich mit etwa 400.000 Euro subventioniert. Ein Selbstmordprogramm.
Auf der VII. Internationalen Klima- und Energiekonferenz, die am 10. April in Mannheim stattfand, hat Dipl. Ing. Michael Limburg, der Vize-Präsident des veranstaltenden unabhängigen Europäischen Instituts für Klima und Energie (EIKE) vorgerechnet, dass die aufsummierten Kosten des EEG schon im Jahre 2022 die stolze Summe von 1,2 Billionen Euro überschritten haben werden. Hinzu kommen die Kosten der staatlich verordneten Wärmedämmung von Gebäuden in ähnlicher Größenordnung. Deutschland hat schon jetzt die mit Abstand höchsten Industriestrompreise der Welt. Nur Tschechien und Bulgarien liegen noch leicht darüber. Von daher verwundert es nicht, dass die Inlandsinvestitionen der Schlüssel-Industrien Stahl und Chemie bereits unter den Abschreibungen liegen. Der leise Abschied der Industrie von Deutschland ist also bereits im Gange. Aber das ist einer Gruppe in der CDU/CSU-Fraktion des deutschen Bundestages namens „Klimakreis“ offenbar noch nicht genug. In einem gerade vorgelegten Positionspapier fordert die Gruppe eine verbindliche Senkung des Energieverbrauchs in der EU um 40 Prozent bis zum Jahre 2030. Der Wettlauf in den Untergang hat begonnen.

Der Beitrag erschien zuerst bei ef und auf Edgar Gärtners Homepage




Scheinriesen der Moderne – Turturische Energien II Elektroperpetumobile

Heutiges Thema: Elektroperpetumobile

 

Wer einmal Gelegenheit hatte, einen Tesla Roadster zu fahren, und nur ein bisschen technikaffin ist und sich nur ein bisschen für PS erwärmen kann, wird sich kaum seiner Faszination entziehen können: das Ding geht ab wie Schmitz‘ Katze, liegt wie ein Brett auf der Straße, und ist dabei sehr leise. Hat man das nötige Kleingeld für dieses besondere Spielzeug gerade nicht zur Hand, und sucht ohnehin ein Fahrzeug für den Alltagsgebrauch, findet man Elektroautos, die – wenn sie nicht ohnehin in die Klasse der elektrifizierten Krankenstühle gehören – nicht nur viel zu teuer sind, sondern zu dem hohen Preis auch schlechtere Eigenschaften aufweisen. Sie sind lahm, langsam, und hinsichtlich sowohl Reichweite wie auch „Tankzeiten“ für den Alltag unbrauchbar.

Mit Range-Extendern kann man das Reichweitenproblem angehen. Aber nur ewig Gestrige werden dafür einen Verbrennungsmotor einbauen, mit dem ein Generator betrieben wird, der die Batterie im Fahren nachlädt. Wir stellen hier Antriebe für den modernen Weltenretter vor.

Auf www.speedmanagement.de (herunterscrollen bis zum 18.Dezember 2013) wird ein Elektroauto mit Reichweitenverlängerung vorgestellt. Hier der Originaltext:

Anhänger rollt und treibt zusätzlich einen Dynamo ( Lichtmaschine ,Stromerzeuger ) pro Rad an. Batterie wird während der Fahrt aufgeladen oder direkt zum einspeisen der Elektromotoren und kann so einer Reichweitenverlängerung von Elektroautos dienen. An roten Ampeln oder Kreuzungen könnte ein Schwungrad die Lichtmaschinen weiter bewegen und stabilisieren, so dass die Räder beim anfahren die Lichtmaschine nicht jedes Mal aus dem Stand antreiben müssen. Ein weiterer Vorteil: Die Batterien bekommen weniger Ladecyclen, jedes Laden verkürzt die Lebensdauer vom Akku und so die Reichweite vom Elektromobil.

 

Fassen wir zusammen: Die in der Batterie gespeicherte chemische Energie wird in elektrische Energie gewandelt, aus der ein Elektromotor mechanische Energie macht. Damit zieht das Auto einen Anhänger, dessen dadurch rollende Räder ihre mechanische Energie über Dynamos in elektrische Energie wandeln, die der Batterie zugeführt, und in chemische Energie gewandelt wird.

Mein Verbesserungsvorschlag: den Anhänger weglassen, und den Dynamo gleich am Elektromotor anflanschen. Oder noch besser: auch das Auto weglassen, und zu Hause auf ewig perpetumobile Energie erzeugen!

Einer geht noch.

Bei einem fahrenden Auto drehen sich ja nicht nur die Räder, sondern es weht auch ein Fahrtwind. Richtig, man kann ein Windrad betreiben! Wie sich diese „Cleanenergy – for a better environment“ Webseite begeistert, ist das

die Zukunft der Elektromobilität, wie der chinesische Farmer aus Banjiehe in der Nähe von Peking sie sich vorstellt. In nur drei Monaten hat der 55-Jährige ein eigenes Elektroauto entworfen: Er hat Elektromobilität mit Windkraft gekoppelt und sein E-Mobil mit einer Windturbine an der Spitze versehen, die zusätzlich Strom generiert. Das Auto funktioniert im Grunde wie eine Windmühle, erklärte Tang. … Der kleine hellblaue Elektroflitzer muss ungefähr 65 Kilometer pro Stunde erreichen, dann setzen sich die Turbinenblätter in Bewegung und erzeugen schadstofffreie Energie.“ ( ab ca min 0:40)

Die pseudotechnische Elektroauto-Jubel-Webseite www.mein-elektroauto.com hat auch noch welche. Auch sie wollen Das Elektroauto mit dem Fahrtwind aufladen, aber statt eines schnöden Ventilators nutzen sie eine Windturbine an einem Windkanal, und bemerken kritisch:

Der erzeugte Strom wahrscheinlich nicht für eine Verdopplung der Reichweite [reicht], aber ich schätze, das 10 bis 20 Prozent mehr an Reichweite durchaus möglich wären.

Alternativ könne man auch einen 6 Meter hohen Mast (natürlich aus regenerativem Bambus) mitnehmen, an dessen Spitze ein Windrad angebracht ist. Ein Video zeigt, wie es geht: um das zweisitzige Elektroauto (Typ Krankenstuhl) aufzuladen wird mit 9 Personen – zählen Sie nach – der Mast errichtet. Das offensichtlich erforderliche Begleitfahrzeug mit Verbrennerantrieb, in dem mindestens 7 Personen und der Mast befördert werden, wird im Video nicht gezeigt.

Und noch einer von Mein Elektroauto, ein Solarzellen-Autodach als Range Extender. Das Dach bringt 75 W Peak. Da das Auto 130km/h schnell sein kann, und eine Reichweite von 250 km hat, sind nach 2h die Batterien leer. Im Hochsommer, mittags, bei wolkenfreiem Himmel kommt es aber dank des Solardaches viel weiter: 75 W * 2h = 0.15 kWh. Ein Elektroauto VW eUp braucht 0.117 kWh/km, mithin verhilft das Dach zu einer zusätzlichen Reichweite von 1.3km! Hurra, es geht und ist kein Perpetuum Mobile.

Wir überlegen, Turturische Orden am grünen Juteband zu verteilen.

P.S. Wer in der Industrie beschäftigt war und mal in die unglückliche Lage kam, die Folgen eines konzernweiten Ideenwettbewerbs auswerten zu müssen, wird reichlich über Perpetuum Mobiles berichten können. Lassen Sie hören!

Über den Autor: 

Dr. Ulrich Steiner ist Physiker mit Diplom in Kernphysik. Seine Promotion erlangte er in der Krebsforschung mit einem biophysikalischen Thema. Nach über zwei Jahrzehnten in der Human-Pharmazeutischen Biotechnologie in Forschung, Entwicklung, Produktion und Planung begann er, Bioenergien und andere „Erneuerbare“ auf ihre Eignung für großtechnische Nutzung zu durchsuchen. Was er fand waren vor allem, nun ja, Turturische Energien.




„Energiepolitische Geisterfahrt – die deutsche Wendewirklichkeit“

I. AUSGANGSSITUATION

Die Energiewende soll zwei (vermeintliche?) Probleme lösen: Erstens die Abhängigkeit von fossilen Rohstoffen beseitigen, die nach den „Prophezeiungen“ des Club of Rome über die Grenzen des Wachstums aus dem Jahre 1972 „sehr zeitnah“ nicht mehr verfügbar sein werden, sprich die Begrenztheit der Vorräte an Kohle, Öl und Gas wird ins Kalkül gezogen. Dadurch sollen sich auch die anthropogen verursachten Emissionen des Gases CO2 verringern, die vom wissenschaftlichen „Mainstream“ ganz wesentlich für den Klimawandel verantwortlich gemacht werden – Stichwort: Menschengemachter Klimawandel. Zweitens soll das deutsche Energiesystem sukzessive, d.h. in vier Schritten von fossilen auf erneuerbare Energien wie Sonne, Wind, Biomasse und Wasserkraft umgestellt werden. Bis 2020 sollen jeweils mindestens 35%, bis 2030 50%, bis 2040 65% und bis 2050 80% der Stromerzeugung regenerativ erfolgen, die gesamte Energieversorgung zur Jahrhundertmitte zu mindestens 50%.

Parallel zum Umstieg von fossilen Energieträgern auf erneuerbare Energien erfolgt der Ausstieg aus der Kernenergie, der schon in 2022 zu 100% vollzogen sein soll (doppelter Ausstieg aus Kohle und Uran). Dies ist das Ergebnis der im Nachgang zu der Naturkatastrophe vom 11. März 2011 – dem Erdbeben und Tsunami mit anschließender Havarie von drei Reaktoren in Fukushima/Japan – von der Bundesregierung am 6. Juni 2011 getroffenen Entscheidungen (Eckpunkte für eine beschleunigte Energiewende). Kurz zuvor war der Kernkraftnutzung in Deutschland noch eine Funktion als „Brückentechnologie“ zugetraut und zugebilligt worden. D.h. sie sollte einen behutsamen Systemwechsel von Fossil auf Erneuerbar auch wirtschaftlich abfedern und begleiten (zum Status quo der Kernenergie in Deutschland siehe nur www.kernenergie.de).

Die Energiewende setzt damit einen gravierenden Umbau des gesamten deutschen Energieversorgungssystems in allen Sektoren (Erzeugung, Transport über Leitungsnetze, Speicher) voraus, einschließlich der Anpassungen in Industrie und Gesellschaft (Effizienzerhöhung, Energieeinsparung, Orientierung am Stromangebot). Zu beachten ist, dass sich Strom in energiewirtschaftlich relevantem Maße bis heute kaum speichern lässt. Hinzu kommt die Notwendigkeit, vermehrt Strom zu importieren. Wirtschaftlich mit vertretbarem Wirkungsgrad sind lediglich Pumpspeicherkraftwerke (PSKW) in der Lage, die Speicherfunktion (über einen Umweg) in einer nennenswerten Größenordnung zu übernehmen. Allein schon aufgrund der Topographie können aber gar nicht so viele PSKW gebaut werden, wie notwendig wären. Alle andern Speichersysteme sind noch „meilenweit“ von der großtechnischen Realisierbarkeit und Wirtschaftlichkeit entfernt.

Das Vehikel zur Umsetzung der Wende bildet das Erneuerbare Energien Gesetz (EEG). Es trat zum 1. April 2000 zu Zeiten einer rot-grünen Bundesregierung in Kraft und löste das Stromeinspeisungsgesetz – mit dem ersten Einspeise- und Vergütungssystem zugunsten regenerativen Stroms – ab, das seit dem 1. Januar 1991 gültig war.

Als Väter dieses ganze fünf Paragraphen starken „Gesetzes über die Einspeisung von Strom aus erneuerbaren Energien in das öffentliche Netz“ werden einzelne Politiker von CSU, Grünen und SPD kolportiert. Sicher ist, dass der entsprechende Gesetzesentwurf von der CDU/CSU-Fraktion eingebracht und u.a. von Helmut Kohl und dem FDP-Politiker Helmut Haussmann (dem damaligen Bundeswirtschaftsminister) unterzeichnet wurde. Also eine schwarz-rot-grüne Erfindung, die knapp 10 Jahre später unter der Mitwirkung von Solarunternehmern am Gesetzesvorhaben richtig „vergoldet“ wurde.

Das Markenzeichen des an die Bedingungen im liberalisierten Strommarkt angepassten und erheblich erweiterten EEG – zuletzt geändert am 20.12.2012, mit zwischenzeitlich 66 Paragraphen und fünf Anhängen – sind der Einspeisevorrang für Erneuerbare, die 20 Jahre lange Garantiezeit sowie die, trotz verschiedener Anpassungen nach unten (sog. Degressionen) immer noch stattlichen Einspeisevergütungen. Mit dieser in Kürze vorletzten Novellierung wurde – zum ersten Mal überhaupt – für die Förderung des weiteren Ausbaus von PV-Anlagen bei 52 Gigawatt eine Deckelung verfügt.

Der Anstieg der Nutzung von erneuerbaren Energien ist wesentlich auf das EEG zurückzuführen. Ihr Anteil an der Bruttostromerzeugung betrug im Jahr 2013 bereits 23,4 Prozent (siehe hierzu die umfangreichen Daten aus dem Bundesministerium für Wirtschaft und Energie – www.bmwi.de).

II. FEHLENDE „SOLLBRUCHSTELLEN“ IM KONZEPT DER ENERGIEWENDE

Zweifelsfrei hat das EEG zur Markteinführung und -durchdringung der Erneuerbaren einen ganz wesentlichen Beitrag geleistet. Nunmehr kommen aber in zunehmendem Maße Probleme zum Tragen, die allein aus dem Konstrukt heraus zu erklären, und somit systemimmanent sind. Ein grundsätzliches Problem ist sicher, dass nicht von Beginn an ein Verfallsdatum festgelegt worden ist und auch die Evaluation nicht mit der notwendigen Akribie erfolgte, vermutlich weil sich die Finanzierung zu großen Teilen außerhalb des Bundeshaushalts bewegt.

Systemdefekt 1: EU-Zertifikate und EEG ein Widerspruch an sich

Bei der Einführung von Emissionszertifikaten auf Ebene der Europäischen Union im Jahre 2005 hätte man das EEG ersatzlos streichen müssen. Denn obwohl beide Systeme eine Verringerung der CO2-Emissionen beabsichtigen, schließen sie sich im Grunde genommen aus. In der Folge kann „ … durch das EEG keine Kohlendioxidminderung erzielt werden, die über das durch den Emissionshandel allein bewirkte Maß hinausgeht.“ (Manuel Frondel u.a.: Solarweltmeister Deutschland? Ein gewaltig teurer Irrtum, in: List Forum, Bd. 39 (2013), S. 99-122, hier S. 111). Denn die geringeren CO2-Emissionen in Deutschland lassen den Preis der an der Börse gehandelten Zertifikate/Verschmutzungsrechte sinken. Dadurch wird es günstiger Zertifikate zu kaufen, anstatt CO2-Vermeidungsmaßnahmen zu finanzieren. Die Einsparungen an der einen Stelle werden also durch höhere Emissionen an anderer Stelle kompensiert, es findet lediglich eine Verlagerung im EU-Raum statt (vgl. ebenda; interessant auch die FAZ vom 7. März 2014 (www.faz.net) mit dem Blick auf die vor 10 Jahren gelaufene Auseinandersetzung zwischen den Ministern Clement (Wirtschaft) und Trittin (Umwelt), wobei letzterer und damit die Unvernunft die Oberhand behielt). Damit degeneriert das EEG zum reinen Umverteilungsmechanismus, der zudem Innovationen verhindert, wie die von der Bundesregierung eingesetzte Expertenkommission Forschung und Innovation (EFI) zu Beginn des Jahres schlussfolgert (siehe www.e-fi.de auf den Seiten 51-52).

Systemdefekt 2: planwirtschaftlicher Fremdkörper mit eingebauter Ausbreitungstendenz

Das EEG widerspricht im Grunde genommen der Sozialen Marktwirtschaft und dem liberalisierten Strommarkt. Während die Liberalisierung auf einen wettbewerblich organisierten Strommarkt setzt, hebelt das EEG mit seiner stark planwirtschaftlichen Ausrichtung (Bevorzugung einzelner Energieerzeugungsarten, feste Einspeisevergütungen) diesen aus. Fatal wirkt sich die Interventions- (Ludwig von Mises) oder Subventionsspirale aus, die zur Eindämmung unbeabsichtigter Nebenwirkungen immer weitere Korrekturen notwendig macht. Peter Heller umschreibt dies mit dem Dominoeffekt von EEG-Subventionen, der eine Überproduktion von Strom, ebenso wie Industrierabatte, eventuell sogar Kapazitätsmärkte, auf jeden Fall aber Investitionen in den Netzausbau und schließlich auch die finanzielle Entlastung von Haushalten zwangsläufig nach sich zieht und damit massiv weitere Kostentreiber bedingt (beim 16. Albstädter Wirtschaftsforum – www.zak.de).

Systemdefekt 3: in Kauf genommene Ressourcenvernichtung hinterlässt Scherbenhaufen

Der im EEG verfügte Einspeisevorrang für Erneuerbare setzt einen simplen Prozess in Gang: Die verringerte Nachfrage nach konventionellem Strom verdrängt entsprechend der Merit-Order (Einsatzreihenfolge von Kraftwerken nach deren kurzfristigen Grenzkosten) Kraftwerke mit höheren variablen Kosten (gleich Grenzkosten) und sorgt dafür, dass Kraftwerke mit vergleichsweise niedrigeren variablen Kosten preissetzend werden. Dies sind zum gegenwärtigen Zeitpunkt vor allem ältere, bereits abgeschriebene Kohlekraftwerke, die zusätzlich von fallenden Rohstoffpreisen profitieren. Dies führt wiederum zunehmend zur vorläufigen oder dauerhaften Stilllegung und sogar zur Nichtinbetriebnahme von hochmodernen Gas- und Dampfturbinen-Kraftwerken, die aber als Produzenten von Regelenergie zur Stabilisierung des Stromnetzes – hier hat die Physik das letzte Wort – dringend gebraucht werden.

Die von der Bundesnetzagentur geführte Liste wird länger und länger. Ihr sind aufgrund einer Ende 2012 beschlossenen Neuregelung Stilllegungen mindestens 12 Monate im Voraus anzukündigen, auch vorläufige Abschaltungen müssen angezeigt werden (aktueller Stand: www.bundesnetzagentur.de). Entsprechende Ankündigungen liegen gegenwärtig von drei der vier großen Energieversorger, ebenso von Stadtwerken vor. Ist ein Kraftwerk „systemrelevant“ kann die Bundesnetzagentur anordnen, dass es zwei Jahre lang weiterbetrieben werden muss. Im Januar hat die EnBW beim Oberlandesgericht Düsseldorf eine Beschwerde eingereicht, mit der sie sich dagegen wehrt, vier Kraftwerksblöcke in Marbach und Walheim nicht abschalten zu dürfen.

Hohe Abschreibungen, Gewinneinbrüche, notwendige Finanzspritzen für Stadtwerke, gravierender Kursverfall bei den vier großen Energieversorgungsunternehmen – RWE, Eon, EnBW und Vattenfall –, Arbeitsplatzverluste inklusive, sind an der Tagesordnung. Auch den so hoffnungsvoll gestarteten Solar- und Windkraftanlagenbauern geht reihenweise die Luft aus. „Die Energiewende wird zum eiskalten Kapitalvernichter“ ist unter Bezugnahme auf eine Liste der Deutschen Schutzvereinigung für Wertpapierbesitz in der Welt vom 6. März d.J. zu lesen. An den 50 größten Börsendebakeln der letzten Jahre in Deutschland partizipiert die Energie-Branche mit rund einem Viertel, obenauf Solar- und Windkraftfirmen (www.welt.de). Hinzu kommt ein schleichender Prozess der De-Industrialisierung, der insbesondere in energieintensiven Branchen bereits empirisch nachweisbar ist, und sich aufgrund der für die deutsche Volkswirtschaft typischen integrierten industriellen Wertschöpfungskette auch belastend auf die restlichen Glieder der Kette auswirkt (siehe hierzu die umfassende Analyse der Deutschen Bank vom 18. Dezember 2013 – www.dbresearch.de, hier S. 11-12). Dort wird auch sehr zu recht darauf hingewiesen, dass für eine Beurteilung der Energiewende die Netto-Effekte entscheidend sind. „Schließlich sind die häufig angeführten positiven Beschäftigungseffekte aufgrund von Investitionen in die Energiewende dadurch zu relativieren, dass sie zu nennenswerten Teilen auf … Subventionen zurückzuführen sind. Man muss sich also stets fragen, welche Beschäftigungseffekte man anderer Stelle mit den eingesetzten Mitteln hätte erzielen können. Da bei den Arbeitsplatzeffekten zudem häufig die Brutto-Effekte ausgewiesen werden, müsste zudem berücksichtigt werden, in welcher Höhe Beschäftigung in anderen Branchen verlorengegangen ist.“ (S. 7).

Nordrhein-Westfalen führt die Riege der stark Gebeutelten an, denn dort laufen die Problemlagen von Energieversorgern und klammen Kommunen unweigerlich zusammen. Die Städte sind in der Regel auch Anteilseigner an z.B. der RWE und/oder haben eigene Stadtwerke, die wiederum Beteiligungen halten. Hinzu kommt, dass NRW am wenigsten von den EEG-induzierten Zahlungsströmen profitiert, da die Fotovoltaik- bzw. Windkraftanlagen relativ stärker im Süden bzw. Norden der Republik massiert sind und der Stromverbrauch im bevölkerungsreichsten Bundesland mit der größten Dichte an Industriebetrieben am höchsten ist. Keinem anderen Bundesland kommt deshalb die Energiewende so „teuer“: 4,5 Mrd. € wurden 2013 in den EEG-Topf gelegt und nur 1,6 Mrd. € wieder „abgegriffen“ (siehe hierzu die ausführliche Analyse des BDEW vom Februar d.J. zur regionalen Verteilung auf den S. 82-92 – www.bdew.de). Nachvollziehbar, aber auch typisch und ganz konform mit der beschriebenen Interventionsspirale ist, dass der NRW-Wirtschaftsminister noch bevor die Bundesregierung die EEG-Novelle unter Dach und Fach hat, weitere Hilfen des Bundes anmahnt (siehe Handelsblatt vom 20.3.2014 www.handelsblatt.com).

Aber selbst im ansonsten gesunden Südwesten brennt es, so musste die Stadt Ulm für eine Kapitalerhöhung der Stadtwerke Ulm/Neu-Ulm, die Beteiligungen an Kohle-, Gas- und Offshore-Windkraftwerken halten, in zwei Schritten 30 Millionen € nachschießen und wird künftig auch Arbeitsplätze abbauen müssen (www.swp.de). Und die Anteilseigner der EnBW – grob je zur Hälfte das Land Baden-Württemberg und die neun Landkreise mit einer Beteiligung an den Oberschwäbischen Elektrizitätswerken (OEW) – müssen sich aufgrund einer Halbierung der EnBW-Ausschüttungen auf magere Jahre einstellen. Ob durch verminderte Ausschüttungen oder Verluste bei den Stadtwerken, alles kommt beim Bürger in Form von Leistungseinschränkungen an, denn im sogenannten Querverbund sorgten Gewinne aus dem Strom schon immer für kommunale Bäder, Verkehrsbetriebe und die Finanzierung weiterer Infrastrukturen. Die nächsten Hilferufe an Land und Bund sind hier schon vorprogrammiert.

Systemdefekt 4: unzureichende internationale Einbindung zwingt Deutschland auf Sonderweg

Sollbruchstellen schützen Systeme vor Überforderung – zumindest in technischen Anwendungen. Die Politik ist im Falle der Energiewende offenbar total überfordert, um von sich aus die richtigen Schlüsse und Konsequenzen zu ziehen. Zu den drei beschriebenen Defekten gesellt sich mit der mangelnden internationalen Einbindung die wohl offensichtlichste Schwachstelle.

Zwar haben 17 von 28 EU-Mitgliedstaaten unserem EEG vergleichbare Anreizsysteme, aber diese sind in ihrer Ausgestaltung und Zeitschiene wesentlich moderater. Österreich beispielsweise deckelt die Subvention auf maximal 27 Mio. € im Jahr, gibt „nur“ eine 13jährige Garantiezeit und wird in 2015 vom Einspeise- auf ein Quotenmodell umstellen. Italien, Spanien, Bulgarien, Griechenland und Tschechien haben schon längst die weit weniger opulente Förderung zurückgeschnitten.

Die Europäische Kommission unternimmt größte Anstrengungen, um zu einem gemeinsamen Energiebinnenmarkt zu kommen. Sie dringt unter anderem darauf, dass Förderregelungen bei sinkenden Technologiekosten schnell angepasst und die Erneuerbaren in den Energiemarkt integriert werden (z. B. durch den Wechsel von Einspeisevergütungen zu -prämien oder -quoten und durch Ausschreibungen) sowie die grenzüberschreitende Zusammenarbeit ausgebaut wird (siehe hierzu den Fortschrittsbericht „Erneuerbare Energien“ 2013, S. 14-15: www.bmwi.de).

Die Effizienzvorteile eines Energiebinnenmarktes zeigt Veit Böckers (Wettbewerbsökonomische Vorteile eines Europäischen Binnenmarktes für Stromerzeugung, in: DICE Policy Brief, September 2013, S. 6-7, hier S. 6) mit einer einfachen Überschlagskalkulation auf: „Würde die heute in Deutschland installierte Solaranlagenkapazität, die im Jahr 2011 18.500 GWh Solarstrom erzeugt hat, stattdessen in Spanien stehen, hätten damit 37.000 GWh Strom produziert werden können. So hätte sich bei einem durchschnittlichen Strompreis von 40 Euro/MWh zusätzlicher Strom im Wert von 740 Millionen Euro erzeugen lassen.“

Als Antwort auf die immer noch stark zersplitterte Förderlandschaft hat die Europäische Kommission Leitlinien entwickelt, denen zufolge die Förderung auf das notwendige Minimum und die Einführungsphase von Technologien beschränkt und letztendlich eingestellt werden soll. Auch soll der in den anderen Mitgliedstaaten erzeugte Strom aus Erneuerbaren Zugang zu nationalen Fördersystemen erhalten (siehe hierzu Moritz Bonn u.a.: „Brüsseler Spitzen“: Europäische Impulse für eine EEG-Reform, in: et Energiewirtschaftliche Tagesfragen, 30. März 2014, S. 1-2 – www.et-energie-online.de).

Gerade die zuletzt genannte Bedingung stellt einen richtigen „Sprengsatz“ dar, der schon im August dieses Jahres detonieren könnte. Beim Europäischen Gerichtshof (EuGH) ist die Klage eines finnischen Windkraftbetreibers anhängig, der Strom nach Schweden liefert, aber dort keine Ökostrom-Förderung bekommt. Generalanwalt Yves Bot fordert in seinem Schlussantrag, solche Ungleichbehandlungen innerhalb von zwei Jahren zu beseitigen. Laut FOCUS und FAZ – aber auch EU-Energiekommissar Günther Oettinger und andere Brüssel-Insider sehen das so – könne das die EEG-Umlage sprengen (www.faz.net). Locker könnte man formulieren, „bis dass der EuGH euch scheidet!“ Ein vergleichbares Verfahren mit Tschechien befindet sich übrigens im Anfangsstadium und hat noch nicht die Gerichtsebene erklommen.

Hinzu kommt das laufende Beihilfeverfahren wegen der sogenannten „Besonderen Ausgleichsregelung“ – so wird der Ausnahmetatbestand für befreite Unternehmen genannt: siehe hierzu Anhang 1 – mit weiteren ungeklärten juristischen Fragen, die allerdings nicht ganz die Brisanz des oben genannten Falles haben.

Offensichtlich ist, dass selbst in der Europäischen Union ein gemeinsamer Energiebinnenmarkt mit Nutzung sämtlicher Effizienzvorteile (d.h. auch des Einsatzes von Fotovoltaik- und Windkraftanlagen an den dafür optimalen Standorten) noch in den Sternen steht und die Unterschiede zwischen den 28 Mitgliedsstaaten so riesig sind, dass der notwendige Anpassungsprozess Jahre in Anspruch nehmen wird, von der technischen Seite mit den erforderlichen Übertragungsnetzen ganz zu schweigen. Und auch der beschlossene Ausstieg aus der Kernenergie wird immer mehr zum nationalen Alleingang. „Der deutsche Weg ist einer von vielen“ titelt die Stuttgarter Zeitung im Bericht über den Weltenergiekongress im südkoreanischen Daegu im Oktober letzten Jahres (www.stuttgarter-zeitung.de). Deutschland gesellt sich 2022 zu den 14 Ländern in Europa, die schon bisher ohne Atomkraft waren, während die Zahl derer weltweit wächst, die neue Kernkraftwerke planen und bauen. Laut der auch insgesamt sehr lesenswerten Energiestudie 2013 der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) in Hannover waren Ende 2012 68 Kernkraftanlagen in 14 Ländern in Bau und weitere 110 in der Planungs- oder Genehmigungsphase (www.bgr.bund.de. Siehe noch Anhang 2 zum häufig angestellten Vergleich der Kosten von Kernkraft und regenerativer Energie).

Bundeskanzlerin Angela Merkel weiß das: In ihrer Regierungserklärung vom 29. Januar 2014 (S. 4-5) spricht sie von einer Herkulesaufgabe und dass kein vergleichbares Land auf der Welt seine Energiewende so radikal anpacke wie Deutschland. Es lohnt, sich die folgende Textpassage genauer anzuschauen: „Die Welt schaut mit einer Mischung aus Unverständnis und Neugier darauf, ob und wie uns diese Energiewende gelingen wird. Wenn sie uns gelingt, dann wird sie – davon bin ich überzeugt – zu einem weiteren deutschen Exportschlager. Und auch davon bin ich überzeugt: Wenn diese Energiewende einem Land gelingen kann, dann ist das Deutschland.“ So die Kanzlerin. Sie ist also nicht überzeugt, dass uns die Energiewende gelingt und sie sieht realistischer Weise, dass alle anderen noch größere Schwierigkeiten in der Umsetzung haben. Und sie thematisiert nicht den Fall des Misslingens, des Scheiterns: dann sitzen wir Deutsche, neben reichlich Häme und Schadenfreude, auch auf einem wirtschaftlichen Scherbenhaufen. Und danach sieht es aus.

III. VERTEILUNGSEFFEKTE

Durch die Finanzierung über den Strompreis entstehen gravierende Umverteilungseffekte (un)sozialer (von unten nach oben) und regionaler Art, die an anderer Stelle (z.B. in der zitierten BDEW-Studie) ausführlich beschrieben wurden. Es gibt Gewinner und Verlierer, die regelrechten Verteilungskämpfe auf Ebene der Bundesländer und der Interessengruppen (ersichtlich an den Stellungnahmen zur EEG-Novelle, siehe unter VI.) geben ein klares Spiegelbild ab. So unkoordiniert das Vorgehen auf Länderebene in der Umsetzung der Energiewende bislang war, so einig ist man sich bei der Gesprächsrunde im Bundeskanzleramt am 2. April 2014 zum EEG, deren Ergebnis die FAZ tags darauf sauber zusammenfasst: „Verbraucher zahlen für Energie-Kompromiss. Der Bund gibt nach. Die Ökostromhilfen werden nicht so stark gedeckelt. Teurer wird es für Stromkunden und Bahnfahrer.“ Es ging (mit Ausnahme von NRW) nur um reine Besitzstandswahrung, bei der die Ministerpräsidentinnen und -präsidenten das große Ganze aus dem Blick verloren haben. Dabei sind die Größenordnungen um die es geht, auch im Vergleich zu anderen Ausgabeblöcken beachtlich: Das Volumen der EEG-Umlage mit 24 Mrd. € in diesem Jahr ist rund dreimal so groß wie der viel gescholtene Länderfinanzausgleich (8,5 Mrd. € in 2013) oder die Rundfunkgebühr (7,5 Mrd. € in 2012), auch der Solidaritätszuschlag liegt mit 15 Mrd. € immer noch kräftig darunter.

Nicht zu unterschätzen auch die Interessenlage des Bundesfinanzministers am EEG. Solange er die Energiewende nicht über den Bundeshaushalt finanzieren muss, verdient er daran mit. Da die Mehrwertsteuer auch auf die EEG-Umlagen erhoben wird, stecken rd. 4 Mrd. € im gesamten Umsatzsteueraufkommen in Höhe von 204 Mrd. € drin (die Energiesteuer mit 39 Mrd., Stromsteuer mit 7 Mrd. und Kernbrennstoffsteuer mit 1,3 Mrd. € werden davon unabhängig erhoben – Schätzungen für 2014 –www.bundesfinanzministerium.de). Müsste er umgekehrt die 24 Mrd. € selbst finanzieren, dann wäre das nach den Bundesministerien für Arbeit und Soziales mit 122 Mrd. und für Verteidigung mit 33 Mrd. sowie der Bundesschuld mit 30 Mrd. € der viertgrößte Haushaltsposten und würde etwa acht Prozent seines gegenwärtigen Gesamthaushalts in Höhe von 299 Mrd. € ausmachen (www.bundesfinanzministerium.de). Sicherlich gäbe es dabei im Parlament lange und harte Diskussionen, da bei anderen Budgets eingespart werden müsste.

IV. INTENTION VERSUS WIRKUNG: CO2-VERMEIDUNG FEHLANZEIGE

Ein Ziel der Energiewende ist, wie erwähnt, die anthropogen verursachten Emissionen des Gases CO2 zu verringern. Aus der Parallelität von Emissionshandel und EEG – Systemdefekt 1 – war aber eine Verminderung nicht zu erwarten. Dass nun darüber hinaus ein Anstieg von CO2 zu beobachten ist, resultiert aus dem beim Systemdefekt 3 beschriebenen Wirkungszusammenhang (siehe hierzu wiederum dbresearch, S. 11, auch zu Überlegungen, inwieweit ggf. die CO2-Emissionen bei einem Rückgang der Energiekosten infolge einer geringeren inländischen Wertschöpfung sinken könnten).

V. (ZWISCHEN)FAZIT

Welche Auswirkungen hat die gegenwärtige Energiewende auf unsere Volkswirtschaft: Schafft oder sichert sie Arbeitsplätze, regt sie zu Innovationen an, verbessert sie unsere Wettbewerbsfähigkeit? Ist der über das EEG in Gang gesetzte Umbau unseres gewachsenen Energieversorgungssystems überhaupt mit den physikalischen Gesetzmäßigkeiten (fehlende Speicherfähigkeit von Strom; Notwendigkeit konstanter Frequenz im Netz) in Einklang zu bringen? Sind die sich daraus ergebenden finanziellen Lasten und Belohnungen, sprich Kosten und Gewinne ausgewogen verteilt? Ist die deutsche Energiewende in Bezug auf die gewünschte Verringerung der CO2-Emissionen zielführend und besitzt sie eine solch überzeugende „Ausstrahlung“, dass mehr und mehr andere Länder nachfolgen?

Zusammenfassend betrachtet sind alle aufgeworfenen Fragen mit einem klaren Nein zu beantworten. Nach diesem eindeutigen, ernüchterndem Diktum kann man zu guter Letzt auch noch die eigentliche Sinnfrage stellen und diskutieren: ob der Klimawandel menschengemacht und überhaupt beeinflussbar ist? Die Antwort bleibt in dem einen wie anderen Falle spekulativ.

Marco Wehr hat sich (im FAZ-Feuilleton vom 7. Januar d.J. unter dem Titel “Kompetenzillusion” – www.faz.net) mit der Prognosefähigkeit und Güte wissenschaftlicher Berater, insbesondere auch von Klimatologen, auseinandergesetzt und es als reines “Orakelgekrakel” qualifiziert, das “… man guten Gewissens als unseriös bezeichnen …” kann. Dies bestätigen wunderbar die hilflosen Erklärungsversuche für die Stagnation der Erwärmung, die David Whitehouse aktuell zusammengetragen hat (Warming interruptus – Causes für the pause – www.thegwpf.org). Dem kann sich auch der am 31. März vorgestellte neueste Bericht des Weltklimarates (IPCC) nicht gänzlich entziehen. Von der Signalwirkung her nicht zu unterschätzen ist die unter Protest erfolgte Niederlegung des Mandats ausgerechnet durch einen Niederländer, Richard Tol, der nach eigenem Bekunden genug hat von Schwarzmalerei und übertrieben alarmistischen Szenarien. Tol – führender Klimaökonom und koordinierender Leitautor für das Kapitel über die wirtschaftlichen Auswirkungen – „ … vertritt die Position, dass die ökonomischen Auswirkungen des Klimawandels eher gering sind. Außerdem sei es weniger teuer, eine Strategie der Anpassung an den Klimawandel zu wählen, statt ihn durch drastische CO2-Reduktion verhindern zu wollen.“ (www.faz.net). Der jährliche Bericht der Weltorganisation für Meteorologie (WMO) – einer anderen UN-Organisation – hingegen widersteht (noch) nicht der alarmistischen Versuchung und kaschiert den Umstand, „ … dass es seit über 15 Jahren nicht mehr wärmer wird … “ auch indem die entsprechende Presseerklärung den „ … Begriff Stillstand (Hiatus) nicht einmal erwähnt.“ (Rudolf Kipp in www.science-skeptical.de).

VI. KURIEREN AN SYMPTOMEN UNTER ZEITDRUCK – DIE GABRIELSCHE EEG-NOVELLE

An dem Entwurf zur Novellierung des EEG wird mit Hochdruck gefeilt. Er „besticht“ durch zunächst 90 Paragraphen und, nachdem das Ergebnis der Verhandlungen mit EU-Wettbewerbskommissar Almunia zur „Besonderen Ausgleichsregelung“ (den Industrieausnahmen) eingearbeitet ist, im zweiten Entwurf vom 31. März 2014 mit 99 Paragraphen und vier Anhängen. Der Vorläufer war zur Regelung der Materie noch mit 66 Paragraphen, bei allerdings fünf Anhängen ausgekommen. Ein nie dagewesener Zeitdruck begleitet das Machwerk und ebenfalls einzigartig ist, dass ein Grüner als beamteter Staatssekretär in einer schwarz-roten Bundesregierung die Feder führen darf. Rainer Baake kennt zumindest die Materie, hat er doch selbst als Staatssekretär unter Bundesumweltminister Trittin im Jahre 2000 das EEG mit entwickelt. Im Handelsblatt vom 13. März d.J. wird er unter der Überschrift „Gabriels Problem-Grüner“ als einer der Väter des Atomausstieg und eben des EEG eingeordnet. Nicht nur das Gesetz selbst, auch die Stellungnahmen der Verbände sind mit heißer Nadel gestrickt. Bis zum Abgabetermin für den ersten Entwurf am 12. März sind 152 Stellungsnahmen und bis zum Abgabetermin für den überarbeiteten Entwurf am 2. April, 17.00 Uhr, nochmals weitere 97 eingegangen, die wiederum bis zur Kabinettssitzung nächste Woche (am 8., so das Ministerium, oder 9. April, so die Kanzlerin in ihrer Regierungserklärung) eingearbeitet sein müssen. Pauschalierend lässt sich sagen, dass die Stellungnahmen umso länger sind, als es Positionen oder Pfründe zur verteidigen galt, und dass es zwischenzeitlich eine sehr vielfältige Lobbyarbeit und aktive Lobbyisten-Szene im Bereich der erneuerbaren Energien gibt (Link zu den Entwürfen und Stellungnahmen zur EEG-Reform – www.bmwi.de).

Interessanterweise wird im Vorblatt zum Gesetzesentwurf bei der kategorischen Abfrage zu den Alternativen vermerkt, dass es keine gebe. Auch bezüglich der Frage nach dem Erfüllungsaufwand für Bürger, Wirtschaft und Verwaltung wird tiefgestapelt bzw. darauf verwiesen, dass dieser noch zu berechnen sei und im Laufe des Gesetzgebungsverfahrens nachgeliefert werde. Hier darf man gespannt sein, was vom Nationalen Normenkontrollrat – dem Wächter über eine bessere Rechtsetzung und angemessenen Erfüllungsaufwand – noch verlautbart werden wird (www.normenkontrollrat.bund.de).

Eine abschließende inhaltliche Beurteilung ist angesichts der kurzen Fristen und der Fortschreibung des Gesetzesentwurfs enorm schwer bis fast unmöglich. Auffällig ist, dass es auch von der Zeitschiene her eher zaghafte Ansätze sind, die Erneuerbaren im Zubau zu begrenzen und an den Markt heranzuführen. Dies trifft auch für die Direktvermarkungspflicht für die Betreiber größerer Anlagen zu, eine zunächst vorgesehene Beteiligung der Eigenstromerzeuger scheint hingegen wieder vom Tisch zu sein. Überlegungen in Richtung Kapazitätsmärkte waren von vorneherein nicht im Entwurf enthalten. Viel Raum im Rahmen der zweiten Anhörungsrunde nimmt das Pro und Kontra bei der „Besonderen Ausgleichsregelung“ ein. Während beispielsweise die IG Metall für die weitest gehende Beibehaltung der Industrieausnahmen im Rahmen einer europarechtskonformen Ausgestaltung plädiert, setzt sich Greenpeace für eine deutlich kürze Liste der zu befreienden Unternehmen ein. Die neuerliche, vier Seiten lange Stellungnahme von Greenpeace enthält auch eine Rüge für die eingeräumte Bearbeitungszeit von lediglich 34 Stunden sowie ein schon der ersten Stellungnahme beigefügtes, nun aktualisiertes „Kurzgutachten“ einer Hamburger Anwaltskanzlei mit ganzen 24 Seiten.

VII. AUSSTIEGSGEDANKEN

Es ist höchste Zeit, sich intensiver mit den Möglichkeiten eines verträglichen Ausstiegs aus der EEG-Geschichte zu befassen. Umso mehr als mit an Sicherheit grenzender Wahrscheinlichkeit vorherzusagen ist, dass dieses nun entstehende Gesetz die beschriebenen Systemdefekte nicht abschütteln und auch wegen seiner Komplexität und den sicher enthaltenen handwerklichen Fehlern nie und nimmer funktionieren kann. Hinzu kommt als „Damoklesschwert“ das im August zu erwartende Urteil des EuGH, das allerdings wie berichtet eine zweijährige Übergangsfrist einräumt.

Bislang existieren nur vereinzelte Überlegungen, unter anderem von Klaus Töpfer, der mit einem „Altlasten-Fonds“ die aufgelaufenen finanziellen Verpflichtungen aus dem EEG auffangen möchte (www.zfk.de). Auch Ilse Aigner hat schon einmal den „Versuchsballon“ Steuerfinanzierung aufsteigen lassen, musste allerdings zusehen, wie er ganz schnell zum Platzen gebracht wurde.

Jan Fleischhauer hat in einer Kolumne zum „Wahnwitz mit System“ folgenden Gedanken zu Papier gebracht:

„Wie immer, wenn Politiker merken, dass sie sich verrechnet haben, versuchen sie, die Spuren zu verwischen. Die einfachste Art, sich aus der Verantwortung zu stehlen, ist die Verschleierung der Kosten durch Ausgliederung in einen Schattenhaushalt. Für die Aufnahme von Schulden ist noch nie ein Politiker abgewählt worden. … Wenn der Preis für die Erneuerbaren nicht mehr auf der Stromrechnung auftaucht, vergisst der Bürger vielleicht, welchen Bären man ihm aufgebunden hat, als man ihm Wind und Sonne als preiswerte Alternativen verkaufte. Im normalen Geschäftsleben sind solche Deals aus gutem Grund verboten. Aber dort landet man ja bei vorsätzlicher Täuschung auch vor Gericht.“ (www.spiegel.de).

VIII. GEISTERFAHRT UND WENDEWIRKLICHKEIT – DIE POLITIK MUSS FARBE BEKENNEN!

Die Anekdote vom auf dem Kopf liegenden Streifenwagen umschreibt trefflich die Lage:

„Anfang der achtziger Jahre stellte eine Militärstreife im Bereich des Grazer Korps ihren Streifenwagen wortwörtlich auf den Kopf. Sie waren schlicht und einfach zu schnell gefahren. Um den Vorfall zu verschleiern, meldete der Streifenkommandant über Funk an seine vorgesetzte Dienststelle, er könne seinen Auftrag nicht weiter durchführen, da sein Blaulicht ausgefallen sei. Die Kommandostelle funkte zurück: Glühbirne auswechseln! Jetzt hieß es Farbe bekennen. Kleinlaut kam es aus dem Äther zurück: Wir können die Glühbirne nicht auswechseln. Das Fahrzeug liegt drauf.“

An unsere Bundestagsabgeordneten und diejenigen, die gegenwärtig in den Ministerien an der EEG-Novelle basteln gerichtet: Wer das kennt und weiß, macht sich nach meinem Verständnis der Untreue und des Betrugs durch Unterlassung schuldig: Im juristischen Sinne, aber vor allem auch moralisch im Hinblick auf den Eid, den Abgeordnete wie Beamte auf die Verfassung der Bundesrepublik Deutschland ablegen. Lassen Sie sich nicht weiter hinters Licht führen! Das EEG gehört ganz einfach abgeschafft!

Anhang 1:

Die begünstige Strommenge im Rahmen der “Besonderen Ausgleichsregelung” hat sich in den Jahren 2011 – 2012 – 2013 wie folgt entwickelt: von 85 über 86 auf 96 Terawattstunden, dabei wuchs die Anzahl der befreiten Unternehmen von 603 über 734 auf 1720 (infolge der EEG-Novelle 2012). Bei einem Gesamtvolumen der EEG-Umlage dieser Jahre in Höhe von 13,2 – 17,0 – 20,4 Mrd. € macht die Befreiung 2,2 – 2,5 – 4,0 Mrd. € aus. Interessant ist noch, dass zum Anstieg der EEG-Umlage in 2014 (um 0,96 ct/kWh) auf 6,24 ct/kWh, die Befreiung mit 0,14 ct/kWh beiträgt, das sind 15% (nachzulesen in der Antwort der Bundesregierung vom 27.12.2013 auf die Kleine Anfrage der Abgeordneten Bärbel Höhn und der Fraktion BÜNDNIS 90/DIE GRÜNEN – Drucksache 18/165).

Anhang 2:

In einer Publikation aus dem Jahre 2011 (www.kernenergie.de) ist zum Thema „Kostenvergleich“ auf S. 468 zu lesen:

„Die Kernkraftwerke, die heute Strom erzeugen, haben nie Subventionen erhalten.
Dies haben verschiedene Bundesregierungen, zuletzt die Regierung Schröder/Fischer, unmissverständlich erklärt. Eingesetzte FuE-Mittel der öffentlichen Hand waren als Anschubfinanzierung gedacht und haben dort, wo die einzelnen Technologien sich entfalten konnten, ihren Zweck überzeugend erfüllt. Andere Energieträger, wie beispielsweise regenerative Energien, erhielten und erhalten weiterhin Unterstützungsmittel, allerdings nach einem anderen Förderkonzept. Sie werden überwiegend unmittelbar vom Stromkunden aufgrund gesetzlicher Vorgaben unterstützt, ohne dass das Ziel wirtschaftlicher Stromerzeugung entscheidend näher rückt.“

Und zum Rückbau der Kernkraftwerke ist zu lesen:

„Ebenso falsch ist die Aussage in Politik und Medien, der Rückbau der Kernkraftwerke und ihre Entsorgung würden aus Steuermitteln bezahlt. Richtig ist, dass diese Kosten heute bereits im Strompreis enthalten sind. Der notwendige Aufwand für die Stilllegung der Kernkraftwerke wird in den Bilanzen zurückgestellt. Er wird angespart über 25 Jahre; die Mittel stehen also bereits jetzt nahezu vollständig zur Verfügung. Jährliche Anpassungen tragen Preissteigerungen und neuen regulatorischen Vorgaben Rechnung. Die notwendigen Kosten der Endlagerung, darunter aktuell die Umrüstung des Endlagers Konrad und die Erkundung des Salzstocks Gorleben auf seine Eignung als Endlager, werden im laufenden Jahr vom Bund vorfinanziert und unmittelbar danach den Abfallverursachern aus Industrie und öffentlicher Hand in Rechnung gestellt. Einzelheiten dazu regelt die Endlagervorausleistungs-Verordnung. Die späteren Kosten des Betriebs und der Stilllegung der Endlager sind und werden weiter bedarfsgerecht zurückgestellt. Auch die auf 2,5 Mrd. € begrenzte Deckungsvorsorge für Schäden aus der Kernenergie-Nutzung kann nicht als Subvention gelten. Die Haftungssumme bis 250 Mio. € wird zunächst über den Versicherungsmarkt gedeckt und darüber hinaus bis 2,5 Mrd. € über den, auch im Ausland üblichen Nuklearversicherungspool der betroffenen Unternehmen auf Gegenseitigkeit. Außerdem haften die jeweiligen Unternehmen aber mit ihrem ganzen Vermögen für Schäden, die diese Grenze überschreiten. Würde eine solche Forderung nach einer unbegrenzten Haftung auch an andere risikoträchtige Industrien gerichtet, so wäre deren Wettbewerbsfähigkeit im internationalen Bereich massiv eingeschränkt.“

PS.: Thomas Linnemann, der Mitautor der o.g. Publikation ist nicht identisch mit dem Albstädter Stadtwerkedirektor.

Über den Autor:

Dr. Jürgen Gneveckow ist ein deutscher Politiker der CDU und seit 1999 Oberbürgermeister der Stadt Albstadt. Nach dem Studium der Betriebs- und Volkswirtschaftslehre in Freiburg und Regensburg, Abschluss Diplom-Kaufmann und Diplom-Volkswirt promovierte er in Regensburg, arbeitete bis 1999 im Bundesumweltministerium und war von 1993 bis 1996 als Nationaler Experte zur Generaldirektion „Umwelt“ der Europäischen Kommission in Brüssel abgeordnet

Der Beitrag erschien am 4.April 2014 bei ScienceSceptical hier