1

Zur 70. Jahrestag Hiroshima – Darstellung: Nachgefragt

Wie bei Hinweisen auf verzerrende Darstellungen seitens offizieller Institutionen argumentiert wird, zeigt das Beispiel der Stadt Fürth.

Auf der Homepage der Stadt Fürth erschien zum Gedenktag der folgende Infotext (Hervorhebung durch den Autor):

Pressetext auf der Homepage der Stadt Fürth

70 Jahre nach Hiroshima

Die Stadt Fürth gedenkt am Donnerstag, 6. August, 18 Uhr, der Opfer der Atombombenabwürfe auf Hiroshima und Nagasaki im August 1945, aber auch der Opfer der Atomkatastrophe im japanischen Fukushima im Frühjahr 2011. Dazu sind alle Bürgerinnen und Bürger herzlich eingeladen. 

Nun ist es bestimmt sinnvoll, schlimmen Ereignissen der Geschichte zu gedenken und sie in Erinnerung zu halten. Aber dann sollte die Wahrheit nicht dem guten Zweck geopfert werden.

Der Autor schrieb deshalb an den Verantwortlichen der Stadt Fürth. Anm.: Im Folgenden wurden alle nicht direkt Fukushima betreffenden Texte weggelassen.

Sehr geehrter Herr xxx,

zur Pressemitteilung der Stadt Fürth zum Hiroshima-Gedenktag (Anlage) habe ich ein paar Fragen an die Verantwortlichen:

…… – Es wird der Opfer der Atomkatastrophe in Fukushima gedacht.

Frage: Können Sie bitte Opfer der Atomkatastrophe Fukushima nennen und ev. die Gesamtzahl? Mir sind keine bekannt. Allerdings hat der Tsunami ca. 20.000 Opfer gefordert. Warum wird nicht denen gedacht?

Vielen Dank für die Fakten zur Hiroshima-Gedenktaginformation der Stadt Fürth

Zurück kam die folgende Antwort (Hervorhebung durch den Autor):

Sehr geehrter Herr yyyy, 

……  Bei der Nuklearkatastrophe von Fukushima wurden nachweislich zahlreiche Arbeiter einer sehr hohen Strahlenbelastung ausgesetzt und damit Opfer dieses schrecklichen Unfalls. Da es bei dem Hiroshima-Gedenktag auch um die atomare Technik geht, wird daran erinnert, welche Gefahren von dieser Art der Energiegewinnung ausgehen können.

Darauf erwiderte ich:

Sehr geehrter Herr xxxx,

erst einmal danke für die Rückmeldung. Allerdings kann ich Ihrer Argumentation nicht folgen. 

Im Infotext der Stadt Fürth steht: 

„ …. aber auch der Opfer der Atomkatastrophe im japanischen Fukushima im Frühjahr 2011.“

Bei einer solchen Textpassage, welche direkt hinter den gemeinsamen Opfern von zwei Atombombenabwürfen mit mindestens 232.000 direkten Toten (WIKIPEDIA) steht, „erwartet“ man schon eine besonders hohe Mortalität. Genannt werden aber selbst im Untersuchungsbericht des UNSCEAR-Reports 2013 für Fukushima keine Strahlen-Opfer.

Meinen Sie nicht, dass es eine bewusste textliche Suggestion darstellt, einer Strahlung ausgesetzte Katastrophen-Einsatzkräfte – welche davon keinen letalen Schaden davongetragen haben – in diesem Zusammenhang als Opfer im Sinne des besonderen, im Text ausschließlich einer extremen Atom-Opfer-Zahl bezogenen Gedenktages zu nennen? 

Bezogen auf Ihre Argumentation

„…auch um die atomare Technik geht, wird daran erinnert, welche Gefahren von dieser Art der Energiegewinnung ausgehen können.“

erlaube ich mir anzumerken, dass man bitte nicht Atombombenabwurf und Energiegewinnung in einem „Gedenken“ mischen sollte, nur weil eine gemeinsame Technologiebasis besteht. Dann muss man auch Tsunamis und Wasserkraftwerke so behandeln, wobei die Mortalität dieser extrem schrecklichen Energieform Wasserkraft (alleine der Tsunami 2004 forderte: 230.000 Tote , über 3 Millionen Menschen verloren ihr Zuhause, geborstene Staudämme forderten ebenfalls schon extreme Opferzahlen) dann um ein Vielfaches höher als die der Atomkraft selbst im Kriegseinsatz wäre.

Gerade Fukushima hat gezeigt, dass selbst der schlimmste Gau – mehrere gleichzeitige Kernschmelzen – zu keinem wirklich Bevölkerungs-relevanten Schaden führen muss.

Man mag gegen eine bestimmte Technologie sein (die Präsident Obama aktuell als die Zukunftstechnologie für die USA preist). Es ist aber bestimmt nicht Aufgabe der Stadt Fürth, dies mit falschen Darstellungen zu unterstützen.

Personen, welche keine genaueren Hintergründe kennen – und das ist die überwiegende Mehrheit – werden durch den Gedenktext auf jeden Fall vollkommen falsch informiert.

Fazit: Man sollte den Infotext der Stadt Fürth bezüglich der Darstellung Fukushima unbedingt richtigstellen, oder den Bezug zu Fukushima entfernen.

Als Anlage etwas Information zum Thema Fukushima

Abschließend kam die folgende Antwort

Sehr geehrter Herr yyyy,

ich respektiere Ihre Argumente und Ihre Meinung. Aber aus den in meiner Antwort genannten Gründen werden wir unseren Text nicht ändern.

Viele Grüße

xxx

[1]

Claudia Roth
11. März 2013 um 06:33

Heute vor zwei Jahren ereignete sich die verheerende Atom-Katastrophe von Fukushima, die nach Tschernobyl ein weiteres Mal eine ganze Region und mit ihr die ganze Welt in den atomaren Abgrund blicken ließ. Insgesamt starben bei der Katastrophe in Japan 16.000 Menschen, mehr als 2.700 gelten immer noch als vermisst. Hunderttausende Menschen leben heute fernab ihrer verstrahlten Heimat. Unsere Gedanken sind heute bei den Opfern und ihren Familien. Die Katastrophe von Fukushima hat uns einmal mehr gezeigt, wie unkontrollierbar und tödlich die Hochrisikotechnologie Atom ist. Wir müssen deshalb alles daran setzen, den Atomausstieg in Deutschland, aber auch in Europa und weltweit so schnell wie möglich umzusetzen und die Energiewende voranzubringen, anstatt sie wie Schwarz-Gelb immer wieder zu hintertreiben. Fukushima mahnt.

Heute vor zwei Jahren ereignete sich die verheerende Atom-Katastrophe von Fukushima, die nach Tschernobyl ein weiteres…

Posted by Claudia Roth on Montag, 11. März 2013




Mehr Blackouts durch intelligente Stromzähler?

Sogenannte „intelligente Stromzähler“ sind in Deutschland seit 2010 in Neubauten Pflicht: Die Geräte sollen dabei helfen, Schwankungen im Stromnetz auszugleichen. Die wachsende Menge an Strom aus erneuerbaren Energiequellen verstärkt diese Schwankungen bereits: Der Wind weht nicht immer gleich stark, und die Sonne scheint nicht überall gleich. Wird mehr Strom produziert, so sinkt der Strompreis ab – bei Windstille oder bewölktem Himmel dagegen sinkt die Produktion, so dass die Nachfrage und damit auch der Preis ansteigen.

Stromsparen bis zum Blackout? Intelligente Stromzähler sollen Schwankungen im Stromnetz ausgleichen – und könnten gerade dadurch zu Stromausfällen führen. Da die Geräte auf Angebot und Nachfrage reagieren, könnten auch am Strommarkt Blasen und Zusammenbrüche wie an der Finanzbörse entstehen, wie deutsche Physiker in Computersimulationen herausgefunden haben. Beim großflächigen Einsatz intelligenter Stromzähler müssten Versorger daher unbedingt auf diese Effekte vorbereitet sein, um Blackouts zu vermeiden, warnen die Forscher.

Mehr  auf Scinexx hier




Der Grüne Hans-Josef Fell tritt aus dem Bund für Umwelt und Naturschutz (BUND) aus, da dieser für den Naturschutz eintritt!

Fells besonderes politisches Engagement gilt der vollständigen Umstellung der konventionellen Energieerzeugung auf Erneuerbare Energien. Er ist neben dem SPD-Abgeordneten Hermann Scheer der „Vater“ des Erneuerbare-Energien-Gesetzes (EEG)(Anm. d. Redaktion: Außerdem waren noch die Grüne Michaele Husted und der SPD Mann Dietmar Schütz beteiligt). Außerdem ist er mitverantwortlich für gesetzliche Regelungen und politische Initiativen zur Förderung von Biokraftstoffen.

Im Juni veranstaltete die Bundeszentrale für politische Bildung in Berlin eine Podiumsdiskussion zur Energiewende und zum Klimawandel. Herr Fell war neben Herrn Limburg von EIKE als Diskussionsteilnehmer und selbsternannter Physiker, der selbst Messungen zum Treibhauseffekt durch CO2 vorgenommen hätte, anwesend. EIKE und Science Skeptical hatten berichtet.

In der letzten Woche kündigte Fell öffentlichkeitswirksam seine Mitgliedschaft beim BUND, da dieser seiner Meinung nach die Energiewende behindert und mehr Augenmerk auf den Naturschutz, als aus Ausbau der Erneuerbaren Energien legt. Fells Absicht: In die Öffentlichkeit gehen, um eine Diskussion über das Verhältnis von Naturschutz und dem Ausbau Erneuerbarer Energien anzustoßen. Seine Mitgliedschaft beim BUND gekündigt hat Fell deshalb am 20. Juli 2015, exakt am 40. Geburtstag des Verbandes (20. Juli 1975).

In seinem fünfseitigen Kündigungs-Schreiben übte Fell scharfe Kritik am BUND, insbesondere am Bund Naturschutz in Bayern (BN), dem bayerischen Landesverband des BUND. Der BN sei ein „starker Bremser“ und „Mitverursacher“ dafür, dass der Ausbau der Erneuerbaren in Deutschland „massiv zurückgeht“.

Der BN/ BUND nehme eine allzu kritische Haltung zu Netzausbau, Windenergie, Biogasanlagen, Solarfreiflächenanlagen und dem Ausbau bestehender Wasserkraftanlagen ein. Er nehme den Naturschutz wichtiger als den Ausbau der Erneuerbaren Energien; damit gefährde er den Atomausstieg und behindere den Klimaschutz.

Der BUND-Chef Hubert Weiger, der auch dem BN vorsteht antwortete in einem Schreiben zwei Tage später.

Die Vorwürfe Fells seien „in vielen Punkten nicht nachvollziehbar“ und „in der Sache in keiner Weise gerechtfertigt“. Der Kritik fehle „die Substanz“ und „die Kenntnis der umfangreichen Arbeit“ der Umweltorganisation, so Weiger.

Weiger schreibt:

[…] wir (bedauern), dass Du nun den BUND Naturschutz verlässt und zugleich mit Unterstellungen ungerechtfertigt öffentlich angreifst. […] Der Vorwurf, der BUND Naturschutz wäre „Mitverursacher, dass der Ausbau der Erneuerbaren Energien in Deutschland massiv zurückgeht“ ist abstrus, unverständlich und in der Sache in keiner Weise gerechtfertigt. […] In den Konfliktdiskussionen sehen wir uns zugleich als Treiber der Energiewende und als Naturschutz-Verband. […] Schutzgebiete sind jedoch keine Reserveflächen, sie müssen respektiert werden. […]

Weiger weist eindrücklich darauf hin, dass man die gleichen Ziele verfolgt, der Naturschutz aber beim Ausbau der Erneuerbaren Energien zu berücksichtigen ist. Das geht Herrn Fell gründlich gegen den Strich. Nichts darf der Energiewende im Wege stehen. Die Energiewende hat Vorrang und die Umwelt hat beim Vorhaben Energiewende hinten an zu stehen.

Auswirkungen dieser Energiewendepolitik sehen wir schon heute. Mit dem Ausbau der Erneuerbaren Energien und der Energiewende schreitet die Vermaisung und Verrapsung der Landschaften voran. Schon heute werden auf rund 1/5 der Ackerfläche Deutschlands Energiepflanzen angebaut. Intensive Monokulturen entstehen, Energiepflanzen wie Mais und Raps haben zudem eine negative Klimabilanz, die Böden und das Grundwasser werden durch Düngung und Pflanzenschutzmittel belastet, Artenarmut breitet sich aus, durch Abholzung von Knicks und Hecken, intensive Monokulturen und intensive Flächennutzung, fehlende Brachen, etc.. Landraub wird gefördert, Biolandwirten und Milchbauern wird das Land geraubt. Mit der Förderung von Biokraftstoffen wird der Ausbau von Palmöl in den Tropen gefördert und die letzten Regenwälder gerodet.

Vogelschutzgebiete und Rastgebiete gehen durch den Ausbau der Windkraft verloren. Vögel werden vergrämt und Vögel und Fledermäuse durch die Rotorblätter der Windkraftanlagen getötet. Auf See werden die Zugvögel durch die Lichter der Windkraftanlagen fehlgeleitet und sterben an Entkräftung. Schweinz-Wale werden bei der Errichtung von Offshore-Windparks geschädigt und das Weltnaturerbe Niedersächsiches Wattenmeer, welches einzigartig in der Welt ist, geschädigt. Stromtrassen, die mit dem Ausbau der Erneuerbaren Energien erforderlich werden, zerschneiden Ortschaften und belasten Mensch und Umwelt. Ein massiver Eingriff in die Umwelt.

Wasserkraftwerke behindern denn Fischzug und die Turbinen zerhäckseln Fische. Bleibt die Solarenergie. Die Solarenergie ist die teuerste Art der Energieerzeugung und die mit den größten Ausfallzeiten. Um Strom in der Nacht zu haben sind also massive Speicherkapazitäten von Nöten. Diese stehen nicht zur Verfügung und es ist auch nicht absehbar wann diese mal zur Verfügung stehen könnten. Speicherseen, die zur Speicherung des Solarstroms in Frage kommen, bedeuten aber massive Einschintte in die Umwelt. Deshalb entstehen auch immer mehr Bürgerinitiativen gegen die Errichtung von Speicherseen.

Bleibt festzuhalten, Grünen wie Herr Fell geht es nicht um den Naturschutz, sondern darum auf Teufel komm raus die Energiewende und den Atomausstieg zu vollziehen. „Klimaschutz“ und Atomausstieg ist das Ziel der Grünen, dabei steht die Natur nur im Weg. Viele Leute glauben immer noch, wenn sie grün wählen, würden sie auch den Naturschutz fördern. Es ist aber genau anders herum.

Quellen: Wikipedia, klimaretter, EIKE

Übernommen von Science Sceptical




Die vorausgesagte Erhöhung der Erdtemperatur durch CO2 wird immer kleiner

Abb rechts (zum Vergrößern anklicken).   Die vorausgesagte Erwärmung wird mit den Jahren immer kleiner 

Auf  https://landshape.wordpress.com/2015/06/20/6921/  ist eine Zusammenstellung der veröffentlichten Ergebnisse von 2000 an zu finden. ( s. Abb. ) Hier bedeutet ECS ( equilibrium climate sensitivity ) die Temperaturerhöhung bei dauernd doppelt so hoher CO2 Konzentration. TCR ( transient climate response ) bedeutet die Temperaturerhöhung über 20 Jahre bei 1% pro Jahr Änderung der CO2 Konzentration um den Mittelwert der verdoppelten Konzentration herum ( 1% ist nicht unrealistisch ). TCR ist wegen der Trägheit der Ozeane geringer als ECS. Die veröffentlichten Werte für beide Größen sind mit den Jahren kontinuierlich gesunken.

Obwohl eine Verdopplung der CO2 Konzentration wegen der Begrenztheit der Vorräte an Öl und Kohle etc. kaum erreichbar scheint, liegt die Voraussage selbst für diese hohen Werte für ECS bei nur etwa 2°C und für TCT nur bei etwa 1,8°C.

Dies, wohlgemerkt, ohne irgendwelche „Dekarbonisierungs“-Anstrengungen, welche die Welt ohnedies in Armut stürzen würden ( sollen?? ).

michaels-testimony-7-22-15 SHARE SHARING OPTIONSStart at: 0:00LoopAutoplay PERMALINK https://videopress.com/v/fYPBkAya EMBED (HTML)

Videoausschnitt der Zeugenanhörung von Dr. Pat Michaels vor dem US Senast zum selben Thema. Hier finden Sie seine schriftliche Aussage

Wir dürfen den Politikern ( welche die Klimaliteratur offenbar nicht kennen ) also Entwarnung geben. Eine Erderwärmung um mehr als 2 Grad C ist ausgeschlossen.

Die Abnahme der vorausgesagten Temperaturerhöhungen durch CO2 dürfte sich entsprechend dem bisherigen Trend fortsetzen.  Ca. im Jahre 2025 wird also voraussichtlich Erwärmung durch CO2 gleich Null erreicht sein. Man darf also erwarten, dass dann die Qualität der Voraussagen so gestiegen ist dass sie sogar die Wirklichkeit korrekt wiedergeben.




Zur Podiumsdiskussion über Klimawandel und Energiewende in der Bundeszentrale für politische Bildung (BPB) am 22.6.15 – Faktencheck Teil 3

In den Teilen 1 + 2 des Faktenchecks habe ich mich ausführlich mit den kontroversen Aussagen der Teilnehmer der ersten 13:46 und dann folgenden 21:27 Minuten beschäftigt. Um jedermann den Vergleich zwischen den gesagten Statements und Bestätigung oder Widerlegung der Behauptungen auf einfachste Weise sowie objektiv und fair zu ermöglichen, hat EIKE sich die Mühe gemacht und den gesamten gesprochenen Text mit Untertiteln samt Zeitmarken zum schnellen Auffinden (und damit zu überprüfen) der in Frage kommenden Stelle zu hinterlegen. Diese Prinzip wird auch hier im dritten Teil fortgesetzt.  Der Fairness halber wird allen Teilnehmern dazu noch die Möglichkeit angeboten, ihre Sicht der Dinge hier darzustellen.

Tonmitschnitt ab Minute 13:46 der Podiumsdiskussion am 22.6.15 in den Räumen der Bundeszentrale für politische Bildung. Der Tonmitschnitt kann zum einfacheren Vergleich der unten zitierten Aussagen deutsch untertitelt werden. Hier wird der Teil ab Minute 21:28 behamdelt.

Bisher hat nur der Teilnehmer  H.J. Fell indirekt diese Möglichkeit genutzt, indem er mir per Mail vom 12.7.15 mitteilte dass er sich nicht äußern wolle weil ich „… mit Falschinterpretationen, Faktenverdrehungen und  Aussagenverdrehungen arbeitet und gar noch den unseriösen Versuch unternimmt, eine Nichtantwort als Akzeptanz zu missinterpretierten.“ Das sei unseriös etc. etc.

In ähnlicher Weise der pauschalen Diffamierung von sachlich neutralen Anfragen vieler Leser an ihn direkt, beantwortete er deren Fragen. Die Leser mögen sich daher selbst ein Urteil bilden, sowohl über die Kompetenz der Herrn Fell  als auch seine Art auf höfliche Fragen mit Belegen über seine eindeutige Falschaussagen umzugehen.

Faktencheck Teil 3

Der oben gezeigte Mitschnitt fängt wieder bei 0:00 min, schließt aber nahtlos an das Ende des hier gezeigten Teilmitschnittes an.

Im Folgenden werden ausgewählte– weil kontroverse- Statements  ab Minute  21:28 behandelt.

H.J. Fell ab Minute (0:20:27)

Hier äußert er sich zum Erfolg der „Erneuerbaren“ in China (Meine Stellungnahme dazu ab Minute 0:02:43 hier, das braucht hier nicht wiederholt zu werden) und anderswo, um zu begründen, dass Deutschlands Aufwand zur Förderung der Nachhaltig Instabilen Energien(NIE) weit mehr brächte als die 4/1000 ° C weniger Erwärmung bei Reduktion der CO2 Emissionen um 85 % bis 2050.

(0:21:06) Fell:  Deswegen haben sie in die Erneuerbaren investiert und deswegen ist auch der Einfluss einer deutschen Industrie und Entwicklung wesentlich größer als der minimale Einfluss über die eigenen CO2-Emissionen.

Fakt ist,

dass 1. Herr Fell damit bestätigt, dass eigene Klimawirkung des deutschen CO2 Senkungsprogrammes, noch kleiner als mikroskopisch klein ist, und nur über die erhoffte Verstärkung bei der Verwendung  „deutscher“ Technologien dieser größer würde.

Fakt ist aber auch, dass auch diese Hoffnung trügt, denn wie z.B.  Björn Lomborg, ein ebenso überzeugter Anhänger der Treibhaushypothese, aber auch Kritiker, der aus seiner Sicht völlig verfehlten Klimapolitik, in der FAZ vom 8.Mai 2015 richtig feststellte[1]:

„Im optimistischen, „grünen“ IEA-Szenario werden Solar- und Windenergie in 40 Jahren bloß 2,2 Prozent der weltweiten Energieversorgung ausmachen. Trotz der in unserer Kultur allgegenwärtigen Auffas­sung, dass Solar- und Windenergie kurz davor seien, den Klimawandel aufzuhal­ten, wissen sogar Schwarzseher wie der Klimaberater von Al Gore, Jim Hansen, dass dies nicht der Fall ist:

„Wer glaubt, dass wir uns in den Vereinigten Staaten, in China, Indien oder auf der ganzen Welt dank erneuerbarer Energien kurzfristig von fossilen Brennstoffen verabschieden können, der glaubt auch an den Osterha­sen und an die Zahnfee.“

..Die einfache unbequeme Wahrheit lau­tet, dass Solar- und Windenergie noch nicht ausgereift sind: Sie sind zu teuer und benötigen teure Reserven, wenn der Wind nicht bläst oder die Sonne nicht scheint….

…Makroökonomische Modelle weisen zudem darauf hin, dass der wirtschaftliche Verlust durch Erneuer­bare wesentlich größer sein könnte als ein­fach nur deren Mehrkosten, da erhöhte Produktionskosten alle anderen Branchen schwächen und das Wachstum drosseln. Der Durchschnitt aller großen Modelle deutet darauf hin, dass die derzeitige Kli­mapolitik Deutschland bis 2020 jährlich 43 Milliarden Euro kostet….

… In den vergangenen 30 Jahren hat China durch die Nutzung billi­ger, wenn auch umweltschädlicher Kohle 680 Millionen Menschen aus der Armut befreit. Von China zu verlangen, diesen Prozess durch unausgereifte teure erneuer­bare Energien zu verlangsamen, wird wohl nicht gelingen. Im Hinblick auf 800 Millionen in extremer Armut lebender Menschen in Indien und Afrika ist es Wunschdenken, von diesen Ländern ein Umsteigen auf Erneuerbare zu erwarten.“

Dem ist eigentlich nichts hinzufügen, abgesehen von der weiteren wesentlichen Einschränkung, dass in den 15 Jahren des Wirkens des Fell´schen EEG´s zwar Unsummen für die Erzeugung dieser NIE ausgegeben wurden, deren Anteil an der Stromproduktion dadurch zwar auf 27 % stieg,  aber  nicht zu einer Minderung des CO2 Ausstoßes der Kraftwerke bei der Stromproduktion führte. Deren Emissionen lagen per 2014 lediglich um 2 % unter denen des Jahres 2000, und damit für jeden eindeutig erkennbar unterhalb jeder Signifikanzschwelle.

0:21:27 Frau Dr. Zink fragte: Wie hoch liegen denn die Kosten für die Energiewende?

Kommentar:

Eigentlich kann man diese Frage als erledigt abhaken, denn sie wurde schon ausführlich im Teil 2 beantwortet. Doch interessant ist, wie insbesondere Frau Dehmer und Herr Fell, versuchten die offensichtlich extremen Kosten durch „Mathematisieren“  [2] geringer erscheinen zu lassen als sie es in Wirklichkeit sind.

Während der zunächst angesprochene Herr Brabeck mit etwas wirren Äußerungen die Zulässigkeit der Frage bestritt, und behauptete unsere Volkswirtschaft sei ja (bisher) in der Lage diese Kosten zu „stemmen“, dabei aber die bereits bestehende und sich schnell ausbreitende „Energiearmut“ (ca. 1 Mio Haushalte können bereits jetzt ihre Stromrechnung nicht mehr bezahlen) zunächst nicht kannte, aber dann meinte, die solle man möglichst vermeiden, durfte ich im Anschluss auch zu dieser Frage Stellung nehmen.

0:23:56 Frau Dr. Zink fragte: Ja, Herr Limburg: wie beurteilen sie eine Kosten der Energiewende?

Meine Antwort lautete zusammengefasst, dass wir bis zum Jahre 2013 und nur für das EEG bereits rd. 122 Mrd €  bezahlt hätten und noch 330 Mrd € zu zahlen haben. Und wir würden bis 2022 bereits die 1,2 Billionen €  Grenze überschreiten  und, bis zum Jahre 2050, irgendwo bei 7 bis 9 Billionen € landen. Bei einem Gegenwert der gleich Null ist.

Wie setzen sich die z.B. 7 Billionen € zusammen? Sinngemäß übernommen wird der folgende Text aus diesem Beitrag „Die deutsche Energiewende – das Billionen-Grab“ [3]

Quelle hier

Allein die zusätzlichen Stromkosten, die das Erneuerbare-Energien-Gesetz (EEG) verursacht, lassen  sich mit mindestens 2 Billionen € veranschlagen. Die zusätzlichen Kosten für das Stromnetz mit weiteren Trassen müssen auf 1 bis 1,5 Billionen € veranschlagt werden.
Die Energiesparverordnung (EnEV) führt einer Kostenbelastung von rund 3 Billionen €. Hinzukommt: Mit zu hohen Stromkosten verlieren Betriebe an Wettbewerbsfähigkeit. Zwingt das, wie es schon geschieht, zu Schließungen oder zu Verlagerungen ins Ausland, gehen Arbeitsplätze dauerhaft verloren. Die Kosten, die sich daraus ergeben, sind noch nicht bezifferbar, aber es werden, viele weitere Milliarden sein. Hinzukommt auch, dass mit immer mehr Windkraft- und Fotovoltaikanlagen die Gefahr für die Netzstabilität noch größer wird als schon bisher. Denn der Strom mit Wind und Sonne ist höchst unzuverlässig, ist „Flatterstrom“. Netzzusammenbrüche führen zu flächendeckenden Stromausfällen. Auch diese Kosten lassen sich vorher schwer berechnen. In die Milliarden werden auch sie gehen.

Und, da diese 7 Billionen €  Mindestschätzungen sind, kann man erwarten, dass auch die 9 Billionen-Grenze erreicht oder sogar überschritten wird.

Auf keinen Fall darf übersehen werden, dass Investitionen in „Erneuerbare“ eine zusätzlich Infrastruktur schaffen, zusätzlich zur bereits bestehenden!  Und nur durch deren gesicherte Zwangsabnahme, dank der gesetzlichen Vorrangeinspeisung, haben diese überhaupt Abnehmer, bzw. einen Markt

Und darauf versuchte Frau Dehmer konträr einzugehen, als sie feststellte

(0:27:05) Frau Dehmer

Weil, das sind natürlich völlig alberne Zahlen!

Wenn Sie sich wenn sie sich mal ernsthaft überlegen was eine Billion bedeuten würde oder lassen Sie es 2 Billionen sein, bezogen auf 35 Jahre zum Aufbau einer Infrastruktur, die ohnehin erneuert werden musste, Es ist ja nicht so, dass wir ne Infrastruktur haben die so topfit war und so brandneu, dass man da gar nichts hätte tun müssen. Man hätte in das Energiesystem auf jeden Fall investieren müssen.

Viele haben es ja auch getan. Dann ist das keine wahnsinnig große Zahl mehr, wenn sie das mal runterbrechen auf das was es dann für den Strompreis heißt, das ist mal das eine… dass sie natürlich völlig ignorieren, das wir das Stromsystem davor unter Monopol-Marktbedingungen, als es noch staatliche Unternehmen gab, aufgebaut haben. Auch das war von uns allen jederzeit subventioniert und die Zahl, die ist genauso atemberaubend, wie die, die sie jetzt gerade auf den Tisch gelegt haben.

Hiermit stellte Frau Dehmer vier Behauptungen auf, dass

1.     die Energiewende (denn darauf bezog sich die Frage) nur 1 bis 2 Billionen € kosten würde

2.     die Infrastruktur der Stromerzeugung ohnehin zu erneuern wäre, weil nicht „topfit“ und „brandneu“ sei, im Grunde also – meine Interpretation- ziemlich „marode“

3.     dass die Kosten für die Erneuerung dann  .. keine wahnsinnig große Zahl mehr seien, besonders wenn man sie auf den Strompreis herunterbreche..

4.     Die bisherige Infrastruktur Investitionen verlangt hätte, mit einer ...Zahl, die ist genauso atemberaubend die, die Sie jetzt gerade auf den Tisch gelegt haben. Oder vielleicht sogar noch atemberaubender

Fakt ist jedoch: Alle diese Behauptungen sind falsch!

Zu 1: Kosten der Energiewende:

Wie oben gezeigt, wenn die Energiewende, die das EEG und seine Folgelasten enthält, aber auch den Netzaufbau, die Energie-Einsparverordnung, und viele andere Lasten zur gewaltsamen Senkung der CO2 Emissionen verlangt, bis zum bitteren Ende durchgeführt wird, dann werden wir ziemlich sicher irgendwo zwischen 7  und 9 Billionen € landen.

Zu 2. Modernität

Deutschland verfügte bis vor kurzem über die modernsten und zuverlässigsten Stromerzeugungs- und Verteilkapazitäten der Welt. Die Ausfallsicherheit von 1/10×10^6 war bisher weltweit Spitze.

Das weltweit modernste Kraftwerk (GuD) mit einem Gesamtwirkungsgrad von > 60 % wurde in 2011 in Irrsching in Betrieb genommen. Inzwischen wurde es mangels Auslastung stillgelegt. Daher kann von einem Nicht-Topfit oder gar „marode“ – bzw. Investitionsstau keine Rede sein.

Zu 3 und 4. Erneuerungskosten

Doch gesetzt den Fall, Frau Dehmer würde richtig damit liegen, dass der gesamte Kraftwerkspark in Deutschland erneuert werden müsste, was würde das zu heutigen Preisen kosten[4]?

Die Kraftwerksplaner rechnen mit rd 1 Mio € pro MW installierter Leistung[5] oder 1 Mrd €/GW. In Deutschland sind aktuell (konventionelle wie Kern-) Kraftwerke mit 97.000 MW oder 97 GW Leistung installiert. Bei den angenommenen Kosten von 1 Mrd €/GW ergibt das ein Investitionsvolumen von 97 Mrd €, oder 0,097 Billionen €.

Das sind noch nicht einmal 10 % der Summe, die Frau Dehmer für den bisherigen Kraftwerkspark angibt.

Rechnet man mit einer Abschreibung von 30 Jahren, dann müssen Jahr für Jahr für neue Kraftwerke für rd. 3,2 Mrd € investiert werden. Und auch das sind nur wenige Prozent der Summen die zusätzlich in „Erneuerbare“ investiert, besser, verbrannt werden. Denn weder Wind noch Sonne liefern dann sicher Strom, wenn er gebraucht wird, also müssen konventionelle Kraftwerke zusätzlich vorgehalten werden, was die Kosten weiter steigert, denn denen steht kein Gewinn gegenüber.

Natürlich  ist auch der bisherige Netzausbau zu berücksichtigen. Es handelt sich dabei um einige zehntausend km Hoch- und Höchstspannungsleitungen, viele zehntausend km Mittelspannungsleitungen und wenige Mio km Niederspannungsleitungen. Dazu kommen noch einige hundert Umspannwerke. Diese sind bisher optimal von den wenigen ( < 700) Kraftwerken, die nahe den großen Verbrauchszentren errichtet wurden, zu den Millionen Verbrauchern übers Land gespannt worden.

Sie unterliegen natürlich einem Verschleiß, der, weil es so gut wie kaum bewegte Teile gibt, mit Wartungs-  und  Erneuerungskosten von unter 1 % der Investitionssumme erledigt werden kann.

Auch dieses ökonomisch optimale Modell kehrt die Energiewende um, indem sie es erzwingt Millionen von Kleinerzeugern (bisher ca. 25.000 WKA und >1,4 Mio PVA Anlagen und x Biomasse KW) mit unterschiedlichsten Leistungsprofilen anzuschließen, ohne das bisherige Netz zu ersetzen zu können. Auch der Aufbau dieser zusätzlichen Leitungen ist ausschließlich den NIE geschuldet, die kein Mensch braucht.

Damit zeigt sich erneut, welche abenteuerliche  Vergleiche in der Öffentlichkeit gezogen werden können, ohne das sich auch nur einer unter den anwesenden „Experten“ (weder Herr Brabeck, noch Frau Zink, vom verblendet-gläubigen Herrn Fell gar nicht zu reden) es für angebracht hielt einzugreifen.

Als Paradebeispiel dazu nochmals Frau Zink, die sagte

(0:31:19) Sind es denn überhaupt die erneuerbaren Energien, die bei der Energiewende wirklich so kostenexplosionsartig sind, weil, ich hab da mal Rechnungen mir angeschaut da sind die gar nicht so groß?

Welche Rechnungen sie da angeschaut hatte, sagte sie zwar nicht, aber sie lieferte damit bewusst eine Steilvorlage für Herrn Fell, der den Spieß versuchte umzudrehen, indem er dem alten Sprichwort nacheiferte in dem der Dieb versucht von sich abzulenken indem er „haltet den Dieb“ ruft.

Fell: 0:31:31

Nein, sie sind es nicht!

…Insofern sind die erneuerbaren Energien die Preissenker!

…und verwies dann auf das ominöse Diskussionspapier der FAU in Erlangen, die versuchten mittels abenteuerlicher Annahmen nachzuweisen, dass wir ohne die „Erneuerbaren“ (NIE) 11 Mrd. €  jährlich mehr für unsere Stromrechnungen zu bezahlen gehabt hätten. Dazu haben wir hier und auch hier bereits ausführlich Stellung genommen. Hinzufügen wäre nur noch die Feststellung, dass, wie in Abb. 6 Teil 2 der Podiumsdiskussion dargestellt, die CO2 Emissionen fossiler Kraftwerke praktisch ungebremst weiter laufen, von einer Brennstoffeinsparung nichts, aber auch gar nichts zu sehen ist.  Es ist also reines Wunschdenken, bei dem die schnöde Realität nur stört.

0:33:02 Fell weiter zum Atom-Endlager

Sie haben völlig zu recht erwähnt (gemeint ist Frau Dr. Zink) , kein Mensch weiß heute, was die  Atommüll-Entsorgung kostet. Wir haben hier einen offenen Flug begonnen, ohne Landung zu haben und niemand weiß es! Nur eines ist klar wenn es noch mehr Atommüll gibt, dann wird es mit Sicherheit noch ein paar viele Billionen Euro teurer

Fakt ist.

Was Herr Fell –geübt in jahrzehntelanger Praxis der politischen Diskussion –  völlig unterließ zu erwähnen, war, dass es die Grünen mit ihren Hilfstruppen der Kernkraftgegner waren, die im Jahr 2001 durchsetzten,  dass die Endlagerforschung für 10 Jahre verboten wurde. „Moratorium“ wurde dieser einmalige Grundgesetzverstoß gegen die Freiheit der Wissenschaft, genannt.

Wohlwissend, dass damit die Wunde „kein Endlager“ immer offen gehalten werden konnte. Das fast vollständig, für rd. 2 Mrd € ausgeforschte,  hervorragend geeignete Endlager Gorleben, wird inzwischen aufgegeben und „ergebnisneutral“ neu gesucht. Dabei wird  so getan als ob ein neuer Standort gesucht wird. Insofern haben die Grünen danke ihrer Angstkampagnen dafür gesorgt, dass dem höchst erfolgreichen Flug (um bei der Metapher von H.J. Fell zu bleiben) der Kernenergienutzung  den Deutschland mit den sichersten KKW der Welt -international führend- begonnen hatte, plötzlich kein Landeplatz mehr zur Verfügung stand. Eine zynischere Verdrehung der Tatsachen bekam man selten zu Gehör.

Anschließend drehte sich die Diskussion um das politische sog. 2 ° Ziel. Da hier auf diesem Blog und auch woanders schon soviel zu diesem Humbug gesagt und geschrieben wurde, will ich nicht ausführlicher darauf eingehen.

Nur eines noch:

Am Minute 0:35:30 führte ich aus, dass die Welternährung heute, dank der erhöhten  CO2 Konzentration in der Atmosphäre viel besser sei als früher. Ich erwähnte, dass die Ernten von C3 Gräsern (umfasst häufig genutzte Getreidesorten) um etwa 11 % gestiegen sei. Doch da habe ich mich in der Zahl geirrt.

Tatsache ist, dass die Ernten von C3 Gräsern, dank des CO2 um ca. 70 % gestiegen sind.  Um 11 % wuchs allein in den letzten 30 Jahren die Fläche auf der Erde die grüner wurde. Siehe Abb 1

Abbildung 1: Bild der ergrünenden Erde mit farbig gekennzeichneten Flächen bei denen eine Vegetationsveränderung über die letzten 30 Jahre stattgefunden hat. Bilanz: Deren Fläche ist heute um 11 % größer als zuvor.

und wieder fühlte sich die Moderatorin aufgerufen für Herrn Fell die Stichwortgeberin zu spielen, indem sie fragte

(0:37:47) Herr Fell Sie haben ja in ihrem Buch „Globale Abkühlung“ gehen sie sogar noch weiter und sagen, dass reicht überhaupt nicht aus, das Zwei Grad-Ziel! Eigentlich muss man ja sagen in der Tendenz, ..aber in der Tendenz ist es ja so; wir müssten eigentlich sowieso Richtung Abkühlung geben,.. Sie sagen jetzt, es ist eigentlich besser, wenn wir von der globalen Abkühlung sprechen und das als Ziel setzen.  Können Sie uns das mal erklären bitte!

Herr Fell nahm den Ball gerne wieder auf und äußerte sich umfassend über die „jetzt schon“ spürbaren Auswirkungen der Welt-Erwärmung. Dabei verschwieg er den nunmehr fast zwanzigjährigen Stillstand der Erwärmung, stattdessen vereinnahmte er alle Wetterkatastrophen der jüngeren Vergangenheit mit „Massen Toten… mit Vernichtung von Immobilien“,  und führte beispielhafte den Wirbelsturm  auf den Philippinen mit rd. 7000 Toten an.

Als Kronzeugen führte er dazu die Münchner Rück an, die „die uns akribisch genau, jedes Jahr vorrechnet, wie hoch die Schadensbilanz infolge der Welterwärmung ist..,“  Und nannte auch die Klimaforscher, (die) zu Recht immer gewarnt haben. Diese Wetterextreme werden zunehmen und sie sind da. (assistierender Zwischenruf von Frau Zink:…Stärkere Regenfälle, stärkere Stürme..) stärkere Stürm,e Wüstenausbreitungen, nichts anderes.“ Um dann abzuschließen mit den Worten (0:39:13):

Fakt ist, dass die Schadensbilanz  jetzt schon, bei Null Komma 8 Grad Celsius Welt-Erwärmung zu hoch und untragbar für diese Menschheit ist. Und das wir deswegen Wege suchen müssten.. dass wir deswegen Wege suchen müssten die Welterwärmung eben nicht weiter anwachsen zu lassen bis 2 Grad oder, um Himmels Willen noch mehr hinaus, sondern, dass wir Wege finden müssen, sie zu stoppen.

Das stoppen stellte er sich als massenhafte Verbreitung sog. Nullemissionstechnologien vor, weil die 400 ppmv CO2 in der Atmosphäre schon jetzt viel zu viel seien.

Kommentar:

Fell zeigt hier wieder das typische Verhalten von Politikern,  die den Wählern schmerzhaften Verzicht schmackhaft machen wollen, indem sie Nichthandeln als eine viel, viel größere Gefahr – und beim Klima geht es immer gleich um die ganze Welt-  darstellen. In diesem Fall muss die irreführende ( Anm. des Autors: leider kann ich hier kein weniger kräftiges Wort verwenden, weil die hier gebrachten Behauptungen von Herr Fell  wirklich nur irreführend waren) Argumentationsweise des Herrn Fell, über die schrecklichen Wetterextreme herhalten, obwohl jeder der lesen und schreiben und vielleicht noch rechnen gelernt hat, weiß, dass Wetterextreme schon immer auftraten, schon immer als große Unglücke empfunden wurden, gegen deren Wirkung man sich evtl. schützen, deren Entstehen aber nicht verhindert werden kann. Auf jeden Fall aber sind und bleiben es Wetterereignisse

In seinen späteren Ausführungen bot Herr Fell dann an, gern „wissenschaftlich“ (0:41:27) über sein Buch diskutieren zu wollen. Ein Angebot, das er jedoch sobald sich eine ernsthafte Gelegenheit dazu bot, z.B.  mit EIKE Lesern, die ihm Emails mit klaren Fragen und Belegen sandten, über ihre und seine Methoden zu diskutieren, entrüstet zurücknahm.

Wissenschaftlich wäre hingegen auch hier gewesen, wenn er nachgewiesen hätte, dass sich die derzeitige  Extremwetterentwicklung in irgendeiner Weise signifikant (um mal wieder ein Modewort aus der Statistik zu verwenden)  und vor allem negativ von der früheren unterscheidet. Da dem nicht so ist , wie selbst das IPCC zugeben musste und wie sämtliche neutralen Meteorologen unablässig wiederholen, beschränkte sich Herr Fell, und hier muss man wohl leider sagen bewusst, auf die Irreführung des Publikums.

Leider assistiert von der voreingenommenen Moderatorin, die einmal mehr die gebotene Neutralität verletzte und zudem ihre Hausaufgaben nicht gemacht hatte. Sie hätte sonst wissen müssen, dass es weder weltweit noch in Deutschland eine Zunahme vom Extremwetterereignissen gibt.

Fakt ist..

weder das IPCC noch der DWD, noch die beiden zuarbeitenden Klimainstitute – mit einer Ausnahme, dem chronisch alarmistischen PIK-  geben an, dass sie eine Zunahme, weder an Zahl noch an Intensität z.B. an Wirbelstürmen, Tornados noch sonst was, gefunden hätten.

Abbildung  2 Zitatesammlung aus dem letzte IPCC Bericht zur Situation der Extremwetterentwicklung. Eine vollständige Quellenangaben dazu  finden Sie im Anhang.

Und das weder in der Vergangenheit, noch in den Klimamodellen. Dazu Meteorologe Jochem Marotzke: „In unserem Computermodell brauen sich weder mehr Stürme noch stärkere Stürme über uns zusammen“ (Jochem Marotzke, Direktor MPI HH, in DER SPIEGEL, 7.5.2007, Abschied vom Weltuntergang,  S.145)..

Es mag sein, dass inzwischen die Modelle so getrimmt wurden, dass sie den gewünschten Weltuntergang zeigen, doch wie fast immer bei den Klimamodellen folgt die Wirklichkeit ihnen nicht. S. Abb 2 und Abb3.

Abbildung 3 Diagramm der Extremwetterentwicklung nach Angaben der von Herr Fell zitierten Münchner Rück zu großen Wetterkatastrophenentwicklung. Tendenz rückläufig, sowie Erklärungen der Swiss Re für diese Situation.

Und vom Münchner Rück „Klimapapst“ Prof. Dr. Höppe – dessen Haus von Herrn Fell als akribisch notierende „Kronzeugin“ angeführt wurde- ist zu lesen.

Dass das Ausmaß der Katastrophen immer drastischer wird, ist eindeutig zu erklären: Die Bevölkerung ist gewachsen, zudem sind die betroffenen Sachwerte höher als früher“ (FTD 20.08.2010, S 13) .. um wenig später hinzuzufügen

„Hauptgrund für die markant steigenden Schadenssummen durch Natirkatastrophen in den sozioökomischen Bedingungen (Wertkonzentration und Besiedlung exponierter Regionen, Bevölkerungszunahme, höhere Schadenanfäligkeit) zu suchen ist“

0:40:11. H.J. Fell behauptet

da ja die Welt-Temperatur – das wissen wir seit langen Zeitrahmen über Millionen von Jahren hinweg dem CO2-Gehalt zeitverzögert folgt, müssen wir auch, müssen wir auch dafür Sorge tragen, dass der Kohlendioxidgehalt in der Atmosphäre reduziert wird.

Kommentar:

Eine derartig absurde Ursache-Wirkungsbeziehung, ist eine reine Erfindung des H.J. Fell. Und wird wissenschaftlich durch nichts und niemanden gestützt. Im Teil 1 bin ich ausführlicher darauf eingegangen. Es sieht eher nach der alt bewährten Methode aus, erstmal das Gegenteil von dem zu behaupten was wahr ist, um die Zuhörer zu verblüffen.

Abbildung 4 : Temperatur- und CO2 Verlauf aus Eisbohrkernmessungen nach petit et al 1999. Zusätzlich eingezeichnet die höher aufgelöste Zeitspanne von vor rd. 20.000 bis 40.000 Jahren. Deutlich ist der Nachlauf der CO2 Konzentration zu erkennen.Grafik J. Herold

Fakt ist:

Niemals in der Vergangenheit hat CO2 die Globaltemperatur gesteuert. Dafür gibt es keinerlei Anhaltspunkte, und auch keine Beobachtungen. Doch das Gegenteil ist richtig. Ändert sich die globale Mitteltemperatur dann ändert sich – mit gehörigem zeitlichen Nachlauf von im Mittel 800 Jahren-  auch der CO2 Gehalt der Atmosphäre. Das zeigen die Eisbohrkerndaten ganz deutlich.

Und der Prozess dafür ist auch gut bekannt. Wärmeres Wasser kann weniger Kohlensäure binden, als kaltes Wasser. Wird Wasser wärmer gast CO2 aus, wird es kälter, wirkt es als CO2 Senke und nimmt CO2 auf. Immerhin bedecken die Ozeane rd. 70 % der Erdoberfläche, dies ist ein gewaltiger Speicher in dem etwa 50 bis 70 x mehr CO2 als in der Atmosphäre gebunden ist.

CO2 muss abgesenkt werden

Ab Minute 0:41:37 führt H.J.Fell aus, warum er den CO2 Gehalt der Atmosphäre auf den vorindustriellen Wert von 280 ppm senken will und liefert dafür wieder eine Begründung die dem Faktencheck nicht standhält:

Er sagte:

Aber eines ist klar, dies ist die entscheidende Aufgabe der Menschheit. Zu gucken wie wir wieder auf das CO 2 -Gehalt des vorindustriellen Niveau kommen,  denn das war die Grundlage für 20 tausend Jahre ähnlich gleichbleibendes Klima auf der Erde. Wo sich erst… wo sich erst die Hochkulturen der Menschheit entwickeln konnten.

Fakt ist

1.     dass der CO2 Gehalt der Atmosphäre zumindest wissenschaftlich umstritten ist, wie ich im Teil 2 (Hier) ausführlicher erläuterte.

Und aber viel wichtiger

2.     dass sich die Hochkulturen der Menschheit alle bei warmen bis sehr warmen Temperaturen – oft deutlich höher als heute – etablierten.

Abbildung 4 Holozäne Optima und Pessima (nur Temperaturen) im wesentlichen der nördlichen Hemisphäre. Ebenso ist die Zeit der römischen Hochkultur eingezeichnet. Dies trifft ebenfalls für die frühere ägyptische Hochkultur zu. Sie waren ausnahmslos zu Warmzeiten möglich. Literaturangaben zur Abbildung vgl. unter Dansgaard & Johnsen (1969) und Schönwiese (1995). Man beachte dass die Schwankungsbreite rd 3 K betrug. Die Grafik wurde von David Archibald aus den genannten Quellen erstellt. Weitere Infos: „Klima- u. Vegetationsgeschichte SO-Europas sowie des östl. Mittelmeerraums“.

Dann folgten noch Meinungsäußerungen zum möglichen „Erfolg“ der kommenden UNO Klimakonferenz in Paris Anfang Dezember des Jahres. Insbesondere Frau Dehmer begründete umfangreich, sowohl die ihrer Meinung nach bestehende Notwendigkeit, dass die Konferenz zu einem Erfolg würde, als auch die veränderten Rahmenbedinungen, die sich seit der Konferenz von Kopenhagen im Winter 2009 ergeben hätten.

Soweit, so Meinung!

Eine subjektive Schlussbetrachtung

Wie gezeigt werden konnte sind die meisten Behauptungen der anderen Teilnehmer zum Klimawandel, zur Energiewende – insbesondere deren Kosten-  falsch oder in Einzelfällen bestenfalls halbwahr (z.B. Chinas CO2 Emissionen und NIE Investitionen). Aber sie klingen für den Laien in fast allen Fällen  plausibel. Und werden deshalb gern geglaubt.

Die Frage, die mich daher am meisten beschäftigt ist: Warum sagen diese Leute das? Die einfachste Erklärung wäre: In der Politik muss gelogen werden und wird gelogen.  Frei nach Jean-Claude Juncker: „Wenn es ernst wird, dann muss man lügen“. Und ernst ist es mit den gewünschten politischen Folgen dieser Ideologie. Doch das meine Podiumskollegen wissentlich und willentlich gelogen haben, glaube ich nicht.

Ich glaube vielmehr, dass sie der festen Überzeugung waren und sind, wahre, weil oft schlüssige oder wenigstens plausible, Argumente gebracht zu haben. Trotzdem waren viele von ihnen vielleicht schlüssig, aber trotzdem einfach falsch. Eine Erklärung liegt sicherlich in der mangelhaften Kompetenz der Teilnehmer, zu der sich wenigstens Herr Brabeck des öfteren bekannte.

Eine weitere Erklärung – besonders bei Herrn Fell- ist m.M.n. nicht unbedingt eine zu geringe Kompetenz in naturwissenschaftlicher Hinsicht – wenn auch seine herablassenden Äußerungen zu manchen Beiträgen und Überprüfung seiner eigenen deutlich zeigen, dass er sich und sein Wissen deutlich überschätzt, sondern die nach eigenem Bekunden existierende reale Angst, dass die Welt – ohne Gegenmaßnahmen- einem Hitzetod entgegen geht.

Und diese Angst verleitet dazu, alle Pro & Contra-Argumente und Fakten nur sehr selektiv aufzunehmen. Also ist (letztendlich gewollte) Unwissenheit die Quelle der Angst, die wiederum das Motiv für seine Aktionen liefert. Das Angebot von einigen Lesern diese Unwissenheit per wissenschaftlich fairer Diskussion wenigstens eine wenig zu vermindern, wurde von ihm bisher aber nicht angenommen.

Eine weitere Erklärung wäre auch, weil z.B. Frau Dehmer der Konferenz in Paris während der Podiumsdiskussion (0:29:00) und in der anschließenden Diskussion deswegen viel Erfolg wünschte, weil wir (sprich der reiche Westen, von dem sie ein nutznießender Teil ist) den armen Länder etwas weggenommen hätte, was es nun aus Gerechtigkeitsgründen auszugleichen gälte.

Diese tiefsitzende Wut über vermeintlich reale oder eingebildete Ungerechtigkeit auf der Welt, scheint mir der eigentliche Motor, das treibende Motiv vieler Anhänger der Treibhaushypothese zu sein.

Doch letztendlich verbirgt sich dahinter nur die übliche  sozialistische Litanei, ja man auch sagen, das sozialistische Glaubensbekenntnis. Weil die Mär von der herannahenden menschgemachten Klimakatastrophe die geeignete Erzählung ist, um endlich das sozialistische Paradies zu schaffen. Es heißt jetzt nur anders.

Viele hochrangige IPCC Vertreter, vom Schmuddelerotiker und Ex Chairman Pachauri angefangen, über die Millionärstochter Christiana Figueres, Vorsitzende des UNFCC oder des IPCC Vizepräsidenten und Ex Jesuiten Otmar Edenhofer, um nur einige zu nennen, wie auch die neue Enzyklika des Papstes – entstanden unter tatkräftiger Mithilfe von PIK Chef Schellnhuber, verfolgen mit Inbrunst dieses Ziel

Das darf niemanden verwundern, weil es oft genug öffentlich festgestellt wurde. Die folgenden Originalzitate belegen dies eindeutig:

Rajendra Pachau­ri IPCC Chef in Na­ture vom 19.12.2007:

Wir wa­ren so trun­ken mit un­se­rem Wunsch, im­mer mehr und mehr zu pro­du­zie­ren und zu kon­su­mie­ren, egal wel­che Aus­wir­kun­gen auf die Um­welt das hat, dass wir uns auf ei­nem völ­lig un­halt­ba­ren Weg be­fin­den“, sagt er. „Ich wer­de mich nicht zu­rück­leh­nen, bis ich in je­dem mög­li­chen Fo­rum die Not­wen­dig­keit zum Aus­druck ge­bracht habe, dass wir grund­le­gen­de struk­tu­rel­le Än­de­run­gen hin­sicht­lich des wirt­schaft­li­chen Wachs­tums und der Ent­wick­lung vor­neh­men müs­sen. Das ist es, wor­um es wirk­lich geht. Die Kli­ma­än­de­rung ist le­dig­lich ein Teil da­von.

Otmar Edenhofer NZZ vom 14.11.2010 erklärt im In­ter­view ganz deut­lich was von sei­ten der UNO und der sie un­ter­stüt­zen­den Krei­se ei­gent­lich an­ge­strebt wird:

„Zu­nächst mal ha­ben wir In­dust­rie­län­der die At­mo­sphä­re der Welt­ge­mein­schaft qua­si ent­eig­net. Aber man muss klar sa­gen: Wir ver­tei­len durch die Kli­ma­po­li­tik de fac­to das Welt­ver­mö­gen um. Dass die Be­sit­zer von Koh­le und Öl da­von nicht be­geis­tert sind, liegt auf der Hand. Man muss sich von der Il­lu­si­on frei­ma­chen, dass in­ter­na­ti­o­na­le Kli­ma­po­li­tik Um­welt­po­li­tik ist. Das hat mit Um­welt­po­li­tik, mit Prob­le­men wie Wald­ster­ben oder Ozon­loch, fast nichts mehr zu tun.“

U.N.FCC Präsidenting Christiana Figueres speaks during an interview at the World Economic Forum in Davos, Switzerland, on Jan. 22, 2014

„This is the first time in the history of mankind that we are setting ourselves the task of intentionally, within a defined period of time, to change the economic development model that has been reigning for at least 150 years, since the Industrial Revolution,“ she said. „This is probably the most difficult task we have ever given ourselves, which is to intentionally transform the economic development model for the first time in human history.“

Damit ist ganz offenkundig, dass über die (bisher erfolgreiche) Panikmache mit der menschgemachten Klimakatastrophe, von den Haupt-Beteiligten eine ganz andere Agenda betrieben wird. Nämlich die, den Sozialismus über einen dritten (Um-)Weg doch noch einzuführen. Aufgeschrieben hat das auch der „Wissenschaftliche Beirat Globale Umwelt (WBGU)“ der Bundesregierung in seiner Broschüre zur großen Transformation: „Die Welt im Wandel“, welches zur besseren Beeinflussung von Kindern und  Jugendlichen sogar als Comic vorliegt.

Axel Reichmuth von der Zürcher Weltwoche formulierte diesen Sachverhalt so:

„Hoffen auf die Apokalypse“ :

„Sicher ist, daß diejenigen Kräfte, die politisch mit dem Klimawandel agieren, ihre apokalyptischen Szenarien mit Zähnen und Klauen verteidigen werden … Sie haben sich in eine Zwangssituation hineinmanövriert:

Die Warnungen vor dem Klimawandel sind jetzt ein politisches Erfolgsrezept Sollte der Klimawandel als Bedrohung wegfallen, fiele das politische Konzept von Links-Grün in sich zusammen wie ein Kartenhaus … Insofern ist der Streit um die Wahrheit beim Klimawandel die Mutter aller Ökoschlachten. Die Klimaschützer kämpfen nicht nur gegen die Erderwärmung, sondern auch um ihre politische Existenz.

[1] WELTWOCHE Zürich, 47/2010, S.54-55, Alex Reichmuth, Die Mutter aller Ökoschlachten

Daher muss und soll unsere Regierung die Frage beantworten, welches Mandat und welches Motiv sie hat, unser Land, unser Europa, diesen Leuten auf dem silbernen Tablett zu servieren. Auf eine Antwort dürfen wir gespannt sein.


[1] Quelle: Frankfurter Allgemeine Zeitung, 8. Mai 2015: Die Ordnung der Wirtschaft; Björn Lomborg „Deutschlands gescheiterte Klimapolitik“

[2] Ein Begriff aus der Psychologie des Verkaufens. In dem man den ursprünglich großen Wert auf kleine und kleinste  Bezugsgrößen herunterbricht, erreicht man, das er im Bewusstsein des Gegenübers  wesentlich kleiner erscheint als der in der Realität ist.

[3] Die deutsche Energiewende – das Billionen-Grab hier weitere Details dazu hier

[4] Ich habe bei dieser Rechnung zur Vereinfachung bewusst auf Abzinsung und Inflation etc. verzichtet. Vielleicht mag der eine oder andere Leser dies nachtragen

[5] In Wikipedia (hier) findet man für Kohlekraftwerke die Angabe von 798 €/kW, jedoch für 2003. Inzwischen, so steht da, seien diese Kosten wesentlich gestiegen.  Am Beispiel Herne, so wird geschrieben, seien diese Kosten auf 2133 €/kW gestiegen. Verschwiegen wird jedoch, dass diese Kostensteigerungen fast ausschließlich dem organisierten Missbrauch der Raumplanungsordnung durch fanatisierte Kohlegegner zu verdanken ist. Die Gerichte folgen diesem Missbrauch häufig. Jedoch nicht immer, denn

Das neueste Braunkohlenkraftwerk von RWE (BoA 2&3), welches 2012 in den Probebetrieb gegangen war und im November 2013 die Sorge dafür getragen hatte, dass das bundesdeutsche Stromnetz nicht abgeschmiert ist, hat eine installierte Brutto-Engpassleistung von 2.200 MW (= 2 Blöcke zu je 1.100 MW). Die Baukosten betrugen knapp 2,6 Milliarden Euro. Das sind knapp 1,2 Mio €/MW. Dasselbe gilt für das KW in Niederaussem mit ca. 1 Milliarde Euro für 1.000 MW.

Related Files




Grönland soll auf seine Industriealisierung verzichten, weil diese das Weltklima gefährdet – Unsere Ideologie fordert es. Die falschen Fakten liefern wir dazu*.

Artikelauszüge

Bild rechts von hier

Grönlands Gier – Reichtum durch Klimawandel

Textstellen:

Vom Fischer zum Aluminiumarbeiter

Der Klimawandel als Chance für den wirtschaftlichen Aufschwung? Erstmals gedeiht Gemüse auf der Insel. Die grönländische Regierung plant, Öl zu fördern und das reichlich vorhandene Schmelzwasser für die Energieproduktion zu nutzen. Hauptziel ist die Aluminiumproduktion, denn Aluminium ist ein begehrter Rohstoff für die Autoindustrie.

Industrialisierung verstärkt Klimawandel

Die Folgen der Industrialisierung für die Umwelt stören viele Grönländer nicht, weil sie Arbeit brauchen. Wenn die Regierung ihre Pläne umsetzt und Aluminium-Industrie ansiedelt, wird Grönland in den nächsten Jahren wohl zehnmal mehr CO2 ausstoßen als heute. Die Gletscher könnten dadurch noch schneller schmelzen und der Meeresspiegel weiter ansteigen.

Dazu werden Videos gezeigt, wobei das letzte im Schaubild einen Pfeil mit 7 m zeigt, was einen Anstieg des Meeresspiegels anzeigen soll.

Bild 1 Im Artikel sichtbares Video-Startbild

 

Wir schätzen ab, welchen Klimaeinfluss die geplante Industrialisierung verursachen kann.

Rechenbasis: Gerechnet wird mit dem IPCC.Forcingwert von 3 ° C und parallel mit dem realistischen von 1° C. Der IPCC-Wert ergibt eine Temperaturerhöhung von 0,001 ° C pa für 1 Gt CO2 Eintrag.

Berechnungen

·       Mögliche Temperaturerhöhung durch die geplante Industriealisierung.

o   2013 emittierte Grönland 10,71 t CO2 pro Einwohner (2). Bei 57.000 Einwohnern ergibt das
610.470 t pa insgesamt (0,000611 Gt).

o   Der durch die geplante Industrialisierung kommende, zusätzliche CO2-Ausstoß beträgt lt. Info des Wissensportals das 9-fache der aktuellen Emission.  Das sind dann  0,0055 Gt pa (zusätzlich).

o   Daraus berechnet sich eine maximale Klimaerhöhung durch die geplante Industrialisierung von: 0,001 x 0,0055 Gt = 0,000005 ° C pa.

·       Abschätzung des dadurch möglichen Anstiegs des Meeresspiegels.

o   Der Meeresspiegel stieg von 1870 bis 2009 um 250  mm an (3). Gleichzeitig betrug die globale Temperaturerhöhung 0,7 ° C. Das ergibt  357 mm / ° C oder 1,8 mm pa.

o   Nun steigt der Meeresspiegel verzögert. Deshalb nehmen wir die doppelten Werte an. Das sind dann 714 mm /  ° C  und 3,6 mm pa.  Anm.: Diese grobe Abschätzung  trifft den aktuellen „offiziellen“ Wert von 3,1 mm pa brauchbar und ist damit auf keinen Fall zu niedrig angesetzt.

o   Somit kann der Meeresspiegel um: 0,000005 ° C x 714 mm /  ° C  = 0,00356 mm pa steigen.

Zusammenfassung des Klimaeinflusses durch Grönland aufgrund der geplanten Industrialisierung.

Tabelle 1

Fazit

Zur Vermeidung dieser Klimaerhöhung soll Grönland nach Meinung des „Wissensportals“ auf seine Industrialisierung verzichten und arm bleiben.  Zudem ist der Text „die Gletscher könnten dadurch noch schneller schmelzen“ eine bewusste und sehr massive Irreführung. Und das  Videobild mit den suggerierten 7 m Meeresanstieg ist pure Demagogie, wie schon die einfache Worst-Case-Abschätzung zeigt.

Man kann diese Schülerinformation nur noch als grün-demagogische Verblendung bezeichnen. Was sich der Redakteur und die Betreiber der Webseite dabei wohl denken?

*Danke an „kaltesonne“ für den Hinweis auf diesen Artikel.

(1)

Planet-Schule.de: Grönlands Gier – Reichtum durch Klimawandel

http://www.planet-schule.de/wissenspool/klimawandel/inhalt/sendungen/groenlands-gier-reichtum-durch-klimawandel.html

(2)
http://de.wikipedia.org/wiki/Liste_der_L%C3%A4nder_nach_CO2-Emission

(3)

WIKIPEDIA Klima und Hebungen bzw. Absenkungen des Meeresspiegels

Der gemessene Anstieg des mittleren Meeresspiegels zwischen 1870 und 2009 beträgt rund 25 cm.

http://de.wikipedia.org/wiki/Meeresspiegel




Zur Podiumsdiskussion über Klimawandel und Energiewende in der Bundeszentrale für politische Bildung (BPB) am 22.6.15 – Faktencheck Teil 2

Im Teil I des Faktenchecks habe ich mich ausführlich mit den kontroversen Aussagen der Teilnehmer der ersten 13:46 Minuten beschäftigt. Um jedermann den Vergleich zwischen den gesagten Statements und Bestätigung oder Widerlegung der Behauptungen auf einfachste Weise sowie objektiv und fair zu ermöglichen, hat EIKE sich die Mühe gemacht und den gesamten gesprochenen Text mit Untertiteln samt Zeitmarken zum schnellen Auffinden (und damit zu überprüfen) der in Frage kommenden Stelle zu hinterlegen. Diese Prinzip wird hier im zweiten wie auch im dritten Teil fortgesetzt.  Der Fairness halber wird allen Teilnehmern dazu noch die Möglichkeit angeboten, ihre Sicht der Dinge hier darzustellen.

Doch anstatt sich über diese Möglichkeit zu freuen, erlaubte sich das ehemalige grüne MdB Herr H.J. Fell, (in einer Mail vom 12.7.15) mir „Falschinterpretationen, Faktenverdrehungen und  Aussagenverdrehungen „ vorwerfen zu müssen. Und dazu noch sein Schweigen zu diesen vermeintlichen Missetaten, mir als „unseriösen Versuch“ zu unterstellen ihn ..“als Akzeptanz zu missinterpretier(t)en“.

Tonmitschnitt ab Minute 13:46 der Podiumsdiskussion am 22.6.15 in den Räumen der Bundeszentrale für politische Bildung. Der Tonmitschnitt kann zum einfacheren Vergleich der unten zitierten Aussagen deutsch untertitelt werden.

Dazu kann ich nur feststellen: Solch ein billiges Verhalten mit pauschaler Verleugnung von Fakten, die einem nicht in den Kram passen, mag ja in grünen Politikseminaren als  semantischer  Trick gelehrt werden, um unliebsame Fakten zumindest rhetorisch aus der Welt zu schaffen, verfängt aber keineswegs bei den Lesern dieses Blogs und sicher auch nicht bei all denen, die sich selber ein Urteil bilden wollen und dabei auf objektive Berichterstattung angewiesen sind. Und für die ist dieser Faktencheck gemacht.

Der hier gezeigte Mitschnitt fängt wieder bei 0:00 min, schließt aber nahtlos an das Ende des hier gezeigten Teilmitschnittes an. Im Folgenden werden die anschließenden 21:27 Minuten behandelt.

(00:00 Min. bis 02:36) Wieviel „Erneuerbare“ sind denkbar?

Es geht um die Frage, wie viel „Erneuerbare“ sich jeder der Anwesenden vorstellen kann. Herr Brabeck kann sich irgendwann mal 90 bis 95 % „Erneuerbare“ vorstellen. Herr Fell erwartet irgendwann auch 100 % und verbindet diese Meinung mit einer Attacke auf die Versorger die s.M.n. vor 10 Jahren „falsch“ in Kohlekraftwerke investiert hätten.  Zur Unterstützung seiner Ansicht nennt er solch bedeutende Länder wie Schweden, Dänemark und Costa Rica, die die Umstellung ganz oder tlw. schon geschafft hätten. Und erklärt die unbestreitbaren Umsatz und Ertragsprobleme der Versorger mit deren „Versäumnissen“ in der Vergangenheit. Es fällt jedoch kein Wort über die üppige, weit über dem Marktpreis liegende Honorierung des EE Angebots, samt Vorrangeinspeisezwang, die  sein EEG erst möglich machte hat. Und er scheut sich anschließend auch nicht,  mit diesem halben Argument von Deutschland auf die ganze Welt zu schließen.

Hier gilt: Es ist Meinung und daher zulässig!

(0:02:36) Moderatorin: Frau Dehmer glauben Sie, das hundert Prozent Erneuerbare Energien überhaupt politisch umsetzbar wäre?

0:02:43 Frau Dehmer

Frau Dehmer bejaht diese Frage, auch mit dem Verweis auf den Elmauer G7 Gipfel Dekarbonisierungsbeschluss bis zum Ende des Jahrhunderts. Und argumentiert weiter:..

…. Aber weltweit ist es mit Sicherheit so, dass der Trend in die Richtung geht; die Investitionen in Erneuerbare sind seit einigen Jahren jedes Jahr höher als In fossile Energien; … Trotzdem sind Erneuerbare da in der Regel vorn, weil sie einfach billiger sind als große Kraftwerken, die eine große Infrastruktur brauchen.

Kommentar:

Neben der evtl. punktuell richtigen Beobachtung, dass in Norwegen alle 10 m ein „Tesla“ herumsteht, behauptet Frau Dehmer dass

1.                  … weltweit …. der Trend in die Richtung geht; die Investitionen in Erneuerbare sind seit einigen Jahren jedes Jahr höher als In fossile Energien;

und

2.                  Trotzdem sind Erneuerbare da in der Regel vorn, weil sie einfach billiger sind als große Kraftwerken, die eine große Infrastruktur brauchen.

Fakt ist:

Zu 1: Die Investitionen in „Erneuerbare“ sind weltweit unzweifelhaft hoch. Der größte Anteil entfällt dabei auf die Wasserkraft (s. Abb.3 und Tabelle 1). Die Gründe für die Investitionen in andere „Erneuerbare“ liegen in der massiven Förderung durch staatliche Subventionen[1] und dem Preisverfall bei den Solarpanelen.

Für  2014 beziffert die Internationale  Energieagentur (IEA), mit Sitz in Paris, die Gesamtinvestition auf 270 Mrd US $. Sie lagen damit so hoch wie im Jahr 2013. Die Investitionen in konventionelle Energieträger (vermutlich fossile wie Kern- Energie) liegen jedoch immer noch deutlich höher auch wenn die IEA in ihrem 2015 Report [2] schreibt:

„Renewables accounted for nearly half of all new power generation capacity in 2014, led by growth in China, the United States, Japan and Germany, with investment remaining strong (at $270 billion) and costs continuing to fall“. 

Elektritzätsproduktion weltweit in TWh 2013 2014 Zuwachs 2014-2013 Quelle
Gesamt 23.200 23.800 600 Enerdata Yearbook 2015
Davon Wind + Solar in % v. Gesamt 3,6 4% 0,4 REN 21
Davon Hydro in % v. Gesamt 18,7 18,9 0,2 Enerdata Yearbook 2015
Installierte Kapazität
„Erneuerbare“ o. Hydro in GW 560 657 97 REN21
Hydro in GW 1.578 1.712 134 REN21

Tabelle 1: Vergleich der Elektrizitätsproduktion und inst. Kapazität weltweit mit Anteil von Wind + Solar und Hydro als Hauptquellen „erneuerbarer“ Energien. Trotz massiver Förderung in über 160 Ländern[3] (davon mit Einspeisevorrang 108) ist die installierte Kapazität bei Wind und Sonne immer noch ziemlich klein. Berücksichtigt man dann noch den äußerst geringen Nutzungsgrad der installierten Wind- und Solarkapazitäten, dann zeigt sich, dass hier mit Kanonen auf Spatzen geschossen wird.

Jedoch wurden gleichzeitig– auf Grund des Preisverfalls bei Öl- und Gas- die Investitionen in diese beiden Bereiche zurückgefahren. Während die Investitionen in Kohle boomen. So werden derzeit weltweit 2100 Kohlekraftwerke geplant. Der grüne Sierra Club – Mutter unsers NABU – hofft jedoch, dass davon nur etwa ein Drittel wohl realisiert werden:[4]

Das mag zutreffen oder nicht, jedenfalls ist Kohle auf dem Vormarsch, zum Entsetzen aller Klimaschützer.

Viele Regierungen großer Länder (China, Indien) verkündeten dennoch in  ihren vorbereitenden Absichts-Erklärungen zur kommenden UN Klimakonferenz CP21 in Paris, ihre Subventionspolitik zugunsten der „Erneuerbaren“ auszuweiten oder stabil zu halten. Wie weit das Lippenbekenntnisse sind oder praktische Politik, wird sich zeigen. Jeder Regierungswechsel kann demnach das Aus für diese Politik bedeuten, wie es Spanien, Tschechien und jetzt Großbritannien und Australien (Details dazu hier und hier) bereits vorgemacht haben.

Zu 2. Frau Dehmer glaubt und behauptet, dass „Erneuerbare“ ..“einfach billiger“ sind.

Fakt ist

jedoch, dass von „billiger“ keine Rede sein kann. Ebenso wenig, wie von weniger – oder kleinerer- Infrastruktur, als große Kraftwerke. Das Gegenteil ist richtig. Zum Thema „billiger“ stellt die IEA etwas verschwiemelt fest, Renewable technologies are becoming increasingly cost competitive in a number of countries and circumstances, but public support schemes are still required to support deployment in many others.  (Chapter 1; p. 21 hier)  (Siehe auch Fußnote 1).

Der Grund dafür, dass sie deutlich teurer sind, sein müssen, liegt hauptsächlich darin, dass die Energiedichte der „Erneuerbaren  verglichen mit konventionellen Brennstoffen, sehr viel geringer ist. Der Aufwand diese Energie zu verdichten, lässt weitere Preissenkungen – nachdem der Economy of Scale Effekt- z.B. bei Solarpanelen, ausgeschöpft ist- nicht zu. Auch ist und bleibt deswegen der Flächenbedarf riesig, was insbesondere die Grünen veranlassen müsste, wenn sie es mit dem Umweltschutz wirklich ernst meinten, vor der Förderung der „Erneuerbaren“ Abstand zu nehmen.  Auch ließen alle Podiumsteilnehmer das Thema „fehlende Speicher“ außen vor,

Abbildung 1: Vergleich des Flächenbedarfes eines (hier) Kernkraftwerkes in UK (es könnte aber ebenso gut ein rein fossil betriebenes Kraftwerke sein, samt zugehöriger Infrastruktur wie Umspannstationen und Netzanbindung) gegenüber verschiedenen „NIE“ –Nachhaltig instabile Energie-Kraftwerke, wie Wind- Solar und Biomasse, bezogen auf die rechnerisch gleiche Energiemenge.

..obwohl sie aus dem Publikum per Zwischenruf mehrfach darauf hingewiesen wurden. Rechnet man die erforderlichen Speicher dazu, werden sie gänzlich unbezahlbar.  (wird hier etwas später beleuchtet)

Hier bei EIKE haben wir die verschiedensten realisierten Investitionen in Solar- oder Windparks etc. untersucht. Ergebnis: Die Investitionskosten pro erzeugter kWh liegen 6 (Offshore Wind, Ostsee) bis 17 x (Solarpark) höher als die für konventionelle Kraftwerke gleicher Energieabgabekapazität (Siehe Abb 2). Und die fehlenden Brennstoffkosten werden bei weitem durch die hohen Wartungs- und Reparatur wie auch Amortisationskosten übertroffen.

Abbildung  2: Vergleich der Investitionskosten und des  Flächenbedarfes eines älteren Kohle-Kraftwerke in Wilhelmshaven, gegenüber dem größten und zweitgrößten  Solarkraftwerk  in Deutschland, bezogen auf die rechnerisch gleiche Energiemenge.

0:04:06. Herr Brabeck

nimmt alles gelassen und meint, dass die Verbraucher 10 Mrd € an EEG Umlage für die PV pro Jahr zahlen und dass in Kürze ein „Game Changer“ im Elektroenergiemarkt zu erwarten sei. Weil, so seine Begründung,  die Batteriepreise fallen. Deswegen erwartet RWE massenhafte Installationen von Solardächern mit Batteriespeichern im Keller.

Fakt ist (mit Korrektur vom 28.7.15):

Die EEG Umlage kostete die Verbraucher bereits im Jahr 2013 rd. 20 Mrd €. Mit stark steigender Tendenz. Also das Doppelte. Allein 10 Mrd € wurden für die PV aufgebracht. Da hat Herr Brabeck recht. Nur hat uns niemadn um Erlaubnsi gefragt, ob wir der Welt die PV Technik „schenken“ wollten.

Die Betreiber von NIE Anlagen kassierten ihrerseits von den Netzbetreibern für den gelieferten Strom rd. 23 Mrd, während dieser Strom an der Börse hingegen nur knapp 3 Mrd € wert war. Die Differenz trug der Verbraucher.

Fakt ist..

..auch, dass die Batteriepreise nicht mehr wesentlich fallen können,  weil sowohl die Elektrochemie als auch die Leistungs- und Lebensdaueranforderungen an brauchbare Batteriespeicher  aus naturgesetzlichen Gründen ganz enge Grenzen setzen. Die politisch gesetzte Zielgröße von 100 EUR/kWh Anschaffungspreis wird kaum zu unterschreiten sein.

Die elektrochemische Spannungsreihe ist durch die Thermodynamik unveränderlich und auf 6 Volt Spannungsdifferenz (Lithium/Fluor) begrenzt. Batterien mit langzeitstabilen Elektrolyt- und Elektrodenkombination werden nur schwer über die heutigen 4,2 Volt Spannung von Lithium-Polymer-Akkus hinauskommen, was die Leistungsabgabe von der Spannungsseite her arg begrenzt.  „5-Volt-Systeme“ sind noch in weiter Ferne, eine merkliche Verbesserung der Energiedichten von aktuell rund 0,1 – 0,2 kWh/kg nicht absehbar.

Zusätzlich unterliegen sie einer kalendarischen wie zyklischen Alterung, die ihre Nutzungsdauer massiv begrenzt. Wer heute bspw. Lebensdauern von 30 Jahren und 30.000 Lade und Entladezyklen mit brauchbarem Output verspricht, wie man es immer mal wieder hört oder liest,  belügt seine Kundschaft.

Mehr als 1000 Lade- und Entladezyklen, bei gleichzeitiger rigoroser Begrenzung der Lade und Entladeströme auf rd. 1/3 des Nennstromes sind lt. Prof. Endres [5] für einen Akku kaum machbar, und die in der Presse zu lesenden 10.000 – 30.000 Zyklen werden nur unter definierten Laborbedingungen erreicht. Evtl. können irgendwann mal Preise für Akkus von 100 EUR/ kWh Kapazität angeboten werden. Aktuelle LiPo-Akkus liegen bei Anschaffungskosten um 500 EUR/kWh, Bleiakkus um 200 EUR/kWh.

Da kann sich jeder leicht ausrechnen wie teuer seine Batterie im Keller wird, wenn er/sie nur die sonnenarme Jahreszeit überbrücken möchte. Wenn man zur Maximierung der Lebensdauer immer nur 30% der maximalen Kapazität nutzt, resultiert eine Verdreifachung der notwendigen Batteriekapazität: Wer 1 kWh Strom speichern muss, muss demnach 3 kWh kaufen. (Weitere Details zu diesem Thema hier)

00:06:55. Limburg

Ich berichtete dann über die aktuelle BP-Studie, die vor kurzem vorgestellt wurde, Danach steigen die Investitionen in Kohle fünf mal schneller als die in Erneuerbare und immer noch doppelt so schnell wie in Öl! Indien hat gerade festgestellt, dass sie bis zum Jahr 2020 ihren Kohleverbrauch verdoppeln werden. Auch China eröffnet jede zweite Woche ein neues Kohlekraftwerk und hat sich ausbedungen  und alle haben gejubelt Sie wahrscheinlich inklusive, dass sie bis 2030ihren CO2-Ausstoß massiv erhöhen.

Fakt ist:

Indien erhöht massiv Kohleförderung und Verbrauch, während China seinen Kohleverbrauch zumindest nicht massiv weiter steigert (zusätzlich 22 GW Kapazität Kohle vs 18 GW Wind wurden in 2014 installiert), da hat Herr Fell zumindest dem Trend nach recht, das China seinen (langsamer wg. Verlangsamung des Wachstums) ansteigenden Energiebedarf durch andere Quellen, insbesondere Wasserkraft, zu decken sucht.

Zitat:

IEEFA estimates that China installed 22 GW of hydro, 18 GW of wind, 13 GW of solar, 5-7 GW of nuclear and 4-6 GW of gas-fired electricity capacity in 2014 alone. Combined with another 22 GW of net new coal-fired capacity, China’s total electricity capacity installs are forecast at 90 GW in 2014 (over 6 percent yoy total capacity growth). Siehe auch Fußnote 6 für weitere Details.

Jedoch darf  nicht vergessen werden, dass alle Energiequellen, bis auf Wind + Solar grundlastfähig sind, und daher ihre Einspeisung ein Vielfaches von Wind + Solar beträgt, als es der Vergleich allein der Nennleistungen suggeriert.

00:08:19: Herr Fell

Zunächst mal Herr Limburg: Es ist ja ihre gute Größe die Statistiken so zu nehmen, wie Sie sie brauchen.. Erneuerbare Energien passen nicht in eine Statistik mit den Primärenergieverbrauch! Jede Kilowattstunde, jede  Kilowattstunde Wind- oder Solarstrom ersetzt 3 Kilowattstunden konventionellen Kohle- oder Erdgas-Strom. Schlicht weil die Wind- und die Solaranlagen keine Abwärme haben die niemand braucht.

Kommentar Limburg:

Zur Abwärme 1:

Es ist korrekt, dass bei der konventionellen Stromerzeugung Abwärme im Verhältnis 2:1 entsteht. Diese wird jedoch überall da gebraucht, wo man Kraftwärmekopplungstechnologie (KWK) eingeführt hat. Wegen der großen Bedeutung dieser Nutzungsart, um letztendlich die Energie besser zu nutzen, also die Energieeffizienz zu steigern, wird die KWK massiv subventioniert. Das hat dazu geführt, dass die KWK ca. 18% (Statista) zur Nettostromerzeugung betragen. Also ein knappes Fünftel, und damit deutlich mehr als Strom aus Wind- und Solaranlagen. Doch die so umgerüsteten KWK Kraftwerke erleiden das gleiche Schicksal wie die „normalen“ Kraftwerke. Sie können  ihren Strom nicht mehr verkaufen und deswegen auch keine Heizenergie ( zwei von 3 kWh) mehr liefern. Es ist verwunderlich, dass Herr Fell, weder die Technologie kennt, noch deren Schicksal, dass sein EEG herbeiführte.

Und wenn er sie kennt, warum er sie nicht erwähnt hat.

Zur Abwärme 2.

Jede Energieumwandlung erzeugt Abwärme. Wenig bei Wind und Solar (Reibung, Betriebstemperatur bei Leistungsabgabe etc) viel bei fossilen wie Kernkraftwerken. Doch das sagt nichts über ihre ökonomische Effizienz aus.

Herr Fell:

Das Zweite, mit den hohen Subventionen 550 Milliarden US-Dollar sind die Direkt-Subventionen aus staatlichen Geldern in das fossile Energie System. Wer davon spricht, dass Erneuerbare hoch subventioniert seien hat schlicht die Subventions- Gelder nicht im Kopf und weiß es nicht! Das ist nicht der Fall was Sie sagen.

Kommentar:

Woher Herr Fell die Zahl von 550 Mrd US-$ hat, weiß ich nicht? Daher kann ich auch nicht beurteilen, ob sie einigermaßen stimmt, oder ob sie eine reine Greenpeace Zahlenente ist. Doch sie interessiert hier, in diesem Zusammenhang, nicht besonders, denn wir diskutierten die Subventionen für NIE, die sich hierzulande, u.a. als Zahlungen der deutschen Verbraucher für das EEG, ausgeschüttet werden. Und die schlagen mit über 330 Mrd € bereits per Ende 2013 zu Buche und wachsen jedes Jahre exponentiell weiter

Abbildung 3EEG Zahlungen per 2013 und hochgerechnet auf 2022. Schwarz: Bisher geleistete Zahlungen der Netzbetreiber an EEG Besitzer jeweils pro Jahr. Rot: Kumulierte Zahlungen von Beginn an. Blau: Noch zu leistende Zahlungen für die aufs jeweilige Jahr folgenden 20 Jahre. Quelle BDEW, Statista etc. Grafik Limburg

00:09:45 Fell

Sie dürfen nicht ne BP-Statistik hier nehmen, die über das letzte Jahrzehnt -in der Tat- den hohen Kohle Zubau auch im China beschrieben hat, Sie müssen die neuesten Erkenntnisse und Entwicklungen in dieser… Ja, vorgestern wurde dieser Bericht über das letzte Jahrzehnt veröffentlicht. Das sagt aber nichts aus, was seit der Jahrzehnten-Wende jetzt, seit 2010 passiert ist und da, wenn sie ausgerechnet China nehmen, da sollten sie mal richtig nach China schauen.[6]

Kommentar zur BP Statistik:

Hier versucht Herr Fell einen alten Trick rotgüner Rhetorik; immer dann Statistiken als überholt zu deklarieren, wenn man ihren Aussagen nichts entgegen zu setzen hat.

Fakt ist:

Aktueller geht es nicht. Die BP Statistik endet erst im Dezember 2014

Herr Fell:

China hat deswegen im ersten Vierteljahr diesen Jahres schon fünf Prozent CO2-Emissionen reduziert, zum Erstaunen der das gesamten Weltöffentlichkeit weil die wirklich glaubte, das was Sie sagten, bis 2030 werden sie noch steigern.

Fakt ist:

Lt Internationaler Energie Agentur (IEA) hat China -hauptsächlich dank der Wirtschaftsschwäche-  von 2013  auf 2014 seine Emissionen um rd. 2 %[7] gesenkt. Vermutlich hat sich dieser Trend in 2015 fortgesetzt. Deswegen stimmt die Angabe von Herrn Fell. Gleichzeitig stiegen die weltweiten Emissionen außerhalb von China und OECD Ländern um netto rd 290 Mio t weiter.

Die  IEA begründet diese Veränderung wie folgt:

CO2 emissions outside the OECD and China were up by around 290 Mt in 2014, led by increased use of coal for power generation in India and Southeast Asia. Indeed, across most emerging and developing countries, the relationship between economic growth and emissions growth remains strong as these countries are in the energy-intensive process of building up their capital stock. (Seite 20)

Emissionshandel

(00:12:14.) Herr Fell betonte, dass der Emissionshandel nichts gebracht hätte. Das ist auch meine Meinung. Er behauptete aber dann anschließend, dass ..von den 300 Tonnen CO2; Millionen Tonnen CO2 -Reduktion die Deutschland seit 1990 hat, geht die eine Hälfte auf den Niedergang der ostdeutschen Industrie nach der Wende.. und die andere Hälfte auf den Ausbau der erneuerbaren Energien.

Abbildung 4: Primär Energieverbrauch nach Quellen weltweit lt. BP Studie, jeweils in Mio t Öl Äquivalent. Vom Autor eingezeichnet sind die Anteile der Wasserkraft, sowie total und Zuwachs der „Erneuerbaren“. Wasserkraft dominiert die „Erneuerbaren“ mit rd. 8 % von Gesamt. Alle anderen „Erneuerbaren“ zusammen liegen bei 3 % von Gesamt, während der Zubau aus diesen Quellen bei 100 Mio t bzw. 0,8 % vom Gesamt liegt. Nach einem Siegeszug der „Erneuerbaren“ sieht das nicht aus.

Fakt ist:

Die 300 Mio tC äquivalent Reduktion sind in etwa korrekt, allerdings  nicht korrekt ist die behauptete 50:50 Aufteilung. 

Zur Menge

Es ist schwer offizielle Zahlen, die dazu auch noch stimmen, über diese Entwicklung zu finden. Selbst wenn die Zahlen aus derselben Quelle stammen, weichen sie absolut und in ihrer Entwicklung deutlich voneinander ab.

So zeigt eine Grafik des UBA von 2014 für die Jahre 1990 bis 2014 im  Jahre 1990 eine Menge von 1250 Mio t GtC (äquivalent) und z:B. im Jahre 2012 eine Menge von 930 Mio t GtC (äquivalent) = – 320 Mio t oder -25,6 %, während eine andere Grafik aus demselben Hause für das Jahr 1990  (s. Abb 4) eine Start-Menge von nur 989 Mio t aufweist, welche im Jahr 2012 auf 775 Mio t abgesunken ist. (Siehe Abb. 5). Zum Jahr 1990 beträgt die Differenz daraus dann nur noch 214 Mio t oder 21,6%.

Erschreckend bei dieser Ungenauigkeit ist, dass ganze Industriezweige, wie die Braunkohle, stillgelegt werden sollen, um ein Zehntel dieser Menge (22 Mio t) „einzusparen“, wenn die zu Grunde liegenden Zahlen um das Zehnfache dieser Menge differieren.

Abbildung 5: Deutschlands CO2 Emissionen nach UBA für die Jahre 1990 bis 2012/2013 mit unterschiedlichen Startangaben und unterschiedlichen Senkungsverläufen.

Es wird auch kein Hinweis auf evtl. sonstige Emissionsquellen gegeben, die in der Grafik nach Quellen (nicht nach Gasarten) nicht erfasst wurden.

Ursachen der Reduktion

Abbildung 6: CO2 Emissionen deutscher fossil betriebener Kraftwerke für die Jahre 2000 bis 2014. Es fällt sofort auf, dass die Emissionen praktisch konstant blieben, während die erzeugte konventionelle Energiemenge um gut ¼ wg. der vorrangigen Einspeisung des NIE-Stromes abgesenkt wurde.  Damit ist auch die Aussage der FEU Studie widerlegt, welche die errechnete Einsparung von 11 Mrd. € hauptsächlich konventioneller Brennstoffkosten, dank NIE Einspeisung begründet. Da wurde nichts eingespart und auch nichts abgesenkt.

Ursache war fast allein, der Niedergang der ostdeutschen Wirtschaft, verbunden mit normaler Effizienzsteigerungen beim Rest der Wirtschaft (insbesondere der Stahlindustrie)  Sie hat bis zum Jahr 2000 eine Senkung der Gesamt-Emissionen sog. Treibhausgase um rd. 190 Mio t bis gebracht, da zu der Zeit, die NIE nur in sehr geringem Umfang (mit z.B. rd. 38 TWh in 2000), zur Gesamtelektroenergieerzeugung beitrugen. (s. Abb 5)

Dank des Fell´schen EEG wurde deren Einspeisung dann bis 2014 um dramatische 300 % auf 152 TWh gesteigert, (also vervierfacht) jedoch fielen die Emissionen aus der Erzeugung aus Elektroenergie nur um kaum merkbare 2 %. Die Aussage von Herrn Fell bezüglich der Quellen der Senkung erweist sich also als falsch.

(00:18:27) Herr Fell zum CO2 Gehalt der Atmosphäre von derzeit rd. 400 ppmVol.

Herr Fell behauptete, dass diese 400 ppm bereits wg. der ihnen theoretisch zugeschriebenen Erwärmungswirkung, zuviel seien. Und bezog dies auf die vermuteten (Eisbohrkernmessungen mit großere Unsicherheit) 280 ppm, die vorindustriell geherrscht hätten. Sekundiert von Frau Zink, die ..60.000 Jahre lang.. in die Debatte einwarf. Deswegen verwarf Fell kategorisch jede zulässige Erhöhung, (Absenkung um nur 40 % bis 2020 EU Plan), was der Emissionshandel ja erlaubt und forderte stattdessen eine sofortige rigorose Umstellung auf Null-Emissionstechnologien, um jedwede Erhöhung nach Möglichkeit zu vermeiden.

Kommentar

Die genannten 400 ppm sind korrekt. Alles andere sind Meinungen und Annahmen, die als Fakten ausgeben wurden. Dies betrifft die angenommenen 280 ppm vorindustriell, ebenso wie die Wirkung des CO2 auf die Temperatur der Atmosphäre, (Dazu wurde ausführlich im ersten Teil Stellung genommen hier).

Fakt ist:

Genaue CO2 Messungen, die global gelten dürften, gibt es erst seit der Mitte der 50er Jahre des vorigen Jhh. Seit dem ersten Drittel des 19. Jhh. existieren aber bereits sehr genaue Messungen des atmosphärischen CO2. Das leider so früh verstorbene EIKE Gründungsmitglied E.G. Beck, hat diese Messungen akribisch aufgeschrieben (> 200.000 Messwerte) und ausgewertet. Diese zeigen einen erratischen Verlauf mit ausgeprägten Spitzen bis zu 400 ppm. Und ähnliche Verläufe zeigen die vielen weiteren Untersuchungen an Proxydaten, wie z.B. Stomata (das sind Blattspaltöffnungen an bestimmten Pflanzen)
In dem Beitrag  Eisbohrkerne und Pflanzenstomata: Der historische CO2 Gehalt der Atmosphäre war oft deutlich höher als 280 ppm! vom Geologen David Middleton wird ausführlich auf die aktuellen Forschungsergebnisse eingegangen. Hier seien nur zwei Grafiken daraus angeführt, die zeigen, dass beide Ausagen ..nämlich

…konstante 280 ppmv (Herr Fell)

Abbildung 7: CO2 Konzentrationen für die Zeit von 1800 bis 2000. Sie zeigen erratisch anmutende Spitzen gem. der Beckschen Analyse[8] bis 400 ppm und weniger erratische Verläufe aus Stomata Analysen bis 370 ppmv. Zum Vergleich sind die Eisbohrkerndaten aufgetragen, die  nachgewiesenermaßen eine starke Dämpfung auf die CO2 Werte der eingeschlossenen Luftblasen ausüben, zudem in Gebieten gewonnen wurden, deren CO2 Gehalt um 20 bis 40 ppm niedriger ist als in niedrigeren Breiten.

und

über 60.000 Jahre (Frau Zink)

Abbildung 8: CO2 Konzentrationen aus Eisbohrkernen und Stomataanalysen für die Zeit von vor 15.000 Jahre bis heute. Sie zeigen 1. Eine erhebeliche Diskrepanz zwischen beiden Messmethoden in Bezug auf den absoluten Wert, aber auch hochfrequenten Schwankungen, die bei den Eisbohrkernen allesamt geglättet werden. Deutlich auch die Werte um im Mittel 330 ppmv, um die die Stomatawerte schwanken. Mit einer Spitze bei 400 ppmv um 500 n.Chr.

…wissenschaftlich nicht haltbar und damit falsch sind.

Wie deutlich zu erkennen, schwankt die CO2 Konzentration in den vergangenen Jahrhunderten und Jahrtausenden ganz erheblich und das ohne jegliches menschliche Eingreifen. Unabhängig davon, wie genau die dargestellten Werte sind, unabhängig davon, wie groß ggf. ihre Unsicherheit ist, muss klar sein, dass wir heutzutage in einem absoluten CO2 Minimum leben, dass insbesondere für die Pflanzen Mangelernährung bedeutet. Ein mehr an CO2 ist deswegen kein Fluch sondern ein Segen, um die stark angewachsene Bevölkerung dieser Erde auch in Zukunft zu ernähren.

Wird fortgesetzt..


[1] Die IEA umschreibt diese Tatsache so: Renewable technologies are becoming increasingly cost competitive in a number of countries and circumstances, but public support schemes are still required to support deployment in many others.  (Chapter 1; p. 21 hier)

[2] Nachzulesen in „Energy Climate and Change“ World Energy Outlook Special Report Summary Seite 11, Quelle hier

[3] Quelle http://www.ren21.net/wp-content/uploads/2015/06/GSR2015_KeyFindings_lowres.pdf S. 7 und 9

[4] „The CoalSwarm/Sierra Club report calculates that since 2010, for every coal proposal that actually gets built, two are getting canceled. Which means we’re on track to build roughly one-third of those 2,177 plants.“ Quelle hier

[5] Prof. Frank Endres ist Direktor des Instituts für Elektrochemie der TU Clausthal und exzellenter Kenner der Batterieforschung. Er arbeitet auf grundlegender Basis u.a. an Batteriematerialien.

[6] Aus: http://www.ieefa.org/wp-content/uploads/2015/01/IEEFA-BRIEFING-NOTE-Global-Energy-Markets-in-Transition.pdf IEEFA estimates that China installed 22 GW of hydro, 18 GW of wind, 13 GW of solar, 5-7 GW of nuclear and 4-6 GW of gas-fired electricity capacity in 2014 alone. Combined with another 22 GW of net new coal-fired capacity, China’s total electricity capacity installs are forecast at 90 GW in 2014 (over 6 percent yoy total capacity growth). Coal-fired power 4 http://www.stats.gov.cn/english/PressRelease/201412/t20141216_653855.html 5 http://af.reuters.com/article/energyOilNews/idAFB9N0T400220141217 6 http://www.brecorder.com/markets/commodities/asia/216783.html Production (TWh) (TWh) share (TWh) share YoY Thermal (gas and coal combined) 3,818 79.7% 3,807 76.5% -0.3% Hydro 725 15.1% 887 17.8% 22.4% Other 245 5.1% 281 5.6% 14.6% Electricity 4,788 4,975 3.9% China coal production (Mt) 3,513 -2.1% YTD Nov’13 YTD Nov’14 4 plants average utilisation rates have declined from an estimated 60 percent in 2011 to around 56 percent in 2014. Given this excess capacity, new installations of coal power are expected to rapidly slow and China could well see net annual coal-fired power capacity reductions from 2016 onwards.

[7] Quelle IEA Seite 20 hier

[8] Details hier: http://www.biomind.de/realCO2/literature/evidence-var-corrRSCb.pdf




Solar Impulse – ein solarbetriebenes Windei

Bei seinen ständigen Auftritten mit Prominenten und vor den Kameras aller möglichen Medien betont Bertrand Piccard nämlich immer wieder die visionären Ambitionen, die er mit dem Projekt verfolgt: Die Neuorientierung des Lebensstils der industrialisierten Gesellschaft, die seiner Meinung nach unverantwortlich mit den natürlichen fossilen Ressourcen des Planeten umgeht.

Um dieses noble Ziel zu erreichen, hat er selbst jedoch keine Hemmungen, Ressourcen in fast unglaublicher Höhe zu verschwenden. Die Berechnungen, die Simulationen, der Bau und die Tests für die Realisierung des Projekts dauerten zwölf Jahre. Die Kosten für dieses nach seinen Worten „revolutionärste Flugzeug“ sowie seinen Vorgänger „Solar Impulse 1“ nebst dem Aufwand für die Weltumrundung haben mittlerweile insgesamt 140 Mio. CHF bzw. ca. 135 Mio. € verschlungen.

Und was ist der Gegenwert? Ein reiner Schönwetterflieger mit 72 m Spannweite, der für seinen Flug um die Welt bei einer geplanten Strecke von 35.000 km fünf Monate benötigen soll. Das sind rund 230 km am Tag bzw. knapp 10 km/h. Inzwischen musste die Maschine bereits zum zweiten Mal wegen erheblicher technischer Probleme stillgelegt werden.

Wenn dieser Flug und dieses Projekt eines beweisen, dann lediglich folgendes: Selbst mit modernster Technik und modernsten Materialien –den Konstrukteuren standen alle Spitzenprodukte nach neuestem Stand der Wissenschaft zur Verfügung – ist Solarflug bestenfalls Spielerei und keinesfalls alltagstauglich. Schon die Teeklipper des 19. Jahrhunderts waren schneller. So erreichte schon die „Cutty Sark“ ein sogenanntes „Etmal“ – das ist die in 24 Stunden zurückgelegte Strecke – von 670 km (363 sm) und schaffte die Strecke von Shanghai nach Europa in 102 Tagen. Und im Unterschied zum zerbrechlichen Solar Impulse war sie allwettertauglich, wie sie bei Umrundung von Kap Hoorn mit seiner berüchtigten Hexenküche etliche Male bewies.

Besonders blamabel ist die Tatsache, dass es diesmal die ultramodernen Li-Ionen-Batterien mit einem speziell in Richtung höherer Energiedichte entwickelten Elektrolyten sind, die nach wenigen Wochen Einsatz bereits den Geist aufgegeben haben. Meldungen zufolge sind diese Batterien zum Teil irreversibel beschädigt und müssen entsprechend ersetzt werden, was mehrere Wochen dauern dürfte. Ein genauer Starttermin lässt sich derzeit noch nicht angeben, und schon Mitte August schließt sich das Zeitfenster für eine Atlantiküberquerung. Anderenfalls könnte sich das Projekt bis 2016 hinziehen. Realistisch betrachtet ist Solar Impulse 2 somit nicht viel mehr als ein besonders teures Stück Edelschrott.

Dennoch werden die Medien nicht müde, weiterhin das hohe Lied der waghalsigen Flugpioniere zu singen, beispielsweise in einem kürzlichen Interview mit A. Borschberg im Spiegel. Dabei ist dieses Versagen in Wirklichkeit doch eine schallende Ohrfeige für alle, die der Öffentlichkeit weismachen wollen, mit Batterien könne man die tödliche Erbkrankheit der „Erneuerbaren“, nämlich die fehlenden Speichermöglichkeiten, kurieren.

Fred F. Mueller




Zur Podiumsdiskussion über Klimawandel und Energiewende in der Bundeszentrale für politische Bildung (BPB) am 22.6.15 – Faktencheck Teil 1

Update 12.7.15

Mit Mail vom 12.7.15 wurden die Podiumsteilnehmern über diesen Faktencheck informiert. Gleichzeitig wurde ihnen von mir angeboten, falls sie sich dazu äußern wollten, wenn ggf. eine oder mehrere Äußerungen von mir – wenn auch ungewollt- falsch interpretiert worden sind, dies anzumerken und ihre Sicht der Dinge klarzulegen.

Soeben (21:09) erreicht mich von Herrn Fell diese Mail, mit der Bitte sie im Beitrag zu veröffentlichen, was ich hiermit umkommentiert tue:

fell@hans-josef-fell.de 

An: Dipl. Ing. Michael Limburg

AW: Podiumsdiskussion am 22.6.15 bei der BPB Faktencheck Teil I

Sehr geehrter Herr  Limburg

Bitte veröffentlichen zu diesen Stellungnahmen von Ihnen folgende kurze Stellungnahme:

Ich, Hans-Josef Fell erkläre, dass ich nicht antworten werde auf die Interpretationen von Herrn Limburg zu meinen Aussagen. Diese Nichtantwort ist nicht gleichzusetzen, mit einer Akzeptanz zu Herrn Limburgs Interpretationen meiner Äußerungen. Ich erkläre ausdrücklich, dass Herr Limburg  bezüglich meiner Äußerungen mit Falschinterpretationen, Faktenverdrehungen und  Aussagenverdrehungen arbeitet und gar noch den unseriösen Versuch unternimmt, eine Nichtantwort als Akzeptanz zu missinterpretierten.

Dies ist unseriös und deshalb werden diese Falschinterpretationen von mir pauschal zurückgewiesen. Ich sehe auch keinen Sinn in einer unendlichen unproduktiven Diskussion darüber, weil sie mir Zeit raubt, an einer Lösung des Menschheitsproblems Erderwärmung zu arbeiten.

Mit freundlichen Grüßen

Hans-Josef Fell

Faktencheck Teil 1

Die  BPB hat diesen Mitschnitt hier vor einigen Tagen veröffentlicht.  Auf Grund der Tatsache, das hier – wohl zum ersten Male- nicht nur Klimaalarmisten und Energiewendebefürworter eingeladen waren, sondern auch der als Klimarealist und entschiedener Gegner der Energiewende bekannte Autor dieser Zeilen, waren die ausgetauschten Argumente sehr kontrovers.

Zudem können in einer  derartigen Diskussionsrunde Argumente zwar ausgetauscht werden, sie reduzieren sich aber für den uninformierten Zuhörer auf reine Behauptungen, da im Allgemeinen den meisten die Kompetenz  fehlt, um die Richtigkeit der jeweiligen Behauptung überprüfen zu können. Das sei hier mit dem Faktencheck für die wichtigsten Argumenten nach  geholt.

Zur Verständnis: Der BPB Mitschnitt selber enthält keine Zeitmarken. YouTube hingegen setzt diese Zeitmarken  und erlaubt auch die automatisierte Erstellung von Untertiteln aus dem gesprochenen Wort. Die Umwandlung in Schriftdeutsch ist nicht gut, aber brauchbar, doch sie verlangt eine erhebliche Nachbearbeitung.  Die hat EIKE vorgenommen. Obendrein wurden in der EIKE Youtube Version die freundlichen Begrüßungsworte des  Gastgebers  Herrn Kopp für diesen Faktencheck weggelassen, somit fängt jeder Teilmitschnitt mit 0:00 min an.  Wichtig sind daher allein die Zeitmarken, dann kann der interessierte Leser schneller den Originalton abhören.

Audiomitschnitt Teil 1 (Länge 13,46 Min) der Podiumsdiskussion  im Hause der BPB am 22.6.15 Quelle BPB Hier. Die (editiert) Untertitelfunktion kann eingeschaltet werden

Zum Klimawandel:

Die Moderatorin begann mit der Frage an den Autor:

(0:01:43) Herr Limburg: ist die Frage, ob es ein anthropogenen Einfluss auf das Klima gibt, also ob der Klimawandel denn vom Menschen gemacht wird im Prinzip nicht längst überholt?

Limburg

Meine Antwort darauf: (ab 0:01:55) zusammen gefasst: Nein, sie ist nicht überholt.  In Bezug auf die veränderte Landnutzung, der Zuwachs von Städten und seiner Bevölkerung und der stark gestiegene Bevölkerung selber ist das lokale Klima natürlich anthropogen beeinflusst, aber ein Weltklima, dass zudem gar nicht real sondern nur in Modellen existiert, ist – zumal vom CO2- nicht beeinflusst. Das zeigen die Daten und deren Zeitreihen ganz deutlich. Und das geben die Experten auch zu. Sie sagen: Wir können die Wirkung des  nur in unseren Modellen zeigen.“ Der Einfluss, insbesondere des anthropogenen CO2 ist nicht vorhanden und was doch viel interessanter ist, in der gesamten Vergangenheit  die wir nun geologisch sehr gut kennen ist niemals ein Einfluss, ein treibender Einfluss, des CO2 auf die Temperatur der Luft in dieser Welt nach zuweisen. Umgekehrt schon.“

Fakt ist

John Mit­chell dazu ehemals Chef des UK Met Office und Leitautor des IPCC

“It is only pos­sib­le to at­tri­bu­te 20th Cen­tu­ry war­ming to hu­man in­ter­fe­rence using nu­me­ri­cal mo­dels of the cli­ma­te sys­tem.” [1] 

Richtig ist auch, dass CO2 niemals in der Vergangenheit – und das auf jeder historischen Zeitskala – die Temperatur der Atmospäre diese Planeten bestimmt hat. Zwei Beispiele dafür zeigen die folgenden Abbildungen.

Abb 1 CO2 und Temperaturverlauf über viele Mio Jahre.

Abb 2 Temperaturverlauf (schwarz; 15 year running mean) von 6 historischen Temperaturstationen mit mindestens 250 Jahren Aufzeichnungsdauer, von deren Frequenz-Spektrum nur die zwei stärksten addiert wurden (rot). Die Übereinstimmung ist frappierend. Und diese entsprechen in ihrer Periode sehr genau dem bekannten solaren De Vries Zyklus mit rd. 210 Jahre und dem ozeanischen AMO/PDO Zyklus mit ca. 65 Jahren. Quelle[2] s.Fußnote Details hier

Besonders interessant an Abb2 sind die deutlich erkennbaren Fakten,

1.     dass offenbar –zumindest bei den Messstationen- die Temperatur insgesamt fast 1:1 den beiden genannten Zyklen folgt .

2.     Von chaotischen Verhalten in diesem Zeitraum nichts zu erkennen ist

3.     Für CO2 kein Platz ist

4.     Sollten die der Kurve unterlegten Prozesse weiterhin ihre Wirksamkeit behalten, wie es die gestrichelte Kurve anzeigt, wird die Mitteltemperatur wieder sinken.

Ein weiteres paper der Autoren (bis auf einen, alles EIKE),dass die Zusammenhänge mit den genannten Zyklen genauer untersucht ist derzeit im Peer Review Prozess verschiedener internationaler Fachzeitschriften

Moderatorin Frau Dr. Zink (0:04:01)

Kommen wir nachher noch ein bisschen  spezifischer dazu, aber ich möchte gern erst mal den Herrn Fell fragen: Sie haben ja auch Physik studiert. Haben Sie denn Verständnis für so´ne Klimaskepsis?

H.J. Fell (0:04:09): Überhaupt nicht!

..Es ist so was von anti-wissenschaftlich ignorierend, dass das was die Physik  seid die vielen Jahrzehnten als Erkenntnisse hat….. Nein, also  ich bitt´Sie!

Herr Fell führt dann umfassend aus, dass das CO2 gewisse spektro-physikalische Eigenschaften hätte, die er als junger Student auch gemessen hätte, und die eindeutig zeigten, dass eingestrahlte Energie von der Sonne vom CO2 zurückgehalten würden und  diese Energie könne sich nur in steigender Erwärmung äußern. Und stellte den Zuhörern diese seine Versuche als Beleg für die seiner Meinung nach unbestreitbare Erwärmungswirkung des CO2 dar.   Dann beurteilte er meinen Zeitreihenvergleich als politisches Manöver.

Fakt ist:

Herr Fell übersieht bei seiner Gegenrede völlig, dass ich in meiner Argumentation die spektro-physikalischen Eigenschaften des CO2 weder benannt, noch angezweifelt habe. Hingegen habe ich mich auf den seit den Zeiten Galileo Galilei geltenden ehernen wissenschaftlichen Grundsätze gestützt, dass jede wissenschaftliche Hypothese

1.     erst durch die Bestätigung ihrer Annahmen durch Beobachtungen und Messungen  zur akzeptablen Theorie wird.

Und

2.     durch richtiges Vorhersagen zukünftiger Werte

ihre Tauglichkeit erweist.

Warum diese elementaren Grundsätze bei der Klimawissenschaft nicht gelten sollen, erklärten weder Herr Fell, noch Frau Zink, noch die anderen Teilnehmer. Denn auch eine plausible Hypothese – wie es die Hypothese von der Treibhauswirkung des anthropogenen CO2 für viele ist-  ersetzt nicht die Überprüfung im Experiment oder/und durch Beobachtung.  Sie geben damit auch indirekt zu, dass die Klimawissenschaften eine galileische Überprüfung in der Realität nicht benötigten.

Zu 1. Und sie wissen auch nicht, dass es seit den ersten IPCC Berichten genau dieses Problem ist, welches die Forscher beschäftigt. Es hat sogar einen Namen: „Detection and attribution problem“ und ist seither trotz vielfältigster Anstrengungen außerhalb von Modellen[3] ungelöst.

Der wichtigste Beitrag dazu ist der Versuch die sog. Klimasensitivität (CS Climate Sensitivity) des CO2 zu bestimmen. Damit ist der nur theoretisch ableitbare Wert gemeint, um den sich die globale Mitteltemperatur erhöhen sollte, bei Verdopplung der CO2 Konzentration.  Das IPCC geht im Mittel von 3,2 °C (3a) (bei einer Spanne von 4,5 K bis 1,5 K) aus, obwohl es im SPM des jüngsten Berichtes AR 5 – allerdings nur in einer Fußnote[4]- zugab, dass dieser Wert bisher nicht bestimmbar sei.  Der Wert 3,2 °C entsteht, wenn man den rechnerischen direkten Wert von ca. 1,2 °C  über die sog. Wasserdampfverstärkung (mehr Wärme, mehr Verdunstung, mehr Wasserdampf, mehr Wärme) mit 3 x nimmt. Viele andere Autoren haben

erstens die Wasserdampfverstärkung nicht finden können, sie fanden stattdessen eine Dämpfung, (Mehr Wärme, mehr Wasserdampf, mehr Wolken, mehr Abkühlung) und kommen

zweitens zu wesentlich niedrigeren Werten des CS Wertes bis hinunter auf nur 0,5 °C[5].

Damit treffen beide Grundsätze für die Hypothese vom anthropogenen Treibhauseffekt nicht zu.  Weder lässt sich deren Annahmen im Experiment bestätigen

Zellner Zitat

•       Reinhard Zellner [6] (Typisch ist der Einwand, dass der Treibhauseffekt nicht nachzuweisen sei): Das stimmt, es gibt kein Laborexperiment, das die Erwärmung durch Infrarotabsorption des CO2 direkt nachweist. Das System Atmosphäre kann aufgrund seines Temperatur- und Druckgradienten in einem stationären Experiment gar nicht reproduziert werden. Wir sind also auf ein klimawissenschaftliches Modell angewiesen,

…noch in der Realität durch den aktuelle oder historische Beobachtungen.

Abgesehen von wenigen, überdies für Klimazeitdistanzen, kurzen Zeitspannen,  in denen der Trend der „Welttemperatur „  eng und positiv korreliert  mit dem CO2 Anstieg verläuft (Rahmstorf [7]: mehr CO2 = mehr Temperatur) ist immer wieder auch die gegenteilige Entwicklung erkennbar. Also mehr CO2 und negativer Temperaturtrend. Und  dies ist auf allen geologischen Zeitskalen zu beobachten. (Siehe z.B. Abb. 1)

Zudem ist, was auch Herr Fell  (und später auch Frau Dehmer wissen müsste) eine Korrelation kein Ersatz für eine nachweisbare Ursache-Wirkungsbeziehung)

Besonders deutlich aber zeigt sich, dass auch die Modelle schwer daneben liegen. (Abb. 3) wenn man bereits vergangene Zeitspannen mit den Modellprognosen vergleicht. (Abb 1)

Abb. 3 Vergleich „zukünftige“  Verläufe (ab 1983) des globalen Temperaturtrends  von 90 Modellen und  zwei Messungen Grün:  Hadcrut Daten, Blau: Satelliten Daten UAH; schwarz Mittlerer Trend  aller Modelle: Quelle hier 

Auch die Behauptung von Herrn Fell – er hätte „die Versuche gemacht wie Kohlendioxid die Strahlung beeinflusst, wie das Kohlendioxid die umgewandelte Infrarotstrahlung von der Sonne aufnimmt. Sind klare Versuche gewesen, nicht irgendwie Trial and Error sondern Messungen“, um damit dem Publikum zu suggerieren, damit sei der anthropogene Treibhauseffekt bewiesen, kann so nicht stehen bleiben. Es klingt zwar plausibel, aber das reicht in den Naturwissenschaften bei weitem nicht.

Auf meine Nachfrage per Email an Herrn Fell vom 23.6.15

…bitte ich Sie daher mir Details zum Experiment mitzuteilen. Besonders interessant sind für mich dabei die Klärung der Fragen

1. Wie war der experimentelle Aufbau?

2. Wie haben Sie gemessen?

3. Was haben Sie gemessen?

4. Wie groß war die Unsicherheit bei Ihrer Messung?

schrieb mir Herr Fell am 24.6.15

Ich sagte, dass ich das Grundlagenexperiment wie jeder andere Physikstudent auch machte. Damit messen die Physikstudenten die Anregungswellenlängenlängen und damit die Energieaufnahme von Molekülen, wie CO2.  

Nun, derartige Eigenschaften hatte auch niemand bezweifelt. Und wie schon erwähnt, die spektro-physikalischen Eigenschaften des Spurengases CO2 (mit nur 0,04 Vol % in der Atmosphäre vorhanden) wie aller anderen Bestandteile der Luft  sind seit Jahrzehnten gut bekannt, aber bieten keinerlei Ersatz für einen Beweis des THE.

Moderatorin: (0:05:41)

Hmm; Frau Dehmer wie schätzen Sie denn diese kritischen Stimmen ein?

Frau Dehmer 0:05:46.

Science-fiction

(0:05:48)

Hm; die Messreihen, die vorhanden sind, sind ja mehr als hundert Jahre alt. (Anmlerung des Autors Siehe Abb. 1) Und  wenn sie sich die Messzahlen, und das ist nur das Gemessene anschauen, sowohl bei den Ozeantemperaturen als auch bei den Luft- Temperaturen dann haben die eben einen Trend nach oben. Und man kann auch zurück verfolgen, wann der begonnen hat. Hm. ich finde diese Diskussion völlig sinnlos 

Fakt ist:

Auf diesem Niveau zu argumentieren, wie es hier Frau Dehmer macht, ist natürlich völlig sinnlos.  Aus der unbestrittenen geringen Erwärmung – nach dem Ende der kleinen Eiszeit etwa ab 1850 (da musste es wärmer werden, sonst bestünde die Eiszeit ja immer noch) – und der gleichzeitigen – aber erst seit Mitte der fünfziger Jahre genau genug bekannten Konzentrationszunahme des CO2 in der Luft, eine bestätigte Abhängigkeit zu konstruieren, ist schon science fiction. Allerdings ganz ohne science. [8]

Mit gleicher Berechtigung könnte Frau Dehmer folgern, weil die Zahl der Störche in Deutschland abnimmt,  gibt es weniger Babys. Beides unbestreitbare Tatsachen, beide Verläufe eng korreliert, doch sollte heutzutage -jedenfalls unter Erwachsenen- keiner glauben, dass die Störche die Babys bringen.

Ich frage mich außerdem  immer wieder, woher die Protagonisten des anthropogenen Global Warming das Recht ableiten, dass das Klima konstant zu sein hat. Das war es bisher niemals und wird es auch in Zukunft nicht sein.

Frau Dr. Zink (0:06:51)

Daraufhin fühlte sich auch die Moderatorin Frau Dr. Zink veranlasst Ihre Sicht der Dinge darzustellen. Sie verwies am Anfang auf ihre Mitarbeit bei Wissenschaftssendungen erst von Joachim Bublath und dann von Harald Lesch und Dirk Steffens (Terra X). Dann erläuterte sie, dass sie und bezog andere Kollegen ein, spätestens seit 1995 im Grunde aber schon nach Rio (1992) aufgehört hatten kritische Stimmen zur Rolle des CO2 zu journalistisch zu überprüfen. Und schloss mit dem Beispiel ….im Kriminalfall würde man vielleicht sagen, die Faktenlage ist erdrückend und deswegen ist bei den Wissenschaftsjournalisten  dieses gar nicht mehr in Diskussion; muss ich sagen.

Fakt ist:

Dieses Statement ist insofern korrekt, als dass die Zustimmung (ja Panikmache) zur THE Hypothese, tagtäglich in allen Medien- von wenigen rühmlichen Ausnahme abgesehen-,  zu sehen, zu lesen und zu hören ist.

Diese Meinung, und um nichts anderes handelt es sich, beweist für die Existenz des THE natürlich gar nichts. Sie beweist aber etwas ganz anderes, nämlich, dass die allermeisten Journalisten es vorziehen im Mainstream mit zu schwimmen. Obwohl es gerade die vordringliche Aufgabe von Journalisten wäre, besonders misstrauisch bei Behauptungen von dieser Tragweite zu sein und ständig der uralten Frage nachgehen müssten – Cui Bono? Tun sie aber nicht, obwohl das investigative Hinterfragen für Wissenschaftsjournalisten umso mehr gelten müsste.

Es ist nämlich in den Naturwissenschaften überhaupt kein Gütesiegel, anders als in der Politik, wenn alle oder eine große Mehrheit einer Meinung sind. Die Beispiele bei denen das falsch war, sind Legion. Denn im Gegenteil, besonders dann ist höchstes Misstrauen angebracht, weil dann so gut wie immer die Wissenschaft unter die Räder kommt.  Und eine – noch dazu promovierte- Physikerin täte gut daran, diesem Grundsatz zu folgen. Gesundes Misstrauen tut daher not, ein Misstrauen, wie es die investigative Journalistin Donna Laframboise[9] antrieb, mit der Folge, dass sie die Machenschaften großer Umwelt-NGO´s wie z.B. WWF und Greenpeace, aber auch anderer, bei der verdeckten Übernahme des IPCC aufdeckte. Eine Übernahme, die denen nicht nur großen Einfluss brachten, sondern auch das Agenda-Setting erlaubt. Die Folgen davon erleben wir täglich.

Abgesehen von dieser Verhaltensfrage enthält die Frau Zinks „Beweisführung“ eine Behauptung, die nicht unwidersprochen bleiben kann.  Nämlich der „Beweis“ wie im „Kriminalfall“, den auch Hans v Storch  unlängst verwendete, als beide behaupteten, dass die Beweislage erdrückend sei.  Dabei wird übersehen, oder verschwiegen, dass schon im Gründungsauftag des IPCC steht, man solle Beweise dafür finden, dass der Klimawandel gefährlich und dass der Mensch dafür verantwortlich sei[10].

Klar nach der Drehbuchanweisung des Club of Rome 1972 (Quelle King & Schneider, 1991):

„Auf der Suche nach einem neuen Feind, der uns vereint, kamen wir auf die Idee, dass sich dazu die Umweltverschmutzung, die Gefahr globaler Er­wärmung, Wasserknappheit, Hunger und dergleichen gut eignen würden…. Alle diese Gefahren werden durch menschliches Eingreifen verursacht…Der wirkliche Feind wäre dann die Menschheit selbst….“

Folgerichtig werden sowohl vom IPCC als auch vielen Vertretern der Wissenschaft die weiteren Akteure in diesem „Kriminalfall“ bewusst außen vorgelassen. Wie z.B. der alles überragende und vielfältige Einfluss der Sonne. Damit wird durchgehend eine voreingenommene „Wissenschaft“ gefordert und auch betrieben.

Ich will mich aber hier nur auf den von mir angeführten „Beweis“ über die Wirkung des CO2 auf die Temperatur über Klima-Modelle fokussieren, den Hans v. Storch dem erstaunten Publikum präsentierte[11].

Fakt ist:

Limburg 0:08:20:

Sie sagen wir haben Modelle: Neulich Herr von Storch hat Modelle gezeigt, hat Bilder gezeigt wie die Temperatur nach oben geht in ihren Modellen (Anmerkung Autor Siehe Abb. 4) mit der Aussage wir können das nicht in der Natur beweisen, dafür ist das System zu komplex, zu großartig, zu umfangreich.

Niemand bestreitet ja die spektralen Eigenschaften des CO2.

Natürlich nicht!

Aber sie können sie nicht in der  in der Darstellung der Messdaten sehen und deswegen baut man eben diese komplexen, hochkomplexen Klimamodelle  und dann sagt man: „guckt mal hier“ das sind so vier Graphen…..wie die Temperatur nach oben steigt, je nachdem wie das CO2 sich entwickelt und  wenn man dann, das sind die Modellaussagen,  wenn man dann das CO2 weglässt  dann ist dieser Temperaturanstieg flach. Wie er übrigens seit über 18 Jahren inzwischen auch ist  (Anmerkung Autor Siehe Abb. 4)

Abb 4: Satellitenmessung der globalen Mitteltemperatur – und nur die sind eigentlich für globale Klimazwecke geeignet- der letzen > 18 Jahre. Man sieht trotz stark steigenden CO2 um ca. 2 ppm/Jahr ist der Trend genau Null

So, aber das ist ein Zirkelschluss! Wenn ich ein Modell baue, wo das CO2 die  Temperatur treibt, was es, wie gesagt, in der Vergangenheit noch nie gemacht hat  dann steigt die Temperatur. Wenn ich dann in diesem Modell dass CO2 weglasse.. wie soll da die Temperatur steigen? Also das als Beweis anzunehmen -und nur das  existiert- das müssen Sie halt schlicht zur Kenntnis nehmen- das sind die Fakten 

Abb. 5: Modellberechnungen für verschiedene Kontinente des jeweiligen Verlaufs der Mitteltemperatur mit und ohne die Annahme der Wirkung der Treibhausgase (gemeint war immer als stärkster Treiber CO2 (Quelle: IPCC AR4 4)

Dann murmelte Frau Zink etwas von (0:09:29).

Na ja, es gibt ja sehr viele Beweise, da muss man sich nur viele Baumrinden anschauen,

… ging aber nicht weiter darauf ein.

Fakt ist:

Man muss vermuten, dass sie berüchtigte Hockeyschlägerkurve des Michael Mann meinte, von dem sein Freund Phil Jones später mailte, dass er „Mikes Nature trick“ erfolgreich angewendet hätte „to hide the decline“. Gemeint war, dass dieser „decline“ seit den 1960er Jahren in der Proxykurve der Mannschen Baumringdaten zu sehen war, aber Michael Mann sie schlicht abgeschnitten hatte und sie durch ihm genehmere Thermometerdaten, die sich nicht absenkten, sondern im Gegenteil nach oben stiegen, ersetzt hatte. Ein bis heute ungeahndeter Betrug. (Einige Details dazu hier)

Etwas später meinte die Moderatorin wieder gegen halten zu müssen (0:10:45)

Dann muss ich gleich mal ein bisschen noch dagegen schießen. Auch ich mache meine Hausaufgaben als Wissenschaftsjournalistin. Es gibt Meta Studien. Das sind ja Studien über alle wissenschaftlichen Artikel….

Und zitierte die Cook Studie, wonach 12.000 klimawissenschaftliche Studien (peer reviewed) von Cook et al daraufhin untersucht worden sein sollen, wie viel davon die anthropogen induzierte Erwärmung bejahten. Und das seien bis auf 80 Artikel alle gewesen.

Fakt ist,

dass nach der neuesten  Überprüfung der Methodik dieser Studie (Legates et al[12]) die Verfasser zu dem Schluss gekommen seien, dass Cooks Behauptung nur 0,3 % der Studien folgten (Details dazu hier) Der Rest stimmt zwar einer Erwärmung zu, die aber eben nicht zwangsläufig anthropogen erzeugt.

Und, Fakt ist auch,  das John Cook kein Klimawissenschaftler sondern ein Blogger und  Psychologe ist. Was Frau Zink verneinte.

Jedoch schreibt derselbe John Cook,  welcher die Mainstream Website „SkepticalScience“ betreibt in seinem Blog,

about..

(John Cook) is currently completing a PhD in cognitive psychology, researching how people think about climate change. He is also developing a MOOC (Massive Online Open Course),Making Sense of Climate Science Denial, to be released in April 2015.

Nur in einer Hinsicht behielt Frau Dr. Zink recht: Cook ist kein Australier, sondern US-Amerikaner. Ich hatte ihn in der Eile in Bezug auf seine Landsmannschaft mit seinem Bruder im Geiste Lewandowski verwechselt. Der ist Australier.

Aber obwohl diese Cook Studie, wissenschaftlich, den Klimawandel und seine vermuteten Ursachen betreffend, völlig irrelevant ist, wird sie gerne von allen  – auch und besonders häufig von Umwelt- und/oder Wissenschaftsjournalisten geglaubt. Die Betonung liegt dabei auf geglaubt.

Es scheint ja so gut zu passen. Mit dem Strom schwimmen ist eben leichter als gegen den Strom, oder wie es Einstein viel besser formulierte, als man ihm vorhielt, dass hundert Wissenschaftler seine Relativitätstheorie für falsch hielten, er sagte kühl: „Wenn die recht hätten genügte einer.“

Wird fortgesetzt


[1] ‘CLIMATE CHANGE Response to Carteret al.’, World Economics, 8 (1): 221228. –

[2] Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records H.-J. Ludecke ¨ 1,*, A. Hempelmann2 , and C. O. Weiss3,*

[3] Man sehe z.B. den SPM Seite 18 figure SPM.6. In der Bildunterschrift steht u.a „:::Comparison of observed and simulated climate change based on three large-scale indicators in the atmosphere, the cryosphere and the ocean: change in continental land surface air temperatures (yellow panels), Hervorhebung von mir.

[3a] IPCC (2013): Climate Change 2013, Working Group I: The Science of Climate Change, Box 12.2

[4] „Die Fußnote lautet: No best estimate for equilibrium climate sensitivity can now be given because of a lack of agreement on values across assessed lines of evidence and studies. Quelle SPM AR5 final, S 16 hier

[5] Quellen: [6] H. Harde, Open Journal of Atmospheric and Climate Change (2014), http://tinyurl.com/p9ac6xg

[7] IPCC-Berichte (scientific basis), www.ipcc.ch

[6] Prof. Reinhard Zellner in Nachrichten aus der Chemie, S 213 Mai 2014 Mitglied u.a Enquetekommissionen – „Schutz der Erdatmosphäre“ und „Schutz des Menschen in der Umwelt“

[7] Das genaue Zitat geht so: Stefan Rahmstorf am 3.2.2007 (Die Welt): Wir Klimaforscher können nur nach dem Wenn-dann-Prinzip sagen: Wenn so und so viel CO2 ausgestoßen wird, dann wird das Klima sich so und so stark erwärmen.“

[8] Siehe auch ergänzend hierzu diesen Beitrag von Limburg & Willis Eschenbach

[9] Details zu den unglaublichen Fakten über das IPCC finden Sie hier

[10] Auf der  IPCC Website unter  Mandate findet man .”… Its role is to assess on a comprehensive, objective, open and transparent basis the latest scientific, technical and socio-economic literature produced worldwide relevant to the understanding of the risk of human-induced climate change::”

[11] Den Erlebnisbericht dazu finden Sie hier

[12] Legates et al ‚Climate Consensus and ‘Misinformation’: a Rejoinder to ‘Agnotology, Scientific Consensus, and the Teaching and Learning of Climate Change’ in Science and Education




PRISM das moderne Entsorgungszentrum? Teil 1

In England wird seit einigen Jahren ernsthaft über den Bau des sogenannten Power Reactor Innovative Small Module (PRISM) von GE-Hitachi diskutiert. Hintergrund ist der stetig wachsende Plutoniumberg aus der Wiederaufbereitungsanlage. Inzwischen lagern zwischen 100 und 150 Tonnen auf der Insel. Es geht dabei um die sinnvollste Verwendung. Ein “verbuddeln und vergessen” nach deutschen Vorstellungen, scheidet für GB ohnehin aus. Vielmehr ist man bestrebt, das Gefahrenpotential des “Atommülls” auf einige hundert Jahre zu begrenzen. Ein Zeitraum, den man unstrittig durch technische Bauten sicher beherrschen kann. Man holt dadurch das Problem von der wenig fassbaren moralischen Ebene – irgendwelcher “Ethikkommissionen” – auf die berechenbare Ebene der Ingenieurwissenschaften zurück.

Ein Weg – und beileibe nicht der einzige – ist die Nutzung und Beseitigung abgebrannter Brennelemente durch einen mit Natrium gekühlten Reaktor mit schnellem Neutronenspektrum und metallischem Brennstoff: Dem PRISM. Nichts von der Erfindermesse, sondern ein Stück erprobter Technik. Sein unmittelbarer Vorläufer, der EBR II, war 30 Jahre erfolgreich in Betrieb (bis 1994). Ein PRISM-Kraftwerk mit 1866 MWel würde rund zwei Tonnen abgebrannter Brennelemente pro Jahr verbrauchen und damit die gleiche Menge Strom erzeugen, wie Kohlekraftwerke durch die Verbrennung von sechs Millionen Tonnen Steinkohle.

Warum schnelle Neutronen?

Mit hinreichend schnellen Neutronen kann man alle schweren Kerne spalten. Ausdrücklich auch 238-U, alle Plutoniumisotope und die minoren Aktinoiden (Americium, Curium, Neptunium usw.). Letztere sind für die Langlebigkeit des Atommülls verantwortlich. Gelingt es sie zu spalten, bleiben nur noch Spaltprodukte mit einer Halbwertszeit von unter 30 Jahren übrig. Allerdings hat die Sache einen entscheidenen Haken: Die Reaktionsquerschnitte sind nicht nur stoffabhängig, sondern auch sehr stark energieabhängig. Mit anderen Worten, nimmt die Wahrscheinlichkeit für eine Spaltung mit schnellen Neutronen stark ab.

Eine selbsterhaltende Kettenreaktion läßt sich nur mit 235-U (in der Natur vorkommend) und 233-U (aus Thorium erbrütet), sowie 239-Pu (aus Uran erbrütet) aufrecht erhalten. Auch deren Spaltquerschnitte sind für langsame thermische Neutronen um Größenordnungen geeigneter. Will man also einen schnellen Reaktor bauen, braucht man wesentlich höhere Anteile an Spaltmaterial. Allerdings steigt auch die Anzahl der freigesetzten Neutronen mit der Energie der spaltenden Neutronen an.

An dieser Stelle ergeben sich die drei Varianten des PRISM-Reaktors, die sich nur durch die Zusammensetzung des Kerns unterscheiden:

1.     Der Brenner. Er verbraucht – wie ein Leichtwasserreaktor – mehr Spaltstoff als beständig neu entsteht. Man muß diese Verluste stetig aus abgebrannten Brennelementen ersetzen. Dies wäre eine reine “Abfallverbrennungsanlage”.

2.     Der Selbsterhalter. Er stellt ziemlich genau so viel 239-Pu beim Betrieb gleichzeitig her, wie er auch verbraucht. Die Spaltungen müssen nur durch 238-U – z. B. aus dem Abfall der Anreicherungsanlagen – ergänzt werden.

3.     Der Brüter. Dies ist die wohl bekannteste Variante. Ein solcher Kern erzeugt mehr 239-Pu, als er selbst verbraucht. Entscheidendes Maß ist bei diesem Typ die sogenannte Verdoppelungszeit. Damit ist die Zeitdauer gemeint, in der ein Reaktor so viel Überschussplutonium produziert hat, wie man braucht, um damit einen zweiten Reaktor in Betrieb nehmen zu können. Diese Variante wird erst attraktiv, wenn die Preise für Natururan explodiert sind. Also erst in sehr ferner Zukunft.

Es ist bei allen drei Varianten sinnvoll, die Spaltprodukte von Zeit zu Zeit abzutrennen. Allerdings haben sie nicht die Bedeutung, die sie bei Leichtwasserreaktoren haben, da ihre Einfangquerschnitte (und dadurch verursachte Neutronenverluste) für hohe Energien recht klein sind. Der Abbrand kann bei schnellen Reaktoren rund fünfmal so hoch sein, wodurch sich eine Wiederaufbereitung wesentlich vereinfacht und nicht so oft geschehen muß (Kosten).

Warum Natrium als Kühlmittel?

Wenn man einen schnellen Reaktor bauen will, muß man ein Kühlmittel verwenden, das Neutronen praktisch nicht abbremst. In diesem Sinne, kommen praktisch nur drei Stoffe in Frage: Natrium, Blei und Helium. Natrium besitzt in allen relevanten Eigenschaften klare Vorteile, sodaß es nicht verwunderlich ist, daß praktisch alle schnellen Reaktoren (über 20 in 8 Ländern) mit Natrium gekühlt wurden. Einzige Ausnahme bilden die sieben Blei-Wismut-Reaktoren der U-Boote der Alpha-Klasse in der Sowjetunion. Sie sind gerade an den Eigenschaften des Blei gescheitert (hohe Schmelztemperatur, die eine ständige Beheizung erfordert; große Korrosionsprobleme; hohe Pumpleistung; starke Aktivierung durch die Bildung von 210-Po). Je eingehender man sich mit Kühlmitteln beschäftigt, gibt es für ein Kernkraftwerk (zur reinen Stromerzeugung) lediglich zwei optimale Kühlmittel: Wasser für thermische und Natrium für schnelle Reaktoren.

Natrium ist wegen seines elektrischen Widerstandes hervorragend für den Bau von elektromagnetischen Pumpen ohne bewegliche Teile und damit ohne Dichtungsprobleme geeignet.

Bei Natrium braucht man immer einen zusätzlichen Zwischenkreislauf. Der Neutronenfluß bildet 24-Na, welches ein harter γ-Strahler ist. Das primäre Natrium muß deshalb gut abgeschirmt werden. Außerdem besteht bei Leckagen im Dampferzeuger die Gefahr der Wasserstofferzeugung und der Bildung von NaOH. Wasserstoff ist ein guter Moderator, der zu einer Beschädigung des Kerns durch einen Reaktivitätssprung führen könnte.

Die Gefahr von Natriumbränden wird meist überschätzt. Natrium hat eine hohe Verdampfungswärme bei hoher Verdampfungstemperatur. Dies führt zu einer geringen Verdampfungsrate während der Verbrennung – dem Feuer mangelt es an Nahrung. Die Verbrennung von Natrium in Luft, setzt nur etwa ein Viertel der Energie, wie Benzin frei. Bei dem klassischen Brandversuch in einer offenen Wanne, bilden sich nur wenige Zentimeter hohe Flammen und in einem Meter über den Flammen herrscht nur eine Temperatur von rund 100 °C. Die bei der Verbrennung entstehenden Na2O und NaO-Aerosole reagieren in Luft unter Anwesenheit von Wasserdampf und Kohlendioxid weiter zu NaOH und Na2CO3. Diese Aerosole erfordern anschließend gründliche Reinigungsarbeiten, da sie elektrische Anlagen zerstören können und giftig sind.

Natrium besitzt sehr gute Korrosionsschutzeigenschaften, da es leicht mit Sauerstoff reagiert. Erst oberhalb von 50 ppm besteht für gewisse Stähle eine Korrosionsgefahr im flüssigen Natrium. Dieser Wert ist problemlos über eine Kältefalle (Im Prinzip ein Topf, durch den ein Teilstrom von weniger als 5% des Kreislaufes sehr langsam hindurch strömt) auf 10 bis 25 ppm zu halten. In der Kältefalle kristallisiert das Na2O a bei unter 200 °C aus.

Warum metallischer Brennstoff?

Metallische Brennstoffe ermöglichen die höchsten Brutraten, da sie vollständig aus spaltbarem und brutfähigen Material bestehen könnten. Sie liefern das härteste Neutronenspektrum, da sie nur aus den schwersten Kernen bestehen. Die Folge ist, daß rund 25% der erzeugten Energie aus der direkten Spaltung von 238-U stammen können.

Metalle sind ausgezeichnete Wärmeleiter und vertragen sehr schnelle Temperaturänderungen. Im Gegensatz dazu sind Uranoxide – wie sie in allen Leichtwasserreaktoren verwendet werden – Keramiken, mit bekannt schlechter Wärmeleitung und Sprödigkeit. Sie können im Inneren bereits aufschmelzen, wenn sich ihre Randtemperatur noch kaum geändert hat und können bei schockartiger Abkühlung wie eine Teetasse zerspringen.

Metallische Brennstoffe vertragen sich ausgezeichnet mit dem flüssigen Natrium. Chemische Reaktionen, wie zwischen den Brennstabhüllen aus Zr bei Leichtwasserreaktoren und Wasserdampf, gibt es nicht (Wasserstoffexplosionen in Fukushima).

Metallischer Brennstoff schwillt durch die Strahlenbelastung um bis zu 30% an. Die Brennstäbe müssen deshalb sehr viel Raum für Spaltgase besitzen. Der notwendige Anfangsspalt zwischen Hüllrohr und Brennstoff wird mit Natrium als Wärmebrücke ausgefüllt.

Man kann bei Metallen die Eigenschaften durch Legierung gezielt verändern. Plutonium hat eine zu geringe Schmelztemperatur. Der Brennstoff kann mit den Legierungsbestandteilen der Stahlhülle schädliche Eutektika bilden usw. Dies alles, hat in den USA Jahrzehnte Forschung und Entwicklung und den Test von hunderttausenden von Brennstäben erfordert. Als Optimal hat sich eine Brennstofflegierung aus Uran und Plutonium mit etwa 10% Zr in einer Hülle aus austenitischem Stahl herausgestellt.

S wie small

Von Anfang an, stand bei der Entwicklung die geometrische Größe des Reaktors im Vordergrund: Man wollte den kompletten nuklearen Teil in einer Fabrik fertigen und testen und anschließend (möglichst) mit der Eisenbahn zum Standort transportieren. Alle Einbauten, der Kern, die Pumpen, die Zwischen-Wärmeübertrager, die Lademaschine mit dem Zwischenlager und die Regelstäbe werden in einen Topf aus Edelstahl eingebaut und mit dem Deckel gasdicht verschweißt. Diesen Reaktorbehälter umschließt noch ein zweiter Sicherheitsbehälter und die Luftkühlung. All das, wird in einer Fabrik zusammengebaut und getestet und anschließend zur Baustelle transportiert und dort in das örtlich gefertigte Betonsilo eingesetzt. Damit ist die geplante Leistung auf etwa 840 MWth begrenzt. Durch die Serienfertigung in einer spezialisierten Fabrik, verspricht man sich einen bedeutenden Kostenvorteil.

M wie modular

Die Modularität bezieht sich sowohl auf einen Block selbst, wie auch auf ein Kraftwerk:

·       Jeder Block besteht aus dem nuklearen Teil in einem unterirdischen Betonsilo, der oberirdischen Dampferzeuger-Anlage und den konventionellen Stromerzeugungsanlagen.

·       Ein komplettes Kernkraftwerk könnte z. B. eine elektrische Leistung von 1866 MWel haben und müßte dann aus sechs Reaktoren (je 840 MWth) bestehen, die jeweils paarweise auf eine Turbine (je 622 MWel) wirken und insgesamt drei Turbinen haben. Alle sonstigen Einrichtungen (Werkstatt, Sozialgebäude usw.) würden gemeinsam genutzt. Ein solches Kraftwerk könnte auch eine integrierte Wiederaufbereitungsanlage beinhalten.

Die interne Unterteilung zielt auf eine potentielle Kosteneinsparung ab: Lediglich der Reaktor in seinem Betonsilo müßte dem Sicherheitsstandard “nuclear grade” entsprechen. Bereits die Dampferzeugungsanlage in ihrem separaten Gebäude sollte – nach Meinung von GE – nur einen “gehobenen Industriestandard” haben. In wie weit, die Genehmigungsbehörden dieser Argumentation folgen werden, ist noch nicht ganz eindeutig zu beantworten.

Die Zusammenfassung von zwei Reaktoren mit Dampferzeuger und einer Turbine zu jeweils einer Einheit, zielt auf eine hohe Verfügbarkeit und einen kostengünstigen Ausbau eines Standortes ab. Sobald eine Einheit fertig ist, kann diese bereits Geld verdienen, während der Ausbau des Kraftwerkes weiter läuft. Die heute übliche Vorfinanzierung der gesamten Summe entfällt. Später, hat das Kraftwerk eine sehr hohe Verfügbarkeit bei guten Wirkungsgraden. Letztendlich muß die Praxis zeigen, welcher Weg der günstigere ist. Rußland beispielsweise, versucht es über möglichst große Blöcke.

Das Sicherheitskonzept

PRISM setzt konsequent auf eine passive oder inhärente Sicherheitstechnik. Der völlige Stromausfall (Station-Blackout) ist kein Problem mehr. Es wird lediglich eine elektrische Leistung von weniger als 200 kW für Instrumentierung, Notbeleuchtung, Rechner und Bildschirme usw. benötigt. Diese kann problemlos über Batterien bereitgestellt werden. Notstromdiesel (als Sicherheitstechnik) sind nicht mehr nötig. Die Nachzerfallswärme wird ausschließlich über eine Luftkühlung mit Naturzug abgeführt. Dazu wird die Wärme über das Reaktorgefäß und den Sicherheitsbehälter an einen umgebenden Luftspalt abgegeben. Die erwärmte Luft steigt über vier Kamine auf. Das System ist so bemessen, daß auch bei erheblichen Verstopfungen (z. B. durch Erdbeben oder Anschläge) oder dem kompletten Ausfall von zwei Kaminen oder einem völligen Verschluß der Zuluftöffnungen die Kühlung stets gewährleistet ist. Selbst bei einem völligen Ausfall von 36 Stunden, tritt noch keine Kernschmelze auf. Ein Unfall wie in Fukushima, wäre damit ausgeschlossen.

Der gesamte Reaktor ist elastisch auf Federn und Dämpfern gelagert. Da sich alle Rohrleitungen und Pumpen etc. in dem Reaktorgefäß befinden, ergibt sich ein optimaler Erdbebenschutz. Dies gilt auch für Flugzeugabstürze und sonstige Einwirkungen von außen, da sich der Reaktor in einem unterirdischen Betonsilo befindet. Die Verbindung zum Dampferzeuger besteht aus Vor- und Rücklauf des Natrium-Zwischen-Kreislaufes, die ebenfalls in einem Betongraben verlegt sind. Diese Leitungen sind als Rohr in Rohr Konstruktion ausgeführt, um Natrium-Leckagen zu verhindern.

Der Dampferzeuger ist ebenfalls mit einem Mantel zur Luftführung umgeben. Wenn die eigentliche Kühlung des Kraftwerks ausfällt, kann die Wärme auch darüber abgeführt werden. Dies ist jedoch kein nukleares Sicherheitssystem im engeren Sinne, sondern dient dem Anlagenschutz.

Die Lagerung der Brennelemente

Die Handhabung der Brennelemente verläuft bei diesem Reaktor gänzlich anders, als bei Leichtwasserreaktoren. Der Reaktor kann wegen des flüssigen Natriums mit seiner hohen Temperatur und Brandgefahr nicht einfach geöffnet werden. Zuerst wird das Helium als Schutzgas und Ausgleichsraum abgesaugt und durch frisches Gas ersetzt. Damit soll die Gefahr der Freisetzung radioaktiver Gase in den Sicherheitsbehälter vermieden werden. Die fest im Reaktor installierte Lademaschine entnimmt abgebrannte Brennelemente und lagert sie oberhalb des Kerns in ein Lagergestell ein. Anders als bei Leichtwasserreaktoren, verbleiben sie für mindestens 20 weitere Monate zur Abkühlung im Reaktor. Ihre Wärmeentwicklung durch den radioaktiven Zerfall ist dann soweit abgeklungen, daß sie auch ohne spezielle Kühlung keine Temperatur von 400 °C mehr überschreiten können. Dies ist für ihren metallischen Kern und die Hüllrohre aus Stahl kein Problem. Ein Brennelemente-Lagerbecken ist nicht nötig.

Ein vollautomatisches Transportfahrzeug dockt an den Reaktordeckel an, entnimmt die zu entladenden Brennelemente und fährt sie anschließend zum zentralen Lagergebäude.

All das, geschieht vollautomatisch und unter Schutzgas. Trotzdem ist ein Auslegungsstörfall der Brand des Natriums im Reaktor. Der Sicherheitsbehälter oberhalb des Reaktors ist so bemessen, daß er die freigesetzte Energie und die Temperaturen aushält. Automatische Löschanlagen mit Schutzgasen sind vorhanden.

Die Auslegungsstörfälle

Schnelle Reaktoren (SR) und Leichtwasserreaktoren (LWR) unterscheiden sich stark in ihrem Unfallverhalten. LWR stehen unter hohem Druck und werden nahe dem Verdampfungspunkt betrieben. Schon bei einem relativ kleinem Leck, baut sich der Druck stark ab und das “Kühlwasser” verdampft. Die Temperatur im Kern steigt damit steil an und nähert sich schnell den Grenzwerten. Gelingt es nicht, das Kühlwasser schnell zu ersetzen, wird der Kern zerstört (Unfall in Harrisburg). Auch nach erfolgreicher Abschaltung, kann die Nachzerfallswärme noch zur Kernschmelze führen (Unfall in Fukushima). Es kommt im weiteren Verlauf dann zur Reaktion zwischen Wasserdampf und den Brennstabhüllen mit starker Wasserstoffproduktion (zerstörende Explosionen in Fukushima).

Bei einem SR sieht der Ablauf gänzlich anders aus. Die Kombination aus metallischem Brennstoff, Brennstabhüllen aus Edelstahl und Natrium als Kühlmittel ergibt eine sehr gute Wärmeübertragung mit hoher Temperaturbeständigkeit. Chemische Reaktionen zwischen den Unfallbeteiligten sind praktisch nicht vorhanden. Mit anderen Worten: Es wird recht schnell und gleichmäßig heißer im Reaktor. Wegen der hohen Verdampfungstemperatur kann es deutlich heißer werden, ohne daß sich wesentliches ändert. Bei einem LWR reicht selbst die Nachzerfallswärme aus, den Kern zum Schmelzen zu bringen, wenn er nicht mehr mit flüssigem Wasser bedeckt ist. Bei einem SR führt die starke Temperaturerhöhung lediglich zu einem neuen Gleichgewicht zwischen “Notkühlluft” und Reaktorgefäß. Die neue Gleichgewichtstemperatur ist so bemessen, daß sie sich noch weit von Materialgrenzwerten entfernt einstellt. Der Reaktor ist “inhärent sicher”.

Bei jedem Reaktor führen gewisse Grenzwerte zur sofortigen und automatischen Abschaltung. Beim PRISM fallen zu diesem Zweck sechs Regelstäbe in den Kern ein. Die Kettenreaktion wird dadurch in Sekundenbruchteilen unterbrochen. Zur dauerhaften Abschaltung gibt es noch ein zweites System, das Kugeln aus Borkarbid in den Kern einführt. Insofern unterscheiden sich LWR und SR kaum.

Man geht aber beim PRISM-Reaktor noch einen Schritt weiter, in dem man sich den starken Temperaturanstieg nutzbar macht. Dieser führt zu einer Reihe von Auswirkungen, die neutronenphysikalisch wirken (Dopplereffekt, Dichteänderung des Natrium, Axiale und radiale Ausdehnungen des Brennstoffs, usw.). Wichtig ist die konstruktive Gestaltung, damit der Temperaturkoeffizient der Reaktivität immer negativ bleibt (In Tschernobyl war er positiv!). In Alltagssprache: Je heißer der Reaktor wird, um so schneller bricht die Kettenreaktion von selbst zusammen. Wird die Kühlung – aus welchen Gründen auch immer – unterbrochen, schaltet sich der Reaktor von selbst ab. Er ist also auch im Betrieb “inhärent sicher”.

Der Ausfall der Umwälzpumpen im Reaktor (vier Stück) kann zu einer lokalen Überhitzung führen, die örtlich sogar zu einem Verdampfen des Natriums führen könnte. Dadurch könnte der Neutronenfluß lokal weiter ansteigen und Teile des Kerns beschädigen. Ursache sind die elektromagnetischen Pumpen, die keine rotierenden Massen haben und somit sofort ausfallen, wenn der Strom weg ist (Station-Blackout). Sie werden deshalb mit Synchronmotoren, mit extra großen Schwungmassen, parallel betrieben. Die Synchronmaschinen erzeugen im Normalbetrieb Blindleistung und schalten bei Stromausfall automatisch in den Generatorbetrieb um. So entsteht ein mehrere Minuten dauernder Auslauf der Pumpen, der lokale Überhitzungen verhindert und sanft in einen Naturumlauf überführt.

Versagt auch dieses System, werden die Gasraum-Ausdehner wirksam. Sie funktionieren nach dem Prinzip eines umgedrehten Glas im Spülbecken: Je weiter man es eintaucht, um so kleiner wird das Luftpolster infolge des steigenden Wasserdrucks. Im PRISM spielt nun der Pumpendruck auf das Natrium mit einem Gaspolster aus Argon zusammen. So wie der durch die Pumpen erzeugte Druckanstieg kleiner wird, dehnt sich das Argonpolster aus. Da das Gas eine wesentlich geringere Dichte als das flüssige Natrium hat, kann es auch weniger Neutronen in den Kern zurück streuen. Der Ausfluß erhöht sich und die Kettenreaktion bricht zusammen. Ein weiteres, völlig passives, Sicherheitssystem.

 Natriumbrand im Dampferzeuger

Ein spezielles Sicherheitsproblem, ist die Reaktion zwischen Wasser und Natrium. Bei ihr wird neben Energie auch Wasserstoff frei bzw. es entstehen Reaktionsprodukte, die Wasserstoff enthalten. Daraus ergeben sich folgende Ansprüche:

·       Der Dampferzeuger sollte in einem separaten Gebäude – streng getrennt vom Reaktor – stehen. Da es nur hier eine Schnittstelle zwischen Wasser und Natrium gibt, können alle Auswirkungen besser beherrscht und lokal begrenzt werden.

·       Es sollte eine Isolierung zwischen Dampferzeuger und Reaktorteil geben, um Rückwirkungen auf die Wärmetauscher im Reaktor zu verhindern.

·       Es müssen ausreichend große Abblasetanks vorhanden sein, um Natrium und Wasser möglichst schnell voneinander zu trennen, damit die Brandlasten klein bleiben. Entstandener Wasserstoff muß rekombiniert bzw. sicher abgeleitet werden, um Explosionen zu verhindern (nicht wie in Fukushima, auch noch benachbarte Gebäude zerstören.)

Der Dampferzeuger des PRISM ist ein schlanker, aufrecht stehender Behälter. Er ist nicht vollständig mit Natrium gefüllt, sondern besitzt oben einen mit Argon gefüllten Raum. Dieses Gaspolster, kann bei Störfällen, etwaige Druckwellen, bereits erheblich mindern. In dieses Natriumbad tauchen, zu einer Spirale gewickelte Rohre, ein. In diesen strömt das Wasser und verdampft. Würde ein Rohr undicht werden, strömt Wasser bzw. Dampf unter hohem Druck in das Natrium ein und reagiert dort sofort. Die zusätzliche Energieproduktion kann zu einem Temperaturanstieg im Dampferzeuger führen. Wichtigste Gegenmaßnahme ist nun die Absperrung sowohl der Wasser- und Dampfleitungen wie auch der Natriumleitungen. Dabei sind kleine Leckagen kein Problem, da sie ein langsames Abfahren der Anlage ermöglichen.

Kommt es hingegen zu massiven Wassereinbrüchen, kann es zu einer stärkeren Temperaturerhöhung und einem steilen Druckanstieg führen. Wichtigstes Ziel ist nun, die Druckspitze zu begrenzen und die Druckwelle möglichst von den Zwischenwärmetauschern im Reaktor fern zu halten. Zur Dämpfung dient bereits das Gaspolster im Dampferzeuger. Wird der vorgesehene Druck überschritten, bersten zwei Scheiben in der Verbindungsleitung zum Abblasetank. Der Abblasetank trennt die Gase (insbesondere den entstandenen Wasserdampf) vom flüssigen Natrium. Das Natrium strömt dann weiter in Reservetanks. Bereits gebildeter Wasserstoff wird rekombiniert, um etwaige Explosionen zu vermeiden. Die Restwärme wird über die Außenluft abgeführt.

Unmittelbar hinter dem Sicherheitsbehälter des Reaktorgebäudes befinden sich Isolierventile, die sofort und automatisch schließen. Dadurch wird verhindert, daß überhaupt Reaktionsprodukte zum Reaktor gelangen können.

Schlußbetrachtung

Es gibt international viel Erfahrung aus einigen hundert Betriebsjahren mit natriumgekühlten schnellen Reaktoren. Allein in den USA ist der BER II über 30 Jahre erfolgreich gelaufen. Man hat in ihm über 100000 Brennelemente getestet und umfangreiche Experimente der Sicherheitssysteme durchgeführt. Mehrfach wurde bei voller Leistung die Wärmesenke einfach abgestellt, um beispielsweise die Richtigkeit der Rechenprogramme zu überprüfen. Die Entwicklung ist seit dem – wenn auch stark reduziert – kontinuierlich weitergeführt worden. Bereits 1994 wurde das eingereichte Konzept von der NRC in einem 400seitigen Abschlussbericht positiv beurteilt. Seit dem, könnte eigentlich ein Kraftwerk als Demonstrationsanlge gebaut werden – wenn der politische Wille vorhanden wäre. Ob auch hier wieder China voranschreiten wird oder kann Europa (GB) noch den Anschluß halten?

Ausblick

Der zweite Teil, wird sich mit der Wiederaufbereitung und der Herstellung der metallischen Brennelemente beschäftigen.

http://www.nukeklaus.de/home/prism-das-moderne-entsorgungszentrum-teil-1/




Solarflugzeug Solar Impulse – Spirit of bullshit

Die tollkühnen Eidgenossen wechseln sich am Steuer des 72 Meter breiten Carbonfaservogels ab. Denn der 2,3 Tonnen schwere, 90 km/h schnelle Ökoflieger verträgt außer einem einzigen Piloten an Bord so gut wie keine Zuladung.

Nachdem Boschberg in China wochenlang auf günstiges Wetter gewartet hatte, brachte er die fliegende Solarkiste via Japan schließlich in Hawaii stolz wie Bolle zur Landung. Da jubelte nicht nur das 30-köpfige Kontrollzentrum in Monaco, von wo aus das etliche Millionen teure Projekt gesteuert wird (Sponsor u.a.: die Luxusmarkengruppe Moet/Hennessy). Es jubelte auch die Pressemeute, als ihr Borschberg den kühnen Satz ins Notizbüchlein diktierte: „Niemand kann jetzt mehr sagen, dass Erneuerbare Energien nicht das Unmögliche vollbringen können.“

Alle Medien berichteten selig, von der dpa bis zu „Spiegel online“, von der „Zeit“ bis zur „Süddeutschen“. Und die Jungs und Deerns von der „taz“ machten sich fast die Büxen nass ob des Projekts. Welches für sie „kein Flugzeug“, sondern „ein Statement“ ist. In dem die Genossen gar das Zeichen für „eine epochale Wende der Menschheit“ zu erkennen wähnten.

Natürlich schielt die Aktion der Schweizer Luftikusse auf Charles Lindbergh, dem 1927 die erste nonstop und allein unternommene Atlantiküberquerung gelang. Lindbergh war ein Luftfahrtpionier in dem Sinne, dass sein Flug im einmotorigen Hochdecker Ryan NYP, getauft auf den Namen „Spirit of St. Louis“, tatsächlich bahnbrechend war. Gut zehn Jahre danach flogen auch Passagiermaschinen über den Atlantik.

Die Schönwetterpiloten in ihrer gesponserten Hobbymühle dagegen bewegen gar nichts, abgesehen von den eigenen Ärschen. Stromerzeugung mittels der erratischen Solartechnik ist schon am Boden weitgehend sinnlos, weil immer konventionelle Kraftwerke im Hintergrund mitlaufen oder bereit gehalten werden müssen. Für richtige Flugzeuge wäre ein Antrieb per Solarkraft ungefähr so effektiv wie ein Eis am Stiel zur Kühlung einer Fischfabrik. Es sei denn, man gäbe jedem Solarliner ein konventionelles Flugzeug mit auf den Weg, das den Sonnenvogel bei Bedarf auf den Haken nimmt.

Und auch für das Nichts-ist-unmöglich-Getröte der Solarlobby eignet sich das Solarmobil schlecht. Dermaßen dämlich, einen teuren Spleen von zwei aufmerksamkeitssüchtigen Geschaftlhubern mit dem Durchbruch der Solarenergie zum Global Player zu verwechseln, sind die meisten Menschen denn doch nicht. Wie die Reaktionen vieler Leser zeigten, die sich über den grotesken Medienhype des jämmerlichen Aeroplans ärgerten. Einer brachte die Kosten-Nutzen-Rechnung auf den Punkt: „Sorry, das Ding kostet schlicht Millionen und kann nichts.“ Ganz ähnlich der Solarenergie als solcher.

Demnächst fliegt die Solar Impulse 2 weiter in Richtung Festland-Amerika. The spirit of bullshit never dies.

Übernommen von ACHGUT hier




Das Erdkabel ist kein Patentrezept

Für die konventionelle Drehstrom-Freileitung sprechen die geringeren Baukosten und die Erfahrungen bei Bau und Betrieb. Außerdem ist sie im Gegensatz zum Gleichstrom-Erdkabel unterwegs mit dem vorhandenen Leitungsnetz verknüpfbar. Das ist für die Netzstabilität ein Wert an sich. Das Gleichstrom-Erdkabel ist wie eine Autobahn ohne Anschlußstellen. Im Netz ist sie ein Fremdkörper. Für die Gleichstrom-Erdverkabelung sprechen lediglich landschaftsästhetische Belange und der Schutz der Vogelwelt.

Technisch-ökonomisch ist es erforderlich, daß man sich für eine von beiden Lösungen konsequent entscheidet. Der abschnittsweise Wechsel zwischen Hochspannungsfreileitung für Drehstrom und Erdverkabelung für Gleichstrom ist sündhaft teuer, da jede Umformung des Stroms etwa 50 bis 100 Mio. € an Investitionsaufwendungen erfordert. Wie weit das den Politkern klar ist, wird sich zeigen.

Die Freileitungsgegner behaupteten, eine Verkabelungstrasse sei kürzer, über dem Kabel könne Landwirtschaft betrieben werden und die Trassenbreite sei geringer.

Die Trassenbreite ist beim Kabel tatsächlich deutlich geringer. Mit der landwirtschaftlichen Nutzung ist das aber so eine Sache. Über oder neben der Leitung muß dauerhaft eine Straße oder ein befestigter Weg unterhalten werden, der den Zugang zum Kabel gewährleistet, um an die Muffen und an die Kabel jederzeit heranzukommen. Wegen dieser Straße, die man auch schon als Baustraße benötigt, kommt die Trassierung über Schluchten und steile Berghänge nicht in Betracht. Man kann nur so trassieren, daß die Leitung an einer befahrbaren Straße liegt. Da ist bei etwas mehr als 10 % Längsgefälle Schluß, weil die Befahrbarkeit auch im Winter gewährleistet sein muß. Ob die Verkabelungstrasse unter diesen Bedingungen kürzer wird ist eine gute Frage: im Gebirge ganz bestimmt nicht. Im Gegenteil wird sie länger. Außerdem werden durch die Straße die Bewirtschaftungseinheiten (Felder) der Bauern zertrennt. Und direkt über der Leitung wird der Bauer mit Abwärme und Verdunstung zu kämpfen haben. Naturschutzrelevante Flächen werden durch Bau und Betrieb einer Stromkabeltrasse gefährdet, alleine auch durch die Abwärme der Leitung im Betrieb. Die Naturschützer werden Umgehungsvarianten fordern, was auch der Gesetzeslage entspricht und weitere Trassenverlängerungen mit sich bringt.

Der Tiefbaupraktiker weiß, daß es Leitungskreuzungen, Kreuzungen mit Straßen, Eisenbahnen, Wegen und Gewässern gibt. Mit Freileitungen ist man da relativ flexibel, weil man alle Hindernisse überspannt. Mit dicken ummantelten Kabeln nicht. Jede Kreuzung erfordert bei Kabeln Dükerungen oder Bohrungen bzw. Umverlegungen von anderen Medien. Größere Medienleitungen sind teuer anzupassen, bzw. der Trassenverlauf ist auf vorhandene Leitungen und Kabel abzustimmen. Das können Erdgasleitungen, Produktenleitungen oder Fernwasserleitungen sein. Den Kreuzungsaufwand für kleine Leitungen und Kabel ist nicht übermäßig groß, doch die Summe machts. In der Lüneburger Heide kommt man mit etwas Glück auf 1 bis 3 Kreuzungen pro Kilometer, in dicht besiedelten Bereichen können es schnell 10 bis 20 werden.

Der Bauaufwand für eine Verkabelung ist hinsichtlich der baubedingten Störungen des Naturhaushalts nicht unbeträchtlich. Der Laie unterschätzt, wie die Baustelle einer Dükerung oder einer Leitungskreuzung aussieht. Die Freileitungstrasse erfordert baubedingt wesentlich geringere Eingriffe. Überhaupt ist die Freileitung deshalb billiger, weil zu ihrer Errichtung deutlich weniger Energie verbraucht wird, Baukosten sind in der letzten Konsequenz Energiekosten.

Für die Gleichstrom-Kabelvariante ergeben sich etwa die sechsfachen Baukosten wie für die Drehstrom-Freileitungsvariante. Wobei die Verkabelung eine Experimentalbauweise ist, für die es kaum belastbare Erfahrungen gibt. Bisher wurden solche Hochspannungs-Gleichstrom-Kabel (HGÜ-Kabel) als Seekabel gebaut. In Berlin gibt es ein Pilotprojekt an Land, welches zu klein ist, um alle Fragen zu beantworten.

Wenn wir mal konservativ annehmen, daß 10 Mrd. € Mehraufwand für die Verkabelung beider Nord-Süd Kabel-Stromtrassen entstehen, so sind das pro Bürger 124 € oder für eine vierköpfige Familie 500 €. Oder für einen sozialversicherungspflichtig Beschäftigten etwa 350 €. Alles für die Abschaltung der Kernkraftwerke.

Andreas Mihm von der FAZ resumiert nach dem Regierungskompromiß heute: „Nur so viel ist gewiss: Die Energiewende wird noch komplexer, noch schwieriger – und noch teurer.“ Jürgen Trittin hatte 2004 in seiner  Zeit als Bundesminister versprochen: “Es bleibt dabei, dass die Förderung erneuerbarer Energien einen durchschnittlichen Haushalt nur rund 1 Euro im Monat kostet – so viel wie eine Kugel Eis.” 2014 hatte Volker Zastrow von der FDP errechnet, daß die monatliche Kugel Eis für eine vierköpfige Familie 355 € im Jahr kostet, also genau das 30fache der Prognose des Bundesministers. Mit der teuersten Variante des Netzausbaus und dem weiteren Zubau von nachhaltig instabiler Energie werden es wohl bald jedes Jahr die Einrichtungskosten einer Eisdiele werden.

Übernommen von Prabelsblog hier




Neues „Klimaschutz“-Paket der Regierung bürdet Verbrauchern weitere 10 Mrd Kosten auf, Klimawirkung bleibt null

Reuters beschreibt das Kompromisspaket so:

Klimapaket mit Milliarden-Kosten ersetzt Kohle-Abgabe

Berlin (Reuters) – Die große Koalition hat für ihre Klimaziele ein Paket mit Milliardenkosten für Stromverbraucher und Steuerzahler geschnürt.

Das Konzept zur Umsetzung der Energiewende wird um fast zehn Milliarden Euro teurer als die ursprünglich geplante Abgabe für alte Braunkohlekraftwerke, die die Spitzen der Koalition auf Druck der Industrie in der Nacht zum Donnerstag verwarfen. Stattdessen sollen nun umweltfreundliche Kraft-Wärme-Kopplungsanlagen (KWK) gefördert, mehr in Energie-Effizienz investiert und die Kapazität von etwa fünf großen Braunkohlemeilern vom Netz genommen werden. Sie sollen aber als Reserve dienen und weiter von den Stromkunden bezahlt werden. Außerdem verständigten sich Kanzlerin Angela Merkel (CDU), Wirtschaftsminister Sigmar Gabriel (SPD) und CSU-Chef Horst Seehofer auf neue Trassenführungen für Leitungen, die Windstrom nach Süden bringen sollen.

Ziel des Pakets ist es, dass Deutschland sein Klimaziel für 2020 noch erreicht. Es sieht eine CO2-Verringerung von 40 Prozent gegenüber 1990 vor. Die Energiewirtschaft sollte dafür 22 Millionen Tonnen CO2 zusätzlich einsparen. Die ursprünglich geplante Abgabe für alte Braunkohlemeiler traf aber auf Widerstand bei Gewerkschaften sowie der Konzerne RWE und Vattenfall. Deren Aktien legten in Folge der Beschlüsse am Donnerstag an der Börse zu. Die Konzerne lobten das Aus für die Klimaabgabe ebenso wie die Gewerkschaft IG BCE…

Und  DIE WELT meldet: 03.07.15

Koalition schnürt Klimapaket mit Milliardenkosten 

Die große Koalition hat für ihre Klimaziele ein Paket mit Milliardenkosten geschnürt. Das Konzept wird für die Bürger um fast zehn Milliarden Euro teurer als die ursprünglich geplante Klimaabgabe für alte Braunkohlekraftwerke, die die Spitzen der Koalition in der Nacht zum Donnerstag verwarfen. Stattdessen soll die Kraft-Wärme-Kopplung gefördert, mehr in Energieeffizienz investiert und die Kapazität von fünf Braunkohlekraftwerken vom Netz genommen werden. Darüber hinaus verständigten sich Kanzlerin Angela Merkel (CDU), Wirtschaftsminister Sigmar Gabriel (SPD) und CSU-Chef Horst Seehofer auf neue Trassenführungen für Leitungen nach Süddeutschland. Mit dem Paket sollDeutschland sein Klimaziel für 2020 erreichen. Es sieht eine CO2-Verringerung von 40 Prozent gegenüber 1990 vor. Bundesumweltministerin Barbara Hendricks (SPD) ging auf Distanz zu den Beschlüssen des Gipfels. Die Union habe mit ihrer Ablehnung der Kohleabgabe „eine deutlich teurere Alternative erwirkt“, schreibt Hendricks in einem Gastbeitrag für die „Welt“.

Die Konsequenz daraus ist, dass die zuverlässig Strom liefernden konventionellen Kraftwerke weiter herunter- und zusätzlich auf Verschleiß gefahren werden, dafür aber die Verbraucher viele Milliarden zusätzlich aufbringen müssen, um die Investoren an einem sofortigem Ausstieg aus diesem unrentablen Geschäft zu hindern. Sie bekommen Geld fürs Nichtstun. Eine brilliante Idee des Gewerkschaftsführers Michael Vassiliadis von der IGBCE und des SPD NRW Wirtschafts-Ministers Garrett Duin.

Damit wird die Dominanz der Nachhaltig Instabilen Energien (NIE) in der deutschen Stromversorgung weiter erhöht. 

Dem Industriestandort Deutschland wird jetzt endgültig das letzte Stündlein eingeläutet. Denn wie es weitergeht, daran ließ der Wirtschaftsminister Gabriel auf der BDEW Jahrestagung keinen Zweifel. Handelt es sich bei dem jetzigen Paket nur um läppische 20 Mio t CO2 Reduktion, so werden von 2020 bis 2030 sogar 200 Mio t verlangt und bis 2040 sogar 400 Mio t. Die restlichen 400 Mio t sollen dann bis 2050 erbracht werden.

Video der Rede von Bundeswirtschaftsminister Gabriel auf der BDEW Jahrestagugn 2015.

Und so sehen die Fakten der „Energiewende“ aus, wenn man sich nur die hoch gelobte Energieproduktion aus Offshore Windanlagen anschaut , die mit den gerade beschlossenen neuen – überwiegend 3 bis 10 x teuren- Erdleitungen nach Bayern geleitet werden sollen. Um u.a. das soeben abgeschaltete Kerkraftwerk Grafenrheinfeld zu ersetzen.

Bild rechts oben: TenneT Offshore-Einspeisung 2015; Datenquelle: https://transparency.entsoe.eu/generation

zum Vergrößern anklicken.

Das ist der windabhängig eingespeiste Strom (nicht das, was auf den Windkraftanlagen als theoretische Nennleistung draufsteht). Egal, ob man Atomkraftwerke befürwortet oder nicht, hier wird deutlich, dass mit diesem unsteten Zappelstrom noch nicht  einmal eine Energiesparlampe verlässlich zum Leuchten gebracht werden, geschweige denn die zigtausend Haushalte, die ein Windpark angeblich  mit Strom versorgen kann. Und diese Nummer nennt sich „Energiewende“, für die, die  sich die Hose mit der Kneifzange zumachen? Ohne Wärmekraftwerke ist also eine verlässliche und regelnde (siehe die lückige Einspeisung der Grafik mit Nulleinspeisung!) Stromeinspeisung für eine Industrienation gar nicht möglich.

Mit Dank an Wattenrat und Dr. Zielinski für den Fund und Kommentar

Quelle: Dipl.Ing. Wilfried Heck: http://wilfriedheck.de/  , 30.06.2015




Was haben wir von radioaktiven Abfällen zu befürchten?

Was ist eine existenzielle Bedrohung der Menschheit? Vielleicht ein Meteoriteneinschlag, aber nicht einmal der Autoverkehr mit 50.000 Toten pro Jahr. Wie viele Menschenleben hat aber der Atommüll bisher gekostet? Es gibt ein indirektes Opfer. Jemand wollte gegen Castor-Transporte protestieren und wurde dabei von der Eisenbahn totgefahren.

Durch Atomstrahlen gab es von 1945 bis 2010 weltweit 131 Todesopfer, Tschernobyl und Bombenopfer nicht mitgerechnet, also nicht einmal 3 pro Jahr. Keiner dieser bedauerlichen Unfallopfer war durch radioaktive Abfälle ums Leben gekommen, mehrere dagegen durch falsche Anwendung medizinischer Bestrahlung.

Existenzielle Bedrohung? So sieht das auch Frau Kotting-Uhls Kollege in der Endlagerkommission, Ralf Meister, Theologe, Landesbischof der Evangelisch-lutherischen Landeskirche Hannover. Nun, Glaube ist sein Beruf, und daher sein Standpunkt: „Selig sind, die da nicht sehen und doch glauben.“ 

Solche Leute wurden von der Bundesregierung in eine Kommission berufen, um einen Standort für ein Endlager hochradioaktiver Stoffe festzulegen! 

Nun zu den Tatsachen. Jeder erzeugt Abfall, 617 kg Hausmüll pro Person und Jahr, allerdings recht harmloses Zeug, zu einem großen Teil verwertbar. Nicht so harmlos sind manche Industrieabfälle. Da liest man bei Wikipedia: „Für die Endlagerung hochtoxischer (hochgiftiger) konventioneller und radioaktiver Abfälle hat sich weltweit das Einbringen der Abfälle in tiefe geologische Formationen (ca. 300 – 1000 m Tiefe) durchgesetzt.“

Tatsächlich werden bisher aber nur nichtradioaktive giftige Abfälle in große Tiefen gebracht, in Deutschland in die Grube Herfa-Neurode. Darüber berichtete die „tz“ unter dem Titel „Der giftigste Ort der Welt liegt in Hessen“ und schrieb u.a.: „Allein die Menge Arsen würde reichen, um die gesamte Menschheit zu töten.“ Nur, woher kommt das Arsen? Es ist ein natürliches Element, niemand kann Arsen herstellen. Man hat es aus der Erde genommen und bringt es wieder in die Erde zurück. Allerdings liegt es dort in unnatürlich hoher Konzentration vor. Bleibt es dort, stört es niemanden. Löst sich aber das Endlager auf, dann wird das Arsen immer weiter verdünnt und damit immer ungefährlicher.

So wäre das auch bei radioaktivem Abfall, wobei die Radioaktivität mit der Zeit geringer wird. Unsere Welt ist nun einmal von Natur aus radioaktiv. Was der Mensch dazu bringen kann, liegt höchstens im Promillebereich. Aber gibt es nicht künstliche radioaktive Stoffe, welche ohne Beispiel in der Natur sind, vor allem das schreckliche Plutonium? Nein, im Gegensatz zu chemischen Giften wirken alle radioaktiven Stoffe in der gleichen Weise. Sie senden Alpha-, Beta-, Gamma- und Neutronenstrahlen aus. Diese verschiedenen Strahlenarten haben keine unterschiedlichen biologischen Wirkungen, allerdings wirken sie unterschiedlich stark. Daher konnte man ein einheitliches Maß für die biologische Wirkung einführen, das Sievert (Sv), dazu den tausendstel und millionsten Teil, das Millisievert (mSv) und das Mikrosievert (µSv), anwendbar auf alle Strahlenarten.

Es gibt also keinen Unterschied in der Wirkung zwischen natürlichen und künstlichen radioaktiven Elementen. Wie bei dem Arsen bringt man bei der Endlagerung Stoffe in die Erde, welche dort von Natur aus in viel größerer Menge vorhanden sind. Unterschiedlich ist jedoch, wie die radioaktiven Elemente durch Wasser oder durch die Luft verbreitet werden können. Da ist Plutonium so unbeweglich, dass es in der Umgebung des Kraftwerks von Fukushima nicht gefunden wurde und bei Sicherheitsanalysen für Endlager keine Rolle spielt. 

Wenn man von radioaktiven Abfällen spricht, denkt man an Abfälle aus Kernkraftwerken. Es gibt noch andere, sie stammen aus der Industrie, aus Forschungseinrichtungen und aus der Medizin. Diese spielen aber keine Rolle. Bei den Abfällen, die einmal in den Schacht Konrad eingelagert werden sollen, werden weniger als 0,5 Volumen% der Abfälle aus der Medizin sein.

Es genügt also sich mit Kernkraftabfällen zu befassen. Die Internationale Atomenergie-Agentur IAEO hat 1981 folgende Einteilung vorgenommen:

  • Hochradioaktive Abfälle erzeugen aufgrund ihrer hohen Aktivität (>1014 Bq pro m3; typisch 5 ∙ 1016 bis 5 ∙ 1017 Bq/m³) erhebliche Zerfallswärme (typisch 2 bis 20 Kilowatt pro m³);
  • Mittelradioaktive Abfälle (1010 bis 1015 Bq pro m³) erfordern Abschirmmaßnahmen, aber kaum oder gar keine Kühlung;
  • Schwachradioaktive Abfälle (<1011 Bq pro m³) erfordern bei Handhabung oder Transport keine Abschirmung.

In all diesen Abfällen stellen die reinen radioaktiven Elemente nur einen kleinen Bruchteil dar. Bq steht für Becquerel. 1 Bq bedeutet, dass ein Atom pro Sekunde Strahlung aussendet und sich dabei in ein anderes Element verwandelt. Wir selbst haben von Natur aus 8.000 Bq in unserem Körper. Das geht mit dem Gewicht, dicke Leute werden von innen also mit 10.000 oder mehr Teilchen der Atomstrahlung beschossen, pro Sekunde!

Wieviel radioaktiven Abfall gibt es in Deutschland? Berücksichtigt man, was beim Abriss der Kernkraftwerke noch anfallen wird, werden es 600.000 m³ sein. Ganz grob sind das ebenso viele Tonnen, pro Einwohner also 7,5 kg, nicht viel gegenüber den 617 kg Hausmüll, welche wir jedes Jahr erzeugen. Aber das Zeug ist doch schrecklich gefährlich! Im Strahlenaberglauben schon, aber um die mögliche Gefahr realistisch einzuschätzen, stellen wir uns vor, Strom würde nur noch in Kernkraftwerken erzeugt, und jede und jeder müsste den pro Person anfallenden Abfall bei sich selbst unterbringen. Was ich jetzt darstelle, kann jeder selbst nachprüfen. Alles, was bei der Verwendung von Uran zur Stromerzeugung an Abfall entsteht, ist bestens bekannt. Aus diesen Kenntnissen wurde ein Rechenprogramm entwickelt, „Nuclear Fuel Chain Waste Activity Calculator“ genannt, im Internet leicht aufzurufen und einfach zu handhaben. 

Also gibt man den durchschnittlichen Stromverbrauch des Bundesbürgers von 1700 kWh pro Jahr ein, nimmt an, dass der Abfall 30 Jahre im Kernkraftwerk bleibt, und erhält 4,98 ∙ 1010 Bq. Für die meisten wird das eine ziemlich schleierhafte Zahl sein. Klarer wird es nach der Umrechnung in die veraltete Einheit Curie: Es sind 1,34 Curie, das entspricht ebenso viel Gramm Radium. Stellen Sie sich vor, etwas über ein Gramm von irgendeinem Giftstoff würde zu Staub gemahlen und gleichmäßig über einen ganzen Hektar Ackerland verteilt, kann das noch gefährlich sein?

Müsste also ein Bauer den auf ihn entfallenden Anteil an radioaktiven Abfällen abnehmen, könnte er ihn auf einem Hektar unterpflügen. Die natürliche Radioaktivität seines Bodens bis in etwa 60 cm Tiefe ist von Natur aus ebenso groß. Er hätte damit die Aktivität des Bodens verdoppelt. Seine Kollegen in Indien und Brasilien ackern auf Böden, die von Natur aus weit radioaktiver sind. Im folgenden Jahr sollte er trotzdem einen anderen Hektar nehmen. 

Der Boden eines deutschen Bauern enthält um die 500 Bq/kg an natürlicher Radioaktivität. Bei Ackerland anderswo ist es oft viel mehr. Richtig radioaktiv sind manche Strände, wo sich die Leute in den Sand legen. In Brasilien geht es bis 80.000 Bq/kg, nicht ganz so viel ist es in Indien (Kerala), wo als höchster Wert 44.000 Bq/kg gemessen wurde. Der Sand dort ist übrigens dunkel, fast schwarz. Aber weder das noch die Radioaktivität stört die Touristen. Bewertungen bei Tripadvisor: Sehr schöne Strände, nur an einigen Stellen unangenehm voll. Einen Geigerzähler hat offenbar niemand mitgebracht. Fast 100-fache Aktivität im Boden führt nun nicht zu einer hundertfachen Strahlenbelastung, aber doch bis zu einer zehnfachen.

Siehe Bild oben rechts

Um zu unserem Bauern zurückzukommen: An hochaktivem Abfall würde man ihm  weniger als 10 g aushändigen, die aber 99 % der Radioaktivität enthalten. Die würde er besser in ein tiefes Loch werfen. Den schwach- und mittelaktiven Abfall könnte er aber bedenkenlos unterpflügen. Einige Millionen Becquerel bringt er sowieso mit Kali- und Phosphordünger jährlich auf seine Felder. Dieser enthält natürliches Kalium 40, Uran, Radium, Thorium und anderes.

Der Anteil langlebiger radioaktiver Elemente im Abfall ist klein, Plutonium 239 z.B. hat nur einen Anteil von 0,13 %. Von Caesium und Strontium als Hauptbestandteilen ist in 30 Jahren nur noch die Hälfte vorhanden. 

Wer keinen landwirtschaftlichen Betrieb hat, sondern nur 200 m² Gartenfläche, kann trotzdem seinen Anteil an schwach- und mittelaktivem Abfall gefahrlos vergraben. Für das jährliche Schächtelchen mit hochaktivem Abfall empfiehlt sich aber ein 50 oder 100 m tiefes Loch. Versenden darf man das Schächtelchen mit hochaktivem Abfall nur in einer Abschirmung. So macht man das auch im Großen, die hochaktiven Abfälle versendet und lagert man in den Castor-Behältern. Sind die gefährlich? Schon. Neben sein Bett sollte man sie nicht stellen. Wer sich 20 Stunden auf einen Castor-Behälter setzt, hat seine natürliche Jahresdosis verdoppelt. Um in den gefährlichen Bereich über 100 Millisievert zu kommen, muss man sich jedoch mindestens 42 Tage darauf setzen. Also, etwas Abstand halten, ist besser. Und wenn so ein Behälter entzwei geht? Falls nicht jemand direkt daneben steht, passiert weiter nichts. Es ist aber auf der ganzen Welt noch nie ein solcher Behälter kaputt gegangen.

Hannover, den 27.06.2015




Podiumsdiskussion über Klimawandel & Energiewende – ein Stimmungsbild

Die Vorgeschichte


Wie sich die Leser erinnern werden fand am  22.6.15 fand in den Räumen der Bundeszentrale für politische Bildung in Berlin eine Podiumsdiskussion über Klimawandel & Energiewende statt. Ich war  ebenso eingeladen, wie der ehemalige  Bundestagsabgeordnete der Grünen und „Vater“ des EEG Hans-Josef Fell, Präsident der Energy Watch Group, Mitglied Bündnis 90/Die Grünen und der RWE Manager Andreas Brabeck, Leiter Politik Downstream/Regulatory, RWE AG. Durch den Abend sollte  als Moderatorin Frau Dr. Iris Zink, Physikerin, Wissenschaftsjournalistin und Autorin von TerraX beim ZDF führen.  Das waren zunächst mal alle.

Da ich bis auf Herrn Fell die  Einstellung der anderen beiden Teilnehmer zu den genannten Themen nicht kannte, vermutete ich zu meiner gelinden Überraschung eine ziemlich ausgewogene Veranstaltung, da ich mir nicht vorstellen konnte, dass ein Manager des RWE, das von der Energiewende fast in die Pleite getrieben wird, große Sympathien für diese Energiewende entwickeln würde, während ich bei Frau Zink zumindest der Fairness halber auf eine gewisse Neutralität als Moderatorin spekulierte. Und weil Ausgewogenheit zu den klaren Aufgaben der Bundeszentrale gehört, wie sie in ihren Statuten per Erlass festgeschrieben ist, und  dazu noch die Beachtung eines,  mir zuvor nicht bekannten „Beutelsbacher Konsenses“ , wie er in der Ankündigung ausdrücklich erwähnt wird, ausdrücklich die Zulassung von „Kontroversität“ verlangt.

Nun war mir von Anfang an klar, dass bei einer solchen Talkrunde keine Gelegenheit geben würde, irgendeine Äußerung – von keinem- direkt zu beweisen. Sie stehen erst mal und bestenfalls als reine Behauptung  oder gar als pure Meinung, im Raum. So dass es also darauf ankommt, gerade bei sehr kontroversen, vom Publikum bisher selten vernommenen Fakten, so glaubwürdig wie möglich rüber zu kommen, und das Publikum sie wenigstens im Ansatz nachvollziehen kann. Das verlangt eine einfache, an simplen Beispielen aus dem Alltag festgemachte Argumentationsweise, wobei leicht die Gefahr der Übersimplifizierung komplexer Sachverhalte besteht. Doch ist mir genau das,  so glaube ich, sogar mehrheitlich und ohne Übersimplifizierung – auch dank des fairen Umgangs miteinander- gelungen. Jedenfalls haben es mir so viele, der um die 90 im Saal  Anwesenden bestätigt.

Zurück zur Vorgeschichte:

Also, so dachte ich; ausgewogen und kontrovers, dass wird ja mal eine schöne Premiere im öffentlichen Raum.  Die Vorfreude wurde dann aber etwas gedämpft durch eine Information, die ich am 19.6.15, also drei Tage vorher, vom Veranstalter per Email erhielt. Darin stand, dass nunmehr auch noch Frau Dagmar Dehmer, politische Redakteurin und zuständig für Umwelt- und Klimathemen beim Berliner Tagesspiegel teilnehmen würde. Danach war mir schon klar, dass es mit der Ausgewogenheit wohl nicht so weit her sein würde., oder jedenfalls anders als ich es mir naiverweise vorgestellt hatte.

Denn Frau Dehmer, bis Ende 1992 Landesvorsitzende der Grünen in Baden Württemberg und danach (grüne) Journalistin, deren Leidenschaft lt. einer Blogseite der Zeit „Umweltthemen, dem Klimawandel und Afrika gilt“, war für mich keine Unbekannte, hatte ich mich doch als ehemaliger Leser des Tagesspiegel schon des Öfteren über ihre, in meinen Augen ziemlich rabiaten und oft auch ziemlich falschen, wie auch einseitigen Berichte zu Klimathemen, gewundert und z.B. per Leserbrief auch dazu geäußert.

Später erfuhr ich dann, dass ihre Einladung der Notwendigkeit  einer anderen Art von „Ausgewogenheit“, nämlich der Befolgung von Gender-Richtlinien dieser Behörde geschuldet war[1].

Nun  ja, dachte ich, wenn es denn „der Wahrheitsfindung“ dient, um ein bekanntes Zitat des 1. Kommunarden Fritz Teufel anzuwenden, und stellte mich schon auf eine etwas weniger ausgewogene, vielleicht sogar hitzige Diskussion ein. Auch deswegen weil in der publizistischen Begleitmusik so ausgewogener Presseorgane wie taz, FR, und später auch noch im copy und paste Verfahren im Kölner Stadtanzeiger, der Berliner Zeitung, der Mitteldeutschen Zeitung, wie auch beim Lobbyverein Klimaretter-Info aktiv gegen meine Teilnahme gehetzt wurde, ohne dabei viel Rücksicht auf die sonst so von allen eingeforderte Toleranz noch  Wahrheit zu nehmen.

Bei den berufsmäßigen Klimarettern wurde Frau Dehmer gar zitiert mit  den Worten: „(Sie ist als Mitdiskutantin von der Bundeszentrale eingeladen worden und) hält es „für völlig überflüssig, solchen Leuten solch ein Podium zu bieten“. Dehmer will hart gegenhalten und Limburgs Thesen entlarven.“(Hervorhebungen von mir).

Während die taz über die Hoffnung von Herrn Fell zu berichten wusste: „Zwar seien die Klimaskeptiker nicht ernst zu nehmen, sagte er der taz. „Aber meine Teilnahme wird dazu beitragen, ihre Thesen zu widerlegen.“ .

Die Diskussion

Nun, das kann ja Eiter[2] werden dachte ich mir in meinem schlichten Gemüt, aber dann kam alles ganz anders. Nicht in Bezug auf die fehlende Ausgewogenheit, die fehlte – wenn das geht- letztendlich noch mehr, weil auch die Moderatorin -als Wissenschaftlerin wie sie später gegenüber einem Gast betonte- immer mal wieder gegen mich Partei ergriff und weil auch der RWE Kollege, die Energiewende rundum begrüßte, sie solle nur nicht so schnell gehen- sondern in Bezug auf den Verlauf der Diskussion.

Und verantwortlich dafür war zum Einen, die sehr angenehme Moderatorin, Frau Dr. Zink, denn sie erteilte mir, wann immer ich höflich um das Wort bat, fast unverzüglich dasselbe, und zum anderen auch wegen der doch ziemlich vagen, teils sehr abgegriffenen, manchmal auch total übertriebenen, manchmal jeder täglichen Erfahrung widersprechenden und mir gelegentlich etwas unbedarft erscheinenden  Äußerungen  meiner Mitdiskutanten.

Die „Erneuerbaren“ machen den Strom billig

So behauptete mein Nebenmann Herr Hans-Josef Fell des öfteren mal ungerührt, dass die sog. „Erneuerbaren“ schon jetzt ganz, ganz billig seien. Und zwang damit fast das gesamte Auditorium unfreiwillig zum Lachen. Und überdies, so Fell, hätte sein EEG -das hätten Nürnberger Wissenschaftler  vom FAU kürzlich in einer Studie[3] bewiesen- dafür gesorgt, dass die Verbraucher für den Strom  rd. 11 Mrd € weniger gezahlt hätten.  Das steht tatsächlich da so drin, auch wenn sich nicht nachvollziehen lässt, und die Autoren es auch nicht recht klar machten, woher  diese Einsparung gekommen ist. So blieb mir nur übrig zu vermuten, dass die Jungs vom FAU wohl allerlei phantasiereiche externe Effekte (z.B. den von einer vermuteten Verknappung konventioneller Energiemengen, die sich auf den Preis auswirkt, wegen der erzwungenen Abschaltung der KKW, die wiederum von den „Erneuerbaren“ aufgefangen wurden. So deren Berechnung eines externen Effektes zugunsten der „Erneuerbaren“, zu dem es ohne Energiewende gar nicht gekommen wäre) eingerechnet hätten, einer Vermutung der Fell vehement widersprach. Nun, wer bei EIKE mitliest, weiß es eben besser.

So konnte ich denn weiterhin wahrheitsgemäß feststellen, dass allein in 2013, die Besitzer von EE Anlagen (besser Nachhaltig Instabile Energien NIE) rd. 23 Mrd € über die Netzbetreiber kassiert hätten für einen Strom der an der Börse ganz knapp 3 Mrd € gebracht hat.

Bild 1 reale und prognostizierte Kostenentwicklung des EEG bis zum Jahr 2022, Leider sind die Bezugsstriche leicht verschoben, ich bitte um Entschuldigung-Blau: noch zuzahlende Milliarden (20 Jahre Garantie!), rot bereits bezahlt kumuliert ; gelb jährliche Zahlung

Kostenentwicklung des EEG

Und das mit stark steigender Tendenz, und dazu noch ohne jeden Nutzen für die Allgemeinheit, denn der Ausbau, besonders im Bereich der Windenergie, gehe ungebremst weiter. Letztendlich, so mein Argument würde die Energiewende nicht nur mit 1 Billion zu Buche schlagen, wie es Ex-Umwelt-Minister Altmeier geschätzt hatte, die würden wir schon vor 2022 erreichen, sondern mit ca. 7 Billionen.

Interessanterweise gab es dazu kaum Widerspruch aus der Runde, nur Frau Dehmer, die sich im Verlauf der Diskussion wenig zu Wort gemeldet und schon gar nicht „hart gegen gehalten, oder meine Thesen entlarvt“ hatte, meinte, diese Billionen müsse man über die langen Zeiträume sehen, dann verlören sie auch ihre Schrecken. Im Übrigen hätte der Aufbau fossiler Kraftwerke ja auch viel Geld gekostet und eine Erneuerung dieser veralteten Technologie sei sowieso erforderlich gewesen. Nun ja: Dass Windparks, die (und das auch nur rechnerisch) dieselbe Strommenge liefern können, wie ein Kohlekraftwerke ca. 6x teurer sind, und Solarfelder die das auch (un nur rechnerisch) bis zu 17 x teurer sind, und dazu noch immense Flächen besetzen war ihr vermutlich nicht so geläufig.

Und wie diese täglich erfahrbare Teuerung mit der  Alltagserfahrung, die sich in jeder Stromrechnung unmittelbar niederschlägt, mit den ach so „billigen“ NIE in Einklang zu bringen ist, weiß und glaubt wohl auch nur der Erfinder des EEG, Herr Fell.  Wahres ist eben nur Bares, um ein bekanntes geflügeltes Wort abzuwandeln.

Siegmar Gabriel ist schuld

H.J. Fell hatte dann aber trotzdem schnell einen Sündenbock für diese hohe Belastung parat, nämlich den damaligen Bundesumweltminister Siegmar Gabriel. Der hätte 2009 gegen seinen Einspruch das EEG so novelliert, dass die Kosten danach rapide angestiegen seien. Doch erkannte Fell nicht, dass das EEG, wenn es gar nicht erst von ihm und 3 weiteren Kollegen erfunden worden wäre, auch nicht novelliert hätte werden müssen. Diese Logik erschließt sich ihm wohl nie.  Und wie man so schön sagt, wer so stolz auf dieses Gesetzeswerk ist, wie Herr Hans Josef Fell, der muss ertragen, dass auch für ihn gilt: „mitgegangen, mitgefangen, mitgehangen“.

Die Welt wird den Hitzetod sterben

Doch gut ist es das EEG -lt Hans-Josef Fell- immer noch, denn er glaubt ganz, ganz fest daran, dass die Welt, dank der Emissionen des (immer noch nur Spurengases) CO2 unweigerlich dem Hitzetod entgegen taumeln wird, wie er mir in einer Email heute schrieb, wenn nicht durch möglichst schnelle 100 % ige Umstellung auf „Erneuerbare“ dem entgegen gewirkt würde.

Mein Einwand, dass Deutschlands Beitrag, wenn er denn erbracht würde und man die (übertriebenen) Formeln des IPCC verwendete, die prognostizierte Erwärmung (irgendwann) gerade mal um 4/1000 Grad oder weniger anstiege, ließen weder Herr Fell noch (meiner Erinnerung nach) Frau Dehmer gelten, denn wir hätten schließlich der Welt gezeigt, wie man das täte und alle anderen Länder würden bereits jetzt darin wetteifern es uns nachzutun. Costa Rica zum Beispiel würde, so Fell, heute schon zeigen, dass und wie es ginge. Ein wirklich überzeugender Beweis, jedenfalls für Herrn Fell. Und der etwas wortkarge Herr Brabeck meinte sogar, wir hätten der Welt nun die Solartechnologie (meine Anmerkung: unfreiwillig) geschenkt und daher wäre die Wirkung viel, viel stärker als es die reinen Zahlen zeigten.

Und auch als Fell behauptete, dass die NIE („Erneuerbaren“) erheblich, dank ihres Siegeszuges hierzulande mit fast 27 % prozentigem Anteils an der gesamten Stromproduktion zur Minderung der Emissionen beigetragen hätten, musste das wg. Zeitmangels unwidersprochen im Raum stehen bleiben. Im kommende Faktencheck (sobald der Tonmitschnitt vorliegt) werden wir auf diese Behauptung, wie auf viele andere genauer eingehen.

Bild 2 Energie Einspeisung der NIE vs  CO2 Emissionen der Kraftwerke zur Stromerzeugung. Einem Anstieg um 400 % bei den NIE steht eine 2 % Senkung der Emissionen gegenüber.

Die Realität. 27 % „Erneuerbare“ senken die CO2 Emissionen kaum

Hier nur soviel. Die „Erneuerbaren“  hatten 2014 bereits einen Anteil von rd. 27 % an der Stromerzeugung, jedoch sank die CO2 Emission der Kraftwerke gegenüber dem Startjahr 2000 nur um 2 %.

Ein sehr teuer erkaufter Erfolg, von dem allerding RWE Brabeck meinte, erstens, dass wir ihn uns leisten könnten und zweitens mehrheitlich eine Regierung gewählt hätten, die das umsetzt. Zum zweiten Punkt konnte man ihm nicht widersprechen, doch zum ersten Punkt erhob sich in der anschließenden Diskussion kräftiger Protest, denn die hohe Stromrechnung  können sich Leute mit kleinem Einkommen schon jetzt kaum noch leisten, sie hätten oft nur die Wahl zwischen nicht alle Tage kochen, oder ihren Strom bezahlen zu können, wie einer der Zuhörer unter Bezug auf seine Stromrechnung plastisch darstellte. Ich sekundierte ihm mit der sachlichen Darstellung, dass bereits jetzt ca. 1 Mio Haushalte ihre Stromrechnung ganz oder zeitweise nicht mehr bezahlen könnten, wenn auch manchmal aus anderen Gründen als dem EEG. Und in Groß Britannien kursiert bereits das massenhafte Phänomen der „energy pverty“. Davon sind bereits knapp 25 % der Bevölkerung betroffen.

Der Klimawandel

Nun habe ich bisher noch kaum etwas über die anfangs dominierende Klimadebatte geschrieben, das ist eigentlich schade, und sei hier ein wenig nachgeholt. Die Diskussion begann mit der Feststellung der Moderatorin, EIKE sei ja nun bloß ein Verein und betriebe keine eigene Forschung, um die Frage anzuschließen ob ich denn an den Klimawandel glaubte[4].  Ich führe aus, dass EIKE, wie auch das PIK und auch die Max Planck Gesellschaft, mit der wir uns aber nicht vergleichen wollten, als Verein organisiert sei. Schließlich brauche man eine juristische Plattform, um öffentlich in Erscheinung treten zu können. Und natürlich betrieben wir auch eigene Forschung, wie sie z.B. unserer Publikationsliste hätte entnehmen können.  Ferner würde niemand bei EIKE am ständigen Wandel des Klimas zweifeln, den gäbe es schließlich seit es Atmosphäre auf dieser Erde. Anders sei es allerdings mit dem anthropogen erzeugten Klimawandel für den es nun mal keinerlei Beweise weder experimentell noch durch Beobachtung in den vielen tausend Veröffentlichungen, die das IPCC verwendet hätte noch sonst wo gäbe. Und weil das so sei, glauben wir daran nicht. Das rief sofortigen Widerspruch von Herrn Fell hervor, der erklärte, er hätte als oder mit seinen Studenten Grundversuche mit dem CO2 dazu durchgeführt. Und wer das verneine rüttele an den Grundfesten der Physik z.B. am Energieerhaltungssatz. Nun hatte ich ja nie behauptet, es gäbe keinen anthropogenen Treibhauseffekt –obwohl man durchaus Zweifel an dieser Hypothese – so plausibel sie auch daher kommen mag- haben kann. Ich sagte nur deutlich und klar, dass er nicht zu finden sei.  Aber schon das war allen zu viel. So erklärte die Moderatorin mir und dem Publikum rundheraus, dass gerade wieder eine (Meta)Studie die ca. 12.000  papers untersucht hätte, bewiesen hätte, dass 97 % davon diese Hypothese bejahten. Und meinte wohl das sei doch Beweis genug.

Ich erwiderte, dass sie wohl die Cook-Studie meinte, was sie bejahte, und erklärte ihr dann, dass nach der neuesten  Überprüfung der Methodik dieser Studie die Verfasser zu dem Schluss gekommen seien, dass Cooks Vermutung nur 0,3 % der Studien folgten (Details dazu hier) Der Rest stimmt zwar einer Erwärmung zu, die aber eben nicht zwangsläufig anthropogen erzeugt. Und, so schob ich nach,  sei Cook kein Klimawissenschaftler sondern Psychologe. Was sie ebenfalls verneinte. Jedoch schreibt derselbe John Cook, der ein Blogger ist, welcher die Mainstream Website „SkepticalScience“ betreibt auf seiner Website

about..

(John Cook) is currently completing a PhD in cognitive psychology, researching how people think about climate change. He is also developing a MOOC (Massive Online Open Course),Making Sense of Climate Science Denial, to be released in April 2015.

W.z.b.w. oder für die Lateiner unter unseren Lesern: „qued“

Aber obwohl diese Studien, wissenschaftlich, den Klimawandel und seine vermuteten Ursachen betreffend, völlig irrelevant sind, werden sie gerne von allen  – auch und besonders häufig von Umwelt- und/oder Wissenschaftsjournalisten geglaubt. Die Betonung liegt dabei auf geglaubt. 

Es scheint ja so gut zu passen. Millionen Fliegen können eben nicht irren, oder wie es Einstein viel besser formulierte, als man ihm vorhielt, dass hundert Wissenschaftler seine Relativitätstheorie für falsch hielten, er sagte kühl: „Wenn die recht hätten genügte einer.“ 

So, nun hat der Leser ein Stimmungsbild, so wie sich diese Diskussions-Runde und das Auditorium aus meiner subjektiven Sicht darbot. Verständlich, dass ich guten Mutes, sogar locker beschwingt, diese Runde wieder verließ. Sicher hat der eine oder andere Teilnehmer  eine etwas andere Sicht der Dinge. Sollten mir daher Fehler in der Darstellung unterlaufen sein, so bitte ich um Mitteilung, dann kann ich sie überprüfen und ggf. korrigieren. Auf jeden Fall möchte ich mich noch einmal und in aller Form bei den Veranstaltern für die Organisation dieser hochkontroversen, aber trotzdem vergnüglichen Diskussion bedanken

Anmerkungen: 

[1] Übrigens, wenn sich meine Leser, so wie ich immer wieder, darüber gewundert haben sollten warum in den Quasselrunden der Öffentlich Rechtlichen immer und immer wieder dieselben Frauen auftauchen, als da sind, die strenge Sarah Wagenknecht, die immer betroffene Claudia Roth oder die burschikose, aber immer stramm linke Ines Pol von der unbedeutenden taz, um nur einige zu nennen, dann dürfte das mit diesem Gender- Ukas zusammenhängen.

[2] Für alle Jüngeren und Nichtberliner: Dieses nette Wortspiel geht auf einen Sketch, so glaube ich, der Berliner Stachelschweine zurück, die darin einen Charité Wundarzt beim Anblick eines zu amputierenden Beines persiflieren und über das ich mich als junger Mensch scheckig gelacht hatte.

[3] Die Macher selber sprechen von einem „Diskussionspapier“. Details hier

[4] Ohne Zugriff auf den Mitschnitt bin ich mir nicht ganz sicher ob sie allgemein vom Klimawandel sprach oder explizit den anthropogenen KW. Ich meine heute sie fragte ganz allgemein danach