1

Nichts dazugelernt!

In Japan verstrahlt das Atomkraftwerk Fukushima eine Region, die vielleicht auf Jahrzehnte unbewohnbar bleibt. Fast noch heftiger sind die Schocks im 12 000 Kilometer entfernten Deutschland. Da setzt Fukushima eine Kettenreaktion in Gang, die nüchternes Denken vernebelt und politische Hyperventilation auslöst. 

Die ganze Nation fixiert sich auf die Frage: „Wer schafft den schnellsten Atomausstieg?“ Und dabei geht es drunter und drüber in den Köpfen. Wie sonst wäre zu bewerten, was ein vergrüntes Leitmedium so formuliert:

„Wenn (der Atomausstieg) gelingt, wird die Bundesrepublik zum Modell für ein neues nachhaltiges Wirtschaften, das die Ressourcen schont und künftige Generationen nicht belastet. Es wird führend sein in der Entwicklung und Produktion energiesparender Zukunftstechnologien, ein grüner Exportweltmeister.“

Hurra, wieder einmal rettet Deutschland die Welt!

Damit kein Missverständnis entsteht: Ich gehöre nicht zu den Freunden der Kernenergie. Zwar habe ich als junger Reporter über die saubere Atomkraft berichtet, als das längst abgeschaltete Kernkraftwerk in Obrigheim gebaut wurde: kein Dreck aus Schornsteinen, Unabhängigkeit vom Öl, Energie im Überfluss.
Doch 1986 produzierte ich eine Reportage über die Atomtestgebiete in der Südsee. Dort war ich auf dem Plutoniumdom von Eniwetok, der noch 30000 Jahre tödlich strahlt. Besuchte die Insulaner von Rongelap, wo noch in der zweiten Generation mehr als die Hälfte der Kinder als Missgeburten auf die Welt kamen, viele nur als Fleischklumpen. Ich sprach mit ehemaligen Bewohnern von Bikini, deren freiwillige Umsiedlung mit zynischen oder arglosen Versprechen erreicht wurde: Sie müssten ihr Land kurzfristig zur Verfügung stellen, weil etwas getestet werde, was den ewigen Weltfrieden bringe, erklärte der amerikanische Offizier damals. Die Inseln sind bis heute nur bedingt bewohnbar.
Das Thema hat mich nie wieder losgelassen. Dabei bin ich zu diesem Fazit gekommen: Die Geschichte der Kernspaltung ist verbunden mit grenzenloser Naivität der Forscher, mit Vertuschungen und Lügen der Regierungen und Nutznießer. Und sie ist mit Hoffnungen und Ängsten verbunden, die sich rationaler Betrachtung entziehen. Das, was sich gerade in der Bundesrepublik abspielt, ist dafür ein schlagender Beweis.
Als vor 50 Jahren das Atomzeitalter auch in Deutschland begann, gab es den Konsens aller relevanten Kräfte, dass die Atomkraft die Zukunft mitbestimmen soll. Aus heutiger Sicht mag das falsch gewesen sein. Aber damals wurde jeder Skeptiker so heftig geschmäht und geächtet wie heute Kritiker der Sonnen- und Windideologie. Bald konnten wir lesen, dass Deutschland die besten Atomkraftwerke baue und führend in der Technologie sei. Heute ist es ein Standardsatz aller Parteien, dass wir führend seien bei erneuerbaren Energien.
Es scheint ein innerer Zwang zu sein, dass wir immer die Ersten und Besten sein wollen. Die wilhelminische Überzeugung gehört offenbar dazu, wenn den Deutschen wieder eine Patentlösung aufgeschwatzt werden soll.
Im Wettbewerb um den radikalsten und umweltschonendsten Ausstieg aus der Nuklearwirtschaft ist ein Wort völlig untergegangen, mit dem zumindest Union und FDP einmal ihre Existenzberechtigung begründeten. Das Wort heißt „Marktwirtschaft“ .

Viel Markt hat es in der Energiewirtschaft noch nie gegeben, weder bei der Erzeugung noch bei der Verteilung. Aber jetzt werden auch noch seine letzten Spuren beseitigt. Der Sündenfall war das Einspeisegesetz für erneuerbare Energie (EEG). Auch hier ist eine Klarstellung nötig: Dieses Gesetz ist keine grüne oder rot-grüne Erfindung, sondern es stammt aus der schwarz-gelben Ära Kohl. Mit seiner Erfindung brüsten sich Angela Merkel und Klaus Töpfer. So gesehen ist es auch nicht verwunderlich, wenn jetzt aus dem Regierungslager keinerlei Ideen kommen, wie eine marktwirtschaftlich organisierte Energiepolitik aussehen kann.
Das EEG widerspricht eigentlich den Prinzipien aller Parteien außer denen der Grünen. Es ist eine besonders widerwärtige Form der Subventionsverschleierung und Klientelpolitik. Verpackt wird diese Umverteilung des Vermögens von unten nach oben in die Weltrettungsterminologie des Klimaschutzes.

Zynische Klientelpolitik

Wie können FDP und Union ein Gesetz gutheißen, in dem der Absatz eines Produkts zu einem vielfach über dem Marktpreis liegenden Preis in unbeschränkter Menge vom Staat garantiert wird? Das ist Planwirtschaft pur. Der Zynismus, der in jeder Subvention steckt, wird beim EEG noch auf die Spitze getrieben. Nicht der Staat bezahlt, nein er zwingt den Verbraucher, die überteuerte Ware direkt abzunehmen. Wahrscheinlich hatten die Erfinder die berechtigte Sorge, dass das EEG nicht überleben würde, müssten die vielen Milliarden, die es kostet, aus dem Staatshaushalt bezahlt werden.
Das EEG hat den Vorteil, dass die „bürgerlichen Parteien“ ihrer Klientel neue Subventionen zuschieben können. Sinkende Agrarsubventionen werden durch Solaranlagen ausgeglichen. Denn wer die besonders üppige Solarförderung abgreifen will, braucht Dächer oder Land. Beides trifft vor allem auf Landwirte und Gutsbesitzer zu. Entsprechend erschüttert waren die Thurn und Taxis, als zuletzt auf Druck des Wirtschaftsministers die Solarförderung gekürzt und Anlagen auf Grünflächen verboten wurden: Das Fürstenhaus wollte gerade das größte Solarkraftwerk der Republik bauen.
Wenn Sie zu den Freiberuflern und Besserverdienenden gehören, haben Sie sicher auch schon Angebote erhalten, die Ihnen acht Prozent Verzinsung garantieren, wenn Sie in einen Windpark investieren. Das ist eine lohnende Anlage, angesichts der zwei Prozent, die Ihre Bank vielleicht bietet. Acht Prozent sind aber nur möglich, weil der Staat durch das EEG die Gewinne garantiert, die der Verbraucher bezahlen muss. Um diese üblen Kapitalverschiebungen zu rechtfertigen, muss man schon die Rettung der Welt beschwören. Sonst wären solche Schweinereien gar nicht möglich.
Die Umverteilung von unten nach oben erklärt auch die Erfolge der Grünen in den wohlhabenden Schichten. Keine andere Partei sichert deren Wohlstand mit solch moralisch überhöhter Inbrunst wie die die Grünen. Der Schwenk der FDP zum EEG hat auch mehr mit Klientelpolitik zu tun als mit Überzeugung.
Warum macht die SPD da mit? Ich weiß es nicht. Es ist doch ihre Klientel, die gebeutelt wird. Dass sie so hemmungslos die Umverteilung von unten nach oben  betreibt, zeigt einige Verwirrung an.

Wenn es für eine Förderung alternativer Energien einen Grundkonsens in der Gesellschaft gibt, dann ist das EEG eine der schlechtesten Lösungen. Die marktwirtschaftlichste Form eines solchen Eingriffs wäre eine knappe Vorschrift: Jeder Stromanbieter muss in seinem Mix einen Anteil von sagen wir 20 Prozent alternativer Energie haben. Dies würde einen Wettbewerb um die preisgünstigste Technik auslösen.

Der Staat könnte durch Förderung der Grundlagentechnologien helfen. Das alles wäre ordnungspolitisch sauber, sozial gerecht und mindestens so umweltfreundlich wie die jetzige Verspargelung der Landschaft. Es nähme aber dem Staat die Macht, über die Energiepolitik die Bürger zu gängeln und auszunehmen.

Der Staat dominiert die Energiebranche wie kaum eine andere. Sie ist so attraktiv für Politiker, weil niemand auf das Produkt Strom verzichten kann. Aber wie bei jedem Produkt, das der Staat beherrscht, entstehen systematisch Abzocke und Korruption. Der Staat fördert die Monopolbildung und durchsetzt dann die Führung mit seinen Vertretern, auch wenn die Watt und Volt nicht unterscheiden können. Das ist keine deutsche Besonderheit. In Japan hat die Skandalfirma Tepco, die Fukushima betreibt, das Monopol im Großraum Tokio. Wettbewerber gibt es nicht.

Da Japan sich früh von der Kohle verabschieden musste, einfach weil es im Land keine mehr gab, fiel dies mit der Hochzeit der Atomeuphorie zusammen. Also setzte der Staat auf Kernkraft, also wurden die Gesetze so gestaltet, dass die regionalen Monopolversorger Reaktoren bauen konnten. Die staatliche Aufsicht eröffnete ihnen Spielräume, sich hin und wieder über Auflagen hinwegzusetzen. Auch Japan konnte den Interessenkonflikt nicht lösen, den eine staatlich bevormundete Wirtschaft produziert. Für den Machterhalt und die Rendite wurden Kompromisse bei der Kontrolle geschlossen.

Es ist sicher kein Zufall, dass Japan und Frankreich, zwei Staaten, die jede Deregulierung im Strommarkt vermieden, besonders konsequent auf Atomstrom setzten. In den USA, wo es Wettbewerb gibt, wurden nach der Beinahekatastrophe von Harrisburg keine Reaktoren mehr gebaut. Sie waren einfach zu teuer. Sicherheitsauflagen und Haftungsrisiken wurden zu hoch.

Die Branche war fast erledigt. Ihre Wiederauferstehung verdankt sie der These vom menschengemachten Klimawandel. Die Wissenschaftlerin Sonja Boehmer -Christiansen hat detailliert den Einfluss der Nuklearindustrie auf die Premierministerin Margaret Thatcher beschrieben, die die CO2-Theorie forcierte, auch um ihre Bergarbeiter loszuwerden. Keine Branche hat die Theorie so unterstützt wie die Atomwirtschaft. In Deutschland kam das vor allem bei CDU und FDP an. 

In Frankreich und Japan war immer klar, dass die Regierung die Gesetze so gestaltet, dass sich der Bau von Atomkraftwerken rechnet. Dies ist offenbar die Voraussetzung für Nukleartechnologie. Auch in Deutschland flossen Milliardensubventionen in Entwicklung und Bau der Atommeiler. Die Wege dieser Finanzierung waren so vielfältig und verzweigt, dass sie von einem Außenstehenden nicht mehr nachzuvollziehen sind. Aber wir wissen heute: Es waren Fehlinvestitionen.

Weder Politik noch Wirtschaft haben daraus gelernt.

Mit gleicher Leidenschaft stürzen sie sich nun auf die erneuerbaren Energien. Dabei gibt es das eigentlich gar nicht: Energie, die verbraucht ist, ist weg. Es gibt alternative Energien, die weiter erforscht werden müssen. Nicht für den möglichst schnellen Atomausstieg, sondern um eine möglichst preiswerte, dauerhafte Energieversorgung zu sichern.

Wenn die Politik, sei sie schwarz-gelb oder rot-grün, nun die Führung beim Umbau der Energiewirtschaft übernehmen will, dann gehen wir gefährlichen Zeiten entgegen. Es drohen Subventionsorgien ohnegleichen. Der Wettlauf der Industrie um das grünste Image hat bereits begonnen. Sie wird das liefern, was der Staat finanziert. Siemens oder EnBW ist es wurscht, woher der Strom kommt – solange der Staat Geschäfte mit Gewinn garantiert.

Damit die vergrünte Staatswirtschaft nicht zusammenbricht, muss die Klimawandeldoktrin um jeden Preis verteidigt werden, auch wenn sie international schon auf dem Rückzug ist. Aber das ist ein anderes Thema. Heute ist nur festzuhalten: Neben der Vernunft hat das Reaktorunglück bei uns ein weiteres Opfer – den Markt. Unter den Folgen werden wir mindestens so lange leiden wie die Japaner unter den Strahlen von Fukushima.

von Günter Ederer,

mit freundlicher Genehmigung des Autors, erschienen zuerst in Capital 05/2011

Er bekennt sich dazu, kein neutraler Beobachter zu sein: Günter Ederer, 69, ficht als Wirtschaftsjournalist für die Freiheit und die Marktwirtschaft. Als TV-Reporter und Dokumentarfilmer hat er in über 60 Ländern gedreht, unter anderem war er sechs Jahre lang Japan-Korrespondent des ZDF. Nebenbei schrieb er mehrere erfolgreiche Bücher. Ederer hat den Ludwig Erhard-Preis und zahlreiche andere Auszeichnungen erhalten. Anfang März ist sein neuestes Buch erschienen:"Träum weiter Deutschland! Politisch korrekt gegen die Wand"

.




Eine wenig noble Einigkeit

Klimaforscher an den Universitäten, obwohl es viel weniger sind, können laut genug werden, um in vielen öffentlichen Foren gehört zu werden. Julia hat sie auch gekauft, und zwar mit weiteren 5,5 Millionen Dollar aus der gleichen Quelle. Diese Art Geld steht in der Umgebung der Universität bereit, da es meistens an der Spitze der ohnehin schon zugesicherten Gehälter steht. Mehr noch, man kann es sich leicht beschaffen. Es ist mit Sicherheit viel einfacher als normalerweise Forschungsgelder für die reguläre Forschung an den Universitäten vom Australian Research Council zu bekommen – und das auch nur nach einer seelisch sehr belastenden Prozedur und einem Begutachtungsverfahren, die 80% der Einsendungen vom Tisch fegt und die individuell gewährten Gelder auf ein suboptimales Niveau sinken lässt. Julias Klimageld ist da ganz anders. Unter Anderem kann es für solche Wohltaten wie Reisen per Erster Klasse zu den vielen internationalen Konferenzen ausgegeben werden, die Teil der internationalen Klimaänderungsindustrie sind.

Monopolistische Zuwendungen

Unter dem Strich heißt das alles, dass nahezu die gesamte Klimaforschung in Australien aus einer einzigen Quelle finanziert wird – nämlich der Regierungsabteilung, die den speziellen Auftrag hat, den Menschen nahe zu bringen, dass irgendetwas Drastisches und Teures für die Struktur der Gesellschaft getan werden muss, um [die Folgen des] Klimawandels abzumildern. Und wenn Sie glauben, dass Regierungsagenturen nicht im Spiel der sozialen Werke mitspielen sollten, laufen Sie der Zeit weit hinterher. Während der letzten beiden Jahre hat das DCC für genau diesen Zweck mehr als 100 Millionen Dollar ausgegeben.

Es kann also keinen Zweifel daran geben, dass die Empfänger von Forschungsgeldern für die Klimaforschung sehr gut wissen, dass sie mit Skeptizismus hinsichtlich des Klimawandels nicht sehr weit kommen werden. Man wundert sich daher nur wenig über den vielgerühmten Konsens des Establishments der globalen Erwärmung bzgl. des klimatischen Untergangs.

Es gibt keine Möglichkeit, eine ganze wissenschaftliche Disziplin durch krassen Materialismus zu untergraben, weder bewusst noch unbewusst, oder? Nun, vielleicht nicht langfristig. Aber wenn die Erfahrungen der letzten Zeit den Weg weisen würden, kann das Herausfinden eines berechtigten wissenschaftlichen Interesses viele Jahrzehnte dauern. Im Moment sind die Wissenschaftler in dem Ring einer Katastrophentheorie gefangen, die der Welt als Ganzes verkauft werden soll. Sie unterstützen eine Theorie mit langfristigen Vorhersagen über ein Ozean–Atmosphäre–System, dessen Verhalten in vielfacher Hinsicht prinzipiell nicht vorhersagbar ist. Einerseits muss die öffentliche Diskussion über die Unsicherheiten im Zusammenhang mit den „hauptsächlichen Schlussfolgerungen der Wissenschaft“ abgewürgt werden, andererseits braucht man eine ausreichende Unsicherheit, um den fortgesetzten Zustrom der Fördergelder aufrecht zu erhalten. Kurz gesagt, sie befinden sich in einem widersprüchlichen Zustand politischer Korrektheit (political correctness).

Wissenschaftler sind auch Menschen!

Der normale Wissenschaftler ist extrem unwillig, sich gegen den Strom der offiziellen Meinung zu stellen, die von den Forschungsaktivisten in seinem Bereich vorgegeben werden, was auch immer seine private Meinung dazu ist. Loyalität gegenüber den Kollegen spielt eine Rolle ebenso wie vielleicht die verführerische Perspektive eines „ehrwürdigen Grundes“ (noble cause). Mit dieser Art von Rechtfertigung ist es für einen idealistischen Wissenschaftler viel einfacher, bei der Stange zu bleiben und weiter mitzuspielen, wenn Julia Leute kauft.

Wo sind die unabhängigen Ratschläge?

Es gibt unabhängige wissenschaftliche Einrichtungen, deren Rat man sowohl in der Regierung als auch in der Öffentlichkeit vertrauen kann, oder? Aber ja – meistens jedenfalls. Die Australische Academy of Science ist ein Musterbeispiel. Aber man muss ein wenig grummeln, wenn man über die Unabhängigkeit dieser Körperschaften im Zusammenhang mit dem Klimawandel redet. Sie haben allgemein nicht viel Erfahrung in der Politik zu diesem Thema, und wenn man sie um Rat fragt, sind sie gezwungen, Komitees aus den relevanten Forschungseinrichtungen zu bilden. Es ist nicht allzu schwer sich vorzustellen, woher die Ratgeber kommen. Außerdem kostet es Geld, ein solches Komitee am Leben zu halten. Sie dürfen raten, woher dieses Geld kommt.

Würde eine von „Big Oil“ finanzierte Forschung weniger zuverlässig als dies sein?

Garth Paltridge ist ein Gastmitarbeiter an der Australischen National University und emeritierter Professor und Ehrenmitglied am Institute of Antarctic and Southern Oceans Studies (IASOS), University of Tasmania. In seiner Karriere arbeitete er als Physiker der Atmosphäre, hauptsächlich mit CSIRO und kurzzeitig auch mit der NOAA. Er mehr als 100 Bücher und wissenschaftliche Studien veröffentlicht. Sein Buch The Climate Caper: Facts and Fallacies of Global Warming erschien 2009.

Link: http://joannenova.com.au/2011/04/professor-points-out-its-a-less-than-nobel-consensus/

Übersetzt von Chris Frey für EIKE




Wie steht es um Energieeffizienz bei „Erneuerbaren Energien“?

Heißt das nicht, dass Elektrizität aus Wind und Sonne 10 mal so teuer ist wie konventionell erzeugte? Aber, halt, die offiziellen Zahlen passen gar nicht zusammen.   40 Mio. Haushalte mit im Mittel 3000 kWh Jahresverbrauch zahlen bei 3,5ct Aufschlag pro kWh 4Mrd. Euro. Die Förderung für die Erneuerbaren Energien (EE) beträgt aber 17 Mrd.Euro pro Jahr. Von diesen 17 werden nur 4 ueber dire Stromrechnung abgerechnet. Woher kommen die restlichen 13 Mrd.?  Offenbar aus irgendwelchen schwarzen Kassen im Bundeshaushalt.

Man hat sich wohl gesagt: 3,5ct zahlt der Verbraucher wohl noch ohne dass Protest gegen EE zu laut wird. Der Rest der Kosten wird versteckt, d.h. der Steuerzahler zahlt ihn. Und wird damit ueber die wahren Kosten getäuscht.

 In Wirklichkeit sind die Kosten für EE also mehr als 4 mal so hoch wie offiziell angegeben. D.h. die Kosten für EE sind 40 (!) mal höher als bei konventioneller Erzeugung. Und diese Kosten sollen in absehbarer Zeit um den Faktor 40 fallen? ( Die Kosten für Errichtung von Windkraftwerken pro kW Leistung sind in den letzten 5 Jahren überhaupt nicht mehr gefallen .)

Volkswirtschaftlich ist dies offenbar der größte anzunehmende Unsinn ( GAU ).

Hilft dieser volkswirtschaftliche Unsinn denn wenigstens dem sparsamen Umgang mit unseren knappen Energieressourcen oder der Reduzierung der CO2 Emissionen (für diese beiden Ziele wird EE ja überhaupt veranstaltet)? Antwort: Überhaupt nicht. Ganz im Gegenteil.

Für eine Einschätzung der Energie- und CO2-Verschwendung der EE muss man sich nur den Zusammenhang zwischen Energieverbrauch und Kosten vor Augen halten. Die Kosten fuer die Herstellung eines Produktes oder einer Dienstleistung sind nämlich fast ausschließlich die Kosten der Primärenergie, welche für  ihre Herstellung aufgewendet werden muss. Heutzutage wird alles mit Hilfe von Energie hergestellt. Rohstoffe werden gewonnen (und können mit Hilfe von Energie unendlich oft recycled werden, sind also im strengen Sinne unbegrenzt ) mittels Einsatz von Energie und Maschinen, deren Herstellung ebenfalls durch Energie geschah. Produktion von Gütern ebenso. Menschliche Arbeit wird zwar auch geleistet zur Herstellung, die Energie dafür ist allerdings nur zu einem geringen Anteil „ erneuerbar“ (entsprechend den Ausgangsstoffen fuer die menschliche Ernährung, die letztlich durch Sonnenenergie  -pflanzliche/ tierische Nahrung – erzeugt werden ). Dieser Anteil an der Herstellungsenergie liegt, wie man zeigen kann, bei ca 3%, kann also fuer diese Betrachtung vernachlässigt werden.

Einwände der Art:  „aber die Kosten für Kinderausbildung, Kultur, etc. sind ja auch enthalten“ sind nur scheinbar richtig. Auch diese Kosten sind letztlich nichts als Energiekosten. (Allerdings kann man an diesen speziellen Kosten und dem entsprechenden Energieaufwand  sparen, wenn  man in Ländern  mit geringen Lohnkosten produziert. Dort ist entsprechend der Energieaufwand  für die persönliche Lebensführung geringer. Aber wollen wir das?)

Wenn man es konsequent zu Ende überlegt „besteht“ letztlich jedes Produkt/Dienstleistung nur aus Energie. Die Herstellungskosten geben also gerade die Energie an, welche zur Herstellung benötigt wurde.

Die Erzeugungskosten von Windstrom liegen im Mittel bei ca. 8ct/kWh, also doppelt so hoch wie bei konventionellen Kraftwerken. Das bedeutet, dass für die Herstellung einer kWh Windelektrizität doppelt so viel knappe Primärenergie ( Kohle/Gas/ Öl/ Kernenergie ) erforderlich ist wie bei konventioneller Erzeugung. Berücksichtigt man noch, dass wegen der Unvorhersagbarkeit der Windstromerzeugung auch noch Gaskraftwerke vorgehalten werden müssen, welche bei Windflaute einspringen müssen, und welche wegen des dauernden Rauf-und Runterfahrens wenig effizient arbeiten müssen; weiter, dass fuer die Verteilung zusaetzlicher Netzausbau nötig ist, dann zeigt sich ein 3 bis 4 mal höherer Verbrauch von knapper Primärenergie bei Windstrom im Vergleich zu konventionellen Kraftwerken.

Meist wird auch übersehen, dass beim Erreichen von „ Preisparität“ von Windenergie mit knoventioneller ( dem überall verkündeten  Ziel ) noch kein Gramm Kohle/Öl etc. eingespart wird. Selbst wenn der Preis fuer Winstrom incl. Regelkraftwerken etc. nur noch die Hälfte der Kosten der konventionellen Erzeugung betragen wuerde ( was völlig unrealistisch ist ) würde man nur die Hälfte der knappen Primärenergie einsparen.

Entsprechend dem höheren Primärenergieverbrauch bedeutet Windenergie heute  völlig unnötiger Weise, 3 bis 4 mal so viel CO2 in die Atmoshäre zu blasen als es konventionelle Kraftwerke fuer die gleiche Elekriztätserzeugung tun.

Im Klartext:

Windenergie ist die rasanteste Art unsere knappen Energieressourcen zu verschleudern und  in gigantischem Maße unnötig CO2 in die Atmospäre zu emitieren.

Es versteht sich von selber, dass diese Verschleuderung von Energie und Emission unnötigen CO2s bei Solarelektrizität noch um Größenordnungen schlimmer ist.  Das Attribut „erneuerbar“ für diese Art  der Elekrtrizitätserzeugung ist also reines Geschwätz.  Von einer Energieproduktion mittels EE, welche geringeren Energieaufwand als  -Erzeugung realisiert, ist man so weit entfernt dass sie als völlig unrealistisch angesehen werden muss.

Man merkt sich: DIE LÖSUNG MIT DEN GERINGSTEN KOSTEN IST IMMER DIE ENERGIESPARENDSTE (Sofern  nicht Kosten versteckt sind, wie bei der oben erwähnten Differenz zwischen 4 Mrd. und 17Mrd).

Als (positive!)Illustration für diese Betrachtungsweise sei hier erwähnt: Energiesparlampen. Entgegen dem auch in den Medien weitverbreiteten Vorurteil spart der Einsatz von (Quecksilber-) Energiesparlampen tatsächlich Energie. Das gilt auch dann noch wenn man als Energiekosten nicht die 20ct/kWh ansetzt , die der Haushaltsverbraucher zahlt, sondern 4 ct, entsprechend den Herstellungskosten,und sogar auch dann wenn man berücksichtigt ,dass die von Glühlampen abgegeben Wärme Heizkosten einspart.

Nun ist angeblich der „spezifische Energieeinsatz“ der deutschen Wirtschaft ( kWh pro Euro Bruttoinlandsprodukt ) in den letzten Jahren gesunken. Steigende Produktion mit weniger stark steigendem Energieaufwand, wie ist das moeglich?

Zum kleineren Teil natürlich durch intelligentere Produktionsverfahren („Rationalisierung“), zum weitaus größten Teil aber durch Auslagerung des Energieverbrauches: unsere Wirtschaft nutzt in steigendem Maße importierte Vorprodukte ( das hat ihr ja auch schon mal die Bezeichnung  „Bazarökonomie“ eingetragen; meint, die Wirtschaft produzier gar nichts mehr, betreibt lediglich Handel. Natuerlich ist das nicht die ganze Wahrheit..). Der Energieaufwand für dieEndprodukte ist daher nicht etwa gesunken. Der Verbrauch an knappen Energieressourcen und die entsprechende CO2 Emission ist lediglich aus Deutschland ausgelagert worden.

Reine Augenwischerei also wenn behauptet wird, Deutschland hätte ja seine Emissionsreduzierungsziele erreicht.

Mit dem Verständnis der Gleicheit von Produktionskosten mit den Kosten für die notwendige Primärenergie läßt sich auch das gigantische Maß des ökölogischen Unsinns veranschaulichen, den die Planung des „ökologischen Umbaus von Europa“ (vorgesehene Kosten 11 Billionen Euro bis 2020) darstellt.

Diese Kosten sind äquivalent einem Verbrauch von ca 100 Billionen kWh (Jahresenergieverbrauch von Europa derzeit 20 Billionen kWh) und zusätzlicher Emission von  ca. 100 Gigatonnen CO2. (Jahres CO2 Emission von Europa derzeit ca 5 Gigatonnen)

 All dies, um auch in Zukunft eine sinnlose gigantische Verschwendung unserer knappen Energieressourcen und eine ebenso gigantische sinnlose CO2 Emission zu garantieren.

Es lohnt sich wohl darüber nachzudenken, wer von dieser gigantischen Verschwendung unserer kanppen Ressourcen eigentlich profitiert.

Mit den unsinnigen Energiekosten wird die produzierende Industrie, welche ALLEINE unseren hohen Lebensstanard erwirtschaftet, aus Deutschland verdrängt. Man bekommt den Eindruck, in Europa werde eine Politik der „verbrannten Erde“ verfolgt. Zunächst  verarmt die Bevölkerung indem ihr der Verbrauch unsinnig teurer Energie verordnet  wird, dann muss sie für warme Luft ( CO2 ) zahlen; und als „farewell-rip-off“ nimmt man noch  die  11 Billionen Euro mit und verlässt dann das Land, welches durch die jederzeit zu erwartenden blow-outs der unterirdischen CO2 Endlager (mit Millionen von ohne Fluchtchance Erstickten,) unbewohnbar geworden ist.

Prof. Dr. C.O. Weiss für EIKE

Update: Wie der WDR seine Hörer über die Kosten der "Erneuerbaren" in die Irre führt

Hörerbrief vom 15.4.11 unseres Fachbeiratsmitgliedes Prof. Alt an den WDR:

Sehr geehrter Herr Hauschild, sehr geehrter Herr Erdenberger,

am heutigen Morgen wurde in einer WDR 5 Sendung von Herrn Erdenberger, dessen Moderation ich sehr schätze, in einem Interview mit Herrn Schneider über einen Auftragsbericht der Heinrich Böll-Stiftung zur Sinnhaftigkeit zu der Stromerzeugung aus Kernkraftwerken berichtet (Herr Schnei- der sagte natürlich DIN/IEC begriffswidrig: "Atomkraftwerke" siehe Hilfsblatt 01).

Herrn Erdenberger ist zwar für die sehr detaillierten Fragen zu danken, jedoch waren alle Antworten von Herrn Schneider entweder grob wahrheitswidrig oder verwässernd ausweichend:

Tatsache ist z.B., dass die Subventionen für die erneuerbaren Energien derzeit jährlich rd. 11 Milli- arden € (14,2 Mrd. € – 3 Mrd. € ersparte Stromerzeugungskosten in den ohnehin notwendigen Kraftwerken =11,2 Mrd. € Subventionsbetrag). Siehe Hilfsblatt 173-1 der Anlage.

Die Berechnung der Bundesregierung mit dem Ergebnis, dass die Subventionsbelastung nur 3 Mrd. € betrage, ist wissenschaftlich nachweisbar unrichtig.

Tatsache ist auch, dass bei beliebig vielen Windenergieanlagen die Grundlasterzeugung der Kern- kraftwerke bei deren Außerbetriebnahme durch Windkraftwerke nur ersetzt werden kann in den Zei- ten, in denen der Wind stark weht und zu allen anderen Zeiten durch Gas- oder Kohlekraftwerke oder durch Stromimport aus benachbarten Kernkraftwerken abgedeckt werden muss, Siehe Hilfs- blatt 124.

Ich bitte Sie daher, in Zukunft die WDR 5 Hörer mehr wahrheitsbasiert zu informieren und nicht durch unwahre Behauptungen von Kernenergiegegnern unter – Ausnutzung der mangelnden Fach- kunde der Mehrheit unserer Bevölkerung in diesen Fragen – vorsätzlich schuldhaft in die Irre zu füh- ren. Für einen öffentlich- rechtlich verfassten Sender, wie der WDR, ist das in besonderem Maße verwerflich.

In den Nachrichten des WDR wurde über den Bundestagsbeschluss vom14.4.2011 berichtet, ge- mäß dem die Subvention der deutschen Steinkohle ab 2018 entfällt. Hierzu ist festzuhalten dass diese Subvention zur Erhaltung von ehemals über 60.000 Arbeitsplätze im deutschen Steinkohle- bergbau, derzeit sind es noch rd. 20.000, maximal im Jahr 1999 den Wert von 4,4 Mrd. € erreicht hatte und diese inzwischen bis zum Jahr 2009 auf 2,4 Mrd. € einhergehend mit massivem Stellen- abbau und Zechenstilllegungen abgesunken sind. Siehe Hilfsblatt 117-1.

Der einzige Unterschied der beiden Subventionen ist, dass die Subventionen für die deutsche Steinkohle aus dem Bundes- und Landeshaushalt aus Steuermittel gezahlt wird und jährlich dort ausgewiesen bzw. neu genehmigt werden muss.

Dagegen wird die viel höhere Subvention für die nur fluktuierend verfügbaren regenerativen Ener- gien direkt über den Strompreis – als EEG-Aufschlag und Mehrwertsteuer belastet – von den Strom- verbrauchern unmittelbar über die Stromrechnung auf Basis gesetzlicher dauerhaft wirksamer Ge- setzesregelung bezahlt. Damit wird das für die Regierung verfügbare Steueraufkommen nicht ge- schmälert.

Ob diese Art der Finanzierung staatlicher Anordnungen, zu Lasten aller Bürger, Grundgesetzkon- form ist, wurde bisher leider noch nicht geprüft.

Es ist nicht zu fassen, auf welchen nachweisbaren Irrungen die angestrebte Energiewende basiert und derzeit mit relativ hohem politischen Konsens über alle Parteien hinweg zu Lasten aller, in der Sache meist nur wenig sachkundigen Bürger, betrieben wird.

Helmut Alt

WDR 5 Tagesgespräch vom 15.4.2011:

-2-

Sehr geehrter Herr Schmitz -Forte,

herzlichen Dank, dass ich im Tagesgespräch durchgekommen bin und einige wenige Fakten zum Kernenergieausstieg und seinen wirtschaftlichen Folgen darlegen durfte. Sehr zu bedauern und auch höchst unfair war jedoch, dass ich keine Möglichkeit bekommen habe, auf die nachweislich teilweise unwahren Gegendarstellungen Ihres Studio- „Experten“ Herrn Wille, Redakteur der Frankfurter Rundschau, erwidern zu dürfen, sondern mir die Möglichkeit vom WDR erst gar nicht geboten wurde.

Ich werde das zum Anlass nehmen, meinen Studentinnen und Studenten, in großer Zahl aus auch aus China und anderen Ländern – die Voreingenommenheit der deutschen Medien insbesondere des WDR an diesem Interview beispielhaft darzustellen.

Einige Fakten mögen Sie den Anlagen entnehmen und ich wäre Ihnen sehr dankbar, wenn Sie die- se vielleicht mit Unterstützung von Herrn Wille mir gegenüber schriftlich widerlegen würden.

Wenn Herr Wille die für solche Fragen nötige Sachkenntnis hätte, wäre er nicht Journalist bei der Frankfurter Rundschau sondern leitender Mitarbeiter in der Energieversorgung. Von daher ist es mir unverständlich, dass mein Lieblingssender WDR 5 sich solchen Halbwissenden in Sachen Energie bedient zur Moderationassistenz.

Dem Hörer, der meine Ausführungen mit der Erfindung der Mehrphasentechnik in der elektrischen Energietechnik in Frage stellte, kann ich nur mein Bedauern entgegenbringen, weil die Lehren Tes- las Grundlagenwissen eines jeden Elektrotechnikstudenten ist und zur hier angesprochenen The- matik nun wirklich nichts beitragen kann.

Die Unsachlichkeit und Irreführung gutgläubiger Zuschauer dieser Medien-Diskussionen ist nicht zu fassen! In der AZ wurde berichtet, dass jeder Zweite Deutsche bis zu 40 € mehr für Strom zu bezahlen bereit ist, wenn er aus regenerativen Quellen komme und die "Meiler" rascher abgeschaltet würden.

Ja, wenn dem so wäre, es genügten leider nicht 40 €, sondern mindestens 400 € pro Jahr, das sagt den Leuten leider keiner, ist aber die Wahrheit.

Helmut Alt

siehe auch die pdf Anhänge

Related Files




Großbritanniens Lord Turnbull: Die wirklich unbequeme Wahrheit

Welche Komponenten hat diese Politik?

1.             Ein klarer Bezug auf die Wissenschaft, wie sie der Arbeit des IPCC zu entnehmen ist. Durch die anthropogenen CO2-Emissionen ist der Anteil des CO2 in der Atmosphäre von 280 ppm in der vorindustriellen Zeit auf heute 400 ppm gestiegen und wird sich bei dieser Rate in diesem Jahrhundert auf 550 ppm verdoppeln.

2.             Dieser Anstieg des CO2-Gehaltes ist der Hauptgrund für die Zunahme der Temperatur um 0,7°C während des vergangenen Jahrhunderts. Bei unveränderten Bedingungen wird die Temperatur während der nächsten 50 Jahre um 1 bis 1,5°C und um 3°C bis zum Ende dieses Jahrhunderts steigen.

3.             Sollte die Temperatur um mehr als 2°C steigen, wird dies eine Reihe widriger Konsequenzen haben, als da wären steigender Meeresspiegel, zunehmende Stärke von Stürmen, Ernteschäden, die Ausbreitung von Krankheiten usw.

4.             Um den Temperaturanstieg auf 2°C zu begrenzen, müssen die CO2-Emissionen halbiert werden, und weil die entwickelten Länder den Löwenanteil zum CO2-Gehalt beitragen, müssen diese ihre Emissionen um 80% reduzieren. Unter Berücksichtigung des Wirtschaftswachstums bedeutet dies, dass jede Einheit des Bruttoinlandproduktes nur etwa 5% des heutigen CO2 erzeugen darf.

Die Regierung von UK hat in den Verhandlungen zu einem Klimavertrag für diese Position geworben, aber weil es keinerlei Einigung gab (eine wirklich bindende Begrenzung scheint so ziemlich vom Tisch zu sein), hat man eigene Grenzen gesetzt.

Die Regierung von UK hat mit dem „Climate Change Act” (etwa: Gesetzentwurf zur Klimaänderung) 2008 eine mächtige Basis geschaffen. Die Eröffnungsklausel enthält bereits eine bindende Vorschrift:

 „Es ist die Pflicht des Staates (Secretary of State) sicherzustellen, dass der allgemeine Kohlenstoffausstoß im Jahre 2050 um 80% unter dem des Jahres 1990 liegt.“

Im Gesetzentwurf wird des Weiteren eine Kommission zur Klimaänderung ins Leben gerufen, deren Arbeit darin bestehen soll, 5-Jahres-Ziele festzulegen, um das letztendliche Ziel zu erreichen. Außerdem soll sie dem Parlament Bericht erstatten, ob die ergriffenen Maßnahmen wirklich zum Ziel führen.

Eine große Vielfalt von Maßnahmen wurde eingerichtet. Auf der Ebene der EU gibt es Absichten, bis 2020 den CO2-Ausstoß um 20% zu reduzieren, verbunden mit dem Angebot, im Rahmen eines internationalen Abkommens auch eine Reduzierung um 30% anzustreben, sowie eine Option, 15% der Energie aus erneuerbaren Quellen zu erzeugen. Die EU hat auch einen Zertifikatehandel eingeführt mit der Abkürzung EUETS, und will eine vorgeschriebene Quote von Biodiesel für den Verkehr einführen.

In UK wurden noch diverse andere Methoden in Kraft gesetzt.

·   Die Abgabe zur Klimaänderung; die Verpflichtung zur Reduzierung des Ausstoßes von Kohlenstoff; steigende Tarife, Ziele für die Windenergie, die Option, das CO“ aus Kohlekraftwerken abzuscheiden und unterirdisch zu lagern, und die Änderungen der Planung, die Kernkraft noch schneller durch Anderes zu ersetzen.

·   Außerdem stehen Vorschläge für eine Kohlenstoffsteuer sowie eine grüne Kampagne zur Steigerung der Energieeffizienz im Raum.  

Es wird nicht einfach nur die großen Energieverbraucher treffen, die ihren Ausstoß reduzieren müssen, sondern auch jede Firma, groß oder klein, und jeden Haushalt.

Aber es gibt da eine unbequeme Wahrheit, und es ist nicht die gleiche unbequeme Wahrheit wie aus dem Film von Al Gore. Die wirklich unbequeme Wahrheit ist, dass diese gesamte Struktur auf sehr tönernen Füßen steht.

Man kann bei dieser Agenda drei Ebenen ausmachen:

·   Erstens, die reine Wissenschaft, d. h. die Beziehung zwischen CO2 und Temperatur

·   Zweitens, die realen Folgen eines gegebenen Temperaturanstiegs bzgl. Meeresspiegel, Regenmengen, Dürren usw.   

·   Drittens, falls diese Auswirkungen zutreffen, was kann die Politik tun?

Diesen drei Ebenen entsprechen die drei Arbeitsgruppen im Aufbau des IPCC.

Was als Konsens beschrieben wird, ist in Wirklichkeit kein Konsens. Es gibt tief greifende Kontroversen auf jeder dieser drei Ebenen. Lassen Sie uns zunächst die Wissenschaft betrachten. Die Sicht des IPCC wurde mit dem Hockeyschläger dargestellt. Während der vergangenen tausend Jahre soll demnach die Temperatur nur in einem schmalen Bereich geschwankt haben, eher noch mit einer leicht abwärts gerichteten Komponente. Aber seit der Industrialisierung hat der Ausstoß von CO2 drastisch zugenommen mit der Folge eines ebenso drastischen Anstiegs der globalen Temperatur, die sog. Anthropogene Globale Erwärmung AGW.

Diese Darstellung wurde von zahlreichen Seiten in Frage gestellt:

·   Wurde der historische Temperaturverlauf richtig beschrieben? Viele Wissenschaftler glauben, dass in den späteren Berichten des IPCC die Variationen der letzten 1000 Jahre fälschlich geglättet worden waren, indem die Mittelalterliche Warmperiode (1000 bis 1350), die von der Kleinen Eiszeit (1350 bis 1850) und der daran anschließenden Wiedererwärmung der letzten 150 Jahre gefolgt wurde, unterschlagen worden sind. Diese alternative Darstellung deutet darauf hin, dass unser Klima schon lange vor den gegenwärtigen Veränderungen des CO2-Gehaltes hoch variabel gewesen ist. Die ersten Berichte des IPCC trugen diesem Umstand noch Rechnung, doch war das natürlich den AGW-Gläubigen ein Dorn im Auge, von denen einer in einer e-mail schrieb: „Wir müssen die Mittelalterliche Warmperiode los werden!“

·   Selbst die Historie der letzten 150 Jahre enthält eine Menge Probleme. Während dieser Zeit ist die globale Temperatur um 0,7°C gestiegen. Aber anders als der Anstieg des CO2-Gehaltes, der recht gleichmäßig verlaufen war, gab es hierbei markant unterschiedliche Phasen. Die Temperatur war von 1900 bis 1940 rapide gestiegen, zu einer Zeit, als der CO2-Gehalt gering war. Dem folgte ein geringer Temperaturrückgang von 1940 bis 1970, und zwar trotz der Tatsache, dass der CO2-Gehalt in dieser Zeit schon ziemlich stark angestiegen ist. Zwischen 1970 und den späten neunziger Jahren stiegen sowohl der CO2-Gehalt als auch die Temperatur deutlich, aber während der letzten 12 Jahre hatte die Temperatur auf diesem hohen Niveau verharrt [obwohl der CO2-Gehalt in gleichem Maße weiter stieg]. Falls der CO2-Gehalt wirklich so bedeutsam ist, wie die Theoretiker der AGW behaupten, warum machte die Temperatur den Anstieg des CO2-Gehaltes nicht mehr mit? Hierdurch wird immer offensichtlicher, dass man andere Faktoren ins Spiel bringen muss, besonders die Sonne und die Art und Weise, mit der Wärme in den Ozeanen gespeichert wird und verteilt ist. Daher ist völlig ungeklärt, welchen Anteil die natürlichen Treiber und welchen AGW hat.

·   Prinzipiell muss man aber nach der Klimasensitivität schauen, damit meine ich den Koeffizienten zwischen CO2 und Temperatur. Niemand bestreitet, dass das CO2 Treibhauspotential hat. Ein Kubikmeter Luft mit einem CO2-Gehalt von 550 ppm wird mehr Wärme zurückhalten als einer mit 280 ppm. Aber die meisten Wissenschaftler werden zustimmen, dass eine Verdoppelung des CO2-Gehaltes allein keinen Temperaturanstieg um 3°C oder mehr ergeben wird, wie es in den Modellrechnungen des IPCC heraus kommt. Der reine Effekt aus einer CO2-Verdoppelung liegt wahrscheinlich näher bei 1°C. Woher kommen also die höheren berechneten Werte?

·   Sie stammen aus dem Wasserdampf, von dem vermutet wird, dass der Gehalt in der Atmosphäre zunimmt, und das er ein viel stärkeres Treibhausgas ist als CO2. Eine wärmere Atmosphäre enthält mehr Wasserdampf. Aber heißt das automatisch, dass dies einen positiven, d. h. verstärkenden Effekt haben muss? Nicht notwendigerweise. Mehr Wasserdampf bedeutet auch mehr Wolken. Wolken haben eine isolierende Wirkung, reflektieren aber auch Sonnenlicht zurück in den Weltraum (Albedo). Darum ist es an wolkigen Tagen auch kühler. Der Endeffekt geht also in beide Richtungen.

·   Die Modellrechnungen des IPCC haben das starke positive Feedback vermutet, aber nicht bewiesen. Aber dieser teil der Wissenschaft wird immer noch sehr wenig verstanden.

Zusammenfassung dieses Teils der Diskussion:

·   Die globale Temperatur ist seit dem frühen 19. Jahrhundert angestiegen, jedoch viel langsamer, als der Anstieg in Zukunft ausfallen soll. Es gab eine Periode starken Anstiegs von 1970 bis zu den späten neunziger Jahren, doch ist diese Zeitspanne zu kurz, um daraus den Verlauf bis zum Ende dieses Jahrhunderts zu extrapolieren. In der ersten Dekade dieses Jahrhunderts sind wir weit hinter die Rate zurückgefallen, die eine Erwärmung um 3°C zur Folge hat, was annähernd vier mal so schnell wie die historische Rate wäre.

·    Der CO2-Gehalt ist nur während der letzten 60 Jahre signifikant gestiegen, während der Anstieg der Temperatur Fluktuationen aufweist.

Ich kann die zweite Ebene der Arbeit des IPCC sehr schnell abhandeln. Nach meiner Ansicht wurde hier die schäbigste Arbeit getan. [Es gab] eine Menge dramatischer Behauptungen über den Meeresspiegel, Eis, Ernteerträge, das Aussterben von Tier- und Pflanzenarten, festgemacht am Beispiel der Eisbären. Es hat sich gezeigt, dass vieles davon aus Material kommt, das nicht wissenschaftlich begutachtet worden war, also aus der sog. grauen Literatur. Und schlimmer noch, es stammt teilweise sogar aus Materialien, die von grünen NGO’s zur Verfügung gestellt wurden. Es gab fortwährend Rosinenpickerei (cherry picking), Übertreibungen, Überbewertung von Extrema und das Fehlen jeder Hinweise auf die positiven Auswirkungen. Im Großen und Ganzen hat die Menschheit immer von den Warmzeiten profitiert. Pflanzen wachsen schneller und nehmen mehr CO2 auf in einer Atmosphäre, die wärmer und feuchter ist sowie einen höheren CO2-Gehalt aufweist. Kälte fordert mehr Opfer als Wärme. Der Hauptgrund für die zunehmende Schadenssumme durch Wetterextreme ist das Bebauen und Bewohnen von Gebieten, die anfällig für solche Extremwetterereignisse sind. Die Befürchtungen über eine Ausbreitung von Malaria sind längst diskreditiert.

Wenden wir uns nun der dritten Ebene zu, der Politik.

·  Das erste Problem besteht darin, dass die Politik überwiegend auf der ‚warmistischen’ Sichtweise basiert. Viele, wie z. B. Ingenieure, glauben, dass der Anpassung viel zu wenig Aufmerksamkeit zukommt, d. h. besser vorbereitet zu sein auf das, wohin auch immer die Summe natürlicher Kräfte und CO2 uns führen, auf- oder abwärts. Diese warmistische Sichtweise der Welt kann erklären, warum wir auf kalte Winter so wenig vorbereitet waren, eines Phänomens, dass gut mit dem 11-jährigen solaren Zyklus korreliert, bei dem die Sonnenflecken ein extremes Minimum aufweisen.

·  Das Hauptproblem der Politik in UK liegt in der Einseitigkeit. Unser Gesetzentwurf zur Klimaänderung legt uns Pflichten auf, egal was andere Länder tun oder nicht tun. Das UK, das nur etwa 2% des weltweiten Bruttosozialproduktes produziert, hat allein nur einen minimalen Effekt auf die globale Erwärmung. Wenn wir die Dekarbonisierung zu drastisch angehen, etwa durch Anhebung des Preises für Kohlenstoff durch diverse Maßnahmen, werden wir einer doppelten Gefahr ausgesetzt. Energieintensive Industriezweige werden abwandern, und wenn die Klimapessimisten recht haben, werden wir dann immer noch den Preis für die Anpassung zahlen müssen, z. B. durch eine Verstärkung unserer Abwehr von Überflutungen. Nach meiner Ansicht sollten wir uns nur auf diese Dinge konzentrieren, die eindeutig positiv wirken und die wir nicht bedauern werden. Und davon gibt es viele. Die restliche Agenda sollten wir nur als Teil internationaler Aktivitäten verfolgen. Genau zu diesem Punkt gibt es derzeit in der EU heftigen Streit. Der Klimakommissar möchte die ambitionierteren 30% Reduktion festlegen, selbst bei Fehlen irgendeines Vertrages, und der Energiekommissar ist strikt dagegen.

Der wirtschaftlichen Logik nach müsste sich die Politik nach den Kosten pro Tonne eingesparten CO2 richten und dann den Preis der einzelnen alternativen Maßnahmen durchgehen, und zwar beginnend mit den effektivsten. Oder, was auf das Gleiche hinausläuft, man setzt einen Preis für Kohlenstoff fest und lässt den Markt entscheiden, welche der verschiedenen Technologien – Gas, Kohle mit CCS [Abscheiden von CO2], Gezeiten, Energieeffizienz usw. sich schließlich durchsetzt.

Aber die EU-Verordnung bzgl. der Erneuerbaren ist die Ablehnung dieser Logik. Einer ganz bestimmten Technologie, besonders Wind, hat man einen garantierten Marktanteil zu einem garantierten Preis eingeräumt, ohne Rücksicht darauf, wie wettbewerbsfähig dies ist. Die gegenwärtige Förderung der Windkraft ist reiner Irrsinn. Die Kosten pro kwh hierfür liegen wesentlich höher als andere Quellen mit geringem CO2-Ausstoß, wie z. B. der Kernenergie, wenn man die Verfügbarkeit und die Kosten berücksichtigt, die entstehen, wenn man das Netz auf alle Verbraucher ausdehnt. Es herrscht eine fortwährende Konfusion zwischen der installierten Kapazität der Windkraft und deren tatsächlichem Ergebnis, welches etwa 25 bis 30% der Kapazität beträgt. Dann ist da noch das Problem, dass große Kälte in UK häufig mit sehr geringer Windgeschwindigkeit einher geht.

Ursprünglich stand man in diesem Land der Kernenergie feindlich gegenüber, heute bestenfalls noch halbherzig. Der Staatssekretär beim DECC [Department of Energy and Climate Change] hat die Kernenergie als versucht, getestet und gescheitert erklärt. Es kann sein, dass die Kernkraft in UK historisch nicht so erfolgreich war wie sie hätte sein können, aber sie hat seit 50 Jahren etwa 20% unserer Energie zur Verfügung gestellt, zuverlässig, wettbewerbsfähig und sicher. Nur 20 Meilen vor unserer Küste hat Frankreich über 2/3 seines Stromes mit Kernkraftwerken erzeugt und betrachtet dies als großen Erfolg. Wir können einfach noch nicht sagen, ob man daraus generell etwas lernen kann, oder ob man 40 Jahre alte Anlagen in seismisch aktiven Gebieten betreiben kann.

Der Mechanismus der Einspeisevergütungen entwickelt sich rasch zu einem Skandal. Die Glücklichen, denen ein Haus gehört, das groß genug ist, um Solarpaneele zu montieren, oder die über genügend Land für einen Windpark verfügen, haben eine Vergütung von 30 bis 40 p (Pence) pro kwh erhalten, welche für nur 11 p gehandelt wird. Der Verlust wird ausgeglichen durch eine Abgabe auf Firmen und Haushalte. Es ist erstaunlich, dass die Liberalen, welche so immense Bedeutung auf Fairness legen, auf diesem Auge der Umverteilung von den Armen zu den Reichen blind sind, beläuft sich dies doch auf Milliarden Pfund pro Jahr. Falls Sie in einem Glashaus in Lambeth sitzen, haben Sie nicht viel Gelegenheit, Ihre Nase da hinein zu stecken.

Es gibt eine wesentliche neue Entwicklung, nämlich die Einführung neuer Bohrtechniken, die es ermöglicht, Gas aus Schiefer zu gewinnen. Dies hat die Möglichkeiten der geographischen Verfügbarkeit von Gas erheblich erweitert, zu einer massiven Erhöhung der Gasvorräte geführt sowie zu einer Loslösung des Gaspreises vom Ölpreis. Gas hat den Vorteil, dass es nur halb so viel CO2 erzeugt wie Kohle. Also stehen wir vor dem glücklichen Umstand, dass wir eine Menge Kohle durch die Verbrennung von Gas ersetzen können, womit einmal die Energiepreise, zum anderen die CO2-Emissionen deutlich reduziert werden, wenngleich dies auch nicht zu einer vollständigen Dekarbonisierung führt, wie es von manchen angedacht wird. Sicher sind die Alternativkosten der Erneuerbaren gestiegen und vielleicht auch der Preis für Kernkraft.

Eine andere Verteidigung der AGW-Agenda besteht im Argument der sog. grünen Jobs, d. h. wir sollten die Vorhut bilden, grüne Technologien einzusetzen, so dass wir die Vorteile genießen, wenn wir diese Technologie als Erste zur Verfügung stellen können. Meine Sicht der Dinge ist einfach. Wenn sich eine neue Technologie ohne massive Subventionen durchsetzen kann, sollten wir darauf bauen. Aber wenn eine Technologie nur mit Hilfe von Subventionen am Leben gehalten werden kann, improvisieren wir nur und sollten die Schaffung von Arbeitsplätzen nicht auf so tönerne Füße stellen.

Zusammenfassung bzgl. der Politik

Wir sollten uns auf die Maßnahmen konzentrieren, die wir später nicht bereuen müssen, und welche die Produktivität verbessern und nicht den Lebensstandard verschlechtern. Dazu gehört nach meiner Lesart die Entwaldung zu beenden, die Energieeffizienz unserer Häuser und unserer Fahrzeugflotte zu erhöhen (obwohl die Auswirkung einer größeren Energieeffizienz darin bestehen könnte, dass die Reduzierung des CO2-Ausstoßes begrenzt ist, weil durch billigere Energiepreise mehr verbraucht wird), Investitionen in die Kernkraft, weniger Verschwendung von Energie und, falls wir CCS-Maßnahmen durchführen und die Wirtschaftlichkeit dafür erst noch hergestellt werden muss, sollten wir eher in Gas- als in Kohlekraftwerke investieren. Das enthält auch weniger Sonnen- und Windkraft sowie ein Ende der Produktion von Biokraftstoff.

Lassen Sie mich schließen mit in paar Bemerkungen zur Soziologie und Politik des AGW-Phänomens. Erstens gibt es da eine Änderung in der Natur der Wissenschaft. Große Gestalten der Vergangenheit wie Galileo und Darwin waren keine hoch bezahlten Professoren, empfingen keine großen Forschungszuwendungen und wurden nicht mit Ehren überhäuft. Sie wurden allein durch Neugier getrieben und waren darauf vorbereitet, gegen das Establishment zu verstoßen. Heutzutage haben unsere Umweltwissenschaftler Jobs und Forschungsgelder sowie Gelder für Feiern und Reisen. Dann gab es ein peinliches Scheitern der Größen bei der Royal Society, die eigentlich der Hüter wissenschaftlicher Integrität sein sollte, getreu ihrem Motto „Nullius in verba“, d. h. niemand hat das letzte Wort. Statt dessen wurden sie zu Aktivisten, die Unsinn von sich gaben wie die Behauptung, dass die Wissenschaft sich einig sei, und die versäumt haben, die Klimagate-Affäre rigoros aufzuklären.

Es gibt derzeit viele eigennützige Interessen der grünen Agenda, seien es Unterstützer, Zulieferer der grünen Technologie oder jene, die Vorteile aus den wirtschaftlichen Möglichkeiten ziehen. Es sind nicht gerade die Zulieferer der traditionellen Technologie zur Energieerzeugung,  die Positionen haben, die es zu verteidigen gilt.

Die unkritische Anpassung an die grüne Agenda durch die Konservativen hat ihnen geholfen, durch die Blau-ist-grün-Botschaft einen Weg aus dem schlechten Image der Partei zu finden.

Es gibt einen strukturellen Fehler beim IPCC. Weit entfernt davon, aus der Arbeit von 2500 Wissenschaftlern einen Konsens zu destillieren, gibt es etwa 40 bis 50 im Zentrum, die eng zusammen arbeiten, als Kollegen, Schüler, Lehrer, Begutachter der Arbeiten des jeweils anderen. Sie haben es geschafft, eine sehr einfache AGW-Botschaft zu definieren und haben dafür gesorgt, dass alternative Stimmen zum Schweigen gebracht worden sind. Die Medien haben in ihrer Rolle als kritische Beobachter versagt und haben sich in dieses Gruppendenken eingebracht. Es blieb der Blogosphäre vorbehalten, eine Plattform für andere Standpunkte zur Verfügung zu stellen.

Woher kommt dieser religiös anmutende moralisierende Ton? Er kann zurück verfolgt werden bis zum 3. Kapitel Mose. Der Mensch wurde im garten Eden geboren in einem Zustand der Unschuld, hat dann aber seine Umwelt zerstört und muss nun dafür Buße tun und für seine Sünden zahlen.

Schlussfolgerungen:

Wir müssen erkennen, dass es schon immer Veränderungen unseres Klimas gegeben hat. Wir müssen die dafür verantwortlichen natürlichen Kräfte viel mehr in unsere Analysen einbringen, als sie daraus zu entfernen.

Wir wurden Zeuge eines Erwärmungstrends während der letzten 150 Jahre, aber diese Erwärmung verlief nicht geradlinig aufwärts. Gegenwärtig befinden wir uns auf einem Plateau. CO2 hat höchstens einen kleinen positiven Beitrag geleistet.

Unser Verständnis der Rolle des Wasserdampfes ist immer noch begrenzt und reicht nicht aus, um das Gewicht zu rechtfertigen, das wir darauf legen.

Wir brauchen eine vielschichtigere Annäherung an dieses Problem und mit Sicherheit eine gemäßigtere.

Mit den Worten von Tschechiens Präsident Klaus:

 „Es ist völlig unakzeptabel, alle Interpretationen der Klimaänderung und der globalen Erwärmung auf eine einzige Variable zu konzentrieren, CO2, und auf den kleinen Anteil davon, den das anthropogen produzierte CO2 hat“.

Von unseren Politikern brauchen wir mehr Rationalität, weniger Emotion und weniger Religiosität; und ein Ende der alarmistischen Propaganda sowie der Versuche, uns und unsere Kinder zu ängstigen. Außerdem wollen wir, dass die Politiker mehr auf unsere nationalen Interessen achten und weniger danach, globale Evangelisten zu sein.

Schließlich brauchen wir von unseren Wissenschaftlern mehr Bescheidenheit und eine Rückkehr zur Tradition wissenschaftlicher Neugier und Herausforderung. Wir brauchen mehr Offenheit und Transparenz, und sie müssen aufhören, anders Denkende auszugrenzen. Und sie müssen die wirklich unbequeme Wahrheit akzeptieren – nämlich dass unser Verständnis der Natur keinesfalls die Gewissheit rechtfertigt, mit der die AGW-Weisheiten verbreitet werden.

Andrew Turnbull,   März 2011

Lord Turnbull war Permanent Secretary des Environment Department von 1994-98; Permanent Secretary to the Treasury von 1998-2002, Cabinet Secretary und Vorsitzender des Home Civil Service 2002-05. Er ist derzeit Mitglied im House of Lords und des Board of Trustees der GWPF.

Link: http://www.thegwpf.org/opinion-pros-a-cons/2711-lord-turnbull-the-really-inconvenient-truth.html

Übersetzt von Chris Frey für EIKE




Nuklearunfall Fukushima – einfach und genau erklärt!

 

Info IV Update vom 26.3.11

New Scientist Blog zur Hintergrudnstory dieses Artikels von Joseph Oehmen:

„How Josef Oehmen’s advice on Fukushima went viral“ (hier)

 

Info III vom 16.3.11 

Update zum Fukushima-Störfall von Klaus Humpich hier

und hier ein Kommentar auf dem Blog der Webseite der TAZ taz.de  „Hirnschmelze“ von Detlef Guertler

Info II vom 15.3.10 

Wegen des Aufsehens den dieser Artikel im Internet erregt hat, wurde er vom offiziellen MIT NSE Nuclear Information Hub übernommen und in modifizierter Form erneut ins offizielle MIT Netz gestellt. Sie finden ihn hier

Info I vom 15.3.10

Der Artikel wurde am 12.3.11 in Netz gestellt. Inzwischen ist viel Schlimmes in Japans Kernkraftwerken passiert. Damit stimmen einige Äußerungen bzw. Hoffnungen in dem Beitrag, nicht mit der Realität überein. Wir arbeiten an einem Update!

 

Text

Neben den verlässlichen Quellen wie IAEA und WNN gibt es eine unglaubliche Menge von Desinformation und Übertreibungen im Internet und den Medien über die Situation im Kernkraftwerk Fukushima. Im BNC Diskussionsforum „- BNC post Discussion Thread – Japanese nuclear reactors and the 11 March 2011 earthquake – werden viele technische Einzelheiten berichtet, auch regelmäßige Aktualisierungen. Aber wie steht es mit einer Zusammenfassung für Laien? Wie bekommen die meisten Menschen eine Vorstellung davon, was wann passierte und welche Konsequenzen daraus folgen?

Im Folgenden gebe ich eine Zusammenfassung der Lage wieder, die Dr. Josef Oehmen am 12.3.11 geschrieben hat, ein Wissenschaftler am MIT, Boston. Er ist ein promovierter Wissenschaftler, dessen Vater ausgiebig Erfahrung in der deutschen Kernkraft-Industrie gesammelt hat. Dieser Beitrag ist zuerst von Jason Morgan heute Nachmittag gesendet worden, und er hat mir freundlicherweise erlaubt, den Beitrag hier wiederzugeben. Ich halte es für sehr wichtig, dass diese Information weithin verstanden wird.Ich schrieb meinen Text am 12. März, um Sie zu beruhigen wegen der Probleme in Japan in Bezug auf die Sicherheit von Kernkraftwerken. Vorneweg: die Lage ist ernst, aber unter Kontrolle. Und der folgende Text ist lang! Aber Sie werden nach der Lektüre mehr über Kernkraftwerke wissen, als alle Journalisten auf der Welt zusammengenommen.

Es hat keine signifikante Abgabe von Radioaktivität stattgefunden und es wird auch keine geben!

Mit „signifikant“ meine ich eine Strahlungsmenge, die man –  sagen wir mal – auf einem Langstreckenflug aufnimmt, oder wenn man ein Glas Bier trinkt, das aus einer Gegend mit hoher natürlicher Hintergrundstrahlung kommt.

Ich lese jede Nachricht über den Vorfall seit dem Erdbeben. Es hat keine einzige (!) Meldung gegeben, die genau und fehlerfrei gewesen wäre (Teil des Problems ist auch die japanische Schwäche der Informationspolitik). Mit „fehlerfrei“ beziehe ich mich nicht auf tendenziösen Atomkraft-Nein-Danke-Journalismus – wie er heutzutage ganz normal ist. Ich meine offensichtliche Irrtümer über die Physik und die Naturgesetze, wie auch grobe Fehlinterpretationen von Fakten, weil ein offensichtlicher Mangel besteht an grundlegendem Verständnis, wie Kernreaktoren gebaut und betrieben werden. Auf CNN habe ich einen 3-seitigen Bericht gelesen mit je einem Fehler pro Absatz.

Zuerst ein paar grundlegende Dinge, bevor wir ins Eingemachte gehen.

 

Bauart des Fukushima Kernkraftwerks

Das KKW Fukushima hat sogenannte Siedewasser-Reaktoren, engl. kurz BWR (= Boiling Water Reactor). Siedewasser-Reaktoren ähneln einem Dampfkochtopf. Der Kernbrennstoff heizt das Wasser, das Wasser kocht und erzeugt Dampf, der Dampf treibt dann Turbinen, die Elektrizität erzeugen. Dann wird der Dampf heruntergekühlt und rück-kondensiert in Wasser. Das Wasser wird im Kreislauf wieder zurückgeschickt und erneut vom Kernbrennstoff erhitzt. Der Dampfkochtopf wird mit etwa  250 °C betrieben.

Kernbrennstoff ist Uran-Oxid. Uran-Oxid ist ein keramischer Stoff mit dem sehr hohem Schmelzpunkt von etwa 3000 °C. Der Treibstoff wird als Pellets hergestellt (man stelle sich kleine Röhrchen etwa so groß wie Legosteine vor). Diese Stückchen werden in ein langes Rohr aus  Zirkonium-Legierung gesteckt und dicht versiegelt. Letzteres hat einen Schmelzpunkt von 2200 °C. Das Ergebnis heißt Brennstab. Die Brennstäbe werden in größeren Bündeln zusammengefasst und eine Anzahl von Bündeln werden in den Reaktor gesteckt. Alle Bündel zusammen heißen „Kern“. (engl.: “the core”)

Die Zirkoniumhülle ist der erste Schutzwall (engl.: „Containment“). Hier wird der radioaktive Brennstoff von der Außenwelt abgeschottet.

Dann wird der Kern in den Druckbehälter (engl.: „pressure vessel“) gesteckt. Das ist der Dampfkochtopf, wie oben erwähnt. Der Druckbehälter ist der zweite Schutzwall. Er besteht aus einem massiven Stück Topf, der so gebaut worden ist, dass er den Kerntemperaturen von mehreren hundert Grad °C standhält. Das ist für Situationen vorgesehen, wo [bei einem Ausfall] die Kühlung zu einem gewissen Zeitpunkt wiederhergestellt werden kann.

Die gesamte „Hardware“ des Kernreaktors – der Druckbehälter und alle Rohre, Pumpen, Kühlmittel(Wasser)-Speicher werden dann hinter dem dritten Schutzwall eingeschlossen. Der dritte Schutzwall ist hermetisch (luftdicht) abgeschlossen, in einem sehr dicken Behältnis von härtestem Stahl. Der dritte Schutzwall wurde für einen einzigen Fall entworfen, gebaut und getestet: Auf unbestimmte Zeit einen komplett geschmolzenen Kern zu umschließen. Zu diesem Zweck ist ein großes und dickes Stahlbetonbecken unter den Druckbehälter (zweiter Schutzwall) geschoben und mit Graphit gefüllt. Alles befindet sich innerhalb des dritten Schutzwalles. Das ist der sogenannte „Kernkäfig“ (engl.: „core catcher“). Wenn der Kern schmilzt und der Druckbehälter birst (und gegebenenfalls schmilzt) wird hier der geschmolzene Brennstoff und alles andere Material aufgefangen. Der Kernkäfig ist so gebaut, dass sich der Kernbrennstoff verteilt und abkühlen kann.

Korrektur CoreCatcher: Diese japanischen AKW haben keine Core Catcher, sind aber aus Gründen des Erdbebenschutzes auf massive Gesteinsschichten gebaut. Mit Dank an Leser DH und andere

Dieser dritte Schutzwall wird anschließend vom Reaktor-Gebäude umgeben. Das Reaktor-Gebäude ist eine äußere Hülle, die nur dazu gedacht ist, Schutz gegen das Wetter zu bieten, sonst nichts. (Dieser Teil ist durch die Explosion zerstört worden, mehr dazu später).

Grundlagen der nuklearen Reaktionen

Uranbrennstoff erzeugt Hitze durch Atomspaltung. Große Uran-Atome werden in kleiner Atome gespalten. Dadurch entsteht Hitze plus Neutronen (ein Atomteilchen). Wenn ein Neutron ein anderes Uranatom trifft, zerteilt sich dieses und erzeugt noch mehr Neutronen und so weiter. Das nennt man eine nukleare Kettenreaktion.

Wenn man also eine Menge von Brennstäben aneinander packte, gäbe es rasch eine Überhitzung und nach etwa 45 Minuten ein Schmelzen der Brennstäbe. Es muss hier gesagt werden, dass Kernbrennstoff in einem Kernreaktor niemals eine Atomexplosion wie in einer Atombombe verursachen kann. Ein Atombombe zu bauen, ist wirklich sehr schwierig (fragen Sie mal im Iran nach). In Tschernobyl wurde die Explosion verursacht durch exzessiven Druckaufbau, eine Knallgasexplosion und den nachfolgenden Bruch aller Schutzwälle. Dadurch wurde geschmolzenes Kernmaterial in die Umwelt geschleudert (es war eine „schmutzige Bombe“). Warum das in Japan überhaupt nicht passieren kann, lesen Sie später.

Die Reaktor-Ingenieure benutzen zur Steuerung der Kettenreaktion sogenannte „Steuerstäbe“ (engl.: „moderator rods“). Die Steuerstäbe fangen die Neutronen ein und unterbrechen die Kettenreaktion sofort. Ein Kernreaktor ist so gebaut, dass im Normalbetrieb alle Steuerstäbe herausgefahren sind. Das Kühlwasser nimmt die Hitze auf (und wandelt sie in Dampf und Elektrizität um), im gleichen Maße, wie der Kern die Hitze erzeugt. Es gibt eine große Sicherheitsmarge bei der Standardbetriebstemperatur von 250 °C

Das Problem ist, dass nach der Einführung der Steuerstäbe und dem Abstoppen der Kettenreaktion der Kern noch weiter Hitze erzeugt. Im Uran ist die Kettenreaktion „gestoppt“. Aber eine Menge von radioaktiven Zwischenelementen war vom Uran bei der Spaltung erzeugt worden, besonders Cäsium und Jod-Isotope. Das heißt radioaktive Isotope dieser Elemente, die sich weiter in kleinere, nicht-radioaktive Atome spalten und dabei Hitze erzeugen. Sie werden nicht mehr weiter vom Uran erzeugt (nachdem der Uranzerfall durch Einfahren der Bremsstäbe gestoppt ist) und werden immer weniger. Der Kern kühlt sich im Verlauf mehrerer Tage ab, bis diese radioaktiven Zwischenelemente zerfallen sind.

Diese Restwärme verursacht derzeit die Kopfschmerzen.

Also besteht die erste „Art“ von radioaktivem Material aus dem Uran in den Brennstäben und den Zerfalls-Zwischen-Produkten, in die sich das Uran spaltet. Alles geschieht innerhalb der Brennstäbe (Cäsium und Jod).

Nun wird noch eine zweite Art von radioaktivem Material erzeugt, außerhalb der Brennstäbe. Der allergrößte Unterschied vorweg: Diese radioaktiven Materialien haben eine sehr kurze Halbwertzeit, d. h. sie zerfallen sehr rasch in nicht-radioaktives Material. Mit „rasch“ meine ich binnen Sekunden! Wenn also solche Radioaktivität in die Außenwelt gelangt, JA, Radioaktivität ist ausgetreten, und NEIN, die ist überhaupt nicht gefährlich. Warum? Weil sie sich schon in nicht-radioaktive Elemente zerteilt haben, während sie „RADIOAKTIVE KERNTEILCHEN“ buchstabiert haben. Diese radioaktiven Elemente sind N-16, das radioaktive Isotop (oder die Version) von Stickstoff (in der Luft). Die anderen sind Edelgase wie Xenon. Woher sind die gekommen? Wenn Uran zerfällt, erzeugt es ein Neutron (siehe oben). Die meisten dieser Neutronen werden auf andere Uranatome treffen und die Kettenreaktion aufrecht erhalten. Einige aber verlassen den Brennstab und treffen auf Wassermoleküle die im Wasser gelöste Luft. Dann kann ein nicht-radioaktives Element das Neutron einfangen und selber radioaktiv werden. Wie oben schon beschrieben, wird es rasch (binnen Sekunden) das Neutron wieder loswerden und zu seiner schönen Ursprungsform zurückkehren.

Diese zweite Art von Strahlung ist sehr wichtig, wenn wir später über die in die Umwelt abgegebene Radioaktivität sprechen.

Was ist in Fukushima passiert

Ich möchte die Hauptpunkte zusammenfassen. Das Erdbeben in Japan war 7 Mal stärker als das schlimmste Erdbeben, für welches das Kernkraftwerk ausgelegt war. (Die Richter-Skala ist logarithmisch, der Unterschied zwischen 8,2 – dafür war die Anlage ausgelegt – und den tatsächlichen 8,9 beträgt 7 mal, nicht 0,7). Ein Lob für die japanischen Ingenieure. Alles hielt stand.

Als die Erde mit einer Stärke von 8,9 (jetzt auf 9,0 hochgestuft) bebte, schalteten sich alle Kernreaktoren automatisch ab. Binnen Sekunden nach Beginn des Bebens fuhren die Bremsstäbe in den Kern und die Kettenreaktion des Urans stoppte. Jetzt musste das Kühlsystem die Restwärme abführen. Die Restwärme beträgt etwa 3% der Wärmelast im Normalbetrieb.

Das Erdbeben hatte die externe Stromzufuhr des Kernreaktors zerstört. Das ist einer der ernsthaftesten Störfälle in einem Kernkraftwerk und dementsprechend widmet man sich dem „Blackout“ der Anlage mit äußerster Sorgfalt beim Entwurf des Notstromversorgung. Der Strom wird zum Betreiben der Pumpen für die Kühlung benötigt. Nach Abschalten des Kraftwerks liefert es ja keinen Strom mehr für den Eigenbedarf.

Das ging für etwa eine Stunde gut. Eine Reihe von Notstromdieseln schaltete sich auf und erzeugte die nötige Elektrizität. Dann kam der Tsunami, viel größer als man vorhergesehen hatte, als die Anlage gebaut worden war (siehe oben: Faktor 7). Der Tsunami fegte die Diesel-Notstromaggregate weg.

Beim Entwurf eines Kernkraftwerks folgen die Ingenieure einer Philosophie namens „Tiefen-Verteidigung“. Das bedeutet zuvörderst, dass man alles so baut, dass es der größten anzunehmenden Katastrophe standhalten kann. Sodann, dass die Anlage so entworfen wird, dass man mit jedem Unfall (wenn er denn trotzdem passiert) nacheinander fertig werden kann. Ein Tsunami, der die gesamte Notstromversorgung wegfegt, ist so ein Fall. Die letzte Verteidigungslinie besteht darin, alles innerhalb des Reaktors hinter den dritten Schutzwall zu packen, mit allem drin, was auch immer gefährlich werden könnte: Bremsstäbe ein- oder ausgefahren, Kern geschmolzen oder nicht.

Nach Ausfall der Diesel-Generatoren haben die Reaktor-Bediener die Notbatterien angeschaltet. Die Batterien sind als Rückfallmöglichkeit für die Notstromerzeugung vorgesehen gewesen, um den Kern für 8 Stunden zu kühlen. Das hat funktioniert.

Innerhalb der 8 Stunden musste eine weitere Stromversorgung gefunden und angeschlossen werden. Das Stromnetz war wegen des Erdbebens ausgefallen. Die Diesel-Notstrom-Aggregate vom Tsunami zerstört. Also wurden mobile Diesel-Notstrom-Aggregate herangeschafft.

Und von da an ging es mächtig schief. Die externen Notstromgeneratoren konnten nicht an das Anlagen-Stromnetz angeschlossen werden (Die Steckverbindungen passten nicht). Daher konnte nach dem Leeren der Batterien die Restwärme nicht mehr abgeführt werden.

Jetzt führten die Bediener ein Notfall-Verfahren durch, das für den „Verlust der Kühlung“ vorgesehen ist. Es ist ein Schritt in der „Tiefenverteidigung“. Eigentlich hätte der Strom für die Kühlung nicht völlig ausfallen dürfen, aber es geschah dennoch, daher zogen sich die Bediener auf die nächste Verteidigungslinie zurück. So schrecklich das auch für uns klingen mag, es ist Bestandteil des alltäglichen Sicherheitstrainings der Bediener, alles durchzuspielen bis zur Kernschmelze.

Zu diesem Zeitpunkt hat man eine Kernschmelze befürchtet. Weil der Kern (nach Stunden oder Tagen) schmelzen wird, wenn die Kühlung nicht wiederhergestellt werden kann und dann käme die letzte Verteidigungslinie, der Kernkäfig, zugleich dritter Schutzwall, ins Spiel.

Doch noch wollte man zu diesem Zeitpunkt die Kern-Erhitzung steuern und sicherstellen, dass der erste Schutzwall (Die Zirkonium-Röhren mit dem Kernbrennstoff) und der zweite Schutzwall (der Druckbehälter) intakt und so lange wie möglich im Betrieb bleiben sollten, um den Ingenieuren die Zeit zum Reparieren des Kühlsystems zu verschaffen.

Weil das Kühlen des Kerns eine komplizierte Sache ist, hat der Reaktor verschiedene Kühlsysteme, jedes in mehrfacher Auslegung (das Reaktorwasser-Reinigungs-System, das Abführsystem für die Zerfallswärme, die Kühlung der Kern-Ummantelung, das Ersatz-Flüssigkeitskühlsystem, das Notkühlsystem für den Kern). Welches davon wann versagte oder auch nicht, ist derzeit nicht klar.

Jetzt stellen Sie sich unseren Dampfkochtopf auf dem Herd vor, niedrige Hitze, aber immer noch eingeschaltet. Die Bediener nutzen jede ihnen noch verbliebene Kühlkapazität, um so viel wie möglich Hitze abzuführen, aber der Druck steigt an. Jetzt gewinnt die Sicherstellung des ersten Schutzwalles oberste Priorität (die Temperatur der Brennstäbe unter 2200°C halten), als auch des zweiten Schutzwalles, des Druckbehälters.  Um den Druckbehälter zu erhalten (zweiter Schutzwall), musste der Druck zeitweilig reduziert werden. Weil die Fähigkeit dazu in einem Notfall so wichtig ist, hat der Reaktor 11 Druck-Reduzier-Ventile. Der Bediener muss nun anfangen, immer wieder Dampfdruck abzulassen. Die Temperatur zu diesem Zeitpunkt betrug etwa 550°C.

Das ist der Punkt, an dem die Meldungen von einem „Strahlungsleck“ zu kursieren begannen.

Ich glaube, oben erklärt zu haben, warum das Dampfablassen theoretisch das gleiche ist, wie Strahlung in die Umwelt abzulassen, auch warum das so ist, und warum es nicht gefährlich ist. Der radioaktive Stickstoff wie auch die Edelgase stellen keine Gefahr für die menschliche Gesundheit dar.

Irgendwann bei diesem Druckablassen ereignete sich die Explosion. Die Explosion fand außerhalb des dritten Schutzwalles (der „letzten Verteidigungslinie“) im Reaktorgebäude statt. Man erinnere sich: das Reaktorgebäude hat keine Funktion zur Zurückhaltung von Radioaktivität. Noch ist nicht klar, was passierte, aber hier ist ein wahrscheinlicher Ablauf: Die Bediener hatten sich für das Ablassen von Dampf aus dem Druckbehälter entschieden, aber nicht direkt in die Umwelt, sondern in den Raum zwischen dem dritten Schutzwall und dem Reaktorgebäude (um dem Dampf mehr Zeit zur Entspannung zu geben). Das Problem dabei ist, dass bei der hohen Temperatur, die der Kern inzwischen erreicht hatte, die Wassermoleküle sich in Wasserstoff und Sauerstoff zerlegen konnten  – in hochexplosives Knallgas. Und das ist ja dann auch explodiert, außerhalb des dritten Schutzwalles und zerstörerisch für das Reaktorgebäude. Diese Art von Explosion fand in Tschernobyl statt, aber innerhalb des Druckbehälters, der schlecht konstruiert war und unsachgemäß von den Bedienern gesteuert wurde. Das ist in Fukushima niemals eine Gefahr gewesen. Das Knallgasproblem ist ein großes, wenn man ein Kraftwerk konstruiert (es sei denn, man ist Sowjet-Russe). Deshalb wird der Reaktor so entworfen, dass das nicht innerhalb der Schutzummantelung passieren kann. Es passierte außerhalb und unabsichtlich, aber es passierte. Es geschah und stellte keine Gefahr für den Schutzwall dar.

Der Druck war unter Kontrolle, als der Dampf abgelassen wurde. Wenn man nun den Dampfkochtopf weiter erhitzt, fällt der Wasserspiegel immer weiter. Über dem Kern stehen mehrere Meter Wasser, damit er erst nach Ablauf von einiger Zeit (Stunden, Tage) freigelegt wird. Wenn die Brennstäbe oben frei sind, werden die freien Bereiche die kritische Temperatur von  2200 °C nach etwa 45 Minute erreichen. Dann wird der erste Schutzwall versagen, der Zirkoniummantel.

Und das fing nun an. Die Kühlung war nicht wiederhergestellt, als in sehr begrenztem Umfang Schäden an der Brennstoff-Umhüllung eintraten. Das Brennstoff-Material war immer noch intakt, aber die umgebende Zirkonium-Hülle fing an zu schmelzen. Jetzt vermischten sich einige Zwischenprodukte des Uranzerfalls – radioaktives Cäsium und Jod – mit dem Dampf. Das große Problem, Uran, war immer noch unter Kontrolle, weil die Uranbrennstäbe bis zu 3000 °C aushalten.

Es scheint, dass dies das Startsignal für einen großen „Plan B“ war. Die geringen Mengen von gemessenem Cäsium sagten den Bedienern, dass der erste Schutzwall an einem der Brennstäbe irgendwo nachgab. „Plan A“ war gewesen, wenigsten eins der normalen Kühlsysteme wiederherzustellen, um den Kern zu kühlen. Warum das schief ging, wissen wir nicht. Eine mögliche Erklärung ist, dass der Tsunami auch das Frischwasser verschmutzte oder wegspülte, das für das normale Kühlsystem gebraucht wird.

Das im Kühlsystem benutzte Wasser ist sehr rein und demineralisiert (wie destilliertes) Wasser. Der Grund für die Benutzung von reinem Wasser ist die oben erwähnte Aktivierung durch Neutronen vom Uran: Reines Wasser wird kaum aktiviert, es bleibt praktisch frei von Radioaktivität. Das hat überhaupt keine Auswirkungen auf den Kern – dem ist es egal, wovon er gekühlt wird. Für die Bediener und die Mechaniker ist es aber schwieriger, mit aktiviertem (d. h. leicht radioaktivem Wasser) umgehen zu müssen.

Plan A hatte also versagt – Kühlsystem kaputt oder zusätzliches reines Wasser nicht mehr verfügbar – also ging es mit Plan B weiter. So scheint es abgelaufen sein:

Um eine Kernschmelze zu verhindern, holten die Bediener Meerwasser für die Kühlung des Kerns. Ich bin mir nicht sicher, ob sie den Druckbehälter (den zweiten Schutzwall) geflutet haben oder den dritten Schutzwall, indem sie die Brennstäbe unter Wasser setzten. Das spielt hier aber keine Rolle.

Wichtig ist, dass der Kernbrennstoff jetzt abgekühlt wurde. Weil die Kettenreaktion schon seit längerer Zeit aufgehört hatte, wurde nun nur noch wenig Restwärme erzeugt. Die große Menge von Kühlwasser reichte für die Aufnahme der Hitze aus. Weil das sehr viel Wasser war, erzeugte der Kern überhaupt nicht mehr genügend Druck. Dem Seewasser wurde Borsäure zugesetzt. Borsäure ist ein flüssiger „Bremser“ wie der Steuerstab. Wenn es noch irgendwelchen Atomzerfall gibt, fängt das Bor die Neutronen ein und beschleunigt die Abkühlung des Kerns.

Die Anlage stand kurz vor einer Kernschmelze. Was schlimmstenfalls passiert wäre: Wenn kein Meerwasser zur Verfügung gestanden hätte, hätten die Bediener immer wieder Wasserdampf ablassen müssen, um den Druckaufbau zu verhindern. Der dritte Schutzwall wäre dann komplett abgedichtet worden, um bei der Kernschmelze die Freisetzung von radioaktivem Material zu verhindern. Nach der Kernschmelze hätte man eine Zeitlang abwarten müssen, bis das radioaktive Material innerhalb der Ummantelung zerfallen gewesen wäre. Das Kühlsystem wäre wiederhergestellt worden und der geschmolzene Kern auf eine handhabbare Temperatur heruntergekühlt worden. Die Ummantelung hätte innen gesäubert werden müssen. Dann hätte die schwierige Aufgabe des Trennens des geschmolzenen Kerns von der Ummantelung in Angriff genommen werden müssen. Dabei wären die Bruchstücke des nun wieder festen Brennstoffes zur Wiederaufarbeitung transportiert werden müssen. In Abhängigkeit vom Ausmaß der Schäden wäre der Block der Anlage entweder repariert oder abgewrackt worden.

Was heißt das nun alles?

* Die Anlage ist jetzt in sicherem Zustand und das wird so bleiben.

* Japan hatte einen INES Level 4 Unfall: Das ist ein Nuklearunfall mit lokalen Folgen. Schlimm für den Betreiber, dem das KKW gehört aber für niemanden sonst.

* Etwas Radioaktivität wurde freigesetzt, als das Druckgefäß gelüftet wurde. Alle radioaktiven Isotope aus dem aktivierten Dampf sind weg (zerfallen). Ganz wenig Cäsium wurde freigesetzt, auch Jod. Falls Sie zum Zeitpunkt der Druckablassung auf dem Kamin der Anlage gesessen hätten, müssten Sie jetzt mit dem Rauchen aufhören, um ihre vorherige Lebenserwartung zurückzubekommen. Die Cäsium und Jod-Isope sind auf das Meer geblasen worden und dort verschwunden.

* Am ersten Schutzwall hat es begrenzten Schaden gegeben. Daher sind geringe Mengen von Cäsium und Jod auch hier ins Kühlwasser ausgetreten, aber kein Uran oder anderes schmutziges Zeug. (Uran-Oxid ist nicht wasserlöslich). Es gibt Vorrichtungen, um das Kühlwasser zu behandeln. Radioaktives Cäsium und Jod werden entfernt und als radioaktiver Müll zur Endlagerung gebracht.

* Das zur Kühlung benutzte Meerwasser wird geringfügig aktiviert sein. Weil die Bremsstäbe vollständig heruntergekommen sind, wird es keine Uran-Kettenreaktion geben. Deshalb wird es auch keine durch Uranzerfall hervorgerufene weitere Aktivierung geben. Die radioaktiven Zwischenprodukte (Cäsium und Jod) sind bereits jetzt schon zum großen Teil verschwunden, weil der Uranzerfall schon längere Zeit gestoppt ist. Das führt zu einer weiteren Verminderung der Aktivierung. Unter dem Strich wird eine geringe Aktivierung des Meerwassers verbleiben, sie wird von den Reinigungseinrichtungen entfernt werden.

* Das Meerwasser wird im Laufe der Zeit von “normalem” Kühlwasser ersetzt werden

* Der Reaktorkern wird herausgeholt und in eine Aufarbeitungseinrichtung verbracht werden, wie bei einem normalen Brennstoffwechsel.

* Die Brennstäbe und die gesamte Anlage werden auf mögliche Schäden überprüft werden. Das wird etwa 4-5 Jahre dauern.

* Die Sicherheitssysteme aller japanischen Anlagen werden verbessert werden, so dass sie einem 9,0 starken Erdbeben und Tsunami (oder noch mehr) standhalten .

* Ich glaube, das größte Problem wird ein ausgedehnter Strommangel sein. Etwa die Hälfte von Japans Kernkraftwerken wird wahrscheinlich inspiziert werden müssen, damit wird die Energieerzeugungskapazität des Landes um 15% gesenkt. Wahrscheinlich werden im Betrieb befindliche Gaskraftwerke einspringen müssen, die normalerweise nur zur Ergänzung der Spitzenlast und zuweilen auch der Grundlast eingesetzt werden. Dadurch werden in Japan die Stromrechnungen teurer, es kann auch zu Stromknappheit während der Spitzenlastzeiten kommen.

Wenn Sie informiert bleiben wollen, dann nutzen Sie nicht die gewöhnlichen Medien, sondern die folgenden Webseiten:

http://www.world-nuclear-news.org/RS_Battle_to_stabilise_earthquake_reactors_1203111.html

Discussion Thread – Japanese nuclear reactors and the 11 March 2011 earthquake

http://ansnuclearcafe.org/2011/03/11/media-updates-on-nuclear-power-stations-in-japan/

Barry Brook & Dr. Josef Oehmen

Den Originalartikel finden Sie hier

Die Übersetzung besorgte Helmut Jäger EIKE

Lesen Sie auch diesen bedenkenswerten Aufsatz in Achgut

Update 15.3.11: Hier finden Sie sachliche Informationen zur Situation in Japan




Milliardengeschäfte der Politik mit Klimaängsten!

Nach einer Untersuchung des Deutschen Wetterdienstes zu den Auswirkungen des Klimawandels auf extreme Wetterereignisse kam der DWD zu dem Ergebnis: „Im Winter, also in den Monaten Dezember, Januar und Februar, erwarten wir bis zum Jahr 2100 in weiten Teilen Deutschlands mehr Starkniederschläge.“

Es ist schon erstaunlich, dass der Deutsche Wetterdienst, der nicht einmal halbwegs verlässliche 10-Tages-Prognosen abgeben kann, sich derart weit in die Zukunft vorauswagt. Noch erstaunlicher ist, dass dies nicht, obgleich der Klimawandel in vollem Gange ist, ab sofort geschieht, sondern erst ab dem Jahre 2040. Warum erst ab 2040? Haben wir zwischenzeitlich kein Wetter? Die Zahl ist reine Spökenkiekerei, sie ist völlig aus der Luft gegriffen, hat keinerlei Wert. Doch dieses Art des Geistersehens ist politisch gewollt und wird staatlich gefördert und finanziert. Dabei weiß der Deutsche Wetterdienst ebenso wie alle Wetterdienste dieser Erde, dass die Atmosphäre das beweglichste Element ist, mit dem es der Mensch zu tun hat, dem er sich täglich aufs neue anpassen muss. Das Wetter unterliegt unvorhersehbaren Schwankungen. Schon minimale Änderungen von meteorologischen Parametern können extreme Auswirkungen auf die Wetterentwicklung haben und selbst seriöse Prognosen über den Haufen werfen, zu Makulatur werden lassen.

Warum die Klimaforschungsinstitute mit der „Klimakatastrophe“ drohen und nun die Wetterdienste in dasselbe Horn blasen und mit der Zunahme von Wetterextremen Angst und Schrecken verbreiten, dann kann dies nur politisch erklärt werden. Die Politik weiß seit Urzeiten, dass Angst ein probates Herrschaftsinstrument ist, das sich in der Geschichte der Menschheit stets bestens bewährt hat. Angst macht blind, lähmt den Verstand und verführt dazu, mit wehenden Fahnen hinter den falschen Rettern her zu laufen. Angst macht unkritisch, so dass die Geängstigten nicht merken, dass Warner und Retter identisch sind. Es ist eine optimale Win-Win-Situation, in der der Normalbürger immer den Kürzeren zieht, die Zeche zahlen muss. Das „Klima“ als diffuser, mehr emotionaler denn rationaler Begriff, ist für das Schüren von Ängsten bestens geeignet. Zudem ist es ist ein globales Phänomen. Macht man es zum Schreckgespenst, dann erreicht man alle Menschen. Man kann publizistisch die Erde zur Treibhaus-Hölle machen und, in bester Absicht, ein System der Klima-Knechtschaft darauf errichten. Und auch eines ist absolut sicher: Wer die Spielregeln bestimmt, hat zukünftig das Sagen, ist der große Dirigent auf der weltpolitischen Bühne.

Auf dieser Bühne gibt es natürlich Rivalitäten zwischen den UN, den USA, der EU, Russland, China, Indien. Eine treibende Kraft in diesem Mächtespiel ist die von der Finanzkrise geschüttelte EU. Sie gefällt sich in der Rolle des Vorreiters und will sich in Erinnerung an die Zeit des Kolonialismus zum Retter der Erde aufschwingen. In einem vorzeitig bekannt gewordenen Strategiepapier aus Brüssel heißt es:

„Jedes Jahr wird die EU-Kommission 270 Milliarden Euro investieren müssen, wenn sie ihre Klimaschutzziele erreichen will – und das die kommenden 40 Jahre lang.“

Damit soll der Treibhausgasausstoß bis 2050 um 80 bis 95 Prozent gesenkt werden. Der Ausbau der Energienetze, der Stromtrassen, soll bis 2020 weitere 200 Milliarden Euro verschlingen. Wie die EU-Kommission, deren Haushalt im Jahr 2010 ein Volumen von knapp 123 Milliarden Euro hatte, diese utopischen Ziele verwirklichen will, darüber schweigt sie.

In der EU gilt nämlich der Grundsatz des jährlichen Haushaltsausgleichs, der es der EU verbietet, Kredite aufzunehmen und damit neben den Defiziten der einzelnen Staatshaushalte einen eigenen EU-Schuldenturm aufzubauen. Woher 40 Jahre lang die 270 Milliarden Euro kommen sollen, darüber schweigt man sich aus. Und es kommt noch schlimmer: Das Klimaschutzziel ist pure Utopie, die Rechnung wurde ohne den Wirt macht. Der Wirt ist das Wetter. Es entzieht sich der Kontrolle des Menschen. Es ist das unterschiedliche Wetter, das auf der Erde die bunte Klimavielfalt bewirkt. Ein „Welteinheitsklima“, die von der Bundeskanzlerin propagierte „globale Klimagerechtigkeit“, ist absolut unmöglich, so dass die Milliarden-Investition der EU von vornherein ein Flop ist. Die Bürger der 27 EU-Staaten sollten schleunigst rebellieren, wenn sie nicht mit der Freiheit auch noch ihr ganzes Geld in staatliche Klimaschutz-Wunschträume verlieren will.

Wer diese Aussage überprüfen will, der besorge sich von der Vertretung von der Europäischen Kommission in Deutschland das Themenheft Nr. 32 (2011) „Wege zu einem „grünen Wachstum“. Zugleich lese er in SpiegelOnline vom 20. Februar 2011 das Interview mit Jutta Dittfurth. Sie kommt zu dem Schluss: „Die Grünen sind Meister in der Kunst des Verrats“! Es ist Verrat am Wähler, wenn die Grünen ein grünes Deutschland versprechen und gleichzeitig ein CO2-freies Deutschland ohne das klimakillende Umweltgift CO2 planen und damit Deutschland in eine braune Wüste verwandeln würden.

In einem Artikel des Sonderhefts sagt der EU-Kommissar für Energie, Günther Oettinger, „wir stehen vor einer Revolution auf dem Energiesektor“. Seine Vision ist:

„Tatsächlich müssen wir rund eine Billion Euro in den Ausbau der Netze bis 2020 bis 2020 stecken. Den Löwenanteil werden wohl die Energieverbraucher zahlen müssen. Das tun sie schon jetzt über die Preise für Strom und Gas. Öffentliche Gelder werden nur in wenigen Ausnahmefällen eingesetzt.“ Oettinger weiter: „Deshalb müssen wir in intelligente Netze investieren.“

Natürlich auch „intelligente Stromzähler“.

Die so gewonnen Daten steuern die Netze. Wie und damit das funktioniert, müssen neben der Elektrizität gigantische Datenmengen fließen. Dazu lesen wir im Themenheft: „Trockner, Waschmaschinen und Klimaanlagen sollen nicht nur minütlich den Verbrauch an Zentralrechner übermitteln. Sie müssen sich auch per Steuersignal abschalten lassen, wenn die Energie knapp wird, und einschalten, wenn genug verfügbar ist. Energiemanager weltweit planen die informations- technische Aufrüstung der Stromnetze zu einem „Internet der Energie“.“ Wenn dieses Szenario Wirklichkeit werden sollte, und nichts spricht dagegen, dann haben wir den Weltüberwachungsstaat mit dem ferngesteuerten Menschen. Dann wird der Strom einfach gekappt, wenn Bürger auf die Straße gehen und protestieren wollen, wenn unerwünschte Fernsehsendungen verheimlicht werden sollen. Es wird mit Sicherheit nicht bei der Fernsteuerung des Geschirrspülers bleiben. Der „intelligente Verteiler“ wird die Stromzufuhr nach der politischen Gesinnung dosieren. Eine herrliche Zukunft, die an George Orwell erinnert! In dem 1949 erschienen Roman „1984“ wird die Dystopie eines totalitären Überwachungs- und Präventionsstaates dargestellt. Nun kommt noch die fremde Lenkung hinzu.

Nach dieser düsteren Zukunftsvision ein Blick zurück in die Wetterrealität. Die erste Wetterkarte in Deutschland wurde am 16. Februar 1876 von der Seewetterwarte in Hamburg erstellt. Die Deutsche Seewetterwarte selbst wurde im Jahre 1871 gegründet. 1921 entstand die erste Flugwetterwarte Mitteleuropas in Nürnberg. Der Gründung des Deutschen Wetterdienstes erfolgte 1952 in Offenbach. Die „Internationale Meteorologische Organisation“ (IMO) entstand 1873. Sie wurde abgelöst durch die „Weltorganisation für Meteorologie“ (1951), einer Fachorganisation der Vereinten Nationen, die seit dem 1. April 1960 ihren Sitz in Genf hat. Hauptaufgabe der staatlichen meteorologischen Dienste ist die Analyse und Diagnose des Wetters, um möglichst optimale Wettervorhersagen zu erarbeiten.

Mit Hilfe des Messtechnik und Nachrichtentechnik war es möglich geworden, mit wenigen Stunden Verspätung zu international festgelegten Zeiten Wetterkarten zu erstellen. Man knüpfte bei der Zielsetzung an das alte Griechenland zur Zeit von Plato und Aristoteles an. Zu damaliger Zeit galt der philosophische Grundsatz: Die Natur würfelt nicht! Also: Nicht der Zufall, sondern Gesetzmäßigkeiten sind es, die die Natur beherrschen, nach denen auch die Vorgänge in der Natur ablaufen. Im Jahre 1868 war der „Reichskanzler der Physik“ Hermann von Helmholtz (1821-1894) zu der Erkenntnis gekommen, dass die hydrodynamischen Gleichungen der Physik auch zur Lösung meteorologischer Probleme herangezogen werden könnten. Dies war ein überaus kluger Gedanke, der die zuerst mathematische, dann numerische Wettervorhersage beflügelte. Doch die Atmosphäre ist keine Hydrosphäre und gasförmige Bewegungen sind mit Bewegungen von Flüssigkeiten nur bedingt vergleichbar. Dennoch wird selbst heute in der Wetternumerik mit den hydrodynamischen Gleichungen gerechnet. Seit gut 150 Jahren hat es auf diesem Gebiet keinen Fortschritt in der Physik gegeben. Aerodynamische Gleichungen, die auf die Bewegung von Luft zugeschnitten sind, gibt es bis heute nicht!

Die Ende der sechziger Jahre sich etablierenden numerischen Wettervorhersagen haben den synoptischen Meteorologen die Vorhersagearbeit durchaus erleichtert, sie sind aber letztendlich ein Hilfsmittel geblieben. Der erfahrene Meteorologe ist durch keine noch so „intelligente Maschine“ ersetzbar. Luftströmungen sind halt keine Wasserströmungen. Sie sind wesentlich turbulenter und volatiler. Bei der Lösung der nichtlinearen Differentialgleichungen kommt noch das Problem „Chaos“ zum Tragen. Bei den mathematischen Lösungsverfahren stößt man rasch an die Grenzen des deterministischen wie stochastischen Chaos und man erhält mit Zunahme der Rechenschritte rasch einen weit verzweigten Baum an Lösungsmöglichkeiten. Diesen Effekt bei der Lösung nichtlinearer Differentialgleichengen nennt man nach Edward Lorenz (1917-2008), der ihn 1960 entdeckte, gerne „Schmetterlingseffekt“. Er ist ein anschaulicher Ausdruck dafür, dass kleinste Ursachen größte und höchst unterschiedliche Wirkungen haben können. Dieser mathematische „Schmetterlingseffekt“ ist auch die Ursache für die vielen und an der Tagungsordnung stehenden numerischen Fehlvorhersagen des Wetters.

Weil dies allen seriösen und qualifizierten Meteorologen bekannt ist, ist es umso unverständlicher, dass sich der Deutsche Wetterdienst aus politischer Opportunität heraus zu solch unsinnigen Prognosen hinreißen lässt. Doch die Kritik an diesem Verhalten verhallt, solange die Politik hinter dem Deutschen Wetterdienst steht und ihn noch zu diesem Fehlverhalten ermutigt, das über die Medien überdies weite Verbreitung und Beifall erhält. So entstehen Lehrmeinungen, die keine sind. Die Wissenschaftsfreiheit ist zwar theoretisch garantiert, doch praktisch längst außer Kraft gesetzt, da diejenigen Wissenschaftler, die sie gegen staatliche Allmacht verteidigen, längst mit Hilfe der Medien in die Rolle von Außenseitern und Querulanten gedrängt worden sind.

Der Wetterdienst sollte sich auf seine ursprünglichen Aufgaben konzentrieren, die Analyse, Diagnose und Prognose des Wetters. Im Wetterdienstgesetz vom 10. September 1998 heißt es in §4 (1) Aufgaben des Deutschen Wetterdienstes sind

1. „Die Erbringung meteorologischer Dienstleistungen für die Allgemeinheit oder einzelne Kunden oder Nutzer,…“, 6. „Die Vorhersage der meteorologischen Vorgängen“ und 9. „Die Bereithaltung, Archivierung und Dokumentierung meteorologischer Daten und Produkte.“

Wo steht da geschrieben, dass der Deutsche Wetterdienst sich mit archivierten meteorologischen Daten an statistisch windigen Klimaspekulationen beteiligen kann? Die Allgemeinheit der Bürger wartet sehnlichst auf eine Verbesserung der täglichen Wettervorhersagen.

Dr. Wolfgang Thüne, Oppenheim, im Februar 2011                                                               




Schwarz-gelbes Energiekonzept bringt 0,007 °C Erwämungsminderung bis 2050; aber ist Roadmap in die Armut des Mittelalters!

Die nur auf Vi­si­o­nen ba­sie­ren­den Ziel­vor­stel­lun­gen des Ener­gie­kon­zep­tes sind wohl­klin­gend. Dort heißt es:

"Das Ener­gie­kon­zept soll Leit­li­ni­en für eine sau­be­re, zu­ver­läs­si­ge und be­zahl­ba­re Ener­gie­ver­sor­gung for­mu­lie­ren und den Weg in das Zeit­al­ter der er­neu­er­ba­ren Ener­gi­en be­schrei­ben. Es ist eine lang­fris­ti­ge Ge­samt­stra­te­gie, die auf Grund­la­ge der Kli­ma­schutz­zie­le im Rah­men des Ziel­tri­as Preis­wür­dig­keit – Ver­sor­gungs­si­cher­heit so­wie Kli­ma- und Um­welt­schutz die er­for­der­li­chen kon­kre­ten Maß­nah­men in al­len in al­len wich­ti­gen Hand­lungs­fel­dern (Strom, Wär­me, Käl­te, Kom­mu­ni­ka­ti­on und Ver­kehr) fest­legt und da­mit al­len Ak­teu­ren Pla­nungs­si­cher­heit für In­ves­ti­ti­o­nen gibt."

Doch schon bei ganz ober­fläch­li­cher Be­trach­tung er­gibt sich für jeden klar denkenden Menschen: Was hier be­schlos­sen wur­de, ist der si­chere Weg in tie­fe Ar­mut. Es ist eine Road­map di­rekt ins Pa­ra­dies der Öko­träu­mer, näm­lich ins Mit­tel­al­ter.

Es soll also die Ener­gie­zu­kunft des In­dust­rie­stand­or­tes Deutsch­land – so das Lip­pen­be­kennt­nis der Po­li­tik – für die nächs­ten 40 Jah­re si­chern. Um das fest zu ver­an­kern, ver­an­stal­te­te – Zu­fall oder nicht – be­reits einen Tag nach Ver­kün­dung im Ka­bi­nett, die CDU/CSU-Frak­ti­on ih­ren gro­ßen Kli­ma- und Ener­gie­kon­gress, auf dem Bun­des­um­welt­mi­nis­ter Rött­gen die­ses Ener­gie­kon­zept in ge­kürz­ter Form vor­stell­te. Es macht die in­zwi­schen gründ­lich wi­der­leg­te Kli­ma­schutz­prob­le­ma­tik zur Grund­la­ge.

Minister Rött­gen be­haup­te­te dazu vor fachkundigem Pub­li­kum und al­len Erns­tes, die zum Schut­ze des Kli­mas er­for­der­li­chen Maß­nah­men wür­den eine "Ener­gie­wen­de" zwin­gend er­for­der­lich ma­chen.

Zu die­sem Zweck for­dert er eine CO2-Re­duk­ti­on der deutschen Emissionen ge­gen­über 1990 (1036 Mio t techn. CO2) und bis 2050 um min­des­tens 80 %, – bes­ser, so Rött­gen – 90 bis 95 %. Das be­deu­tet – und das ist auch Rött­gen und sei­nen Kol­le­gen klar – eine Re­duk­ti­on auf nur noch 207 Mio. t oder we­ni­ger (bei –95 % sind es 51,8 Mio t).

Im De­tail heißt das,

  1. kein fos­sil be­feu­er­tes Kraft­werk (ca. 45 % An­teil) mehr,
  2. kaum noch Trans­port über die Stra­ße (ca. 18 %)
  3. so gut wie keine In­dust­rie­-Produktion (ca. 10 %)mehr,
  4. keine Hei­zung in Häu­sern oder Woh­nun­gen mehr

Seine Kollegin Frau Höhn von den Grünen sprach das kürzlich auch ziemlich offen aus. Es sei denn, so hofft der Mi­nis­ter und mit ihm wei­te Tei­le des Par­la­men­tes, dass mit dem gleich­zei­tig ge­för­der­ten mas­siv er­höh­ten Ein­satz "Er­neu­er­ba­rer Ener­gi­en" auf min­des­tens 80 % des Strom­ver­brau­ches, bei gleich­zei­ti­ger def­ti­ger Ab­sen­kung des ab­so­lu­ten Ver­brauchs (durch noch zu er­fin­den­de Ener­gie­ef­fi­zi­enz), der gröbs­te -selbst und bewusst her­bei­ge­führ­te- Man­gel ge­lin­dert wird. Das einzig Gute im Energiekonzept – die sehr moderate Verlängerung der Laufzeit der Kernkraftwerke- wird auch gleich wieder zu politischer Umverteilung missbraucht. Statt die Zusatzgewinne über deutliche Preissenkungen den Verbrauchern zugute kommen zu lassen, sollen sie fast vollständig „abgeschöpft“ und zur Förderung der „Erneuerbaren“ eingesetzt werde. Dafür  wird extra ein „Sondervermögen“ geschaffen, in das in 10 Jahren 30 Mrd € fließen sollen. Bezahlt von uns, vom Verbraucher.

Zur Verwirklichung der Vision von 80 % Erneuerbaren müs­sen jedoch di­ver­se Tech­no­lo­gi­en neu er­fun­den wer­den, von denen die meisten heu­te nicht mal im An­satz vor­han­den sind. An wenigen Bei­spielen sei das klar ge­macht. 1.Fehlende Groß-Speicher für elektrische Energie, 2. CCS-Abscheidung von CO2 aus Verbrennungsprozessen, 3. Hebung der Energieeffizienz zur Senkung des Absolutverbrauchs.

Zu 1: Fehlende Groß-Speicher für elektrische Energie, Bedarfssteuerung (vulgo: Planwirtschaft)

Um die stark schwan­ken­den Wind- und So­lar­stro­mein­spei­sun­gen (de­ren Vor­rang­ein­spei­sung dau­er­haft fest­ge­schrie­ben wird) über­haupt ver­wend­bar zu ma­chen, müs­sen ge­wal­ti­ge CO2-freie Spei­cher er­fun­den und ge­baut wer­den. Elektrochemische Bat­te­ri­en kom­men da­für nicht in Fra­ge, wie die Fach­leu­te in den an­schlie­ßen­den Vor­trä­gen ka­te­go­risch er­klär­ten. Eben­so­ we­nig wie Gas­kraf­twer­ke, die zwar we­ni­ger CO2 pro kWh aus­sto­ßen, aber eben im­mer noch mas­sen­haft CO2 er­zeu­gen. Bleiben Pumpspeicherwerke, also das Hochpumpen großer Wassermengen in hoch gelegene Auffangbecken. Bei Be­darf wer­den dann de­ren Ven­ti­le ge­öff­net und die Was­ser­men­gen trei­ben beim He­run­ter­flie­ßen wie­der Turbogeneratoren und er­zeu­gen Strom.

Die Vor­tei­le die­ser Tech­no­lo­gie lie­gen in ih­rer schnel­len Re­gel­bar­keit und dass sie seit Jahr­zehn­ten erprobt und be­kannt sind. Aber die Nach­tei­le sind ge­wal­tig. Denn die Kos­ten sind enorm. Für nur 1000 MW Leis­tung, wie beim Pump­spei­cher­werk Gold­ist­hal/Thü­rin­gen müs­sen 600 Mill € ver­an­schlagt wer­den. Ein sol­ches Kraft­werk lie­fert dann 1000 MW über 8 Stun­den. Das sind 8000 MWh. Dann ist es leer. Die Um­wand­lungs­ver­lus­te sind zu­dem groß, man rech­net mit 20 %. Die To­po­lo­gie, die man dazu braucht, also die erforderliche Landschaftsform, gibt es nur an we­ni­gen Stel­len im Mit­tel- und Hoch­ge­bir­ge. Der Land­schafts­ver­brauch ist ge­wal­tig. Und das ist auch dem Mi­nis­ter gut be­kannt:

So schreibt er in sei­nem Eckpunkte-Kon­zept:

Abb. 1 Auszug aus dem Eckpunktepapier des BMU zum Energiekonzept

und be­schreibt dann wei­ter die ge­wal­ti­gen An­for­de­run­gen an die Spei­cher, de­ren Lö­sun­gen nir­gends auf der­ Welt in Sicht sind:

Abb. 2 Zukünftige volatile Energieeinspeisungssimulation anch dem Eckpunktepapier des BMU zum Energiekonzept

Nun ha­ben wir ge­lernt, dass das größ­te deut­sche Pumpspei­cher­werk Gold­ist­hal ca. 8000 MWh oder 8 GWh lie­fern kann. Dann ist es leer. Um die ge­for­der­te Strom­men­ge aus Pump­spei­cher­wer­ken zu ge­ne­rie­ren be­nö­tig­te man – un­ter Nut­zung der obi­gen An­ga­ben (50-60 GW Leis­tung über 10 Tage ca. 12.000 GWh) nicht we­ni­ger als 1.500 Pump­spei­cher­wer­ke der Gold­ist­halklas­se. Men­gen­ef­fek­te ab­ge­rech­net, würde das allein etwa 800 – 900 Mrd. € kosten.

Wenn, ja wenn man denn nicht nur das Geld, sondern auch die Land­schaft da­für hät­te. Weil man die aber – für je­den er­sicht­lich – in Deutsch­land nicht hat, will man, so die heh­re Ab­sicht, Ver­hand­lun­gen mit Nor­we­gen(s. Auszug Interview WAMS mit Vahrenholt & Weber am Ende))  auf­neh­men, um es zu be­we­gen, die benötigte Land­schaft, ge­gen gu­tes Geld na­tür­lich, be­reit zu stel­len.

Abb. 3 Auszug aus dem Eckpunktepapier des BMU zum Energiekonzept

Nor­ma­le Phan­ta­sie reicht lei­der in kei­nem Fal­le aus, um da­raus eine verantwortbare po­li­ti­sche Vi­si­on oder gar Kon­zep­t zu ma­chen, dazu muss man wohl Po­li­ti­ker oder Kli­ma­apo­ka­lyp­ti­ker sein.

Bedarfsssteuerung

Da das aber auch nicht rei­chen wird, so schwant es den Po­lit­pla­nern, müs­sen Be­darfs­steu­e­run­gen her. Auf Deutsch, der Ver­brau­cher – also wir – wird ge­zwun­gen wer­den, sei­nen Ver­brauch – Ko­chen, Wa­schen , Be­leuch­ten – dem schwan­ken­den An­ge­bot an­zu­pas­sen. Nach­kriegs­er­fah­re­ne den­ken da so­fort an das böse Wort "Strom­sper­re". Man wur­de um 3 Uhr mor­gens ge­weckt, um für kur­ze Zeit bei Licht ir­gend­ei­ne sinn­vol­le Tä­tig­keit für ei­ni­ge Stun­den durch­füh­ren zu kön­nen, ehe ei­nen wie­der tie­fe Dun­kel­heit um­gab und man zu­rück ins Bett kroch. Eine direkte Einführung einer Öko-Planwirtschaft ist damit unvermeidlich.

2. CCS-Abscheidung von CO2 aus Verbrennungsprozessen

Weil also Pump­spei­cher­wer­ke – die ein­zig be­kann­te und er­prob­te Tech­no­lo­gie – ausscheiden, er­fin­den die Po­li­ti­ker mal eben so auf die Schnel­le neue Tech­no­lo­gi­en. Eine da­von heißt CCS. Das steht für Car­bon Ca­ptu­re and Sto­ra­ge. Man schei­det da­bei das bei bei der Koh­le- oder Gas­ver­bren­nung ent­ste­hen­de Koh­len­dio­xid ab, ver­flüs­sigt es und leitet es un­ter ho­hem Druck (ca. 100 bis 200 bar oder mehr an der Ein­fülls­tel­le) in un­ter­ir­di­sche Gas­la­ger­stät­ten. Die­ses Ver­fah­ren wird von den Kraft­werks­be­trei­bern als letz­te Ret­tung für ihre sonst vom Kli­ma­ver­bot be­droh­ten fos­sil be­feu­er­ten Kraft­wer­ke an­ge­se­hen. Sie for­schen also flei­ßig an die­ser Tech­no­lo­gie.

Der Vat­ten­fall-Vor­sit­zen­de für den Mi­ni­ng-Be­reich, Hart­muth Zeiß, be­zif­fer­te die an­fal­len­de CO2-Men­ge aus heu­ti­ger Sicht auf ca. 300 Mio t jähr­lich. Bei Umrechnung der Prozentangaben des BMU für die CO2-Emissionen im Jahre 2008 wären es nur für die Kraftwerke ca. 380 Mio t. Nimmt man noch das produzierende Gewerbe dazu (Bei der Produktion  jeder Tonne Stahl werden 2 t CO2 erzeugt) ergeben sich 465 Mio t CO2. Es sind also gewaltige Mengen, um die es da geht. Und das Jahr, für Jahr, für Jahr.

Die Kos­ten für die Ent­sor­gung bezifferte Zeiß auf etwa 35 €/MWh (= 3,5 Ct/kWh). Dies al­lein wür­de die Produktions­kos­ten des Stro­mes in etwa ver­dop­peln.

Ganz ab­ge­se­hen von der Ver­rin­ge­rung des Wir­kungs­gra­des der Kraft­wer­ke um ca. 10-15 Pro­zent­punk­te[1], was von ei­ner massiven Erhöhung der zu ver­feu­ern­den Brenns­toff­men­ge be­glei­tet ist, um die glei­che Strom­menge zu er­zeu­gen. (25 – 50 Prozentpunkte – Von ? = 45 % auf ? =  30 % à 150 % Kohleverbrauch, von ? = 45 %  auf ? = 35 % à   129 % Kohleverbrauch). Dies alles, so lässt es sich jedenfalls aus den Veröffentlichungen der DPG ableiten, erhöht die Stromerzeugungskosten um bis zu 250 %

Auch ab­ge­se­hen vom breit­flä­chi­gen er­bit­ter­ten Wi­der­stand der Men­schen ge­gen eine Ein­la­ge­rung, des als ge­fähr­lich eingeschätzten CO2-Ga­ses un­ter ih­ren Häu­sern. Wenn es denn ir­gend­wann und irgendwo wie­der nach oben kommen sollte. Denn CO2 ist 1,6 x schwe­rer als Luft. Es fließt wie Was­ser in die tiefs­ten Stel­len der Erdoberfläche und sammelt sich bei windschwachen Wetterlagen in Mulden und Tälern. Nie­mand sieht es, nie­mand riecht es, aber je­der at­met es u. U. ein. Und erstickt. Und zwar dann, wenn die Kon­zen­tra­ti­on ca. 5 Vol-% übers­teigt. Die­se Ge­fahr bes­teht so­lan­ge, wie das Gas un­ter­ir­disch ein­ge­schlos­sen ist, also u. U. tau­sen­de von Jah­ren. Damit entsteht ein neu­es – sehr, sehr viel grö­ße­res- End­la­ger­prob­lem. Dies­mal bun­des­weit und für alle Zeiten.

3. Hebung der Energieeffizienz zur Senkung des Absolutverbrauchs.

Die Hebung der Effizienz aller Prozesse ist ein vom Wettbewerb getriebenes Marktgesetz. Nur wer laufend seine Prozesse verbessert, sie optimiert, veränderten Bedingungen anpasst, etc. wird im Wettbewerb überleben. Das galt und gilt immer und nicht erst seit der Einführung des Energiekonzeptes. So sind sämtliche industriellen Prozesse einer ständigen Verbesserung unterworfen um Energie – und Materialeinsatz – also der Ressourcen – bis dicht an die naturgesetzlichen Grenzen zu führen. Doch auch da gilt, je weiter der Prozess schon optimiert ist, desto teurer wird die Verbesserung um jeden Prozentpunkt der Verbesserung. Ökonomen ist dieses Prinzip als das Pflückproblem der niedrig oder hoch hängenden Kirschen bestens bekannt. Die Effizienzsteigerung ist also immerwährend aber nicht beliebig fortführbar, aus naturgesetzlichen wie Kostengründen.

Abb. 4 Auszug aus dem Eckpunktepapier des BMU zum Energiekonzept

Doch das ist nicht die einzige Kritik, die sich das Energiekonzept gefallen lassen muß, so getan wird, als ob die Effizienzsteigerung beliebig weiter getrieben werden kann. Denn die Verbesserung der Energieeffizienz ist vor allem eine Folge des wissenschaftlich-technischen Fortschritts und des Wettbewerbs, die auch künftig wirken werden, deren Umsetzung in der Praxis aber mit immer höheren Kosten verbunden ist, denn „einfache“ Möglichkeiten des „Energiesparens“ wurden immer mehr bereits erschlossen. Jetzt geht es dagegen um die Entwicklung und Realisierung neuer unbekannter Technologien[2].

So sind die deutschen Stahlwerke noch die effizientesten der Welt, und trotzdem erzeugen sie (nur) 2 t CO2 pro Tonne Stahl. Besser geht einfach nicht. Nein, es ist ein anderes Phänomen, welches nicht berücksichtigt wurde. Je besser die Effizienz wird, desto größer wird die Anwendungspalette, desto billiger der Einsatz, desto mehr von jedem Produkt gibt es. So hatten die Kraftwerke vor 100 Jahren einen Wirkungsgrad von weniger als 10 %, heute von 50 %. Damals gab es nur wenige Kraftwerke, heute sind es Zigtausende weltweit. Das erste Automobil von Carl Benz 1885 hatte 0,8 PS und erreichte 18 km/h. Das Benzin musste alle paar Kilometer aus der Apotheke beschafft werden. Heute haben unsere Karossen einen Verbrauch von 6-8 l/100km, bei ca. 100 PS und einer max. Geschwindigkeit von 150 bis 180 km/h. Es gibt derzeit weltweit um die 500 Mio von ihnen und es werden immer mehr. Das gleiche gilt für fast alle anderen Bereiche, ob es um den Einsatz von Elektromotoren,  Stoffeinsatz für Flugzeuge oder deren Verbrauch und, und, und, geht. (Mehr dazu findet man im grandiosen Buch von Indur Goklany „The Improving State of The World“. Es tritt also das Gegenteil von dem ein, was sich die Planer von der Effizienzoffensive erhoffen. Es wird nicht weniger verbraucht, sondern mehr. Damit ist das „Energiekonzept“ als das entlarvt, was es ist: Eine Mogelpackung, die das ökologische Paradies verspricht, aber in Wirklichkeit das Tor zur Armutshölle weit aufstößt.

Doch da­mit das al­les, was „Energiekonzept“ steht, nicht zu Protest- oder und an­de­ren  Ver­wei­ge­rungs­hal­tun­gen oder gar Auf­stän­den führt, wur­de be­schlos­sen sog. „Kli­ma­schutz­ge­set­ze“ ein­zu­füh­ren. In die­sen sol­len alle Maßnah­men ge­bün­delt und ge­re­gelt wer­den, die zur Durch­set­zung die­ser und an­de­rer weit­rei­chen­der Plä­ne be­nö­tigt wer­den.

All dies und noch vie­les mehr wür­de dann zur Ab­sen­kung der CO2-Er­zeu­gung um die ge­wün­schten 80 bis 95 % füh­ren. Die Minderung des prognostizierten Temperaturantieges bis 2050 würde nach der IPCC-For­mel  maximal 0,007 °C betragen, nach der phy­si­ka­lisch sau­be­re­ren THE The­se nur noch 0,0017 °C *. Ein winziger, nicht messbarer ­Bei­trag und zugleich unwirksamer Beitrag den Deutsch­land da leis­ten würde. Zugleich würde eine gan­ze Volks­wirt­schaft im Her­zen Eu­ro­pas zerstört. 

 

Abb. 5 Auszug aus dem Eckpunktepapier des BMU zum Energiekonzept

Schon Le­nin hat­te er­kannt wie man den Ka­pi­ta­lis­mus be­siegt: Zur Durch­set­zung des So­zi­a­lis­mus in ka­pi­ta­lis­ti­schen Län­dern be­darf es nur, de­ren Ener­gie­ver­sor­gung zu zer­stö­ren. Und auch auf deut­sche Ge­schäf­te­ma­cher wuß­te Le­nin kann man sich  auch ver­las­sen."Und wenn schließ­lich auch der vor­letz­te Ka­pi­ta­list noch auf­ge­hängt wer­den soll, dann lie­fert und ver­kauft – kei­ne Sor­ge – der letz­te da­für noch den Strick! "

Michael Limburg  unter Mitarbeit von Dr. D. Ufer beide EIKE

Ergänzend zu PSW in Norwegen:

Interview Vahrenholt und Weber in „Die Welt“ vom 24.09.2010:

Weber: Ich hätte nichts dagegen, schon heute entsprechende Kapazitäten in Norwegen oder der Schweiz zu akquirieren.

Vahrenholt: Warum sollten die das machen? Zuerst einmal denken diese Länder naturgemäß an sich selber. Und auch dort ist es keineswegs selbstverständlich, für die deutsche Stromversorgung ein Tal zu fluten.

Weber: Ich bin sicher, wenn wir einen attraktiven Preis anbieten, dann wir man sich schon einig werden.

Vahrenholt: Ich habe früher als Hamburger Umweltsenator mit den Norwegern dazu Verhandlungen geführt, denn diese Idee ist ja nicht neu. Der Neubau von Pumpspeicherwerken zur Sicherung der Versorgung in Deutschland war für die Norweger undenkbar. Nur wenn mal Kapazitäten ungenutzt sein sollten, hätten wir diese nutzen können. Das reicht aber nicht. Doch bleiben wir ruhig im eigenen Lande. RWE baut gerade mit EnBW ein Pumpspeicherkraftwerk im Südschwarzwald. Ich sage Ihnen, da kommt Gegenwind von der gesamten Politik, auch von den Grünen, die ja den Bau eines solchen Speichers eigentlich begrüßen müssten. Wir haben vor zwei Jahren angefangen, und wenn alles gut geht, wird dieses Pumpspeicherkraftwerk 2017 einsatzbereit sein. Zehn Jahre – um nur ein einziges Pumpspeicherkraftwerk zu bauen. Da frage ich mich, woher Sie Ihren Optimismus nehmen und einfach so sagen, das wird schon gut gehen. Nein, es wird nicht gut gehen, wenn wir nicht höllisch aufpassen.

 * siehe Berechnungsbeispiele im pdf Anhang: Klassenarbeit für die Obertertia

Ergänzende Links: Dr. Hans-Peter Krause:http://www.freiewelt.net/blog-2371/deutschlands-zentralverwaltungsstaatliches-energiekonzept.html

Fabian Heinzel: http://www.freiewelt.net/blog-2370/das-co2-und-der-soziale-kahlschlag.html


[1] (siehe Deutsche Physikalische Gesellschaft: „Elektrizität: Schlüssel zu einem nachhaltigen und klimaverträglichen Energiesystem“ Juni 2010). Für die Erzeugung einer Kliowattstunde Elektroenergie müsste dann 25 bis 50 Prozent mehr Kohle verbrannt werden – wahrlich kein Beitrag zum rationellen Umgang mit fossilen Energieträgern! Hinzu kommt der ebenfalls nicht zu umgehende Anlagen-Mehraufwand (€/kW), bei dem – ebenfalls nach Angaben der DPG – mit Erhöhungen um 50 bis 130 Prozent zu rechnen ist. Aus beiden ergibt sich eine Erhöhung der Stromerzeugungskosten auf bis zu 250 Prozent!

[2] Im Energiekonzept wird eine Steigerung der „Energieproduktivität“  um durchschnittlich 2,1 % pro Jahr zwischen 2008 und 2050 angestrebt. Bisherige Entwicklung: 1990-2000: 2,18 %/a [darin Eliminierung der energieintensiven und wenig energieeffizienten Industrien Ostdeutschlands], 2000-2008: „nur“ 1,42 %/a. Daraus folgt: 2,1 %/a ist eine sehr ehrgeizige Zielstellung, sie ist wahrscheinlich nur erreichbar in Verbindung mit der erneuten Eliminierung energieintensiver Industrien! – Aus der genannten Zielstellung für die Steigerung der Energieproduktivität von 2,1 %/a zwischen 2008 und 2050 sowie der angestrebten Senkung des Primärenergieverbrauchs um 50 % im gleichen Zeitraum ergibt sich ein dem Energiekonzept zugrund liegendes Wachstumstempo des BIP von 0,4 %/a zwischen 2008 und 2050! Damit wird ein Miniwachstum postuliertZum Vergleich: BIP-Wachstum 1990-2000: 1,84 %/a, 2000-2008: 1,23 %/a! ), aber selbst das ist bei der bewussten exxtremen Drosselung aller energetischer Aktivitäten unter die Rubrik „Wunschdenken“ einzuordnen.

 

Related Files




Klimamodelle des Glaubens! Oder warum 2+2=5 sein könnte!

Mindestens seit dem 1995 erschienenen Zweiten Zustandsbericht hat das IPCC immer sicherer klingend festgestellt, dass anthropogenes Kohlendioxid (CO2) das Klima beeinflusst, und dass dies der Hauptgrund für den nachgewiesenen Erwärmungstrend seit 1900 ist. Der gegenwärtige Anteil des atmosphärischen CO2 beträgt 390 parts per million (ppm) oder 0,039% des Gasgemisches der Atmosphäre. Im Jahre 1900 waren es etwa 295 ppm. Falls sich der Trend des 20. Jahrhunderts unvermindert fortsetzt, wird sich der Anteil von CO2 in der Atmosphäre etwa verdoppelt haben bis 600 ppm. Dies ist die Basis für das gewöhnlich „CO2–Verdoppelung“ genannte Szenario.

Die CO2–Verdoppelung ist eine Wegmarke der Klimawissenschaftler für die Abschätzung des Treibhauseffektes. Die Erde empfängt etwa 342 Watt pro Quadratmeter (W/m2) einkommender Strahlung von der Sonne, und alle diese Strahlung wird letztendlich wieder in den Weltraum abgestrahlt. Allerdings absorbieren CO2 und andere Treibhausgase, am meisten Wasserdampf, einiges dieser ausgestrahlten Energie und wärmen so die Atmosphäre. Dies nennt man den Treibhauseffekt. Ohne diesen Effekt läge die mittlere Temperatur der Erde bei frostigen -19°C. Der Treibhauseffekt erwärmt die Erde bis etwa 14°C und macht sie so überhaupt erst bewohnbar9. 

Mit steigendem CO2 wird noch mehr der ausgestrahlten Energie absorbiert, was die Thermodynamik der Atmosphäre verändert. Alle zusätzlichen Treibhausgase einschließlich CO2, die seit 1900 in die Atmosphäre gelangt sind, kommen einer zusätzlichen Absorption von etwa 2,7 W/m2 in der Atmosphäre gleich10. Dies ist der besorgliche Treibhauseffekt.

Am 2. Februar 2007 veröffentlichte die Arbeitsgruppe 1 (WG1) des IPCC die „Zusammenfassung für Politiker (Summary for Policymakers SPM)  über den Zustand des Erdklimas“11. Er enthält eine umfassende Zusammenfassung der Wissenschaft, die die oben gemachte Vorhersage stützt. Der ganze „Vierte Sachstandsbericht“ (Fourth Assessment Report, 4AR) wurde 2007 nach und nach veröffentlicht.

Abbildung 1 zeigt eine Schwarz-weiß-Version des „Sonderberichtes für Emissionsszenarien“ (Special Report on Emission Scenarios SRES) in SPM-5 der WG1 des IPCC, der die Zukunft der globalen Mitteltemperatur projiziert. Diese Projektionen11 wurden mit Hilfe von generellen Zirkulationsmodellen (General Circulation Models GCMs) durchgeführt. GCMs, das sind Computerprogramme, die die physikalischen Auswirkungen des Klimas berechnen; Auswirkungen u. A. auf die Ozeane, die polaren Eiskappen und die dynamische Antwort der Atmosphäre zu verschiedenen Antriebskräften. Antriebe und Feedbacks sind diejenigen Elemente, die den Energiefluss im Klimasystem steuern. Sie schließen das Sonnenlicht, Meeresströme, Stürme und Wolken, die Albedo (die Reflektivität der Erde) sowie die Treibhausgase Wasserdampf, CO2, Methan, Nitrooxide und Fluorchlorkohlenstoffe ein.

In der Abbildung 1 nimmt das B1–Szenario einen CO2–Anstieg auf 600 ppm, A1B bis 850 ppm und A2 einen solchen auf pessimistische 1250 ppm an. Das „Jahr 2000 Szenario“ bildet den optimistischen Fall ab, den CO2–Gehalt stabil bei 390 ppm zu halten.

Die Bildunterschrift unter der Abbildung SPM-5 lautet (in Auszügen): „Durchgezogenen Linien zeigen die Erwärmung der Erdoberfläche im globalen Mittel (im Vergleich zum Zeitraum 1980 – 1999) für die Szenarien A2, A1B und B1, dargestellt als Fortsetzung der Simulationen des 20. Jahrhunderts. Die Schattierungen zeigen die Standartabweichung der individuellen Modelle“.

Gut und schön! Wir schauen uns die Projektionen an und sehen, dass die Fehlergrenzen nicht sehr unterschiedlich sind. Egal was passiert, es wird angenommen, dass die globale Temperatur im 21. Jahrhundert signifikant steigen wird. Eine kleine Woge der Verzweiflung taucht auf, dass es unter keinen Umständen gelingen wird, den CO2–Gehalt auf dem heutigen Stand zu halten. Das Jahr 2000 Szenario wird nur als Kontrast gezeigt. Die Wissenschaft ist hier in Ordnung, und wir können uns gefasst machen auf eine anthropogen verursachte Erwärmung im 21 Jahrhundert, mit all den daraus resultierenden Gefahren. Fühlen Sie sich schon schuldig?

Aber vielleicht ist ja das alles nicht so eindeutig! Im Jahre 2001 wurden in der Zeitschrift Climate Research13 offen die Unsicherheiten der Physik diskutiert, die in die GCMs einfließen. Dieses Papier war sehr kontrovers und verursachte eine [intensive] Debatte14. Aber über alle Kontroversen hinweg wurde nicht über die grundlegenden physikalischen Unsicherheiten gesprochen. Es stellte sich heraus, dass die Unsicherheiten der energetischen Reaktion des Klimasystems der Erde über 10 mal größer sind als der gesamte Effekt zunehmenden CO2–Gehaltes15. Wenn die Unsicherheit größer ist als die [angenommene] Auswirkung, wird die Auswirkung selbst irrelevant. Wenn aber die Auswirkung selbst strittig ist, über was hat das IPCC dann geredet? Und woher nimmt es die Gewissheit des großen Einflusses des CO2 auf die Atmosphäre?

Mit diesen Fragen im Hinterkopf schaue man noch einmal auf die Legende der Abbildung SPM-5. Dort heißt es „Die Schattierungen zeigen die Standardabweichung der individuellen Modelle“. Die Linien in der Abbildung repräsentieren die vom GCM projizierte jährliche Mitteltemperatur. Die Legende besagt, dass während 68% der Zeit (eine Standardabweichung) die Modellprojektionen in den schattierten Bereichen liegen werden. Sie sagt nicht, dass die schattierten Bereiche die physikalische Verlässlichkeit der Projektionen angeben. Die schattierten Bereiche zeigen nichts über die physikalische Ungewissheit der Temperaturprojektionen. Sie zeigen die numerische Instabilität der Modelle. Die Botschaft der Legende lautet, dass Klimamodelle nicht zweimal den gleichen Trend ergeben werden. Sie garantieren nur, dass dies in den schattierten 68% der Zeit der Fall ist16.

Dieser Punkt ist so wichtig, dass er mit einem einfachen Beispiel verdeutlicht werden soll. Nehmen wir an, ich hätte ein Computermodell allgemeiner Arithmetik, das behauptet,

2 + 2 = 5 ± 0,1.

Jedes Mal, wenn ich das Modell rechne, gibt es eine Chance von 68%, dass das Ergebnis innerhalb des Bereiches 0,1 Einheiten um die 5 liegen wird. Meine schattierte Region wäre 0,1 Einheiten breit. Wenn 40 verschiedene Forschergruppen 40 leicht unterschiedliche arithmetische Modelle hätten, die ähnliche Ergebnisse bringen würden, könnten wir uns alle zu einem Konsens gratulieren. Nehmen wir jetzt weiter an, wir könnten die Modelle soweit verbessern, dass das Ergebnis jetzt lauten würde: 2 + 2 = 5 ± 0,01. Dann könnten wir behaupten, wir hätten unsere Modelle so weit verbessert, dass sie jetzt 10 Mal genauer wären als zuvor. Aber natürlich wären sie alle genauso falsch wie vorher, weil die exakte Arithmetik nun einmal ergibt, das 2 + 2 = 4. Dieses Beispiel zeigt den kritischen Unterschied zwischen Präzision und Genauigkeit.

In der Abbildung 1 sind die schattierten Bereiche die rechnerischen Ungenauigkeiten der Computermodelle. Sie zeigen nicht die physikalische Genauigkeit der Projektionen. Sie sagen uns gar nichts über die physikalische Genauigkeit. Aber physikalische Genauigkeit – Verlässlichkeit – war immer das, wonach wir in den Vorhersage über künftige Ereignisse in der realen Welt gesucht haben. Es ist dieser Punkt – die physikalische Genauigkeit von globalen Zirkulationsmodellen GCM – mit dem sich dieser Artikel befassen wird.

Die erste Annäherung an physikalische Präzision in den GCMs ist es, zu ermitteln, was sie projizieren. Der am meisten propagierte Trend – den, den wir immer sehen – ist die globale mittlere Temperatur. 

Abbildung 2a zeigt die Trends der Temperatur von 10 GCMs, die in dem Projekt „Coupled Model Intercomparison Project“ (GMIP) [etwa: gekoppeltes Modellvergleichsprojekt] im „Lawrence Livermore National Laboratory“17 berechnet wurden. Sie zeigen, was passieren würde, wenn das atmosphärische CO2 stetig um 1% pro Jahr (etwa doppelt so viel wie gegenwärtig) innerhalb  der  nächsten  80  Jahre steigen würde. Die Klimamodelle schlossen andere „äußere Antriebe“ aus, wie z. B. Vulkanausbrüche, anthropogenes Aerosol sowie Änderungen der Solarstrahlung. Andererseits berücksichtigten sie interne Feedbacks wie beispielsweise den Wärmeaustausch zwischen Ozean und Atmosphäre, Änderungen des Schneefalls, Schmelzen der Eiskappen und so weiter. Diese GCMs sind entweder identisch oder sehr ähnlich den GCMs, die das IPCC für die Vorhersage der künftigen Temperatur des Erdklimas in Abbildung 1 (SPM-5) zeigt.

Zusammen mit den GCM–Projektionen zeigt Abbildung 2a den Trend eines sehr einfachen Modells, in dem alles, was passiert, nur in einer passiven Erwärmung durch Treibhausgase mit keinerlei Klimafeedbacks besteht. Trotz dieser ihm innewohnenden Einfachheit geht der Graph der passiven Erwärmung genau durch die Mitte der Trendlinien des GCM.

Dieses Resultat bedeutet, dass sich irgendwie die Quintillionen Watt an Feedback von den Ozeanen, der Atmosphäre, der Albedo und den Wolken in den generellen Zirkulationsmodellen zusammen zu null mitteln. Neben den geringen Spielräumen der Intensität simulieren alle GCMs wenig mehr als passive globale Erwärmung.

Alle Berechnungen, die die hier gezeigten Schlussfolgerungen stützen, werden in der unterstützenden Information (Supporting Information SI) präsentiert, die man auf der Site www.skeptic.com einsehen kann. Hier folgt das vereinfachte Treibhausmodell insgesamt:

Global Warming=0,36x(33°C)x[(Total Forcing ÷ (Base Forcing)]

Sehr kompliziert! “33°C” ist die Basis-Treibhaustemperatur der Erde, wie sie im Jahre 1900 definiert wurde19. „0,36“ ist der Teil der Treibhauserwärmung, von dem gesagt wird, dass es durch das CO2 plus „das erweiterte Wasserdampf-Feedback“ geliefert wird20. Die erweiterte Idee dahinter ist, wenn CO2 die Atmosphäre erwärmt, wird auch mehr Wasserdampf produziert. Dieser zusätzliche Wasserdampf beschleunigt die Erwärmung durch das CO221. All dies wird detailliert zur kritischen Durchsicht in Sektion 1 bei der SI ersichtlich.

Die vom IPCC anerkannten Gleichungen10 wurden zur Berechnung der Auswirkungen der Treibhausgase CO2, Methan und Stickstoffoxide [nitrous oxide] benutzt – die hauptsächlichen Treibhausgase derzeit. Das ist alles. Nichts, was komplizierter ist als Algebra, wurde hinzugezogen.

Die Mittellinie des GCM in Abbildung 2a (die schwarze Linie mit der weißen Mitte) ist das „Ensemble Mittel“ aller 10 GCM–Projektionen; das heißt ihre Summe geteilt durch 10. Ensembles werden typischerweise als genauer angesehen als jede einzelne individuelle GCM–Projektion22. Unter diesem Kriterium ist das Modell der passiven Erwärmung physikalisch akkurater als irgendeines der multimillionen teuren GCMs, weil es näher am Ensemblemittel liegt als jedes der 10 Klimamodelle (SI Sektion 2). Abbildung 2b zeigt einen ähnlichen Vergleich mit Projektionen von zwei hochauflösenden GCMs vom Geophysical Fluid Dynamics Laboratory der NOAA18, die Feedbacks von allen bekannten Klimaprozessen auf der Erde enthalten. Das einfache Modell zeigt die Temperaturprojektion näher [am Mittelwert] als viele der anderen komplexen GCMs zusammen.

Abbildung 2a zeigt, dass das physikalische Modell des Erdklimas in den GCMs im Falle einer Zunahme von CO2 simuliert, dass die Temperatur kaum etwas anderes macht außer einer passiven Reaktion in linearer Weise auf den Antrieb der Treibhausgase. Die gleiche Schlussfolgerung ergibt sich beim Betrachten von Kontrollläufen der GCMs, die die Temperaturentwicklung bei konstantem CO2–Gehalt simulieren. Eine davon zeigt Abbildung 1 – das „Jahr-2000-Szenario“. Die Kurve ist beinahe eben.

Besonders seit der Ära der Satelliten konnten spezielle Aspekte des Klimas, wie Bewölkung oder die Oberflächentemperatur um den ganzen Globus aufgezeichnet werden. Man kann GCM mit der Rückwärtsmethode testen, indem man sie das bekannte Klimageschehen der Vergangenheit simulieren lässt anstelle der erwarteten Entwicklung in der Zukunft. Physikalische Fehler in den GCMs bzgl. der simulierten Vergangenheit können dann mit der realen Vergangenheit verglichen werden.

Abbildung 3 zeigt die vom Satelliten beobachtete Bewölkung im Zeitraum Dezember – Januar – Februar, gemittelt über die Jahre 1983 bis 1990. Sie zeigt auch die globale mittlere Bewölkung über die ähnliche Periode von 1979 bis 198823 durch 10 begutachtete GCMs24. Die GCMs wurden benutzt, um zu versuchen, die beobachtete  Bewölkung  zu reproduzieren und wurden dann überarbeitet und erneut getestet. Diese Studie wurde 1999 veröffentlicht, aber die Genauigkeit zwischen den Rekonstruktionen der GCMs und den Beobachtungen hat sich während der letzten 9 Jahre kaum verbessert25.

Betrachtet man Abbildung 3, zeigen die GCMs ziemlich genau die Form eines W bei der Bewölkung der Erde, aber es zeigen sich signifikante Verluste durch alle Modelle in allen Breiten einschließlich der Tropen, wo die Wolken einen großen Einfluss auf das Klima haben26. Also, wie falsch sind die GCMs?

Eine Methode, den Fehler abzuschätzen, besteht darin, dass man über die Gesamtbewölkung, die von jedem Modell in der Rückschau simuliert wurde, integriert und dies mit der tatsächlich beobachteten Gesamtbewölkung vergleicht (SI Sektion 3). Den Fehler auf diese Weise zu ermitteln ist ein wenig vereinfachend, weil eine positive Abweichung in einer Breite durch eine negative Abweichung in einer anderen Breite kompensiert werden kann. Dieses Verfahren ergab eine mittlere Fehlerquote der Bewölkung von ±10,1%. Dieser Wert ist etwa halb so groß wie die offiziell festgelegte Fehlerquote bei den GCMs. Nennen wir diese ±10,1% den minimalen Fehler bzgl. der Bewölkung bei den GCMs.

Die mittlere Energiezufuhr der Wolken zum Erdklima lässt sich mit einem Wert von etwa -27,6 W/m2  27 beziffern.  Das  bedeutet, dass ein Fehler von ±10,1% eine Unsicherheit von ±2,8 W/m2 in den GCM–Projektionen hat. Diese Unsicherheit liegt bei etwa 100% des gegenwärtigen Treibhausantriebs durch alle anthropogen erzeugten Treibhausgase, die sich gegenwärtig in der Atmosphäre befinden10. Wenn man dies berücksichtigt, ergibt sich eine wahre, jedoch unvollständige Abschätzung der physikalischen Verlässlichkeit eines GCM–Temperaturtrends.

Was passiert also, wenn man diese ±2,8 W/m2 durch die SRES Temperaturtrends laufen lässt, die vom IPCC in Abbildung 1 angeboten werden? Bei der Berechnung einer Temperaturprojektion von Jahr zu Jahr wird jeder neue Temperaturwert plus dessen physikalischer Fehlergrenze in die Berechnung der Temperatur plus dessen Fehlergrenze eingegeben. Diese Art der Unsicherheit akkumuliert sich in jedem Jahr, weil jede vorhergesagte Temperatur die gesamte ±(physikalische Unsicherheit) enthält (SI Sektion 4).

Abbildung 4 zeigt die A2 SRES–Projektion, wie sie ausgesehen haben könnte, wenn das IPCC sich entschieden hätte, den Minimalfehler ±10,1% bzgl. der Wolken als ein Maß der Genauigkeit ihrer Temperaturprojektionen für das 21. Jahrhundert einzuführen. Dieses Resultat ist etwas ärgerlich. Die physikalische Ungewissheit akkumuliert rapide und ist in 100 Jahren so groß, dass sie bei einer Anpassung die steile SRES A2–Projektion in Abbildung 1 beinahe eingeebnet hätte. Die Ungewissheit von ±4,4°C im 4. Jahr übersteigt sogar schon die gesamte Temperaturzunahme von 3,7°C in 100 Jahren. In 50 Jahren liegt die simulierte Unsicherheit schon bei ±55°C. In 100 Jahren liegt dieser Wert bei ±111°C. Man erinnere sich, diese riesige Unsicherheit ergibt sich aus einem minimalen Fehler bei der Abschätzung der Bewölkung!

Hinsichtlich der aktuellen Entwicklung der Erdklimas besagt diese Unsicherheit nicht, dass die GCMs simulieren, in 100 Jahren sei es möglicherweise 100 K wärmer oder kälter als heute. Sie besagt, dass die Grenzen der Auflösung der GCMs – ihre Pixelgröße – gewaltig ist verglichen mit dem, was sie projizieren sollen. In jedem neuen Projektionsjahr einer Berechnung in der Größenordnung eines Jahrhunderts wird die Ungewissheit darüber, wie sehr die Wolken das Klima beeinflussen, größer und das Betrachten eines GCM zunehmend verwirrender.

Es ist, als ob man jedes Mal, wenn man sich umdreht, eine stärker und stärker streuende Linse vor unsere Augen hält. Erst verschwinden die Blumen, dann die Leute, dann die Autos die Häuser und schließlich sogar große Wolkenkratzer. Alles verwischt sich und lässt nur unbestimmte Farbkleckse zurück, und sogar großräumige Bewegungen können nicht mehr erkannt werden. Die Behauptung, dass die GCMs ein verlässliches Bild des zukünftigen Klimas liefern, ist etwa so stimmig wie wenn man beim Sichten eines undefinierbaren Farbkleckses darauf besteht, dass es sich um ein Haus mit einer Katze im Fenster handelt.

Die starke Schattierung in Abbildung 4 zeigt den Fehler, der sich aus den Unsicherheiten des Einflusses der Treibhausgase selbst (~1% für CO2, ~10% für Methan, ~5% für Nitrooxide)10, und wie sehr sich diese kleinen Unsicherheiten über einen Vorhersagezeitraum von 100 Jahren aufschaukeln. Nach einem Jahrhundert beträgt die Unsicherheit der vorhergesagten globalen Mitteltemperatur ±17 K, nur aus der Akkumulation des kleinsten Fehlers beim Antrieb allein.

Die Schwierigkeit ist sogar über kurze Zeiträume ernst. Das kleine Bild in der Abbildung 4 zeigt, dass nach nur 20 Jahren die Unsicherheit bzgl. der Wolken schon ±22 K beträgt und ±3 K bzgl. des Antriebs durch die Gase. Der Effekt der ±1%–Unsicherheit allein zeigt, dass zu 99% akkurate GCMs nicht erkennen können, ob wir in nicht einmal 20 Jahren eine neue Eiszeit oder aber eine tropische Warmzeit haben werden. Diese physikalischen Unsicherheiten sind nicht nur erheblich größer als vom IPCC in Abbildung 1 zugelassenen, sondern die tatsächlich zugelassenen Fehlergrenzen des IPCC sind nicht einmal physikalisch16.

Wenn man eine Akkumulation der Unsicherheiten bzgl. der Wolken und es Antriebs der Gase zusammen zulässt, ergibt sich nach dem A2–Szenario nach 5 Jahren eine um 0,34 K wärmere Erde mit einer Fehlergrenze von ±8,8 K. In 10 Jahren wird daraus 0,44 ± 15 K und in 20 Jahren 0,6 ± 27,7 K. Im Jahre 2100 läge diese Projektion bei 3,7 ± 130 K. Nur aus der Unsicherheit der Bewölkungsmenge ergibt sich, dass die Fehlergrenze sehr viel größer ist als die simulierte Temperaturzunahme. Was ist glaubwürdig an einer Vorhersage, deren Fehlergrenze 20 bis 40 mal größer ist als die Vorhersage selbst? Nach nur wenigen Jahren ist die Simulation der globalen Temperatur durch ein GCM nicht verlässlicher als bloßes raten. Dies bedeutet, dass die Wirkung der Treibhausgase auf die Erdatmosphäre nicht vorhersagbar und damit nicht bestimmbar ist. Und damit irrelevant.

Das rasante Anwachsen der Fehlergrenzen bedeutet, dass die GCMs nach 5 Jahren nicht mehr unterscheiden könne, ob wir eine Eiszeit oder eine Hitzehölle haben werden; geschweige denn nach 100 Jahren. So weit es die GCMs betrifft, kann die Erde im Jahre 2100 ein Winterwunderland sein oder ein tropisches Paradies. Niemand weiß das.Direkte Tests von Klimamodellen zeigen das Gleiche. Im Jahre 2002 hat Matthew Collins vom UK Hadley Centre das GCM HadCM3 benutzt, um ein künstliches Klima zu erschaffen, und hat dann berechnet, wie sich das gleiche Klima entwickelt, dass er selbst erschaffen hat. Es verhielt sich ärmlich, obwohl es sich um das perfekte Modell handelte. Das Problem lag darin, dass kleine Unsicherheiten bei den Eingaben – den Startbedingungen – rapide zunahmen und das GCM sehr schnell in die Belanglosigkeit trieb. Sogar mit dem perfekten Modell, berichtet Collins, „scheint es so, dass die jährliche globale Mitteltemperatur potentiell 1 Jahr im voraus  vorhergesagt  werden  kann, und eine Vorhersage für 5 oder 10 Jahre allenfalls marginal möglich ist.“ Also, mit einem perfekten Klimamodell und fast perfekten Anfangsbedingungen könnte man eines Tages potentiell oder marginal vorhersagen, aber man kann noch nicht 1 Jahr im Voraus Vorhersagen machen. Und mit diesen mangelhaften Modellen macht das IPCC Vorhersagen für 100 Jahre im Voraus!

In einem ähnlichen Test auf Zuverlässigkeit hat William Merryfield 2006 15 GCMs rechnen lassen, um künftige El-Niño Southern Oscillations (ENSO) in einem treibhausgewärmten Klima zu simulieren29. Er fand: „Bei einer Verdoppelung des CO2–Gehaltes zeigen 8 der 15 Modelle Änderungen mit einer signifikant (p<0,1) größeren Streuung als die Änderung der Amplitude selbst. Jedoch nimmt die Amplitude der ENSO in 5 dieser Modelle ab, während sie in 3 zunimmt. Fazit: Es gibt keinen Konsens über Art und Umfang der Änderung.“ Also, von 15 GCMs nahmen sieben keine signifikanten Änderungen an, 5 simulierten einen schwächeren, 3 einen stärkeren ENSO. Dieses Resultat ist gleichbedeutend mit ‚wir wissen es nicht’. Die 15 GCMs, die Merryfield benutzt hat, sind die gleichen, die dem Vierten Assessment Report des IPCC zugrunde lagen.

Wenn man all dies betrachtet, warum ist das IPCC so sicher, dass anthropogen erzeugtes CO2 für die jüngste globale Erwärmung verantwortlich ist? Wie kommt die US National Academy of Science (NAS) in einer kürzlich veröffentlichten Broschüre zu der Aussage, dass „…die Erwärmung der Erde in den letzten Dekaden primär von menschlichen Aktivitäten verursacht wurde, die den Anteil der Treibhausgase in der Atmosphäre haben zunehmen lassen“30? Diese Broschüre zeigt eine sehr aussagekräftige Abbildung 4 (SI Sektion 5), die die Inputs zu einer Projektion der globalen Temperatur aus einem GCM darlegt. Nur wenn die Auswirkungen der anthropogenen Treibhausgase in die normale Temperaturvariation mit einbezogen werden, sagt man uns, passt der Trend des GCM zu dem tatsächlich beobachteten Trend.

Aber ihre Abbildung 4 zeigt noch eine andere Charakteristik, die fast allgegenwärtig in Temperaturprojektionen von GCMs ist. Sie zeigen keinerlei physikalische Fehlergrenzen. Uns wird ein simulierter Temperaturtrend als perfekt genau präsentiert. Die Abbildung 4 der NAS wäre wesentlich glaubwürdiger, wenn die Akademie es zusammen mit der ±100 K Fehlergrenze gezeigt hätte. Dann würde offensichtlich werden, dass der Gleichlauf zwischen der beobachteten und der simulierten Trendlinie nichts als Zufall ist. Oder das GCM wurde künstlich so getrimmt, dass der Temperaturverlauf passt. Es würde auch offensichtlich werden, dass es vollkommen bedeutungslos ist zu behaupten, dass dieser erklärte Gleichlauf ohne die Zufuhr von CO2 nicht möglich ist, wenn tatsächlich ein erklärter Gleichlauf unmöglich ist. Punkt.

Unter Klimatologen ist gut bekannt, dass große Bereiche der Physik in den GCMs nicht gut verstanden werden31. Wo die Unsicherheit signifikant ist, haben die GCMs „Parameter“, die am besten darüber urteilen, wie sicher Klimaprozesse ablaufen. GCMs haben Dutzende von Parametern und eventuell Millionen Variable32, und alle davon haben einige Arten des Irrtums oder der Ungewissheit.

Eine saubere Darstellung ihrer physikalischen Zuverlässigkeit würde die Darstellung aller Unsicherheiten sämtlicher Parameter durch die GCMs einschließen und daraus resultierend eine Darstellung der gesamten Unsicherheit33. Ich habe vergeblich nach einer solchen Studie gesucht. Es scheint, dass niemand jemals die gesamte physikalische Unsicherheit eines GCM betrachtet hat. In der physikalischen Wissenschaft ist eine solche Überprüfung in der Praxis aber unabdingbar und routinemäßig erforderlich. Aber offensichtlich nicht in der Wissenschaft der GCMs. Ergo: Die gleichen Leute, die den Alarm über die künftige Erderwärmung hinaus posaunen, missachten ihre eigene ausgeprägte Unwissenheit.

Unter dem Strich ergibt sich also Folgendes: Wenn es um das zukünftige Klima geht, weiß niemand, wovon überhaupt die Rede ist. Niemand. Nicht das IPCC noch deren Wissenschaftler, nicht der US–Kongress, weder Sie noch ich und schon gar nicht Herr Al Gore. Das Erdklima erwärmt sich, und kein Mensch weiß, warum. Aber es gibt keine belastbare wissenschaftliche Basis, dass diese Erwärmung durch anthropogene Treibhausgase verursacht wird, weil die gegenwärtig zur Verfügung stehenden physikalischen Theorien gänzlich ungeeignet sind, überhaupt irgendeinen Grund zu finden.

Nichtsdestotrotz, jene, die extreme politische Maßnahmen ergreifen, um die
CO2–Emissionen zu reduzieren, beziehen sich ausschließlich auf die Ergebnisse der GCMs, die irgendwie zu realen Vorhersagen in der Öffentlichkeit werden. Aber selbst wenn diese Politiker die Unsicherheit der Modellergebnisse einräumen, werden sie immer noch das Vorsorgeprinzip bemühen und nach extremer Reduzierung rufen, „um auf der sicheren Seite“ zu sein. Dieses Prinzip besagt: „Wenn es Bedrohungen durch ernste oder irreversible Gefahren gibt, sollte das Fehlen genauer wissenschaftlicher Erkenntnisse nicht als Begründung dienen, kostenintensive Maßnahmen zu verschieben, um Umweltschäden zu verhindern“34. Dies bedeutet, selbst wenn wir nicht vollständig wissen, dass das CO2 das Erdklima gefährlich erwärmt, sollten wir doch dessen Emissionen kappen, für alle Fälle. Jedoch, wenn die gegenwärtige Fehlergrenze in den GCMs mindestens bei ±100 K pro Jahrhundert liegt, werden wir in totaler Unkenntnis über die Effekte des CO2 auf die Temperatur gelassen. Es ist nicht „… das Fehlen genauer wissenschaftlicher Erkenntnisse“, sondern es müsste heißen: „…es gibt überhaupt keine wissenschaftlichen Erkenntnisse“. Wir wissen buchstäblich gar nichts darüber, ob eine Verdoppelung des CO2–Gehaltes überhaupt irgendeinen signifikanten Effekt auf das Klima hat.

Solange unser Wissen über das künftige Klima gegen Null tendiert, kann es also sein, dass [in der Vorhersage] sowohl eine Reduzierung als auch eine Zunahme des CO2 das Klima verbessert, verschlechtert oder gar nicht verändert. Die Alternativen sind unangemessen, aber in unserem Stadium der Unwissenheit hat jede Wahl zwei von drei Chancen, den geringsten Schaden anzurichten35. Komplette Unwissenheit macht das Vorsorgeprinzip komplett unbrauchbar. Es gibt gute Gründe, den Verbrauch fossiler Energieträger zu reduzieren, aber die Klimaerwärmung ist dafür kein Grund.

Einige könnten nun beschließen, trotzdem daran zu glauben. „Wir können es nicht beweisen“, könnten sie sagen, „aber die Korrelation zwischen CO2 und der Temperatur ist real (sie nehmen beide zu)36 und so ist die Notwendigkeit da, auch wenn wir es nicht beweisen können“. Aber Korrelation bedeutet nicht Ursache37, und ein Grund kann nicht bei kompletter Unwissenheit herhalten. Die richtige Antwort auf den hartnäckigen Anspruch auf Gewissheit bei kompletter Unwissenheit ist gesunder Skeptizismus. Und ist es nicht viel besser für uns, Ressourcen für dringende aktuelle Dinge zu nutzen, anstatt diese Ressourcen für ungewisse Gefahren aufzuheben?

Also, was hat es denn nun mit schmelzenden Eiskappen, dem Anstieg des Meeresspiegels, dem Aussterben der Eisbären und anderen Wetterextremen auf sich? Was ist, wenn ungewöhnlich intensive Hurrikansaisons wirklich verbreitete Katastrophen auslösen? Es ist kritisch, den Finger auf Gründe und Rationalität zu legen, besonders wenn soziale Einladungen zum gesellschaftlichen Durchdrehen so allgegenwärtig sind. GCMs sind so schrecklich unzuverlässig, dass es keinen objektiven, belastbaren Grund gibt für die Annahme, dass der gegenwärtige Erwärmungstrend durch anthropogenes CO2 erfolgt, oder dass dieses CO2 das Klima überhaupt messbar erwärmt. Daher, selbst falls extreme Ereignisse wegen des sich erwärmenden Klimas vorkommen, gibt es keinen wissenschaftlichen Grund, die Ursache für diese Ereignisse im anthropogenen CO2 zu suchen.  Im chaotischen Erdklima könnte es gar keinen Grund für eine Erwärmung geben39. Viele hervorragende Wissenschaftler haben all das in grundlegenden Arbeiten immer wieder geschrieben, um die CO2–Panik zu dämpfen40, aber der Chor singt verführerisch, und einige rechtschaffene Gläubige scheinen sich an Widerlegungen zu weiden.

Patrick Frank,

Die Übersetzung erledigte dankenswerterweise Chris Frey EIKE

Im Original folgen noch Danksagungen

Literatur

1. McCarthy, J. 2005. “The Sustainability of Human Progress.” www.formal.stanford.edu/jmc/progress/ Last accessed on: 14 September 2007.
2. Anon. 2006. “Consequences of Global Warming” National Resources Defense Council. www.nrdc.org/globalWarming/fcons.asp Last accessed on: 14 September 2007.
3. Anon. 2007. “The Hard Facts of Global Warming.” The Sierra Club www.sierraclub.org/globalwarming/overview/overview4.asp Last accessed on: 14 September 2007.
4. Anon. 2007. “Learning About the Science of Climate Change.” Greenpeace. www.greenpeace.org/international/campaigns/climatechange/science Last accessed on: 14 September 2007.
5. Appenzeller, T. and D. R. Dimick. 2007. “Signs from Earth” National Geographic. http://magma.nationalgeographic.com/ngm/0409/feature1/ Last accessed on: 14 September 2007.
6. Cicerone, R., E. J. Barron, R. E. Dickenson, I. Y. Fung, J. E. Hansen, et al. 2006. “Climate Change Science: An Analysis of Some Key Questions” The National Academy of Sciences, Washington, D.C. See also the 2006 report downloadable here: http://dels.nas.edu/basc/. Last accessed on: 14 September 2007.
7. Pelosi, N. 2007. “We Will Work Together to Tackle Global Warming, One of Humanity’s Greatest Challenges.” www.speaker.gov/newsroom/speeches?id=0013 Last accessed on: 14 September 2007.
8. Shermer. M. 2006. “The Flipping Point.” Scientific American 294, 28.
9. Anon. Report FS-1999-06-025-GSFC: Earth’s Energy Balance, NASA: Goddard Space Flight Center Greenbelt, MD.
10. Myhre, G., E. J. Highwood, K. P. Shine and F. Stordal. 1998. “New Estimates of Radiative Forcing Due to Well Mixed Greenhouse Gases.” Geophysical Research Letters 25, 2715–2718.
11. Alley, R., T. Berntsen, N. L. Bindoff, Z. Chen, A. Chidthaisong, et al. “IPCC 2007: Summary for Policymakers.” In: Climate Change 2007: The Physical Science Basis. Cambridge University. http://ipcc-wg1.ucar.edu/wg1/wg1-report.html Last accessed on: 14 September, 2007. See under “WG1 Release”.
12. The IPCC is careful to use “projection” rather than “prediction” to describe what GCMs produce. I.e., the words “predict” or “prediction” do not appear in the SPM of the 4AR. However, “projection” appears 20 times, “scenario” appears 50 times, and the peculiarly apt “storyline” is used 7 times. “Prediction” seems to be the default message for most readers, however.
13. Soon, W., S. Baliunas, S. B. Idso, K. Y. Kondratyev, and E. S. Posmentier. 2001. “Modeling Climatic Effects of Anthropogenic Carbon Dioxide Emissions: Unknowns and Uncertainties” Climate Resear ch. 18, 259–275.
14. Risbey, J. 2002. “Comment on Soon et al. (2001)” Climate Research 22, 185–186; W. Soon, S. Baliunas, S. B. Idso, K. Y. Kondratyev and E. S. Posmentier (2002). Reply to Risbey (2002) Climate Research 22, 187–188; D. J. Karoly, J. f. B. Mitchell, M. Allen, G. Hegerl, J. Marengo, et al. (2003) Comment on Soon et al. (2001) Climate Research 24, 91–92; W. Soon, S. Baliunas, S. B. Idso, K. Y. Kondratyev and E. S. Posmentier (2003). Reply to Karoly et al. (2003) Climate Research. 24, 93–94.
15. One must go into Chapter 8 and especially Ch 8 Supplementary Material in the recently released IPCC 4AR to find GCM errors graphically displayed in W m-2. Figure S8.5, for example, shows that GCM errors in “mean shortwave radiation reflected to space” range across 25 W m-2. The errors in outgoing longwave radiation, Figure S8.7, are similarly large, and the ocean surface heat flux errors, Figure S8.14, minimally range across 10 W m-2. Such forthright displays do not appear in the SPM or in the Technical Summary; i.e., where public bodies are more likely to see them.
16. The Legend of “The Physical Science Basis, Global Climate Projections” WGI analogous Figure 10.4 more cautiously advises that, “uncertainty across scenarios should not be interpreted from this figure (see Section 10.5.4.6 for uncertainty estimates).” However, in 10.5.4.6, it is not reassuring to read that, “*Uncertainty in future temperatures+ results from an expert judgement of the multiple lines of evidence presented in Figure 10.29, and assumes that the models approximately capture the range of uncertainties in
the carbon cycle.” And in WGI Chapter 8 Section 8.1.2.2: “What does the accuracy of a climate model’s simulation of past or contemporary climate say about the accuracy of its projections of climate change? This question is just beginning to be addressed … [T]he development of robust metrics is still at an early stage, [so] the model evaluations presented in this chapter are based primarily on experience and physical reasoning, as has been the norm in the past. (italics added)” That is, there is no validly calculated physical uncertainty limit available for any projection of future global climate.
17. Covey, C., K. M. AchutaRao, U. Cubasch, P. Jones, S. J. Lambert, et al. 2003. “An overview of results from the Coupled Model Intercomparison Project” Global and Planetary Change, 37, 103–133; C. Covey, K. M. AchutaRao, S. J. Lambert and K. E. Taylor. “Intercomparison of Present and Future Climates Simulated by Coupled Ocean-Atmosphere GCMs” PCMDI Report No. 66 Lawrence Livermore National Laboratory 2001 http://www-pcmdi.llnl.gov/publications/pdf/report66/ Last accessed on: 14 September 2007.
18. Dixon, K. R., T. L. Delworth, T. R. Knutson, M. J. Spelman and R. J. Stouffer. 2003. “A Comparison of Climate Change Simulations Produced by Two GFDL Coupled Climate Models.” Global and Planetary Change, 37, 81–102.
19. Houghton, J. T., Y. Ding, D. J. Griggs, M. Noguer, P. J. van der Linden, et al. Climate Change 2001: The Scientific Basis. Chapter 1. The Climate System: An Overview. Section 1.2 Natural Climate Systems, Subsection 1.2.1 Natural Forcing of the Climate System: The Sun and the global energy balance. 2001 http://www.grida.no/climate/ipcc_tar/wg1/041.htm Last accessed on: 14 September 2007 “For the Earth to radiate 235 W m-2, it should radiate at an effective emission temperature of -19° C with typical wavelengths in the infrared part of the spectrum. This is 33° C lower than the average temperature of 14° C at the Earth’s surface.”
20. Inamdar, A. K. and V. Ramanathan. 1998. “Tropical and Global Scale Interactions Among Water Vapor, Atmospheric Greenhouse Effect, and Surface Temperature.” Journal of Geophysical Research 103, 32,177–32,194.
21. Manabe, S. and R. T. Wetherald. 1967. “Thermal Equilibrium of the Atmosphere with a given Distribution of Relative Humidity.” Journal of the Atmospheric Sciences 24, 241–259.
22. Lambert, S. J. and G. J. Boer. 2001. “CMIP1 Evaluation and Intercomparison of Coupled Climate Models.” Climate Dynamics 17, 83–106.
23. Rossow, W. B. and R. A. Schiffer. 1991. “ISCCP Cloud Data Products.” Bulletin of the American Meteorological Society 72, 2–20. Global average cloudiness does not change much from year-toyear. I.e., “Table 3 and Fig. 12 also illustrate how small the interannual variations of global mean values are. … All *the+ complex regional variability appears to nearly cancel in global averages and produces slightly different seasonal cycles in different years.”
24. Gates, W. L., J. S. Boyle, C. Covey, C. G. Dease, C. M. Doutriaux, et al. 1999. “An Overview of the Results of the Atmospheric Model Intercomparison Project.” (AMIP I) Bulletin of the American Meteorological Society 80, 29–55.
25. AchutaRao, K., C. Covey, C. Doutriaux, M. Fiorino, P. Gleckler, et al. 2005. “Report UCRL-TR-202550. An Appraisal of Coupled Climate Model Simulations Lawrence Livermore
National Laboratory.” See Figures 4.11 and 4.12. Especially compare Figure 4.11 with text Figure 3; M. H. Zhang, W. Y. Lin, S. A. Klein, J. T. Bacmeister, S. Bony, et al. 2005. “Comparing Clouds and Their Seasonal Variations in 10 Atmospheric General Circulation Models with Satellite Measurements.” Journal of Geophysical Research 110, D15S02 11–18.
26. Hartmann, D. L. 2002. “Tropical Surprises.” Science, 295, 811–812.
27. Hartmann, D. L., M. E. Ockert-Bell and M. L. Michelsen. 1992. “The Effect of Cloud Type on Earth’s Energy Balance: Global Analysis.” Journal of Climate 5, 1281–1304.
28. Collins, M. 2002. “Climate Predictability on Interannual to Decadal Time Scales: The Initial Value Problem.” Climate Dynamics 19, 671–692.
29. Merryfield, W. J. 2006. “Changes to ENSO under CO2 Doubling in a Multimodel Ensemble.” Journal of Climate 19, 4009–4027.
30. Staudt, A., N. Huddleston and S. Rudenstein. 2006. “Understanding and Responding to Climate Change.” The National Academy of Sciences. http://dels.nas.edu/basc/ Last accessed on: 14 September 2007. The “low-res pdf” is a convenient download.
31. Phillips, T. J., G. L. Potter, D. L. Williamson, R. T. Cederwall, J. S. Boyle, et al. 2004. “Evaluating Parameterizations in General Circulation Models.” Bulletin of the American Meteorological Society 85, 1903–1915.
32. Allen M. R. and D. A. Stainforth. 2002. “Towards Objective Probabilistic Climate Forecasting.” Nature 419, 228; L. A. Smith. 2002. “What Might We Learn from Climate Forecasts?” Proceedings of the National Academy of Science, 99, 2487–2492.
33. This is not the same as a sensitivity analysis in which the effects that variations in GCM parameters or inputs have on climate predictions are compared to observations. In contrast to this, propagating the errors through a GCM means the known or estimated errors and uncertainties in the parameters themselves are totaled up in a manner that quantitatively reflects their transmission through the mathematical structure of the physical theory expressed in the GCM. The total error would then represent the physical uncertainty in each and every prediction made by a GCM.
34. Kriebel, D. J. Tickner, P. Epstein, J. Lemons, R. Levins, et al. 2001. “The Precautionary Principle in Environmental Science.” Environmental Health Perspectives 109, 871–876.
35. Of course, reducing CO2 would likely stop the global greening that has been in progress since at least 1980. The Amazon rainforest alone accounted for 42% of the net global increase in vegetation: R. R. Nemani, C. D. Keeling, H. Hashimoto, W. M. Jolly, S. C. Piper, et al. 2003. “Climate-Driven Increases in Global Terrestrial Net Primary Production from 1982 to 1999.” Science 300, 1560–1563; S. Piao, P. Friedlingstein, C. P., L. Zhou and A. Chen. 2006. “Effect of Climate and CO2 Changes on the Greening of the Northern Hemisphere Over the Past Two Decades.” Geophysical Research Letters 33, L23402 23401–23406.
36. Rising CO2 correlates strongly (r2=0.71) with the greening of the Sahel since 1980, too. SI Section 6.
37. Aldrich, J. 1995. “Correlations Genuine and Spurious in Pearson and Yule.” Statistical Science 10, 364–376. In 1926 G. Udny Yule famously reported a 0.95 correlation between mortality rates and Church of England marriages.
38. On the other hand, the history of Earth includes atmospheric CO2 lagging both glaciations and deglaciations, and large rapid spontaneous jumps in global temperatures without any important changes in atmospheric CO2 and without tipping Earth off into runaway catastrophes. See references for the Dansgaard-Oeschger events, for example: Adams, J. M. Maslin and E. Thomas. 1999. “Sudden Climate Transitions During the Quaternary.” Progress in Physical Geography 23, 1–36; G. G. Bianchi and I. N. McCave. 1999. “Holocene Periodicity in North Atlantic Climate and Deep Ocean Flow South of Iceland.” Nature 397, 515–517; M. McCaffrey, D. Anderson, B. Bauer, M. Eakin, E. Gille, et al. 2003. “Variability During the Last Ice Age: Dansgaard-Oeschger Events.” NOAA Satellites and Information. http://www.ncdc.noaa.gov/paleo/abrupt/data_glacial2.html Last accessed on: 14 September 2007; L. C. Gerhard. 2004. “Climate change: Conflict of Observational Science, Theory, and Politics.” AAPC Bulletin 88, 1211–1220.
39. J. M. Mitchell Jr. 1976 “An overview of climatic variability and its causal mechanisms” Quaternary Research 6, 481–493. Shao, Y. 2002. C. Wunsch 2003 “The spectral description of climate change including the 100 ky energy” Climate Dynamics 20, 253–263. “Chaos of a Simple Coupled System Generated by Interaction and External Forcing.” Meteorology and Atmospheric Physics 81, 191–205; J. A. Rial 2004. “Abrupt Climate Change: Chaos and Order at Orbital and Millennial Scales.” Global and Planetary Change 41, 95–109.
40. Lindzen, R. S. 1997. “Can Increasing Carbon Dioxide Cause Climate Change?” Proceedings of the National Academy of Science, 94, 8335–8342; W. Soon, S. L. Baliunas, A. B. Robinson and Z. W. Robinson. 1999. “Environmental Effects of Increased Carbon Dioxide.” Climate Research 13, 149–164; C. R. de Freitas. 2002. “Are Observed Changes in the Concentration of Carbon Dioxide in the Atmosphere Really Dangerous?” Bulletin of Canadian Petroleum Geology 50, 297–327; C. Essex and R. McKitrick. 2003. “Taken by Storm: The Troubled Science, Policy, and Politics of Global Warming” Key Porter Books: Toronto; W. Kininmonth. 2003. “Climate Change: A Natural Hazard.” Energy & Environment 14, 215–232; M. Leroux. 2005. “Global Warming — Myth or Reality?: The Erring Ways of Climatology”. Springer: Berlin; R. S. Lindzen. 2006. “Is There a Basis for Global Warming Alarm?” In Global Warming: Looking Beyond Kyoto Ed. Yale University: New Haven, in press. The full text is available at: http://www.ycsg.yale.edu/climate/forms/LindzenYaleMtg.pdf Last accessed: 14 September 2007.
Quelle: http://www.skeptic.com/the_magazine/featured_articles/v14n01_climate_of_belief.html


Related Files




„Ein hochrangiger deutscher Politiker aus einer großen Volkspartei….„… und wenn es die Klimakatastrophe nicht gäbe, dann müsste man sie erfinden, um die Menschen dazu zu bringen, Dinge zu tun, die wir für richtig halten.“

(Die Grundidee dieses Satzes soll von Voltaire stammen: Wenn es keinen Gott gäbe, so müsste man ihn erfinden“; allerdings soll Voltaire auch gesagt haben: „Ja weniger Aberglaube, desto weniger Fanatismus, desto weniger Unheil“. Ich hoffe nur, dass unser Politiker dies auch wusste)

Meine Frau und ich haben in dreißig Ehejahren eine sehr nützliche Übereinkunft getroffen: Wenn wir Gefahr laufen, wegen Sachen, die wir uns unbedacht sagen, aneinander zu geraden, dann muss der, der gerade was Blödes vom Stapel gelassen hat, den Satz noch dreimal laut sagen – in aller Regel erkennen wir dann, was gerade schief läuft, müssen meist drüber lachen. Und alles ist gut.

Ich bat diesen Politiker, das auch zu tun – aber er verstand nicht, was ich damit wollte.

Meine Damen und Herren, das ist genau der Punkt.

Diese Aussage unseres Politikers ist so absolut zynisch, so demagogisch und offenbart – selbst wenn man sie nur einmal hört – einen höchst alarmierenden Sinn hinter all dem Gedöns von Erderwärmung, CO2 und anderen Katastrophen: arrogante Machtpolitik.

Eine zweite Sache hat mich dann aber völlig aus dem Häuschen gebracht. Nicht nur, dass ich eine Reihe bezeichnender Zitate von Journalisten aller Couleur, aus Presse, Fernsehen, Internet usw. vorzeigen könnte, die von „einer CO2-freien Welt“ (wortwörtlich!) als erstrebenswertes Ziel aller Anstrengungen schwätzen, nein, dieser gefährliche Unsinn wird per politisch sanktioniertem Lehrplan in den staatlichen Schulen auch unseren Kindern übergeholfen.

Ich habe mir die einschlägigen Unterrichtsmaterialen des sächsischen Kultusministeriums für Lehrer besorgt. Mit diesen verbindlichen Vorgaben sollen den Schülern in einer poppig aufgemachten Art und Weise die Gefährlichkeit des Giftgases CO2-vorgeführt werden. Die Zukunft unserer Erde und auch die der unmittelbaren Heimat wird in den düstersten Farben gemalt (Dürren, Seuchen, Hungersnöte, Naturkatastrophen, Kriege usw.) und es wird nützliche Handreichung gegeben, wie und mit welchen Argumenten gegen feindliche „Klimaskeptiker / Klimaleugner“ vorzugehen sei.

Doch, meine Damen und Herren,

was wissen wir tatsächlich?

Was müssen wir tatsächlich tun?

Nun, zunächst sollten wir uns immer vor Augen führen, dass das „Teufelsgas“ CO2 einerseits ein Spurengas ist (also wie schon der Name sagt, nur in geringen Spuren vorkommt) und andererseits ein für uns äußerst wichtiges Gas darstellt: Die Existenz der gesamten Pflanzen- und Tierwelt – auch die des Menschen – hängt nämlich vom Vorhandensein dieses „Killergases“ ab. Es ist  (in den vorkommenden Spuren-Konzentrationen) also weder gefährlich noch giftig. Eine CO2-freie Atmosphäre würde uns töten. Eine „CO2-freie Zukunft“ müssen wir unbedingt verhindern!

Die Frage ist, wie groß muss und darf der Anteil dieses Gasen in der Atmosphäre sein und was ist „normal“?

Die beschämende Antwort auf diese Frage ist: Wir wissen es nicht.

Gehen wir dem weiter nach, so sehen wir, dass Messungen, die nicht in die eine oder anderer Richtung „zurechtgebogen“ sind, ganz unterschiedliche Konzentrationen in der Vergangenheit und heute belegen. Grundsätzlich muss natürlich beim Vergleich von Daten geklärt werden: wie man misst und wie vergleichbar die Messmethoden und wie groß ihre Fehlerbandbereiten sind.

Dennoch, aus seriösen Recherchen erkennt man leicht: in der Atmosphäre (also in „Freier Umgebung“ – hier drinnen werden wir sicher schon bei 4000 ppm sein…) scheinen Konzentrationen von 250 bis über 1400 ppm in der erdgeschichtlichen Vergangenheit, in historischer, vorindustrieller Zeit und auch heute keine ungewöhnlichen Zahlen zu sein. Selbst in den letzten 200 Jahren schwankten die gemessenen Werte zwischen 450 und 290 ppm.

Man misst heute im Observatorium auf dem Vulkan Mauna Loa rund 380 ppm (die berühmte, seit Mitte der 50-iger Jahre ansteigernde Kurve).

Die nächste und wie mir scheint, die grundlegendste Frage ist, beeinflusst diese im ppm (Part per Million) Bereich liegende CO2-Konzentration die Temperatur der Erdatmosphäre? Auch hier zeigen verschiedene direkte Messungen …

(ach übrigens, wer weiß, seit wann es überhaupt Thermometer und eine richtige Grad-Skala gibt?  –  seit Fahrenheit 1715) 

… und indirekte Temperaturermittlungen, dass es z.B. vor 3600 Jahren rund 1 grad wärmer war, als heute, dafür 200 Jahre später (vor 3400) 1,5 grad kälter. Was immerhin einen Temperatursturz von 2,5 grad in 200 Jahren bedeutete – und zu dieser Zeit gab´s nur ganz wenige Menschen und keine Autos und vor allem keine Klima-Rettungsaktion.

Um solche Temperatur-Schwankungen zu erklären, wird gewöhnlich mit dem sogenannten Treibhauseffekt argumentiert und wenn man die damit zusammenhängenden Veröffentlichungen auf der „Klimaschützer“-Seite durchforstet, scheint alles völlig klar zu sein.

Die tatsächliche Antwort auf diese Frage ist aber ebenso überraschend und beschämend, wenn man die ganze Literatur durchkämmt, wie die zur Normal-Konzentration von CO2: wir wissen es nicht.

Wir wissen nicht genau, wie CO2 als „Klimagas“ im komplexen System der Atmosphäre insgesamt wirkt. Und es existiert kein wissenschaftlich verifizierbarer und falsifizierbarer Zusammenhang zwischen CO2-Gehalt und Temperatur. Das, was wir aufstellen sind Korrelationsvermutungen – und die können auch z.B. so gedeutet werden, dass die CO2-Konzentration in der Atmosphäre der Temperatur folgt und nicht umgekehrt.

Mich als gelernter Experimentalphysiker verwundert dabei besonders, dass mir trotz intensiver Recherche und Anfragen an ein paar meiner Physiker-Kollegen bislang kein ernstzunehmendes Experiment zur Wirkung des CO2 als „Treibhausgas“ bekannt geworden ist.

Aber verdammt, viele Leute scheinen doch ganz genau zu wissen, dass das Klima über kurz oder lang kollabieren wird, wenn wir nichts dagegen tun: sprich das weitere „Einblasen“ von CO2 in die Atmosphäre, koste es, was es wolle, unterbinden. Wozu denn sonst die gewaltigen Ausgaben für Klimaforschung, die großen und teuren Klimakonferenzen, die heiß umkämpften politischen Vereinbarungen, die dringenden Appelle usw.

Woher kommt die Mär von den 2 grad, die wir dem Klima noch zubilligen und die sich z.B. auch unsere Diplomphysikerin Merkel als Grenzziel setzt?

Tja,

auch das beruht nicht auf gesichertem Wissen. Es ist allenfalls eine Annahme.

Allerdings wissen wir genau, wer sie verbreitet und wer sie als politisches Programm aufgenommen hat und wer nun seine Volkswirtschaft und seine Steuerzahler dafür bluten lässt und wer damit schon jetzt steinreich geworden ist. 

Alle, aber auch wirklich alle diese „Vorhersehungen“, oh, Verzeihung,  „Vorhersagen“ sind Ergebnisse von Computer-Modellen, basierend auf komplexen, chaotischen Systemen, basierend auf dem nicht genauen Wissen über Treibhauseffekte und auf immer noch nicht genau bekannten CO2- und anderen Gas-Kreisläufen (Wasserdampf) im Boden, im Ozean und in der Atmosphäre.

Allerdings ist völlig klar: Wetter (lokales, globales und damit auch Klima – im strengen statistischen Sinne) unterliegt einer ständigen Veränderung. Und diese Veränderung findet mal schnell und mal langsam statt. Das kann man ohne großartige Messungen und Computerprogramme in und an der Natur (Pflanzenwelt, Tierwelt, Landwirtschaft, Seefahrt, Handelstraßen usw.) sehen, erleben, und nachvollziehen. Eigentlich wäre es sogar äußerst merkwürdig, wenn das nicht geschähe. Das Problem ist nur: aus unerfindlichen Gründen sind die heute lebenden Menschen auf „Statik“ getrimmt und jede (natürliche) Veränderung wird deshalb als Bedrohung aufgefasst. Früher freuten sich die Leute, wenn es wärmer wurde – heute haben sie davor panische Angst.

Liebe Freunde,

Nichtwissen, kann durch Wissen ersetzt werden, indem man misst, forscht, nachdenkt und rechnet.

Das ist Sinn der exakten Naturwissenschaften.

Aber leider gibt es auch eine bittere Erkenntnis, die im Lauf der langen Geschichte menschlicher Kultur immer wieder gewonnen werden musste:

Nichtwissen wird durch Halbwissen, durch „Konsens“ von Laien und letztlich durch Glauben ersetzt, was dazu führt, dass nur noch das gemessen wird, was die Priester voraussagen. Die „treuen“ Forscher beforschen eifrig die Wahrheit der reinen Lehre ihrer Religion und das damit nicht konforme Denken wird erst ausgegrenzt, dann verpönt und schließlich unter Strafe gestellt und geahndet – Ungläubige werden identifiziert, zu Ketzern erklärt. Im Mittelalter wurde so was in Europa unter dem Jubel der Masse auf Scheiterhaufen verbrannt.

Ich habe den merkwürdigen Eindruck, dass wir ohne auf diese Lehre aus unserer Vergangenheit zu achten, heutzutage feste dabei sind, diesen alten Holzweg neu zu beschreiten. Und Alle machen mit. Oder zumindest fast Alle.

Ja es ist ganz lustig, da machen sogar die mit, die es eigentlich aus eigenem Verständnis nicht tun sollten.

Da stellen sich z.B. bedeutende Wirtschaftsunternehmen, deren aktenkundiger Geschäftszweck die profitable Produktion und der steigende Absatz von Energie ist, an die Spitze von Energie-Einsparungsaktionen.

Da ist ungefähr so, als ob Volkswagen anstelle einer Abwrackprämie eine „Auto-Vermeidungsprämie“ fordern würde.

OK, das war nicht fair. Also Spaß beiseite, kommen wir auf unseren Politiker vom Anfang zurück.

Ich fragte ihn weiter, was denn das Richtige sei, was „unseren Menschen“ beigebracht werden müsse, was sie aus Unkenntnis denn nicht verstünden?

Nun, er rückte mit der Forderung nach Umweltschutz raus. Und letztlich warf er das Menetekel der Erschöpfung aller fossilen Energieträger, Gas, Kohle, Erdöl in die Wagschale seiner Argumente, beklagte das mangelnde Bewusstsein der „Verbraucher“ was den Einsatz von Energie betrifft und die mangelnde Energieeffizienz der heutigen Technik.

Hm. Dagegen kann man ja nun wahrlich nichts sagen!

Umweltschutz ist immer gut, Energieeffizienz auch. 

Doch fangen wir nochmals von Vorne an.

Die Erde ist ein relativ offenes System und gleichzeitig auch ein relativ geschlossenes.

Offen, was die energetische Wechselwirkung mit dem Kosmos, insbesondere mit unserer Sonne betrifft, geschlossen, was den Kreislauf von mit Masse behafteten Stoffen betrifft.

Insofern werden wir unentwegt mit einer (im Vergleich zu unserem Verbrauch) riesiger Menge an Energie „bombardiert“, die auch praktisch gleichzeitig unseren Planeten fast wieder vollständig verlässt. Das, was zeitweilig als Rest hier bleibt, heizt einerseits den Planeten und dessen Atmosphäre auf das uns heute bekannt Maß als Gleichgewichtszustand auf. Andererseits speichern Gesteine, Wasser, Luft, Pflanzen und Tiere die ankommende Sonnenenergie in ganz verschiedenen Formen und Zeiträumen.

So weiß man, dass Kohle gespeicherte Sonnenenergie in Form verrotteter Pflanzen ist. Bei Erdöl und Gas weiß man es – und das ist auch wiederum ganz verblüffend – nicht so ganz genau. Ja natürlich, in der Schule lernt man, dass dies auch nur Produkte aus Pflanzen- und Tierresten sind. Aber auch hier werden durchaus ernste Zweifel angemeldet. Und mir ist bekann, dass Ölfirmen in Tiefen bohren, in denen die „biologische“ Entstehungstheorie große Mühe hat, die gefundenen Vorkommen zu begründen. 

Auch der heute meist verwendete Brennstoff für unsere Atomkraftwerke ist nichts anderes als ein Energiespeicher – allerdings stammt dessen Energiegehalt aus ganz frühen Anfängen des Sonnensystems, bzw. des uns bekannten Kosmos.

Egal. Dem vernünftigen Menschen leuchtet ein: Wenn der Tagebau leer ist, ist er leer und neue Kohle kommt da nicht wieder rein – jedenfalls nicht zu unseren Lebzeiten. Kurz die Endlichkeit fossiler Energieträger ist zumindest ein richtiger Denkansatz, wenngleich die Zeiträume bis zur Erschöpfung nicht kurz sein werden, wie immer mal wieder panisch gewarnt – aber das ist prinzipiell unwichtig.

Das Problem, vor dem wir hier stehen ist, dass die Stoffkreisläufe (der Kohlenstoff-Kreislauf), die zur Bildung von Kohlenstoff-Reserven in Form fossiler Träger führen, in riesigen Zeiträumen stattfinden, angetrieben durch die Sonnenenergie. Wir aber greifen mit unserer Energiegewinnung und den damit verbundenen Stoff- und Energiewandelungsprozessen nur in einem klitzekleinen Zeit-Ausschnitt massiv ein. Wir erzeugen damit diskontinuierlich Prozess-Produkte in Spitzenkonzentrationen, die uns in den kurzen Zeitspannen ihrer Freisetzung, gemessen am langen Zeitraum ihrer Entstehung eben Probleme bereiten. 

Kurz: Wenn wir davon ausgehen, dass die wirkliche Herausforderung nicht das sich völlig unabhängig von der Tätigkeit des Menschen ständig durch kosmische Kräfte verändernde Wetter (hier als statistische Größe Klima genannt) ist, sondern die umweltschonende Bereitstellung von Energie für die zivilisatorische und kulturelle Entwicklung der gesamten Menschheit auf der Erde, dann sind wir wieder völlig beieinander.

Wir können das Klima nicht schützen und das Wetter (Temperatur, Luftdruck, Luftfeuchte, Wolken, Niederschlag usw.) wahrscheinlich global auch nicht beeinflussen, ganz sicher aber die Umwelt. Und Beides sind völlig verschiedene Sachen.

Ein Freund sagte mir vor kurzem mit Blick auf diese unsägliche CO2-Hysterie: wir haben kein CO2-, sondern ein C-Problem: Wir verfeuern derzeit kostbare und vielleicht tatsächlich endliche, sehr billige und gut verfügbare C-Träger, die wir viel besser für Chemieindustrie und Pharmaherstellung verwenden könnten. Das ist – bei dieser Gelegenheit gesagt, auch wahr und ein bisschen beschämend, wenn uns außer Verbrennung nichts Besseres für diesen Schatz einfällt.

Also dreht sich alles um eine zukunftsfähige, die Umwelt nicht negativ beeinflussende, weltweite, unsere Kohlenstofflager schonende, ausreichend große Energieproduktion.

Energie, die wir dringend benötigen.

Energie, deren Verbrauch nicht deswegen steigen wird, weil die „armen Länder“ auch eben nur mal so viel konsumieren wollen wie wir, sondern weil sich das Kulturniveau aller Menschen anheben und auf hohem Niveau über die ganze Erde hinweg ausgleichen wird.

Es ist gerade die Energieproduktion, die wir nicht mehr „abstellen“ können, weil sie der Antrieb und die Grundlage für unsere zivilisatorische Entwicklung geworden ist. Energie sinnvoll einzusetzen ist die eine Seite, d.h. alle Entwicklungen, die energieeffizientere Technologien (Produktion, Verkehr, Logistik und Verbrauch) zum Ziel haben, sind richtig im ethischen Sinn und dies ist sicher auch eine große Chance für viele mittelständische Unternehmen.

Aber es geht auch um alternative Energieproduktion, um Energietransport und Speicherung, um den zukünftigen Energiehunger der Weltbevölkerung zu stillen. Und dieser „Hunger“ darf nicht als negative Forderung verstanden werden, sondern als Herausforderung an Wissenschaft und Technik.

Denn dieser „Energie-Hunger“ ist der messbare Ausdruck unserer kulturellen Fortentwicklung. So, wie der Hunger eines menschlichen Individuums nach energiereicher Nahrung Ausdruck des Energieverbrauchs seines Körpers und insbesondere seines Gehirns ist.

Kommen wir noch kurz auf die scheinbare Lösung des Energieproblems durch Kernfusion.

Wahrscheinlich werden wir in wenigen Jahren in der Lage sein, ein solches Kraftwerk zu bauen und in Betrieb zu nehmen. Es würde eine riesengroße Menge an Elektroenergie produzieren. Aber es löst zwei Probleme nicht: den verlustreichen Transport von Elektroenergie über große Entfernungen und die Aufheizung der Erde – nicht durch atmosphärische Spurengase – sondern durch tatsächliche Aufheizung des Mantels infolge einer Energieproduktion zusätzlich zur (gespeicherten oder ständig einfallenden) Sonnenenergie, mit der unsere Erde im Gleichgewicht steht, auch wenn wir sie in Energie-Umwandlungsprozesse einbeziehen und Arbeit verrichten lassen. Außerdem würden nur wenige Kraftwerke an zentralen Stellen nötig und finanziell möglich sein.

Wer garantiert dann bei der heutigen politischen Weltlage die Durchleitung und den sicheren Betrieb?

Also vergessen Sie die Kernfusion. Lassen Sie sich von der Sonne „erleuchten“.

Hier hat die Natur nur leider ein großes Problem für uns parat: die Energiedichte ist sehr klein – zu klein für die heutige Technologie der Sonnenenergiegewinnung. Und zu allem Verdruss gibt es sowohl Tag und Nacht und Wolken, Sturm und Windstille. Da Wind und fließendes Wasser, aber auch Pflanzen ja auch nichts Anderes als Energie-Träger der Sonnenenergie sind, ist bei allen diesen Sachen die Herausforderung gleich und mit heutigen technischen Mitteln ist nur die Wasserkraft sinnvoll im Sinne von Aufwand und Nutzen und kontinuierlicher Verfügbarkeit im Vergleich zu Kohle, Erdöl, Gas und Uran.

Anstatt also Milliarden und aber Milliarden zu verschwenden, um 100-Watt-Glühlampen zu verbieten und CO2-Abgase in Bergbaustollen zu verstecken, anstatt teure Silizium-Platten auf Scheunendächern zu entsorgen und Landschaften mit hässlichen Windmühlen zu verschandeln, deren Existenz allein von der gewaltigen Subventionierung durch den Steuerzahler abhängt, muss es eine Rückkehr zur wissenschaftlichen und ingenieurtechnischen sowie zur wirtschaftlichen und letztlich politischen Vernunft geben.

Es muss tatsächlich alles daran getan werden, die auf die Erde einfallende Sonnenenergie als praktisch unerschöpfliche und riesige Energiequelle „anzuzapfen“. Aber leider scheinen eben die heute eingesetzten Technologien dafür nur bedingt geeignet zu sein.

In diesem Zusammenhang muss auch Alles auf den Prüfstand, was mit dem heutigen Energie-System in Verbindung steht und was Ideen für die Zukunft liefern könnte. Zum Beispiel halte ich es für sehr angebracht darüber nachzudenken, ob es nicht besser wäre, statt der kontinuierlichen, zentralen Energieerzeugung eine verbrauchsabhängige, also variable, dezentrale Erzeugung „vor Ort“ zu bevorzugen.

Dies würde ganz andere Denkansätze und Technologien bei Erzeugung, Transport und Speicherung ermöglichen. Also werden wir auch die Frage stellen: ja, muss es denn Strom sein, den wir zentral erzeugen und über Drähte transportieren, ohne ihn wirklich sinnvoll speichern zu können, oder könnte man mit dem Energieträger Gas (Wasserstoff) nicht viel besser auskommen und umgehen?

Aber alle diese Fragen können nur beantwortet werden, wenn wir nicht mit Demagogie, nicht mit einem machtpolitisch motivierten Schwindel, nicht mit einer wissenschaftlichen Fälschung argumentieren. Und wir sollten uns auch volkswirtschaftlich nicht in die Tasche lügen.

Denn eines ist sicher: es wird herauskommen!

Es wird herauskommen – und der Verdacht des Betruges keimt bereits -, dass die natürlichen und permanenten Veränderungen des Klimas nicht wesentlich von unserem CO2-Eintrag abhängig sind und dass alle darauf bauenden Argumente und Folgerungen falsch sind.

Dies wird die Glaubwürdigkeit der Naturwissenschaft und der Politik dermaßen massiv untergraben, dass notwendige und richtige Ansätze zur Revolution der Energiesysteme nicht mehr ernst genommen werden. Und dann, meine Freunde, dann haben wir ein richtiges Problem!

Im Gegensatz zu meinem Politiker, der mir die Stichworte für diesen Vortrag geliefert hat, glaube ich nämlich fest daran, dass nur mit der Wahrheit und nur mit ihr und nur, wenn wir uns als vernünftige Wesen auch vernünftig über die großen Fragen streiten und einigen, nachhaltig die Existenz und Entwicklung unserer Zivilisation geschützt werden kann. 

Insofern freue ich mich auf die durch hocheffiziente Photosynthese-Werke gestützte, flexible Wasserstoff-Energiewirtschaft der Zukunft, die das Wort „Knappheit“ nicht mehr kennt.

Prof. Dr. Knut Löschke Leipzig

Der Vortrag erschien in leicht gekürzter Form zuerst bei der Partei der Vernunft




Deutsche Klimafolgenforscher starten das letzte Gefecht: Ein neuer Rettungsversuch für ein globales Klimaabkommen – Die Klima-Kopfpauschale!

Wenn selbst die Kanzlerin der als Klimastreber bekannten Deutschen sich öffentlich davon verabschiedet (auch hier), dürfte das (stille) internationale Begraben dieser Zielsetzung wohl nur noch eine Formsache sein. Die nächste große Klimakonferenz Ende dieses Jahres wird daher wohl wieder einmal viel Tamtam bringen und ansonsten ohne konkretes Ergebnis zu Ende gehen. Man sieht sich im nächsten Jahr.

Paradigmenwechsel in der deutschen Klimapolitik
Der Wechsel der Marschrichtung in der deutschen Politik kommt einem Paradigmenwechsel gleich. Und man muss kein Prophet sein, um zu folgern, dass damit auch ein Verlust des Einflusses der Klimaforscher auf die Politik in unserem Land einhergehen wird. Am meisten dürfte davon das Potsdamer Institut für Klimafolgenforschung (PIK) betroffen sein, welches bislang mit Stefan Rahmstorf und Institutsdirektor Hans Joachim Schellnhuber noch 2 der 8 Mitglieder des einflussreichenWissenschaftlichen Beirats der Bundesregierung Globale Umweltveränderungen (WBGU) stellt und mit knapp 200 Beschäftigten ein hohes Interesse daran hat, dass die Klimafurcht und alles was dazu gehört weiter geschürt wird.

Ungeachtet dieser Entwicklung, oder vielleicht gerade deswegen, also um noch einmal eine entscheidende “Duftmarke” zu setzen, hat das PIK jetzt ein Grundsatzpapier herausgegeben, in dem ein völlig neuer Weg vorgestellt wird, der doch noch den erhofften Durchbruch in der Klimapolitik bringen soll. Unter dem Titel “Neue Strategie zur Realisierung des 2°max Klimaziels” präsentieren die Forscher einen Lösungsansatz, den sie “Peak and Trade” nennen und hinter dem sich eine Art Klima-Kopfpauschale verbirgt. Nach den Vorstellungen der Wissenschaftler soll jedem Erdenbürger zunächst ein Kontingent von rund 5 Tonnen CO2 zugesprochen werden. Wird dieses überschritten, muss in einen Topf (eine neu zu schaffende “Weltklimabank”) gezahlt werden, bei Unterschreitung gibt es Geld aus diesem Topf. Morgen, am 29.4.10 wird dieses Papier mit großem TamTam von PIK Chef-Schellnhuber und Bundesumweltumweltminister Röttgen in den Räumen der Bundespressekonferenz in Bonn der Öffentlickeit (s. u.) vorgestellt. Wir können sicher sein, dass es wieder große mediale Aufmerksamkeit erfährt.

 

Pro Kopf CO2-Ausstoß nach Ländern. Die Größe des Kreises spiegelt den CO2-Ausstoß wider. Quelle: Gapminder World

Die Amerikaner hätten demnach mit 16,9 Tonnen pro Jahr und Einwohner einen mehr als 3 mal zu hohen Ausstoß, wir Deutschen mit 9,8 Tonnen einen fast doppelt zu hohen. In Westeuropa stehen Schweden und die Schweiz (je 5,6 Tonnen pro Einwohner) und Frankreich (6,3 Tonnen) besonders gut da. Erstere, weil sie sehr viel Strom aus Wasserkraft erzeugen, und letztere wegen der Stromerzeugung aus Kernkraft.

Kopfpauschale als Lockangebot für Schwellen- und Entwicklungsländer
Woher kommt die magische Grenze von rund 5 Tonnen pro Einwohner? Die Autoren der Studie begründen diese mit einem vermutlich im Jahr 2015 erreichten globalen CO2-Ausstoß von 35 Milliarden Tonnen. Und diese Zahl, geteilt durch eine Weltbevölkerung im Jahr 2010 von geschätzten 6,9 Milliarden Menschen, ergibt 5,1 Tonnen pro Erdenbewohner. Vergleicht man die CO2-Emissionen pro Kopf der Länder der Welt (klick auf die Infografik), dann kann einem aber auch eine ganz andere Vermutung kommen.

Das Scheitern der letzten Weltklimakonferenz in Kopenhagen lag zu einem nicht unerheblichen Teil am Widerstand der aufstrebenden Entwicklungs- und Schwellenländer, allen voran Brasilien, China und Indien. Und diese Länder liegen (Brasilien und Indien deutlich) unterhalb der magischen 5,1 Tonnen-Grenze, würden also von der jetzt vorgeschlagenen Regelung profitieren.  Mit diesen Maßnahmen, so könnte man mutmaßen, sollen die abtrünnigen Schwellenländer finanziell für eine Zustimmung geködert werden. Politisch korrekt nennt man das heute wohl “ins Boot holen”.

Kopfpauschale schafft Anreiz zum Bevölkerungswachstum
Profitieren von einer solchen Regelung würden vor allem bevölkerungsreiche Schwellen- und Entwicklungsländer. Je mehr Einwohner und je geringer der Entwicklungsstand, umso mehr Geld ist zu holen. Für solche Länder würde diese Regelung vor allem den Anreiz erhöhen, einen möglichst großen Anteil ihrer Bevölkerung von der Entwicklung auszuschließen, denn dadurch würde deren pro Kopf CO2 Verbrauch nachhaltig auf niedrigem Niveau gehalten werden. Von den Einnahmen, die für diese Länder durch die CO2-Karenz ihrer Bevölkerung generiert würden, bekäme diese wohl eher nichts zu sehen. Wie die Erfahrungen aus den zahlreichen Entwicklungshilfe-Programmen gerade für die ärmsten Länder in Afrika zeigen, fließen solche Gelder entweder in den Militäretat oder landen direkt auf den Schweizer Nummernkonten der Regierungsmitglieder.

[Update]
Welt 27. 04. – Klimaforscher fordern CO2-Höchstmenge pro Kopf
FAZ 28. 04. – Asyl für Klimasünder

ÄHNLICHE BEITRÄGE (BETA):

Rudolf Kipp EIKE; zuerst erschienen in abgewandelter Form bei Science Sceptical

Update 1:

15:00 Uhr     – NEU –
BPK BONN Klimapolitik nach Kopenhagen: Auf drei Ebenen zum Erfolg Der WGBU übergibt im Vorfeld des Petersberger Klimadialogs ein Politikpapier an die Bundesregierung
– BONNER TERMIN! – Veranstaltungsort: BPA, Dienstsitz Bonn, Welckerstraße 11, 53113 Bonn

  • Dr. Norbert Röttgen, Bundesminister für Umwelt, Naturschutz und Reaktorsicherheit
  • Prof. Dr. Hans-Joachim Schellnhuber, Vorsitzender des Wissenschaftlichen Beirats der Bundesregierung Globale Veränderungen (WBGU), Direktor des Postdam-Instituts für Klimafolgenforschung (PIK)
  • Prof. Dr. Dirk Messner, Stellv. Vorsitzender des Wissenschaftlichen Beitrats der Bundesregierung Globale Umweltveränderungen (WBGU), Direktor des Deutschen Institut für Entwicklungspolitik (DIE)
  • Update 2: FDP Kauch solidarisiert sich sofort mit dieser neue Botschaft:
  • ++ KAUCH: FDP unterstützt globalen CO2-Markt (29.04.2010)

    BERLIN. Zu den Vorschlägen für eine neue Klimaschutzstrategie, die der Wissenschaftliche Beirat für Globale Umweltfragen (WBGU) der Bundesregierung vorgelegt hat, erklärt der umweltpolitische Sprecher der FDP-Bundestagsfraktion Michael KAUCH: 

    Die Experten des WBGU vertreten die Strategie eines globalen CO2-Marktes.
    Die FDP-Bundestagsfraktion unterstützt dieses Konzept seit vielen Jahren. Die Liberalen haben das Ziel eines globalen Kohlenstoffmarktes auch im Koalitionsvertrag verankert. Dennoch bleibt die Frage, ob China und die USA, die bisher ein Kyoto-Nachfolgeabkommen verweigern, sich durch diesen Vorschlag einbinden lassen.

    Begrüßenswert ist der Ansatz des WBGU, jedem Menschen gleiche Emissionsmengen zuzugestehen. Das würde die "basarähnlichen" Verhandlungen auf den Klimakonferenzen über Reduktionsverpflichtungen und Ausgleichszahlungen durch einen objektiven Maßstab ersetzen. 
    Vernünftig ist die Doppelstrategie der Bundesregierung, sowohl auf ein neues Klimaschutzabkommen als auch auf praktische Klimaschutz-Kooperation mit Partnerländern zu setzen.

Die Redaktion mein: Dem ist nichts hinzufügen!




Was ist ein Öko-Auto, oder was treibt uns in Zukunft an?

Und damit wären wir schon bei der guten Nachricht: Nachdem der Climategate-Skandal das Lügengebäude der CO2-Ideologen zum Einsturz gebracht hat, können auch in automobilen Fragen wieder messbare Fakten, sprich Leistungskennzahlen, Aufwand und Nutzen in den Blickpunkt gerückt werden.

Ganzheitlich ´ne Schraube locker?

Von „Tabubruch“ war die Rede, als Cameron Diaz bei der Oscar-Verleihung 2006 in einem Toyota Prius, einem sog. Öko-Auto, vorfuhr. 

Eine gelungene PR-Aktion wäre sicher die passendere Bezeichnung gewesen, da sich Hollywood-Größen seit jeher gern vor versammelter Presse als Umweltschützer präsentieren. Doch das nur nebenbei. Aber was, bitteschön, ist eigentlich ein Öko-Auto? Klar, eines, das die Umwelt schont. Nur, woran wird das gemessen? Dieser Frage ist der Schweizer Publizist  Patrik Etsch mayer im Newsportal nachrichten.ch nachgegangen und vergleicht in seinem Artikel eine europäische mit einer amerikanischen Untersuchung. Das Ergebnis könnte gegensätzlicher nicht ausfallen: Während beim Verkehrsclub Deutschland (VCD) die Hybridmodelle von Honda und Toyota das Rennen machen, siegt bei der US-Studie ein Jeep Wrangler vor dem Chevrolet Tracker – beides Geländewagen – und dem Toyota Yaris.

Die zu erwartende Reaktion vieler Leser dürfte Etschmayer auf den Punkt getroffen haben: „OK, wird sich da nun mancher sagen, die Amis haben, was Autos angeht, eben eine Schraube locker. Oder zwei.“ 

Aber so einfach ist es eben nicht, wenn man einen Blick auf die Bewertungskriterien wirft: Der VCD untersuchte den Verbrauch, die Abgase und den Lärm, den ein Fahrzeug verursacht. Die US-Studie betrachtete dagegen den Energieaufwand für ein Auto – vom Bau der Fabrik über die Fertigung und den Betrieb bis zu seiner Verschrottung. 

„Werden diese Punkte alle berücksichtigt“, konstatiert der Autor, „sieht es für Hightech-Mobile auf einmal schlecht aus. Die Komplexität der Technik in Hybrid-Autos, der Ersatz der Batterien, komplexe Antriebssysteme, die leichten Composite-Werkstoffe und die viel aufwändigere Entsorgung tragen dazu bei, dass ein herkömmlicher Honda Civic am Ende seines Autolebens energietechnisch besser dasteht als sein sparsamer Hybrid-Bruder.“  

Biodiesel: Ein Desaster

In den meist emotional geführten Debatten um umweltfreundliche Autos gehen vor allem zwei Aspekte oftmals völlig unter: Zum einen, was in absehbarer Zeit aus rein technischer Sicht überhaupt machbar ist, und zum anderen, was für die Hersteller wirtschaftlich vertretbar ist. 

Schließlich bleiben Letztere auf den immensen Entwicklungskosten sitzen, wenn sie ihre Autos nicht in überschaubaren Zeiträumen am Markt platzieren, sprich verkaufen können. 

Zum Stand der Technik lieferte der Verein Deutscher Ingenieure (VDI) in seiner Anfang 2008 erschienenen Publikation „Zukunft des Autos“ einen recht guten Überblick: von der Weiterentwicklung herkömmlicher Otto- und Dieselmotoren über Hybridantriebe und Brennstoffzellen bis hin zu reinen Wasserstoff- und Elektromotoren.

Nachteil der Studie: In einigen Punkten ist sie schon nach zwei Jahren wieder hoffnungslos veraltet. Das gilt u. a. für die in einem positiven Grundtenor dargestellte Verwendung von Biodiesel. Tatsächlich hat sich der noch vor wenigen Jahren massenmedial hochgejubelte alternative Kraftstoff als riesiges Desaster entpuppt. 

Die Abholzung tropischer Regenwälder sowie die Verknappung der Getreide-Anbauflächen zuguns ten der Biosprit-Produktion haben mittlerweile sogar „dunkelgrüne“ Öko-Freaks davon überzeugt, dass Biodiesel alles andere als um weltfreundlich und ressour censchonend ist.

Wasserstoff: Anfang oder Ende?

„Im Anfang war der Wasserstoff“, schrieb der Wissenschaftsjournalist Hoimar von Ditfurth vor knapp 40 Jahren – wenn auch nicht im Hinblick auf eine automobile Antriebstechnik. Dort könnte er schon bald am Ende sein. 

Wieder mal, denn auch am Wasserstoffmotor wird schon seit Jahrzehnten geforscht. Nun hat sich BMW von der Idee, Wasserstoff direkt zu verbrennen, verabschiedet. Und die Bayern haben als einziger deutscher Hersteller überhaupt diesen ambitionierten Versuch unternommen.

„Es wird vorerst keine neue Wasserstoff-Testflotte geben“, sagte BMW-Entwicklungsvorstand Klaus Draeger dem „Handelsblatt“. Der flüchtige Treibstoff muss extrem gekühlt werden, braucht einen großen Spezialtank und beeindruckt nicht gerade mit üppiger Reichweite. 

Zudem ist er auch nicht frei verfügbar, sondern muss erst energieaufwändig hergestellt werden. Bis zur Serienreife hätte es wohl noch 20 Jahre gedauert. Zu lange, angesichts der Konkurrenz – auch bei alternativen Treibstoffen.

Brennstoffzelle: Heißer Tanz

Das endgültige Aus für den Wasserstoffantrieb bedeutet das jedoch nicht, denn auch in der Brennstoffzelle kommt Wasserstoff zum Einsatz. Hier wird er aber in Strom umgewandelt, der einen Elektromotor antreibt. Um die Zukunft der Brennstoffzelle gibt es allerdings selbst unter Experten heftige Kontroversen. 

„Ungeeignet für den Großeinsatz“, heißt es bei VW. Die Wolfsburger entschieden sich als erster deutscher Hersteller gegen die Brennstoffzellentechnik. Daimler dagegen hält weiterhin daran fest: „Das ist gut für die Umwelt und die Menschen. Genau darum wollen wir diese Technologie so schnell wie möglich zur Marktreife bringen“, wird Konzernchef Dieter Zetsche vom „Tagesspiegel“ zitiert. Warum die Technik „gut für die Umwelt und die Menschen“ sein soll, ist nicht überliefert. Fakt ist aber, dass die Probleme mit Herstellung und Speicherung des Wasserstoffs nicht zufriedenstellend gelöst sind.

Elektromotor: Viel Geld für wenig Reichweite

Trotzdem treiben große Automobilfirmen weltweit die Brennstoffzellentechnik voran, um möglichst bald ein Elektro-Auto präsentieren zu können, das weiter als 50 oder 100 Kilometer fährt. Die geringe Reichweite der bereits existierenden, rein batteriebetriebenen Autos ist aber nicht deren einziges Problem: 

Die Batterie nimmt viel Platz in den ohnehin sehr kleinen Fahrzeugen ein, der Ladevorgang dauert Stunden, und obendrein sind die nicht für jeden schön anzuschauenden Autos wahnsinnig teuer. „Dafür könnte man sich schon einen BMW X5 oder eine gut ausgestattete Mercedes E-Klasse in die Garage stellen“, schrieb die „Bild am Sonntag“, als sie den E-Smart von Daimler vorstellte. 

Wer nun mit dem Null-Emissions-Argument kommt, sollte sich mal darüber Gedanken machen, woher der Strom für ein Elektro-Auto kommt, woraus die Materialien des Fahrzeugs bestehen, wie sie hergestellt und später entsorgt werden. 

Vorteil Hybrid: Konkurrenzfähigkeit

Bleibt noch der Hybrid, die Kombination aus Verbrennungs- und Elektromotor. Er hat gegenüber den anderen alternativen Antrieben vor allem einen Vorteil: Er ist bereits serienmäßig auf dem Markt – dank der japanischen Hersteller Toyota und Honda. Mit rund vier Litern Verbrauch auf 100 Kilometer und Preisen um die 20.000 Euro sind die Modelle absolut konkurrenzfähig zu herkömmlichen Benzinern und Dieseln. 

Ob sie diese langfristig vom Markt verdrängen können, kann heute aber niemand wirklich sagen, denn auch die „alten“ Verbrennungsmotoren haben noch Spar- und Entwicklungspotenzial. Der Autozulieferer Bosch zumindest glaubt nicht an einen Durchmarsch der Hybride und setzt weiterhin auf die Dieseltechnik.

Neben den immer wieder vorgebrachten Einwänden bezüglich des höheren Fahrzeuggewichts durch Elektroaggregate und Batterien könnte dem Hybridkonzept mittelfristig noch ein anderes Problem zu schaffen machen: die Rohstoffversorgung. 

„Gefährdet ist der Nachschub an sog. seltenen Erden, einer Klasse von Metallen, die u. a. zum Bau von Windkraftanlagen und Hybridautos benötigt wird“, schrieb Nora Schlüter bereits im August 2009 im Online-Portal der FTD. Marktführer China plane hier Einschnitte beim Export, die laut dem Bericht den Markt hart treffen dürften. Ausgerechnet der Toyota Prius sei „Spitzenreiter im Verbrauch der Metalle“, erläutert Schlüter: „In jedem Auto sind ein Kilogramm Neodym und zehn bis 15 Kilogramm Lanthan verbaut. Laut dem Rohstoffexperten Jack Lifton werden sich diese Zahlen verdoppeln, sobald Toyota Pläne umsetzt, das Auto noch treibstoffsparender zu konstruieren.“

Entscheidend: Wie viel Auto bekomme ich für mein Geld?

Wie soll sich der potenzielle Autokäufer aber angesichts dieser ziemlich unüberschaubaren Situation denn nun entscheiden? Vielleicht hilft gerade in unsicheren Zeiten Altbewährtes weiter, z. B. ein paar  einfache Fragen: Wie viel Auto bekomme ich für mein Geld? Will ich einen größeren Wagen oder reicht auch ein kleiner? Wie viel Komfort muss sein, und worauf kann ich verzichten? Spielen die Anschaffungs- oder die Unterhaltungskosten die entscheidende Rolle?

Den Kauf eines neuen Autos einzig und allein von seiner Antriebstechnik abhängig zu machen, könnte sich schnell als reines Vabanque-Spiel erweisen. Diesbezüglich kann man nur hoffen, dass Konstrukteure, Hersteller und Marketing spezialisten künftig nicht mehr den Verlockungen nur vermeintlicher Umweltschützer erliegen. Den Rest regelt der Markt.

von Ullrich Rothe PT-Magazin mit freundlicher Genehmigung

Nachtrag der Redaktion:

Bereits zwei mal konnte man die jeweils euphorisch begrüßte Aufnahme von Entwicklungsarbeiten an Elektroautos erleben. (Anfänge 70er und 90er Jahre). 1973 kam die erste "Ölkrise" hinzu mit Sonntagsfahrverbot, Ausnahme u.a. Elektroautos Versuche mit VW eingestellt etwa 1975, zu teuer, zu uneffectiv (Gewicht zu Ladekapazität und Reichweite, Rückspeisung noch nicht richtig nutzbar) Die Knackpunkte damals waren: Preis, Lebensdauer der Batterie, Wartungskosten.

Und 1995, stieg die nächste Hype: Die kommende Antriebsquelle ist die Batterie, die Ölreserven seien versiegt! Daimler (mit AEG), Audi/VW mit Siemens, Versuche gab´s auch in Italien und USA/Kanada.

Die Fortschritte waren: kleinere Elektrotechnik, Umformer mit Rückspeisung, Motor, Ladegerät, Konzepte mit Tauschbatterie. etwa 1997 eingestellt: Punkte wie oben –

Knackpunkte wie bereits 1973: Lebensdauer der Batterie, Wartungskosten, Tauschbatterie nur von Spezialisten austauschbar (Gewicht) – d.h. zusätzliche Kosten für Vorhaltung und Wartung(!) zusätzlicher Batterien.

Die Zeit ist mit weiteren 15 Jahren nun mal wieder reif für Elektroautos. Die Ausgangsbedingungen jedoch – Gewicht des 5*Crash-Autos, verfügbare Einbauräume etc. – noch schlechter geworden.

Unter Mithilfe von Leser Demmig.




Klimaschutzkonferenz in Bonn: Die Deutschen sollen zahlen!

Der Beirat, sein Institut und mit ihm sein Chef leben also von unseren Steuergeldern. Und das nicht schlecht. Da es sich gut damit leben läßt und gar nicht erst die Gefahr aukommt, dass sich dieser schöne Zustand irgendwann ändern könnte, fordert Dirk Messner deutlich mehr. "Wer emittiert muß zahlen" lautet die Überschrift zu einem Interview mit ihm, dass er der ihm wohlgesonnenen  FAZ (2) jüngst gewährte:
Darin drängt Messner die z.Zt. statfindende  xte Bonner Klimaschutzkonferenz zur Eile. Als Ansporn benennt Meissner – in gleicher schriller Tonlage wie sein Beiratskollege Schellnhuber eine zukünftige Katastrophe nach der anderen. Nichts wird ausgespart! So sagt Messner auf die entsprechende Frage der FAZ:

  • FAZ: Die Klimaverhandlungen scheinen auf der Stelle zu treten. Was wären die Folgen eines Scheiterns?
  • Messner: Eine instabile, unsichere Welt mit irreversiblen Schäden. Ohne einen verbindlichen internationalen Fahrplan zur Senkung der Treibhausgasemissionen wären im Verlauf dieses Jahrhunderts Temperaturerhöhungen um 3,5 bis 7 Grad Celsius zu erwarten. Die Folgen sind absehbar: Die Zerstörung landwirtschaftlicher Flächen, Wasserknappheit rund um den Erdball, die Bedrohung vieler Menschen durch Extremwetterereignisse und massive Migrationsströme.
  • Woher er dies so sicher weiß, behält er zwar für sich. Der Interviewer hakt auch nicht nach. Schließlich weiß das inzwischen ein jeder. Versteht sich. Auch ganz sicher ist sich Dirk Messner darin, dass die erforderliche und mögliche Verhinderung, der seit nunmehr 20 Jahren herbeiprognostizierten Klima-Katastrophen sofort sehr, sehr viel Geld kosten wird, und auch wer dafür  zahlen muß. Nämlich ingesamt der Westen, im partiellen der deutsche Steuerzahler. Und da fügt es sich zufällig gerade gut, dass sein Institut genau weiss, wie man die noch bereit zu stellenden immensen Mittel an die frohen Entwicklungsländer umverteilt. Ein Schelm der böses dabei denkt. Denn wer muß zahlen, fragt scheinheilig der Interviewer?

Es sollte das Verursacherprinzip gelten. fordert Herr Mesner scheinbar gerecht und sagt weiter:

Wer viel emittiert, muss entsprechend zur Kasse gebeten werden. Ein internationaler Emissionshandel oder Steuern auf Treibhausgasemissionen wären Mechanismen, um diese Mittel aufzubringen. Doch wichtig ist: Die Vermeidung eines gefährlichen Klimawandels ist viel billiger als die Kosten des Nichthandelns. Der Umbau der Weltwirtschaft in Richtung "low carbon economy" wird uns weltweit jährlich etwa 1 bis 2 Prozent des globalen Sozialproduktes kosten. Die Kosten eines gefährlichen Klimawandels liegen zukünftig zwischen 5 und 20 Prozent der globalen Wertschöpfung.

Die besagte Konferenz in Bonn ist inzwischen an einem toten Punkt angekommen. Es geht um Geld, sehr viel Geld, unser Geld. Niemand will freiwillig zahlen, jeder sucht einen Dummen, um ihm die Kosten für die – inzwischen von jedem als politsche Religion erkannte Klimaschutzpolitik-, aufzuladen.  Da müssen dann wieder mal die Deutschen in die Bresche springen. Und nach Meinung mancher in der Regierung sind wir auch dazu bereit.
Unter der Überschrift "Klimavertrag nur gegen Geld" ("Unser Geld" versteht sich. ) bringt es die FAZ in der gleichen Ausgabe auf den Punkt.
 Zitat: Nach Ansicht von Koch-Weser wird es keinen Klimavertrag geben, wenn die Industriestaaten den Entwicklungs- und Schwellenländern nicht auch erhebliche finanzielle Konzessionen machten.
….Koch-Weser verweist auf jüngste Studien der amerikanischen Stiftung "ClimateWorks", wonach die Entwicklungs- und Schwellenländer bis 2020 jährlich zwischen 65 und 100 Milliarden Euro brauchten, um die zusätzlichen Kosten ihres notwendigen Beitrags zur Emissionsminderung zu leisten. Davon seien 20 bis 40 Milliarden ein finanzieller Ausgleich dafür, dass tropische Länder Regenwälder nicht abholzen und Aufforstung betreiben. Diese Wälder sind ein wichtiger Kohlendioxid-Speicher. "Weil die öffentlichen Haushalte der Industrieländer diese Mittel nicht aufbringen können, muss der größte Teil aus den Erlösen des Emissionshandels abgezweigt werden. Daher sollten möglichst alle Zertifikate versteigert werden, wenn es ein globales Klimaabkommen gibt."

Damit läßt sich gut verdienen: finden
….Finanzinstitute, die mit Emissionszertifikaten für Kohlendioxid handeln. (Sie) hoffen auf einen Erfolg der Klimaverhandlungen in Bonn und damit auf einen globalen Vertrag Ende 2009 in Kopenhagen. Dort soll ein Nachfolgeabkommen für das in drei Jahren auslaufende Kyoto-Protokoll vereinbart werden, um die Emissionen an Treibhausgasen zu beschränken und damit die Erderwärmung möglichst unter 2 Grad zu halten.

Die einzig gute Nachricht ist, dass die beschworenen 2 ° C mögliche Erwärmung – herbei gerechnet aus dazu frisierten Modellen- schon wieder Schnee von gestern ist. Nach neuesten Satellitenmessungen lag im Abpril 2009 die  Globaltemperatur um glatte 0,09 °C über dem Ø Wert von 1961 bis 1990. Also dort, von wo der ganze Schreckensrummel einst begonnen hat. Erwärmung findet nicht statt. Interessiert das keinen?

Michael Limburg EIKE

Anmerkungen:

1       Mitgleider des Wissenschaftlichen Beirates der Bundesregierung Globale Umweltveränderungen
* Claus Leggewie, Direktor des Kulturwissenschaftlichen Instituts Essen, Forschungskolleg der Universitätsallianz Metropole Ruhr
    * Reinhold Leinfelder, Generaldirektor des Museum für Naturkunde an der Humboldt-Universität, Berlin
    * Dirk Messner, Direktor des Deutschen Instituts für Entwicklungspolitik gGmbH, Bonn
    * Nebojsa Nakicenovic, Professor für Energiewirtschaft, Technische Universität Wien und International Institute for Applied Systems Analysis, Laxenburg
    * Stefan Rahmstorf, Professor für Physik der Ozeane, Universität Potsdam, und Leiter der Abteilung Klimasystem am Potsdam Institut für Klimafolgenforschung
    * Hans Joachim Schellnhuber CBE, Direktor des Potsdam-Institut für Klimafolgenforschung und Visiting Professor der Oxford University (Fachbereich Physik und Christ Church College)
    * Sabine Schlacke, Professorin für Öffentliches Recht mit dem Schwerpunkt deutsches, europäisches und internationales Umweltrecht, Verwaltungsrecht, Universität Bremen
    * Jürgen Schmid, Vorstandsvorsitzender und wissenschaftlicher Leiter des Instituts für Solare Energieversorgungstechnik e.V. und Professor an der Universität Kassel, Institut für Elektrische Energietechnik, Fachgebiet Rationelle Energiewandlung
    * Renate Schubert, Professorin für Nationalökonomie und Direktorin des Instituts für Umweltentscheidungen, Eidgenössische Technische Hochschule Zürich

2 Frankfurter Allgemeine Zeitung, 05.06.2009, Nr. 128, S. 14




Unser Klima wird im Weltraum gemacht – Freispruch für CO2 ?

Dipl.-Met. Klaus-Eckart Puls

 

„Unser Klima wird im Weltraum gemacht –

Freispruch für CO2 ?“[1]

 

 

In den vergangenen 100-150 Jahren ist es wärmer geworden. Das ist so ziemlich das einzige, was in der derzeit ausufernden Klima-Debatte als gesichert gilt. Über alles andere wird diskutiert und auch gestritten. Das muß in einer naturwissenschaftlich aufgeklärten Gesellschaft auch möglich sein. Leicht ist das nicht immer, denn die Politik hat sich der „Naturwissenschaft Klima-Katastrophe“ bemächtigt. Kritiker und Skeptiker werden ausgegrenzt, erhalten in den Medien kaum ein Forum, und auch so gut wie keine Forschungs-Gelder.

 

Demgegenüber wird von offiziellen Instituten und Gremien (z.B. IPCC) ein rigoroser Katastrophismus in die Zukunft projiziert, von Medien und Politikern bis zur Hysterie-Formung der Bürger verstärkt.

 

Bei alledem wird übersehen, das in der Geschichte der Naturwissenschaften Fortschritt und abgesicherte neue Erkenntnisse nie durch Mehrheitsbeschlüsse erzielt wurden. Von Aristarch über Kopernikus, Galilei bis hin zu Alfred Wegener haben ungezählte Wissenschaftler das erfahren und ertragen müssen.

 

Dieser Vortrag möchte einen kleinen kritischen Beitrag zur Versachlichung der Debatte leisten.

 

)* Bis 1998; seitdem wird es wieder kühler! Vgl w. u.

 

 

 

 

 

Die Sonne ist ein Heizstrahler, der auf unserer Erde für Wärme, Leben, Wetter, Klima … sorgt.

 

Um 1610 entdeckten Galilei und Scheiner zeitgleich die Sonnenflecken. Seither ist bekannt, daß die Oberfläche der Sonne sich ständig verändert, zyklisch (Sonnenflecken-Rhythmen) und aperiodisch (Fackeln, Protuberanzen…). Erst seit ca. 20 Jahren konnte man mit der Satelliten-Technik oberhalb der Erdatmosphäre beweisen, daß mit den Veränderungen auf der Sonnen-Oberfläche sich auch die an der Atmosphären-Obergrenze ankommende Energie ständig ändert. So ist die sgn. (z.Zt. m2) eigentlich eine „Unkonstante“ ().

 

Wenn sich die an der (fiktiven) Obergrenze der Atmosphäre ankommende Energie verändert, so wird diese Veränderung auch in die Atmosphäre und letztlich bis an die Erdoberfläche weiter gegeben.

 

 

 

Die sich verändernde Sonnenstrahlung ist ein hochwirksamer Klimafaktor !

 

 

 

wird derzeit lediglich über den Anteil, den neuzeitliche Veränderungen der auf die derzeitige Erwärmung haben.

 

Dazu gibt es in der wissenschaftlichen Literatur sehr gegensätzliche Meinungen :

 

 

 

(2007) sagt dazu: 2. Dies ist deutlich geringer gegenüber dem 2001-Bericht von ursprünglich 0,3 W/m2.“

 

 

 

 

 

(Quelle: www.scienceandpolicy.org, Deutsche Übers.: M. Limburg, 8.2.07, http://www.oekologismus.de/).

 

 

 

Bei erhöhter Sonnenaktivität bewirkt die direkt in die Atmosphäre und z.T. bis zum Boden vordringende kurzwellige elektromagnetische Energie-Strahlung der Sonne eine Erwärmung.

 

 

 

Dieser direkte Erwärmungs-Effekt wird begleitet/verstärkt durch einen indirekten Effekt:

 

Zunehmende Sonnenstrahlung (elektro-magnetisch und Partikeln) verstärkt das abschirmende Magnetfeld der Erde, vermindert folglich das Eindringen der kosmischen Partikeln-Strahlung in die Atmosphäre, vermindert in der Folge auch die Entstehung von Kondensationskernen für Wolken. Das führt letztlich ebenfalls zu einer Erwärmung am Boden und in der Troposphäre (Svensmark, H.; Friis-Christensen, E

 

Über das Ausmaß dieses Effektes besteht noch kein wissenschaftliches Einvernehmen

 

 

 

Eine Literatur-Übersicht kommt zu dem Ergebnis:  Beising, R

 

Und weiter a.a.O. : daß Beising, R

 

 

 

Es gibt aber offensichtlich auch andere Meßergebnisse: A.v.Alvensleben.

 

 

 

Nach neueren Untersuchungen ist das Sonnenaktivitätsmaximum der letzten Jahrzehnte das ausgeprägteste seit mindestens 11.400 JahrenSolanki

 

 

 

Eine 2007 erschienene Studie geht noch weiter: „zwei Drittel des globalen Temperaturverhaltens seit 1850 (H., Klimawandel unter der Lupe, Z.f.Nachhaltigkeit, H.5, S.4-21, 2007).

 

Eine Untersuchung über Sonnen-Aktivität, Energie-Strahlung, Bewölkung und bodennaher Erdtemperatur kommt zu dem noch weiter gehenden Ergebnis:

Ganz grundsätzlich heißt es in einer astronomischen Übersicht zur Sonnen-Aktivität: „Es werden jedoch Günter, und weiter a.a.O.

 

 

 

 

2 bei weiteren Untersuchungen noch mehr runter von der „Anklage-Bank“?

 

 

 

 

 

 

 

Seit 80 Jahren ist bekannt und gut berechnet, daß – vor allem anderen – die ständigen Änderungen der Erdbahn-Elemente im Weltraum und deren zyklische Überlagerung zu den Klima-Schwankungen in der Erdgeschichte geführt haben und führen, weil sich auch dadurch (zusätzlich zu 1.) die solare Einstrahlung auf der Erde ständig verändert

 

Modifiziert wird das auf der Erde durch die Kontinentalverschiebungen , damit zusammenhängend sich verändernde Meeresströmungen sowie unregelmäßige Phasen von Vulkanismus – Strahlungshaushalt und Albedo verändern sich.

 

 

 

Immer wieder wird behauptet, daß Sonne und Erdbahn-Elemente nur zeitlich großskalige Klima-Ereignisse (10-100 Tausend Jahre) bewirken.

 

Die Eis- und Seesediment-Bohrungen belegen aber seit nahezu 10 Jahren sonnen-korellierte Klima-Schwankungen auch im Bereich von 1000 und 100 Jahren, neuerdings wieder bestätigt durch Sediment-Untersuchungen in Sibirischen Seen Diekmann. Belegt sind dabei für die letzten 7000 Jahre neun Ereignisse im 100-200-Jahres-Rhythmus der Sonne Diekmann

 

 

 

Im web gibt es zahlreiche Hinweise zu kurzfristigen abrupten Klimaschwankungen in der Erdgeschichte http://www.terracycles.com/index.htm). Zahlreich ist auch die Literatur zu den Dansgaard-Oeschger- und Heinrich-Ereignissen, bei denen es im Bereich von Arktis und Subarktis zu Temperatur-Ändertungen von bis zu 10 Grad innerhalb von 10 Jahren kam!

 

 

 

 

 

 

 

Rückkopplungen mit Gasen (Atmosphäre, Treibhausgase…) spielen allenfalls eine sekundäre Rolle.

 

 

 

‚Klima-Schutz-Maßnahmen'“schön stabiles angenehmes Klima“

 

„Klima-Schutz“

 

 

 

2 – ein Glasdach über unseren Köpfen ?

 

 

 

In der öffentlichen Debatte wird es als bewiesen angesehen, daß die immer wieder erwähnten sogenannten „Treibhaus-Gase“ in der Atmosphäre wirken wie ein

 

 

 

 

 

ie ist der wesentliche Wärme-Effekt eines wirklichen / T die diesbzgl. weniger bedeutsame „Strahlenfalle“ (IR-Absorption). Die im Glashaus durch die Sonne oder durch Heizungen erwärmte Luft kann nicht entweichen (Konvektions-Hemmung).

 

Selbstverständlich ist ein Glashaus auch eine Strahlenfalle: Die kurzwellige Sonnen-Strahlung (sichtbares Licht) passiert Glas nahezu ungehindert, während die vom erwärmten Boden ausgehende Infrarot-Strahlung ab etwa 5 ?m absorbiert und vom Glas nach draußen und drinnen wieder emittiert wird.

 

 

 

b) Zusätzliches („anthropogenes“) CO2 ist in der Atmosphäre nur eine geringfügige „Strahlenfalle“.

 

 

 

 

 

“ Es gibt bereits so viel CO2 in der Atmosphäre, daß in vielen Spektralbereichen die Aufnahme durch CO2  fast vollständig ist, und zusätzliches CO2 spielt keine große Rolle mehr“, (Quelle: P.J.; T.E.Graedel: Chemie der Atmosphäre, Spektrum Akad.Vlg,, Berlin, 1993, S.414)

 

15-?m-Absorptions-Bereiches hat zusätzliches CO2 nahezu keinen Effekt…“ (Quelle-Bericht 1994).

 

>E(bewirkt)um wenige Zehntelgrade (Quelle: H.,MPI HH, promet, 15, Heft 2/3, 1985, S.49)

 

doubling of carbon dioxide (CO2) about

 

Richard J. Petschauer „Carbon Heat Trapping: Merely A Bit Player in
Global Warming“ http://www.junkscience.com/jan08/Global_Warming_Not_From_CO2_20080124.pdf

 

Also – woher kommt denn nun die Erwärmung, wenn es das CO2 nicht ist ?

 

 

 

c) Die Treibhaus-Modellierer „entdecken“ die :

 

 

 

Nicht CO2, sondern der Wasserdampf soll nun die Treibhaus-Modelle „retten“.

 

die Verdoppelung 2)Vermehrung der Wasserdampf-konzentration in der Atmosphäre (Quelle: H,MPI HH, promet, 15, Heft 2/3, 1985, S.49)

 

Der Wasserdampf-Feedback ist nach wie vor der durchweg wichtigste Rückkopplungseffekt, der die von den allgemeinen Zirkulationsmodellen als Reaktion auf eine CO2-Verdoppelung vorhergesagte globale Erwärmung verursacht“.

 

(Quelle, Climate Change 2001, Working Group I: The Scientific Basis, Contr.Wok.Gr.I, 3rd Ass.Rep.IPCC, Ch.7.2.1.1).

 

 

 

F a z i t : Nicht CO2 ist „schuld“, sondern der Wasserdampf.

 

 

 

 

 

 

 

„. In der Natur geht eine höhere Verdunstung immer mit mehr Niederschlag einher. Zudem kann eine höhere Verdunstung niemals zu einem höheren Wasserdampfgehalt in Lufthöhen von drei Kilometern führen. Und genau dort ist die kiritische Grenze, da Wasserdampf zwischen 3 km und der Tropopause den Treibhauseffekt dominiert.“ (Quelle: Prof. Richard , Bild der Wissenschaft, 11/1993, S.73).

 

 

 

„…daß sich der atmosphärische Wasserdampf überhaupt nicht am CO2-Gehalt der Atmosphäre orientiert“(H., Die Angsttrompeter, Signum-V., München, 2006, S.227).

 

 

 

„Die riesigen Wassermassen (nicht nur der Wasserdampf) bestimmen die Klimate auf

 

der Erde. Die Wasserverdunstung ist vom Menschen nicht zu beeinflussen. Schon allein

 

deshalb kann der Mensch nicht das Wetter und die Klimate auf der Erde beeinflussen“ Gerlich

 

 

 

Meteorologie-ProfessorenH. Kraus und U. Ebel

 

„Mit einer Erwärmung der Armosphäre kann auch der Wasserdampfgehalt zunehmen, und man könnte erwarten, daß sich der hydrologische Zyklus intensiviert…; ob sich Folgen wirklich einstellen, läßt sich selbst durch sehr komplexe Modellrechnungen nicht zuverlässig herausfinden.“ (Kraus, H. u. Ebel, U.: Risiko Wetter, Springer-Verlag, 2007)

 

Dr. Miklós Zágoni >“Contrary to the common wisdom, there is no positive H2O-Temperature feedback on global scale; in Earth-type atmospheres uncontrolled runaway warming is not possible…“.in: Marc Morano, Communications Director, Senate Environment and Public Works Committee (EPW) Inhofe Staff, Rundschreiben 02.05.2008

 

NASAAqua satelliteThis information, contrary to the assumption used in all the warming models, is ignored by global warming alarmists

 

(W.Cunningham: In Science, Ignorance is not Bliss, Launch Magazin Online

 

http://launchmagonline.com/index.php/Viewpoint/In-Science-Ignorance-is-not-Bliss.html)

 

2-Gehalt der Atmosphäre.

 

 

 

d.) Wolken sind „flüssiges“ Wasser

 

 

 

 

 

 

 

 

 

: „… die größten Schwierigkeiten (sind) in der Klimaforschung bei der genauen Parametrisierung … von Wolken zu sehen …““…hat sich in den letzten Jahren herausgestellt, daß bei den Wolken die Reduktion der Sonneneinstrahlung nicht ganz durch ihre Erhöhung der thermischen Strahlung zum Boden kompensiert wird. Daher haben sie im Gegensatz zu den Treibhausgasen „(Quelle: Bakan/ Raschke, Der natürliche Treibhauseffekt, in: promet, H.3/4 2002, S.91 u. S.93)

 

 

 

2-Treibhaus-Hypothese aufkommen: Die mittlere weltweite Wolkenbedeckung hat zwischen 1986 und 2000 von 69% auf 65% abgenommen. Infolgedessen wurde eine einstrahlungsbedingte (und von CO2 unabhängige!) Erwärmung von (vgl. IPCC-Kurve, sowieQuelle“International Satellite Cloud Climatology Project“ (ISCCP),http://isccp.giss.nasa.gov/)

 

 

 

 

 

Wie denn nun: Die Wasserdampf-Verstärkung „soll“ die Erde „erwärmen“, aber mehr Wasserdampf schafft zugleich mehr Wolken, und die „kühlen“ wieder ! Was bleibt ?

 

 

 

e.)“Die wärmende Gegenstrahlung“

 

„perpetuum mobile“ der Strahlungs-Physik

 

Es wird behauptet, …“daß langwellige Infrarotstrahlung, emittiert von der erwärmten Erdoberfläche, teilweise von CO2 und anderen Spurengasen in der Atmosphäre absorbiert und reemittiert wird. Dieser Effekt führe zu einer Erwärmung der unteren Atmosphäre … beschreibt … ein Perpetuum Mobile 2. Art, weil es von einer Erwärmung des wärmeren auf Kosten eines kälteren Bereichs ohne Arbeitsaufwand …“ ausgeht‘ .

 

 

 

 

 

(Peter Dietze: http://uploader.wuerzburg.de/mm-physik/klima/cmodel.htm).

 

„Sowohl nach der Klimadiagnose über die Ursachen der globalen Erwärmung seit 1850 als auch nach aktuellen strahlungsphysikalischen Berechnungen wird der CO2-Effekt in den Klimamodellen überschätzt“Auch in Bezug auf das Temoeraturverhalten der letzten Jahrzehnte kann der anthropogene Einfluß als primäre treibende Kraft nicht nachgewiesen werden“(H.Malberg, El Nino, Vulkane und die globale Erwärmung seit 1980, Beitr.Inst.f.Met.FU.Berlin, SO 34/07, 06.11.2007, S.6).

 

 

 

 

 

 

 

(F.Kasten, Strahlungsaustausch zwischen Oberflächen und Atmosphäre, VDI-Ber. 712/1989, S.148)1000 m über Grund Davon wiederum stammen ca. 70% vom Wasserdampf. CO2-Moleküle aus Höhen über 1000 m sind folglich so gut wie gar nicht direkt am Strahlungsfluß zur Erdoberfläche beteiligt; sie können allenfalls in „Emissions-Absorptions-Kaskaden“ nach unten hin wirken.

 

 

 

„…existiert für die Strahlungsübertragungsgleichung leider keine einfache Lösung … und es müssen geeignete Näherungsverfahren für diese Aufgabe genutzt werden“(Quelle: Bakan/ Raschke, Der natürliche Treibhauseffekt, in: promet, H.3/4 2002, S.93)

 

 

 

 

 

(Quelle: http://eosweb.larc.nasa.gov/EDDOCS/images/Erb/components2.gif)

 

 

 

4.) Haben wir heute den höchsten CO2 -Wert „aller Zeiten“ ?

 

CO2-Gehalt der Atmosphäre durchgehend über dem heutigen Wert

 

Quellen: U.Berner u. H.Streif, Klimafakten, Nägele, Stuttgart, 2001; 2.

 

 

 

2-Konstanz der letzten Jahrtausende von 280 ppm sind neuerdings erhebliche Zweifel angemerkt worden: 2-Gehaltes der Luft mit unter 3% Genauigkeit gab, deren Ergebnisse im Widerspruch zur veröffentlichten Meinung der modernen Klimatologie stehen.“ .. und weiter 2-Konzentration der Nordhemisphäre im 19. Jh. war genau so schwankend wie die des 20. Jahrhunderts mit einem großen Maximum um 1825 mit vermutlich über 400 ppm, einem kleineren um 1857 von über 350 ppm und im 20 Jh. um 1942 mit über 400 ppm. Ein konstanter, vorindustrieller CO2-Wert von 285 ppm existiert nicht und resultiert aus einer selektiven und fehlerhaften Betrachtung weniger, ungeeigneter historischer Daten ab 1880.“ (E.G.Beck, 180 Jahre CO2-Gasanalyse der Luft mit chemischen Methoden, Energy & Environment, Vol. 18, No. 2/2007; deutsche Übers. E.G.Beck).

 

 

 

5.) CO2 + Temperatur in der Nacheiszeit

 

 

 

In der Nacheiszeit (10.000 Jahre) lag CO2 bis vor 150 Jahren ziemlich konstant bei 280 ppm, trotzdem hat es Klima-Schwankungen gegeben, z.B. :

 

o „Optimum des Holozäns“ (6000-4000 v.Chr. )

 

o „Optimum der antiken Hochkulturen“ (3000-1000 v.Chr. / …)

 

o „Kälteperiode der “ (350-550 n.Chr.)

 

o „Mittelalterliches Klima-Optimum (900-1200 n.Chr. / )

 

o „Die kleine Eiszeit“ (ca. 1400-1800 n.Chr.)

 

… bitte lesen Sie weiter im untenstehenden Word-Dokument
Puls.V-Übersicht.kpl.docPuls.V-Übersicht.kpl.doc