1

Atomausstieg beschlossen! Dreizehn Energiewende-Märchen Teil III

Nr. 9: Das Windstrom-Märchen: "Der Windpark XY kann Z-tausend Haushalte versorgen."

Eine derartige Behauptung ist ein fester Bestandteil jeder Pressemitteilung über die Einweihung eines Windparks.

Tatsächlich kann auch der größte Windpark keinen einzigen Haushalt sicher und zuverlässig mit Strom versorgen. Das liegt am bekanntlich unvorhersehbaren und extrem schwankenden Windangebot, was regelmäßig dazu führt, daß bei den sowohl im Sommer als auch im Winter beliebten windstillen Hochdrucklagen alle Windmühlen viele Stunden und oft Tage still stehen. Das würde Stromsperren bedeuten und wäre für die Industrie tödlich.

Aus diesem Grunde konnte bisher trotz des enormen und durch Milliarden an von Stromkunden bezahlten Zwangsabgaben (EEG-Gesetz) subventionierten Ausbaus der Windkraft bis 2010 auf 21.607 Anlagen mit 27.200 MW "installierter Leistung" (die Leistung, die die Windmühlen maximal erzeugen würden, wenn sie alle ihre maximal verkraftbare Windstärke erhalten würden) kein einziges konventionelles Kraftwerk ersetzt, also abgeschaltet werden.

Im Gegenteil: Es müssen zusätzliche Gaskraftwerke gebaut werden, die die extremen Schwankungen des Windstroms durch schnelles Herauf- und Herunterfahren ausgleichen müssen, damit das Stromnetz nicht zusammen bricht.

Der einzige verbleibende Vorteil der Windkraft ist eine Brennstoffeinsparung der vorübergehend herunter gefahrenen Kraftwerke. Ihr enormer Nachteil ist die nun doppelt vorhandene teure Stromerzeugungs-Kapazität , die den Strompreis nach oben treibt.

Zusätzliche Stromspeicher, die das Netz stabilisieren könnten, gibt es nicht und wird es auch in 20 Jahren nicht geben (siehe das Märchen von den neuen Stromspeichern und das Elektroauto-Märchen).

Nr. 10: Das Geothermie-Märchen

Mit heißem Wasser aus der Tiefe Strom in Deutschland erzeugen zu wollen, erfüllt im Grunde den Straftatbestand des groben Unfugs – in Verbindung mit der Verschwendung von Steuergeldern, sofern die zur Zeit laufenden Projekte öffentlich gefördert werden.

Es ist der hoffnungslose Versuch, die Gesetze der Physik zu betrügen: Bei einer Temperaturdifferenz von etwa 80 Grad zwischen dem etwa 100 Grad heißen Wasser aus dem Bohrloch und der Kühlseite des daran angeschlossenen Niederdruck-Dampfkraftwerks ist der Umwandlungs-Wirkungsgrad von Wärmeenergie in elektrische Energie dermaßen klein, daß die allenfalls optisch eindrucksvollen Versuchskraftwerke – die tatsächlich gebaut worden sind – nur minimal Strom erzeugen können. Aus diesem Grund wird in den Beschreibungen dieser Projekte stets jegliche Angabe des elektrischen Wirkungsgrades sowie der anteiligen Anlagenkosten pro erreichtem Kilowatt an erzeugter elektrischer Leistung peinlichst vermieden.

Die Leistungsbilanz sowohl der 4 errichteten und der 5 geplanten Geothermiekraftwerke ist insgesamt: 7,4 Megawatt.

Ein einziges Kohlekraftwerk erzeugt jedoch 900 bis 1.400 MW; ein Kernkraftwerk 1200 bis 1.400 MW.

Sinnvoll wäre allein die Nutzung der Geothermiewärme zu Heizzwecken über Fernwärme – sofern sich ein Neubaugebiet in der Nähe der Anlage befindet.

Aus dem soeben bekannt gewordenen EEG-Erfahrungsbericht des BMU, der zugleich die künftige Planung bekannt gibt, geht hervor, daß "die Förderung der Geothermie stark ausgebaut werden soll". Damit sind höchstwahrscheinlich wieder "Kraftwerke" wie die oben genannten gemeint. Das Motto scheint zu sein: Je hoffnungsloser und sinnloser die Vorhaben, desto stärker die Förderung.

Nr. 11: Das Märchen vom Technologiesprung

Es fällt auf, daß nur Politiker auf angeblich sicher kommende Technologiesprünge hinweisen, wenn sie die peinliche Tatsache von für die Energiewende fehlenden Techniken (z.B. effiziente, bezahlbare Stromspeicher) hinwegreden möchten.  Fachleute hüten sich vor solchen Äußerungen.

In Wahrheit verlaufen technische Entwicklungen ohne spektakuläre Sprünge langsam und gleichmäßig, was die langen Zeiträume zwischen erster Idee, Labor- oder Technikumsmuster, Prototypentwicklung, Konstruktion der ersten marktreifen Anlage und dann noch den schwierigen Prozeß der Marktdurchdringung erklärt.

Tatsächlich brauchen technische Entwicklungen – außerhalb der in dieser Hinsicht für schnelle Verbesserungen prinzipiell sehr  geeigneten Mikroelektronik – daher bis zu ihrer Markteinführung oft 30 Jahre, nicht selten auch 50 Jahre.

Einige Beispiele:

– die erste Anwendung der Wärmepumpe geschah in den 40er Jahren in der Schweiz;

– die ersten Elektroautos gab es schon vor über 100 Jahren;

– Silizium-Photovoltaik-Solarzellen wurden 1953 erstmals in den Bell Labs produziert;

– mit Brennstoffzellen als Treibstoff-Strom-Wandler bestückte Fahrzeuge gab es in

  Deutschland bereits um 1970;

– der Stirlingmotor, der jetzt als Mini-Kraft-Wärme-Einheit (Motor plus Stromgenerator)

  für Häuser angeboten wird, wurde 1816 von dem Geistlichen Robert Stirling erfunden.

  Er dient seit dem Jahre 1996 als Antrieb schwedischer U-Boote der Gotland-Klasse.

– Windmühlen als Stromerzeuger gibt es seit mindestens 80 Jahren.

Wer von kommenden Technologiesprüngen redet, zeigt damit nur, daß er keine Sachargumente hat, statt dessen aber meint, technologische Entwicklungen durch politische Sonntagsreden beschleunigen zu können.

Siehe hierzu:

o Das Märchen von der Sonne, die keine Rechnung schickt

o Das Märchen von den neuen Stromspeichern

o Das Elektroauto-Märchen

o Das Geothermie-Strom-Märchen.

Nr. 12: Das Märchen vom Segen der Dezentralisierung

Schon lange wird als ein Gegenmodell zur stets bösen Großtechnologie – gemeint sind vor allem normale Kraftwerke – die Vision von unzähligen kleinen Stromerzeugern in den Häusern als die ideale Stromversorgungs-Struktur für unser Land propagiert.  Die technische Lösung sieht immer gleich aus: Ein Gas- oder Dieselmotor treibt einen kleinen Stromgenerator an; die Abwärme kann in den Wintermonaten der Hausheizung zugeführt werden.

Wegen der vielen Erzeuger ist die Versorgungssicherheit in einem derart dezentralisierten Netz ähnlich hoch wie bei der Nutzung unseres Verbundnetzes, an dem ebenfalls viele Kraftwerke – allerdings zumeist Großkraftwerke – hängen.

Würde man in einem Land mit maroder Infrastruktur leben, dessen Stromversorgung durch ständige Blackouts gekennzeichnet ist, dann wäre ein solches dezentralisiertes System unverzichtbar. Im Grunde müßte jeder Betrieb und fast jedes Haus so eine eigene kleine Stromerzeugungsanlage besitzen, wie wir sie nur als Notstromversorgung in extrem stromabhängigen Nutzern kennen: Kliniken, Rechenzentren, Flugplätze, Telefonzentren, Polizei, Feuerwehr.

In einem solchen maroden Land leben wir aber glücklicherweise nicht. Deshalb sticht das Argument der Versorgungssicherheit eines dezentralen Systems nicht – und das ist dessen einziger positiver Aspekt.

Betrachtet man seine Nachteile,  dann kommt einiges zusammen:

• Ein durch viele Kleinerzeuger aufgebautes Stromversorgungsnetz benötigt zu 100 Prozent chemische Energieträger: Erdgas (auch veredeltes Biogas), Benzin oder Diesel (ebenfalls ggf. mit Biosprit-Anteilen). In der Realität wäre Erdgas mit Abstand der häufigste Brennstoff. Damit ist der Betrieb dieser Kleinanlagen von den Mineralöl- und Erdgaspreisen bestimmt – und zu mindestens 95% von Importen abhängig. Die Preise bestimmen dann der Öl-Spotmarkt und Gazprom.

• Durch dieses weit überwiegend mit fossilen Energieträgern betriebene System weitaus mehr CO2 erzeugt, als das System der CO2-freien Kernkraftwerke, der modernen Kohle- und Gaskraftwerke (GuD) mit ihren den Gas- und Dieselmotoren deutlich überlegenen höheren Wirkungsgraden, bedeutet das dezentrale Stromnetz einen wesentlich höheren CO2-Ausstoß, als es das Verbundnetz aufweist.

• Neben den hohen Brennstoffkosten spielen auch die erheblich höheren Investitionskosten bei den Kleinanlagen– gemessen in Euro pro erzeugter elektrischer Leistung in Euro / Kilowatt – eine Rolle.

Für den Ersatz eines 1000-MW-Kohlenkraftwerks wären ca. 330.000 Kleinanlagen á

3 KW erforderlich. Eine solche Kleinanlage kostet 8.000 – 22.000 Euro; das sind

3.700 – 7.500 Euro / KW.

(Mikro-BHKW-Vergleich, www.sanevo.de/ )

Zum Vergleich: Die Investitionskosten eines Kohlekraftwerks führen zu Kosten von

1.140 – 1.480 Euro / KW. 

Zusammengefaßt:

•  Gegenüber einem durch Kohlenkraftwerke versorgten Verbundnetz  wäre ein   durch Kleinanlagen  dominiertes Versorgungsnetz wesentlich teurer, wozu noch der Netzausbau im Mittelspannungs- und Niederspannungsnetz hinzu käme..

•  Die benötigten Import-Brennstoffe sind wesentlich teurer als heimische Braunkohle. oder Uran (Beispiel: anteilige Urankosten einer Kernkraft-Kilowattstunde 27% bei abgeschriebener Anlage,  8,1% bei KKW-Neubau; Erdgaskosten-Anteil bei GuD-Gaskraftwerken  74%).

•   Deshalb würde der Strom im dezentralen Netz deutlich mehr kosten.

•     Der CO2-Ausstoß würde sich deutlich erhöhen.

•    Die dezentrale Stromerzeugung hätte gegenüber dem jetzigen System keinen Vorteil bezüglich der Versorgungssicherheit.

Das dezentrale Stromversorgungssystem besitzt also keinen Vorteil, hat aber mehrere erhebliche Nachteile.

Nr. 13: Das Jobwunder-Märchen: "Erneuerbare" Energien schaffen viele Arbeitsplätze"

Dieses Argument wird ständig gebracht, aber exakt das Gegenteil dieser  Behauptung stimmt: Jeder Arbeitsplatz, der durch Subventionen geschaffen wird, führt zur Vernichtung von mindestens  2,2  Arbeitsplätzen in der übrigen Wirtschaft.  Bei der besonders teuren Photovoltaik werden sogar doppelt so viele Arbeitsplätze pro geschaffenem subventionierten Öko-Arbeitsplatz vernichtet. 

Der Mechanismus dieses Zerstörungsvorgangs, der übrigens für alle Subventionen gilt, ist simpel: Subventionen für Unternehmen oder deren Produkte, die am freien Markt keine Chance hätten, entziehen den Bürgern und der Wirtschaft Geld, das diese ansonsten für Konsum, Investitionen, Dienstleistungen etc. ausgeben würden. Das vernichtet Arbeitsplätze in diesen Branchen.

Hinzu kommt, daß die so künstlich geschaffenen Arbeitsplätze in der "grünen Industrie" zum großen Teil nicht dauerhaft sind, da sie überwiegend nur für die Produktion von Anlagen eingesetzt werden, nach deren Verkauf die Arbeit beendet ist. Arbeitsplätze, die dauerhaft mit dem Betrieb, der Wartung und  Reparatur von Anlagen befaßt sind,  gibt es dort vergleichsweise wenig.

Diese Erkenntnisse sind in der internationalen Wirtschaftswissenschaft mehrfach bestätigt worden.

(s. Gabriel Calzada Alvarez et al, Universität Rey Carlos de Madrid, März 2009, Calzada Studie hier und hier und hier die Stagnaro Studie).

Deutsche Unternehmen exportieren erfolgreich Anlagen für Umweltschutz-Zwecke. Aber die Hoffnungen von den "Erneuerbaren" als Exportschlager für die Industrie sind längst geplatzt. 2006 fanden sich unter den zehn weltgrößten Windkraftanlagen-Herstellern noch vier deutsche. 2010 standen nur noch zwei Namen auf der Liste – wohl aber vier chinesische. Deutschland exportierte 2010 Solarstromanlagen für 138 Millionen Euro nach China; China exportierte im Gegenzug solche Anlagen im Wert von 5,9 Milliarden Euro nach Deutschland.

Nr. 14: Das Märchen vom Ökostrom

Viele Deutsche meinen es gut und geben Geld aus, um die Welt ein bißchen besser zu machen. Das ist natürlich anzuerkennen. Aber freigiebig locker gemachtes Geld lockt gewisse Leute an, die es gerne hätten, ohne die damit verbundenen Wünsche ernst zu nehmen. Schon länger fließt etliches Geld aus Deutschland über den Atlantik, um dort zum Beispiel eine Patenschaft für eine Fledermaus in Nicaragua, einen Ara in Brasilien oder ein paar Quadratmeter Regenwald in Costa Rica zu finanzieren. Manches davon mag seriös sein, aber seit längerem hat sich in Übersee für das treuherzige, unkritische Finanzieren  gut gemeinter Projekte der böse Begriff "Stupid German Money" (Deutsches Idiotengeld) eingebürgert.

Auch in Deutschland selbst kann man zum Beispiel durch seine Stromrechnung die Heimat angeblich etwas grüner machen, vorausgesetzt, man kauft bei einem der zahlreichen Anbieter "Ökostrom". Als Techniker ist man von diesen Vorgängen zunächst verwirrt, denn eins ist absolut klar: Aus der Steckdose eines jeden Kunden kommt überall der gleiche Strom, über dessen Quellen man sich erst am Jahresende ein Bild machen kann, wenn bilanziert wird, welche Erzeuger wieviel Strom eingespeist haben.

Für 2010 sah dieser Strommix folgendermaßen aus:

Kernenergie 22%, Erdgas 14%, Braunkohle 24%, Steinkohle 19%, Wind 6,2%, Wasserkraft 3,2%, Biomasse 5,6%, Photovoltaik 2%, Sonstige (Müll, Öl, Grubengas; Klärgas) 5%.

Die im EEG genannten "Regenerativen" (s.u.) haben also zusammen knapp 20%.

Wie sehen nun die Ökostrom-Angebote aus ?  Und was steckt tatsächlich dahinter ?

Variante A ist das Angebot, Wasserkraftstrom aus Deutschland zu liefern. Das bieten mehrere Stromversorger an. Einer dieser Anbieter schreibt: "In jedem Fall erhalten Sie ohne CO2-Emissionen produzierten Strom aus 100% Wasserkraft mit TÜV Nord-Zertifikat. Sie bestimmen, welcher Strom für Sie persönlich produziert wird. Aber nicht nur das: Sie sorgen dafür, daß der Anteil von Ökostrom im gesamten Netz immer größer wird."

Bewertung: Die beiden ersten Sätze sind irreführend und haben mit der Realität nichts zu tun. Der dritte Satz würde nur dann eine Winzigkeit Wahrheit enthalten, wenn sich dieser Anbieter verpflichtet hätte, seine Gewinne selbst in neue Anlagen der regenerativen Energieerzeugung zu investieren. (Siehe Variante D). Davon ist aber in seiner Werbung nicht die Rede.

Daß der Kunde den vom Anbieter gekauften Wasserkraftstrom komplett erhält, ist schon physikalisch unmöglich. Ebenfalls unmöglich ist aber sogar, daß durch diesen Kauf der gläubige Ökostromkunde oder auch irgendein anderer Stromkunde auch nur eine Winzigkeit mehr regenerativen Strom an seiner Steckdose ankommen sieht.

Das verhindert nämlich das Erneuerbare Energie-Gesetz (EEG). Es bestimmt, daß die öffentlichen Netzbetreiber verpflichtet sind, sämtliche von den im EEG genannten Erzeugern (Wasserkraftwerke; Biomassekraftwerke; Geothermiekraftwerke; Windkraftanlagen; Photovoltaikanlagen; Stromerzeuger mit Deponiegas, Klärgas und Grubengas) produzierten Strommengen vorrangig – und das heißt restlos – gegen die gesetzlich festgelegte Vergütung anzukaufen. Anschließend müssen sie diesen Strom an einer Strombörse vermarkten.

Das bedeutet: Sämtlicher in Deutschland erzeugter regenerativer Strom wird qua Gesetz den Produzenten abgekauft – nichts bleibt an ungenutzten Kapazitäten übrig, deren Strom man noch extra als Ökostrom ankaufen und weiterverkaufen könnte.

Ebenso unmöglich ist es, daß der Ökostromkunde "selbst bestimmt, welcher Strom für ihn persönlich produziert wird." Er bekommt wie alle anderen Verbraucher, die nichts extra bezahlen, z.Zt. knapp 20% Ökostrom – und kein bißchen mehr.

Variante B:  Wenn der Ökostrom nicht aus Wasserkraft, sondern angeblich aus anderen im EEG genannten regenerativen Quellen in Deutschland kommt, gilt das oben Gesagte genau so.

Variante C:   Ein Anbieter schreibt: "Es ist garantiert kein Atomstrom." Und: "Unser Strom aus erneuerbaren Energiequellen in Norwegen wird aus Wasserkraft gewonnen. Aus 100% Wasserkraft."

Bewertung:  Abermals gilt das oben zu der Unmöglichkeit der Beeinflussung des Strommixes an der Steckdose des Ökostromkunden Gesagte. Selbstverständlich erhält auch dieser Kunde seine ca. 20% regenerativ erzeugten Strom – und Wasserkraft hat daran (s.o.) ihre 3,2%. Deutsche Wasserkraft, selbstverständlich.

Das EEG-Argument gilt in diesem Falle nicht, denn es wird ja in Norwegen Strom eingekauft. Das klingt zwar besser, ist es aber auch wieder nicht. Norwegen hat viel Wasserkraft, aber nicht genug davon. Das hat zwei Konsequenzen: Zum einen brauchen und verbrauchen die Norweger ihren Wasserkraftstrom selbst. Und weil das nicht reicht, importieren sie Strom aus Schweden – und zwar Kernkraftstrom.

Kaufen Ausländer wie der deutsche Ökostromanbieter den norwegischen Wasserkraftwerken Strom ab, fehlt dieser im dortigen Netz. Weil die Wasserkraftwerke wegen des deutschen Käufers auch nicht mehr als ohne ihn produzieren, ist der Umweltnutzen dieses Geschäfts Null.  Es muß nur mehr Kernkraftstrom in gleicher Menge importiert werden. Und weil man im norwegischen Netz genau wie im deutschen einen Strommix hat – in diesem Falle Wasserkraftstrom und schwedischen Kernkraftstrom – , ist auch in dem nach Deutschland gelieferten Ökostrom doch zusätzlicher Atomstrom dabei – der sich dann im deutschen Netz mit dem deutschen Atomstrom vereinigen würde, wenn das bei Strom überhaupt ginge. An der Steckdose des Kunden ist wieder "garantiert" 22% Atomstrom entnehmbar.

Ob der deutsche Ökostrom-Aufkäufer die Norweger zu einem weiteren Ausbau ihrer Wasserkraft veranlassen kann, ist eine gute Frage. Aber nur wenn genau das der Fall wäre, hätte es einen Einfluß auf den Strommix im norwegischen und deutschen Netz.

Variante D: Der Ökostromanbieter erklärt verbindlich, daß er seine Gewinne in neue Anlagen der regenerativen Energieerzeugung investieren wird. Dies finden die Umweltverbände gut, denen die anderen Varianten verständlicherweise wohl weniger überzeugend vorkommen.

Aber auch hierbei scheint der Umweltnutzen nur marginal zu sein: Es sind ja nicht die vom Kunden überwiesenen Ökostromkosten gemeint – der Löwenanteil davon geht an die vom EEG begünstigten Einspeiser, dann gibt es noch Verteilungskosten etc. – sondern nur die Gewinne, sofern sie anfallen. Außerdem befinden sich die Ökostromanbieter dann auf einem durch das EEG (d.h. durch die Zwangsabgaben der Verbraucher) recht lukrativ gewordenen Markt, in dem sich kapitalkräftige Investmentgesellschaften, EVU´s, Kommunen und andere Geldgeber tummeln.  Der Einfluß der Ökostromanbieter, hier noch Zusatzkapazitäten zu errichten, die man überhaupt quantitativ bemerkt, dürfte überschaubar sein.

Dennoch haben die Ökostromkunden in unserem Wirtschaftssystem eine Wirkung, wenn auch eine nicht von ihnen beabsichtigte:

Ihre Nachfrage nach regenerativ erzeugtem Strom bewirkt an den Strombörsen, an denen der Übertragungsnetzbetreiber seinen teuren EEG-Strom verkaufen muß, einen Preisanstieg. Den Netzbetreiber, der diesen Strom  ursprünglich bei den Wasserkraftwerken und den anderen EEG-begünstigten Erzeugern ankaufen mußte,  freut das, denn er zahlt beim Ökostrom immer kräftig zu, weil der Strompreis-Erlös an den Börsen viel niedriger liegt als der gesetzlich festgelegte Ankaufspreis. Jetzt bekommt er also etwas mehr Geld an der Börse und seine Verluste, die er auf alle Stromkunden umlegen darf, sinken etwas.

Das Ökostromgeschäft führt somit zwar nicht zu mehr Ökostrom, – weder bei der Erzeugung noch beim Verbraucher – entlastet aber RWE, E.ON & Co. finanziell. Solche Wege nimmt die Entwicklung, wenn gutgemeinte Fördermechanismen auf Marktwirklichkeit stoßen.

Eigentlich müßte nun gemäß der Marktlogik auch der Endverbraucher-Strompreis etwas sinken. Aber mächtige Kräfte wirken in die entgegengesetzte Richtung: Die Stillegung preisgünstiger Grundlast-Kernkraftwerke, der Ersatz ihrer Strommengen durch teureren Importstrom, die Errichtung teuer produzierender schneller Gaskraftwerke für den Ausgleich der Solar- und Windkraft-Schwankungen, der riesenhaft geplante Ausbau des Höchstspannungsnetzes, der weiter gehende gewollte Ausbau der „Erneuerbaren“, deren Strom  teuer angekauft und ins Netz eingespeist werden muß…

Wenn man es freundlich ausdrücken will, dann ist die deutsche Ökostrom-Liebe eine sympathische Liebhaberei. Diese Bezeichnung ist genau so gemeint, wie es die Finanzämter auch meinen, wenn sie das Tun der Steuerzahler einschätzen.

Schlußwort

Die deutsche Angstpolitik ist nun Wirklichkeit. Für eine Hoffnung auf eine Rückkehr zu einer realistischen Politik besteht für mehrere Jahre kein Anlaß. Erst nachdem massive Schäden eingetreten sind, die sich politisch auszuwirken beginnen, könnte es zu einer Rückbesinnung kommen, allerdings wohl nicht innerhalb der zur Zeit im Bundestag vertretenen Parteien. 

Daß sich ein führendes Industrieland ohne real existierende Probleme nur aus Angst selbst wirtschaftlich ruiniert, ist in der Geschichte einzigartig. 

Der Autor hat nicht die Hoffnung, mit seinen Zeilen noch irgend etwas an diesem Prozeß aufzuhalten; das wäre realitätsfern. Das mußte nur einfach aufgeschrieben werden, damit es jemand liest. Tatsächlich ist es  kein Artikel , sondern ein Nachruf.

Dr. Günter Keil Sankt Augustin, 16. Juni 2011

Die dreizehn und ein Energiewende-Märchen finden Sie als Datei im Anhang

Related Files




Dreizehn Energiewende-Märchen Teil II

Nr. 4: Das Märchen von den umweltfreundlichen "erneuerbaren" Energien

Daß Energie nicht erneuerbar ist, lernt man im Physikunterricht. Das widerspricht nämlich den Hauptsätzen der Thermodynamik. Deshalb sagt die Tatsache, daß die Deutschen einem energiepolitischen Gesetz diese falsche Bezeichnung gaben, bereits einiges über die Kenntnisse der Gesetzesmacher aus. Genauer ist die Bezeichnung regenerative Energien.

Gemeint sind Windstrom, Solarstrom- und –Wärme, Wasserkraft-Strom, energetische Biomassenutzung und Geothermie.

Was die bisherige Biomasse-Nutzung anbelangt, hat Umweltminister Norbert Röttgen schon den Rückzug angetreten. In seiner Verteidigungsrede für den von den Autofahrern abgelehnten E 10 – Sprit behauptete er schon gar nicht mehr, daß dieser der Umwelt nutzen würde. Zu groß war die Kritik von allen Seiten, sogar vom hauseigenen Umweltbundesamt: Verbrennung von Lebensmitteln bei weltweit – gerade deshalb – steigenden Lebensmittelpreisen, Hunger, Abholzung von Tropenwäldern für den Anbau von Ölpalmen, riesiger Flächenverbrauch, Monokulturen, Rückgang der Artenvielfalt, großer Düngemitteleinsatz, dazu noch eine negative CO2-Bilanz. 

Eine Studie des WWF beklagt den durch das EEG ausgelösten Kampf um Agrarflächen: Die EEG-Subvention liegt mit 3.000 Euro pro Hektar (ha) fast 10-fach über der EU-Subvention von 340 Euro/ha  für traditionelle Bauern. die Landwirte geraten in Bedrängnis, da sie bei Neuverpachtung nicht mit den Betreibern der Biogasanlagen konkurrieren können.

(FAZ vom 22.2.2011).

Eine dermaßen die Menschen und die Umwelt schädigende Energietechnik, die wegen ihrer negativen CO2-Bilanz auch nicht das Etikett "erneuerbar" verdient, hat es noch nicht gegeben.

Dennoch gehört auch diese Technik zu den Hoffnungsträgern der Energiewende, denn im Gegensatz zu Wind- und Solarstrom kann man mit Biogas zu jeder Zeit Strom erzeugen, obwohl statt dessen die Veredelung zu Erdgas und dessen Einspeisung in das Gasnetz die im Biogas steckende Energie wesentlich effizienter nutzen würde – was der deutlich kleinere Unfug  wäre.

Aber seit die GRÜNEN an der Regierung waren, ist "erneuerbare" Stromerzeugung zu buchstäblich jedem Preis – siehe Photovoltaik-Solarstrom – ein energiepolitisches Prinzip jeder Bundesregierung. Auch wenn der hauptsächliche Energieverbrauch in unserem nicht vom Klima verwöhnten Land weit überwiegend in die Hausheizung geht und weil deshalb z.B. die Solarthermie, die Pelletheizung, die Wärmepumpe, die Modernisierung von Heizungsanlagen oder die Fernwärmenutzung Priorität vor jedem Stromerzeugungs-Krampf haben müßten. Das wäre ideologiefreie Energiepolitik.

Beschwichtigungsversuche unter Verweis auf die noch tief im Versuchsstadium steckende Biomassenutzung "der 2. Generation" (ohne Lebensmittel-Verbrennung) gehören zum Thema Hoffnungstechnologien – siehe das Märchen vom Technologiesprung – und sollten nicht ernst genommen werden, da dies bis zur Marktreife und –Durchdringung noch ca. 20 Jahre dauern wird.

Das Flächenverbrauchs-Argument trifft aber ebenso auf die Windkraft und den Solarstrom im Vergleich zu konventionellen Kraftwerken zu:

Windkraft: Um rechnerisch die Strommenge eines Kernkraftwerks der Größe des Meilers Philippsburg 2 (Nettoleistung 1.400 MW )  zu erzeugen, wären 3690 Windräder an Land (2 MWp mit je 0,2 km2 Flächenbedarf) nötig.  Das Kernkraftwerk produzierte 2010 die Strommenge von 11.8 Gigawattstunden (11,8 Milliarden Kilowattstunden).

Der Flächenbedarf für die Windräder wäre etwa 370-mal so groß wie für das Kernkraftwerk. Insgesamt würden sie 738 Quadratkilometer beanspruchen.

(Angaben für die Windkraft: Wolf v. Fabeck, Solarenergie-Förderverein Deutschland e.V., 27.8.2009)

Würde Deutschland im Jahr 2050 seinen Strom komplett "erneuerbar" erzeugen, benötigten die Windräder (dann 4 MWp , á 0,32 km2) für ihren Anteil an geschätzten 870 Mrd KWh etwa eine Fläche von 43.500 Quadratkilometern. Das wäre 90% der Fläche Niedersachsens.

Biogas-Kraftwerke: Würde mit Biomasse – etwa Mais – das Gas erzeugt, um ein herkömmliches Gas-Dampf-Kombikraftwerk (GuD) zu betreiben, wären 667 Quadratkilometer Anbaufläche nötig. Dies entspricht etwa dem 11.500-fachen der GuD-Kraftwerksfläche und 93.417 Fußballfeldern.

Hierzulande wären 10.100 Quadratkilometer nötig für den Biomasseanteil einer komplett auf "erneuerbaren" Quellen basierenden Stromerzeugung.  Das wäre dann 174.137-mal die GuD-Fläche – und entspricht 6 Prozent der Landwirtschaftsfläche in Deutschland.

Solarstromanlagen:  Für den Solaranteil am Strommix der Zukunft berechnete die T.U. München zusammen mit Siemens einen Flächenbedarf von 1.073 km2.

Aus der DLR-Studie (s.u.) gehen 700 – 900 km2 hervor. Der größte Teil davon kann auf Dächern Platz finden.

(Daten zu den 3 o.g. Stromerzeugungs-Methoden beruhen auf der "Leitstudie 2010" des Deutschen Zentrums für Luft- und Raumfahrt, DLR)

Im Vergleich: Ein 1.400-MW-Kernkraftwerk besetzt maximal 2 km2 an Fläche. Der neue 1.600-MW-Europäische Druckwasserreaktor der 3. Generation EPR (in Finnland und Frankreich im Bau) besetzt 60 Hektar = 0,6 km2. Für Steinkohlenkraftwerke gilt das Gleiche. Bei Braunkohlenkraftwerken muß der Tagebau eingerechnet werden: 10 – 20 km2.

Rechnet man die Ziele der Energiewende für den Anteil der "Erneuerbaren" an der Stromerzeugung in den Flächenverbrauch um, dann müßte Deutschland seine Landwirtschaft weitgehend einstellen – außer natürlich für Mais, Weizen und Raps.

Die Energiewende als ökologische Katastrophe ? Als Vorbild ungeeignet.

Nr. 5: Das Märchen vom großen Energie-Einsparpotenzial

Zum festen Bestandteil aller geschönten und grenzenlos optimistischen Prognosen über den kommenden Siegeszug der "Erneuerbaren" gehört das Märchen vom enormen Einsparungspotenzial an Primärenergie und insbesondere Strom. Denn setzt man große fiktive Einsparungsmöglichkeiten in seinem Konzept an, hat das den schönen Vorteil, daß man viel weniger regenerative Energiequellen und auch nicht so viele Stromspeicher braucht, um die Phantasieziele wenigstens auf dem Papier zu erreichen.

Kein Wunder also, daß auch wieder im Energiekonzept der Bundesregierung hoffnungsvolle Sätze stehen, wie "In Deutschland bestehen weiterhin ganz erhebliche Potenziale zur Energie- und Stromeinsparung" und "In der deutschen Industrie besteht nach wissenschaftlichen Studien ein wirtschaftliches Einsparpotenzial von jährlich 10 Mrd. Euro."

Und dann auch noch: "(Es) bedarf aber noch vielfältiger Anstöße, um Deutschland auf den Weg zu einer der energieeffizientesten Volkswirtschaften der Welt zu bringen."

In den quantitativen Zielen des Energiekonzeptes steht dann auch als eine der wichtigsten Vorgaben:

"Die Verminderung des Primärenergieverbrauchs bis zum Jahre 2050 um 50% gegenüber 2008; und bis 2020 eine Verminderung um 20%. Das erfordert pro Jahr eine Steigerung der Energieproduktivität um durchschnittlich 2,1%, bezogen auf den Endenergieverbrauch."

Und weiter:

"Wir streben an, bis 2020 den Stromverbrauch gegenüber 2008 in einer Größenordnung von 10% und bis 2050 von 25% zu vermindern." 

1. Zur Energieproduktivität:

Üblicher ist es, die Energieintensität einer Volkswirtschaft zu verfolgen, das ist diejenige Energiemenge, die zur Erzeugung eines bestimmten Brutto-Inlandsproduktes BIP erforderlich ist. 

Gemessen wird sie international in Tonnen Öl-Äquivalent pro 1000 US-$ BIP.

Die Energieintensität ist somit umgekehrt proportional zur Energieproduktivität – die Wirtschaft arbeitet folglich rationeller, wenn die Energieintensität sinkt; also weniger Energie für den gleichen Produktionswert benötigt wird.

Die obige Forderung bedeutet also, daß die Energieintensität jährlich um 2,1% sinken sollte.

Zu den Tatsachen:

Das statistische Bundesamt hat berichtet, daß die Energieintensität in Deutschland vom Jahre 1991 – das man mit 100 Punkten angesetzt hat – bis zum Jahre 2006 auf 80,5 Punkte, also um 19,5%, zurückgegangen ist.  Und das ganz ohne Energiekonzept einer Regierung, sondern durch die ständigen Bemühungen der Industrie, die die Aufgabe der rationellen Energieverwendung seit den 50er Jahren als eine Selbstverständlichkeit systematisch betreibt.

Die Energieintensität ist folglich 15 Jahre lang mit durchschnittlich 1,3% jährlich gesunken – und das ist ein großartiges Ergebnis.

Diese unter hohen Kosten und Anstrengungen über einen langen Zeitraum erzielte Erfolgsquote kann nicht durch das Bedrucken von Papier mit der Zahl 2,1%  erhöht werden.

Interessant ist auch ein Blick auf die Nachbarländer: Unter 25 europäischen Ländern liegt Deutschland in der Spitzengruppe an 5. Stelle bezüglich einer niedrigen Energieintensität.  Geringfügig besser sind Dänemark, Irland, Östereich und Italien. Berücksichtigt man aber die Tatsache, daß Deutschland mit seiner erfreulicherweise noch vorhandenen Schwerindustrie sowie weiteren energieintensiven Grundstoffindustrien und dem Maschinen- und Fahrzeugbau eine Industriestruktur besitzt, die wesentlich stärker als die der genannten Länder ist und deshalb für seine Produktion auch mehr Energie benötigt, dann erkennt man, daß Deutschland hier unter den Industrieländern  eine Spitzenposition einnimmt.

Es bedarf deshalb keiner "Anstöße" durch eine Regierung, "um Deutschland auf den Weg zu einer der energieeffizientesten Volkswirtschaften der Welt zu bringen", denn Deutschland ist längst der Spitzenreiter.

2. Zum Energieverbrauch, speziell zum Stromverbrauch

Auch hierzu gibt es für jedes Jahr präzise Zahlen.

Der Bruttostromverbrauch betrug in den alten Bundesländern:

– 1981 : 375    Mrd. KWh

– 1995:  462      "       ".

   Das war eine Steigerung von 23,2% in 15 Jahren.

In Gesamtdeutschland verlief der Stromverbrauch wie folgt:

–  1990:  550,7 Mrd. KWh

–  1991, 1992 und 1993 ein Rückgang um 4,2% bis auf 528,0  Mrd. KWh

–  1994 bis 2007 ein stetiger Anstieg auf 618,1 Mrd. KWh

–  2008 und 2009 ein Rückgang um 5,8% auf 582,5 Mrd. KWh

–  2010 mit einem kräftigen Anstieg um 4,3% auf den Endstand von 607,5 Mrd. KWh.

   Das war eine Steigerung von 10,3% in 20 Jahren.

Daraus kann man folgende Erkenntnisse ableiten:

– Der Stromverbrauch steigt stetig und nur Wirtschafts- und Finanzkrisen können diesen 

  Trend kurzfristig unterbrechen.

– Das Wirtschaftswachstum des Industrielandes Deutschland führt automatisch zu

  einem Anstieg des Stromverbrauchs.

– Die dank der Anstrengungen der Industrie sinkende Energieintensität – s.o. –

  verlangsamt den Anstieg des Stromverbrauchs – aber es bleibt ein Anstieg.

– Der einzige Weg zu einem deutlichen Rückgang des Stromverbrauchs ist eine harte Wirtschaftskrise. Genau das hat man beim Zusammenbruch des Ostblocks gesehen.

  Insofern sind die Wunschzahlen im Energiekonzept zu einer Verringerung des Stromverbrauchs  wirklichkeitsfremd. Sie sprechen ein hartes Urteil über das Niveau des Sachverstands und das Vorherrschen reinen Wunschdenkens bei den Verfassern.  Und ein ebenso hartes Urteil über die Regierung!

Wenn es der Regierung um eine realistische Energiepolitik ginge, hätte sie z.B. die VDE-Prognose von 2008 "Effizienz und Einsparpotenziale elektrischer Energie in Deutschland – Perspektiven bis 2025 und Handlungsbedarf"  beachtet und ernst genommen.

Darin wurden die tatsächlich noch vorhandenen Einsparpotenziale identifiziert, vor allem bei:

– Kraft- und Wärme-Kopplung;

– Haushaltsgeräten;

– Wirkungsgraden von Kleinmotoren;

– und der Optimierung von Gesamtanlagen.

Es wurden optimistische und pessimistische Szenarien durchgerechnet und das  dazwischen liegende, wahrscheinliche Ergebnis präsentie

"Unter der Annahme realistischer Verbrauchs- und Effizienzprognosen wird der Stromverbrauch bis 2025 um rund 30% zulegen."

Der VDE erklärte zu diesem Ergebnis: "Bei diesem Szenario gibt es eine deutlich verbesserte Effizienz der Stromnutzung (s.o), jedoch einen Mehrverbrauch bei neuen und zusätzlichen Anwendungen."

Man benötigt wenig Phantasie, um sich vorzustellen, was aus den "ehrgeizigen" (ein von vorsichtigen Kritikern an Stelle des Wortes "unrealistisch" gern benutztes Adjektiv) Zielen des Energiekonzeptes der Bundesregierung geworden wäre, wenn man den Schätzungen diesen Anstieg des Stromverbrauchs zusammen mit der Speicher-Misere und den absehbaren Stromnetz-Engpässen zu Grunde gelegt hätte.

Nr. 6: Das Märchen von den neuen Stromspeichern

Seit der Einführung des Erneuerbare Energien-Gesetzes EEG, mit dem der Wetter- und Tageszeit-abhängige, deshalb wild schwankende und unzuverlässige Wind- und Solarstrom massiv durch Zwangssubventionen über den Strompreis gefördert wird, sind 10 Jahre vergangen.

Daß dieses Stromangebot, das für die Stromnetzbetreiber der reine Alptraum ist, bei Erreichen einer bestimmten Größe mit seinen schnellen Schwankungen die Stabilität des Netzes ruiniert und damit durch Blackouts die Stromversorgung gefährdet ist, haben die seither drei Regierungen 10 Jahre lang nicht bemerkt.  Sie haben aber in dieser Zeit fleißig neue Windparks und Solarstrom-Farmen eingeweiht, was gute Pressefotos einbrachte.

Jetzt aber ist  Groschen Nr.1 gefallen, nachdem die Warnungen immer unüberhörbar  wurden: Man sah tatsächlich ein Problem mit dem Ökostrom. Anschließend folgte  die Erkenntnis: Wenn die zum Ausgleich dieser Schwankungen eingesetzten konventionellen Kraftwerke nicht mehr ausreichen, braucht man riesige Stromspeicher.

Dann fiel Groschen Nr.2: Diese Speicher hatte man gar nicht.  Es gibt zwar einige Pumpspeicherwerke, aber deren Speicherleistung von 6.020 MW deckt im Idealfalle – fast leere Speicher bei Beginn der Starkwindphase – nur 17% Prozent der bereits heute benötigten Kapazität ab (s.u.).

Die AG Energiebilanzen e.V. hat zu dieser Situation folgendes veröffentlicht (1.2.2011):

Ende 2010 hatte an Deutschlands ges. Stromerzeugung von 621 Mrd KWh

– die Windenergie einen Anteil von 5,9% (bei 25.800 MWp Leistung lt. VGB PowerTech);

– und die Photovoltaik nur 1,9% Anteil (bei  9.800 MWp  lt. VGB PowerTech).

Die trotz hoher Maximalleistung geringen Anteile kommen von den geringen Vollaststunden pro Jahr:  Windstrom 18,3 -20%; Photovoltaik 9 -10%. Deshalb sind sie für die Grundlastversorgung nicht zu gebrauchen.

Angenommen, daß die von dieser großen Wind- und Solarstrom-Kapazität in einer Starkwindphase eingespeiste Leistung nur 10.000 MW beträgt, müßten bereits Speicher bereit stehen, die diese Leistung für 30 Stunden aufnehmen, also eine Speicherkapazität von 300.000 MWh (Megawatt-Stunden) besitzen.  Die deutschen Pumpspeicherwerke haben aber nur eine Gesamtleistung von 6.020 MW.

Selbst wenn man annimmt, daß zu Beginn dieser Starkwindphase alle deutschen Pumpspeicherkraftwerke fast leer sind – eine unrealistische Annahme – dann könnten diese Speicher nur eine Energiemenge von 50.000 MWh aufnehmen, also gerade einmal 17 % der erforderlichen Menge.  Es bliebe nur die Wahl zwischen sofortiger Abtrennung der Windräder vom Netz oder Netzzusammenbruch.

Auch bei einem gerade noch möglichen Ausbau der Pumpspeicherwerke könnte maximal eine Erhöhung der Speicherkapazität von 3 % erreicht werden.

(Prof. Dr. Helmut Alt, FH Aachen) 

Was tun ?

Auf die unangenehmen Erkenntnisse folgte eine politische Lösung: Es begann entsprechend dem "Märchen vom Technologiesprung" mit völlig neuen Stromspeichern, die bald die Lösung bringen würden.  An einen riesigen Ausbau der Pumpspeicher, die leider die einzig verfügbare und auch nur mit geringen Verlusten von etwa 20 bis 25% arbeitende Speichertechnik ist, wagte man gar nicht erst zu denken. Mit Recht, denn die Bürgerproteste, die den Bau sowohl des vermutlich letzten großen Pumpspeicherwerks Atdorf/Schwarzwald, das eine Leistung von 1.400 MW haben soll,  sowie auch die Baupläne wesentlich kleinerer Anlagen begleiten, machen wenig Hoffnung (s.u.).

Eine Regierung, die eine ehrliche und rationale Energiepolitik betreibt, würde nun nach dieser Erkenntnis die Errichtung aller neuen Windkraftanlagen und auch Photovoltaikanlagen stoppen und vielleicht noch versuchen, den immer wahrscheinlicher werdenden Blackout durch raschen Zubau von teuren, schnellen Gasturbinen-Kraftwerken unwahrscheinlicher zu machen.

Die Bundesregierung aber macht das Gegenteil: Noch stärkerer Ausbau von Offshore-Windstrom und unveränderte Förderung von Solarstrom stehen im BMU-Entwurf des Erfahrungsberichts 2011 zum EEG.  Im Gegenzug will man  die Abschaltung der Kernkraftwerke, die – allgemein unbeachtet und in der deutschen Fundamental-Ablehnungsstimmung auch unangenehm – tatsächlich die heute schnellste Leistungsregelung (Lastfolgeregelung) aller Kraftwerksarten (außer Gasturbinen) bieten und ironischerweise die sicherste Stütze für den Windstrom darstellen.

Aber man hat versäumt, diesen Beitrag der Kernkraftwerke rechtzeitig herauszustellen. Jetzt noch damit zu kommen, traut sich niemand mehr.

Damit verschärft die Regierung das Problem – und verlagert es teilweise auf unsere Nachbarn, die seit der Abschaltung der ersten 7 Kernkraftwerke kräftig Importstrom liefern und einigermaßen besorgt sind (siehe: Das Märchen vom deutschen Vorbild, ebenfalls: Das Märchen von der Überflüssigkeit der 7 abgeschalteten Kernkraftwerke).

Das von ihr selbst verschuldete und jetzt nochmals verschlimmerte Problem der Versorgungs-Unsicherheit bekämpft die Regierung nunmehr rhetorisch durch das Beschwören von neuen Speichertechniken, die es allerdings erst einmal zu entwickeln gilt.

Am 21. April 2011 stellte dann die Regierung eine gemeinsame „Förderinitiative Energiespeicher“ vor, in deren Einleitung nach der Zitierung des Energiekonzeptes vom 28.9.2010 und dessen unglaublich hoch gesteckten Zielen der bemerkenswerte Satz steht: „Leider stehen den notwendigen Fortschritten auf dem Gebiet der Energiespeicher vielfältige und nach wie vor zum Teil grundlegende (!) technologische Hürden entgegen.“ Dieser Mut zur Wahrheit ist zu begrüßen. Es stellt sich dann aber die Frage, wie man angesichts dieses Fehlens der wichtigsten Schlüsseltechnik für die stärkere Nutzung von Wind- und Solarstrom überhaupt dieses Energiekonzept beschließen konnte.

Die großen und wirtschaftlichen Stromspeicher waren im September 2010 noch die Katze im Konzept-Sack; schon im April 2011 stellt sich nun regierungsamtlich heraus, daß in dem Sack gar keine Katze drin ist.

Daß die Förderinitiative Energiespeicher von drei Bundesministerien (BMBF, BMWi und BMU) präsentiert wird, zeigt zugleich die Zersplitterung der Zuständigkeiten.

Unter den im Förderkonzept genannten Speichertechnologien ist einzig die „Entwicklung von großen zentralen adiabatischen Druckluftspeichern“ eine für den genannten Zweck der Netzstabilisierung  interessante und brauchbare Möglichkeit. Alle anderen dort genannten Techniken haben entweder andere Anwendungen – vor allem Elektroautos (siehe das entsprechende Märchen) – oder sind noch viel weiter von einer Realisierung entfernt, als es die adiabatischen Druckluftspeicher sind – so die „unterirdischen Pumpspeicherwerke“.

Die Hoffnungen der Regierung auf irgendwann verfügbare große und bezahlbare Stromspeicher ruhen auf folgenden Techniken:

1. Druckluftspeicher

Der zu speichernde Strom treibt Kompressoren an (Wärmeverlust), die Luft in unterirdische Kavernen pressen. Später treibt diese Druckluft Turbinen und diese wiederum Stromgeneratoren an, die den Strom ins Netz einspeisen. Bisher mußte die komprimierte Luft zusätzlich mit einer Gas-Zusatzheizung auf hohe Turbinen-Eintrittstemperatur gebracht werden; eine verlustreiche Technik.

Es existieren weltweit zwei Prototypanlagen, eine in Huntorf/Deutschland und eine in McIntosh/USA – letztere nutzt bereits einen Teil der beim Verdichten entstehenden Verlustwärme (Rekuperator-Technik).   Das Aushöhlen der Kavernen ist zudem ein Umweltproblem.

Deshalb ist gegenüber den nur 20 bis 25% Verlust bei den Pumpspeicherwerken  der bislang erreichte technische Stand der Druckluftspeicher völlig unbefriedigend. Man will deshalb künftig versuchen, durch zusätzliche Wärmespeicher die bei der Kompression entstandene Verlustwärme aufzufangen und sie der zu verdichtenden Frischluft zuzuführen (adiabatische Kompression), was die Gas-Zusatzheizung im Idealfalle überflüssig macht und für einen Speicherwirkungsgrad von geschätzt 71% in der Nähe des  Niveaus der Pumpspeicherwerke sorgen würde..

Ein erstes Entwicklungsprojekt für adiabatische Druckluftspeicherung namens ADELE stellte am 22.11.2010 die RWE Power zusammen mit ihren Partnern General Electric,  Züblin und der DLR in Staßfurt/Sachsen-Anhalt vor. Dort betreibt RWE bereits einen großen Erdgasspeicher in den Salzformationen des Staßfurter Sattels. Zuerst sollen lt. RWE-Vorstand Prof. Gerd Jäger folgende Voraussetzungen geschaffen werden: „Erfolgreiches Abschließen der technischen Untersuchungen und Planungen; Finanzierung einschließlich der erforderlichen (!) Förderung; Geologie des Standortes.“

Zu den technischen Entwicklungsaufgaben derartiger Speicher gehören:

• Die Kompressionswärme bei sehr hohen Drücke  (bis 150 bar) und Temperaturen

    (bis 650 Grad) zu speichern. D.h. die Entwicklung von Hochtemperatur-

    Wärmespeichern  (keramische oder Flüssigsalz-Speicher) mit einer Kapazität von bis zu 1200 MWtherm : DLR Stuttgart;

• Neuentwicklungen der Hochdruckverdichter, um hohe Austrittstemperaturen zu erreichen; hoher Wirkungsgrad, variabler Durchsatz, schnelle Verfügbarkeit in wenigen Minuten;

• Luftturbinen, die durch Expansion der verdichteten Heißluft auf Atmosphärenniveau Leistungen von 300 MW erreichen. Das bedeutet hohe Leistungsdichte, hohe Eintrittstemperatur, große Volumen-Ströme und –Änderungen, hoher Wirkungsgrad über den gesamten Lastbereich bei niedrigen spezifischen Kosten;

Ein derartiges Speicherkraftwerk arbeitet wirtschaftlich, wenn die Druckluft maximal eine Woche gespeichert werden kann.

Mit dem Bau der ersten  Demonstrationsanlage soll ab 2013 begonnen werden.

Es soll eine Speicherkapazität von max. 360 MWh und eine elektrische Leistung von 90 MW haben, womit nach RWE-Angaben über etwa 4 Stunden rund 50 Windräder ersetzt werden könnten.

Ende 2010 standen in Deutschland bereits 21.607 Windräder mit einer installierten Maximalleistung von 25.800 MW.

Diese Technik ist vielversprechend und vermutlich realisierbar. Aber sie befindet sich gerade am Anfang und die Erfahrungen mit vergleichbaren Entwicklungen lassen einen Zeitbedarf bis zu einem umfangreichen und damit wirksamen Ausbau von fertig entwickelten und erprobten  Speichern im Netz von 25 bis 30 Jahren erwarten.

Sinnvoll, aber viel zu spät, um die akuten Probleme im deutschen Stromnetz zu lösen und ebenfalls viel zu spät, um einen Beitrag zur Verwirklichung des Energiekonzepts der Bundesregierung zu leisten.

2.  Die Seekabel-Verbindung  zu den norwegischen Wasserkraftwerken.

Ein solches Kabel soll es bis Anfang 2017 geben: Das 530 km lange Nord Link. Es soll  1.400 MW übertragen. Das entspricht der Leistung eines Kernkraftwerks und gerade einmal 4 Prozent der schon jetzt in Deutschland installierten Windstromleistung. Fünf bis zehn dieser Seekabel wären wohl nötig, geplant sind sie nicht, und es gibt noch andere Probleme: Die meisten norwegischen Wasserkraftwerke sind keine in beiden Richtungen (bergauf und bergab) arbeitenden Pumpspeicherwerke. Sie müßten teuer und langwierig umgebaut werden – wenn es die Norweger überhaupt wollen.

Außerdem wollen alle Nordseeanrainer, die ebenfalls Windkraftanlagen gebaut haben, ebenfalls mit Seekabeln an die norwegische Wasserkraft heran. Holland hat es schon getan. Damit fällt für jeden weniger Speicherkapazität ab. Und schließlich: Schon jetzt kämpfen Bürgerinitiativen in Norddeutschland gegen die Umspannstation an Land und die neuen Hochspannungsleitungen.

3. Elektroautos – siehe "Das Märchen vom Elektroauto als Stromspeicher".

4. Pumpspeicher-Kraftwerke

Obwohl klar ist, daß die Leistung der deutschen Pumpspeicherwerke bei weitem nicht ausreicht, werden hier die letzten Planungen für Neubauten und Erweiterungen vorgestellt:

– Atorf/Südschwarzwald.  Bauherr: Schluchseewerke. Geplante Leistung 1.400 MW.

  Zwei weitere Staubecken und ein Kavernenkraftwerk. Inbetriebnahme 2020 und 2030. Speichervermögen 3,7 Mrd. KWh.

  Die dena (Deutsche Energieagentur) stellte dazu fest, daß auch dieses neue Werk nur 8%  der Strommenge puffern könne, die die Wind- und Solaranlagen bereits im Jahre 2009 erzeugt hätten.

  Der Schwarzwaldverein als Interessenvertreter der Bevölkerung hatte in den

  Anhörungen kritisiert, die "Region dürfe nicht bloß das Objekt für energiewirtschaftliche Ausbeutung werden." Die Vertreter des EVU räumten ein, daß sich die Landschaft deutlich verändern werde, "da werde man sich sicher erst dran gewöhnen müssen."

Der Kreisverband der B90/Die Grünen / Waldshut sprach sich gegen das Projekt aus.

– Riedl/Bayern.  Geplante Leistung 300 MW. Bauzeit bis 2018. Das Projekt ist politisch umstritten; eine Bürgerinitiative hat sich dagegen gebildet.

– Schweich/Mosel.  Bauherr: Stadtwerke Trier. Geplante Leistung 300 MW.

  Inbetriebnahme 2017 – 2021. Neues Projekt; noch keine Reaktionen aus der

  Bevölkerung.

– Blautal / Birkhau. Bauherr: Stadtwerke Ulm/Neu-Ulm. Geplante Leistung 60 MW. Die Planung begann Mitte 2005; massive Bürgerproteste in Arnegg und Markbronn führten  zu erheblichen Planungsänderungen – auch bezüglich des Ortes der Anlage. Zur Zeit  werden Sicherheitsbedenken geltend gemacht; der Widerstand hält auch nach 6 Jahren an; ein Baubeginn ist nicht absehbar.

Die Deutschen haben in den vergangenen 20 Jahren gelernt, daß sie mit Bürgerinitiativen recht erfolgreich gegen Bauprojekte aller Art vorgehen können. Besonders die GRÜNEN haben das vorgeführt. Inzwischen hat sich das Spektrum der zu verhindernden  Vorhaben auf nahezu alles ausgedehnt und es sind jetzt besonders die angeblich dem Umwelt- oder Klimaschutz dienenden Projekte, die den stärksten Widerstand hervorrufen.  Windräder,  Hochspannungsleitungen für die Energiewende, Erdspeicher für CO2, Transformatorstationen für das Seekabel, großflächige Photovoltaikanlagen, Biogasanlagen – und besonders Pumpspeicherwerke, die extreme Eingriffe in die Landschaft verursachen. So werden selbst die wenigen theoretisch noch möglichen neuen Speicherwerke faktisch unrealisierbar.

Es gibt außerhalb des Energiekonzepts weitere Vorschläge für große Stromspeicher, die sich aber alle durch immense Kosten und meist auch größte Verluste im Bereich von 70 bis 80 Prozent auszeichnen. So gehören alle Vorschläge, die mit einer elektrolytischen Spaltung von Wasser durch Windstrom beginnen und danach den entstandenen Wasserstoff, der ja nur noch ein Brenngas ist, wieder in Strom zurück verwandeln wollen (mit Gasmotoren oder gar teuren Brennstoffzellen), zu der Gruppe kostspieligster Energievernichtungsanlagen. Trotzdem werden solche Vorschläge selbst

in bislang  seriösen Zeitschriften kritiklos als Zukunftstechnologien vorgestellt. Ein typisches Merkmal aller dieser Technikvorschläge ist das absichtliche Weglassen aller Angaben zum Gestehungspreis einer Kilowattstunde und zu den Kapitalkosten, die jedes von der Anlage erzeugtes Kilowatt Leistung verursacht. Am Fehlen dieser Angaben kann man gut die fehlende Seriosität sowohl der Erfinder und Anbieter als auch der Journalisten erkennen.

Es gibt noch eine weitere schlechte Nachricht – und sie ist von grundsätzlicher Natur:

Stromspeicher können nicht den kompletten Bedarf an Reservekraftwerken für den Ausgleich der Einspeise-Schwankungen ersetzen: Sie reduzieren nur den notwendigen Netzausbau und teilen sich die Spitzenlastversorgung mit schnell regelbaren Gaskraftwerken.

Fazit

Die einzigen genügend großen Stromspeicher, mit denen man überhaupt rechnen kann, sind die noch zu entwickelnden adiabatischen Druckluftspeicher – und sie kommen viel zu spät, während der Ausbau von Windstrom und Solarstrom immer weiter geht.  Das europäische Verbundnetz kann deren Schwankungen bald nicht mehr auffangen und ausgleichen. Im Gegenteil: Um nicht in das absehbare Chaos im deutschen Verbundnetz hineingezogen zu werden, müßten sich unsere Nachbarn abkoppeln. Diese Entwicklung ist wohl zwangsläufig. Aber die  Regierung hat anscheinend die Hoffnung, daß sie die Medien beruhigen und bis zur nächsten Bundestagswahl Zeit gewinnen kann, bevor die Probleme übermächtig werden.

Dann wird man weiter sehen.

Nr. 7: Das Märchen vom Elektroauto als Stromspeicher

"Millionen von Elektroautos können mit ihren Batterien das Speicherproblem des Wind- und Solarstroms lösen". So oder so ähnlich liest man es häufig.

Eine doppelte Illusion: In den nächsten 10 –15 Jahren wird es keine nennenswerte Anzahl von Elektroautos geben, da es trotz des technischen Wunderglaubens von Politikern, die selbst allen technischen Fächern ziemlich fern stehen, noch sehr lange keine bezahlbaren, für den Winterbetrieb geeigneten und mit ausreichender Energiekapazität ausgestatteten Batterien geben wird. Die sehr deutlichen Warnungen der Fachleute der physikalischen Chemie werden geflissentlich überhört. So betonte Christoph Huß von der VDI-Gesellschaft Fahrzeug- und Verkehrstechnik  "daß wir nicht vergessen dürfen, daß die technisch-physikalischen Grenzen elektrochemischer Energiespeicher nicht durch politische Sonntagsreden außer Kraft gesetzt werden können.“

Illusion Nr.2: Selbst wenn es einmal eine größere Anzahl von Elektroautos gibt, wird kaum einer der Besitzer bereit sein, es per Netzanschluß und Datenleitung dem Stromversorger zum Ausgleich von dessen Einspeisungs-Schwankungen zu überlassen – also die Autobatterie je nach Bedarf des EVU zu laden oder zu entladen. Denn dem E-Auto-Besitzer wird vom Hersteller sehr deutlich klar gemacht, daß die Lebensdauer seiner teuren Batterie nicht etwa durch ihr Alter, sondern allein durch die Anzahl der Lade-Entlade-Vorgänge bestimmt wird.

Wer sich auf die Benutzung seiner Antriebsbatterie als beliebig auf- und entladbarer Speicher für seinen Stromversorger einläßt, verkürzt die Batterielebensdauer erheblich. Das müßte zu ganz erheblichen Nutzungszahlungen der Stromversorger führen, zu denen sie wohl kaum bereit wären.

Der Glaube an das Elektroauto als umweltfreundliches Verkehrsmittel könnte sich sehr leicht in sein Gegenteil verkehren, wenn die abgeschalteten Kernkraftwerke – wie abzusehen ist – in erster Linie durch neue Kohlekraftwerke und ergänzend durch Gaskraftwerke ersetzt werden. Ohne regenerative Energien aber wäre der grüne Plan ein Eigentor: Wenn aus der Steckdose neben Import-Atomstrom viel mehr Kohlestrom kommt, dann "ist jeder gefahrene Kilometer mit einem E-Auto deutlich CO2-intensiver als sein konventionell betriebenes Gegenstück", erklärt Lino Guzzella, Professor für Thermotronik der ETH Zürich. Ein Großeinsatz von E-Autos würde den Klimawandel beschleunigen, statt ihn zu bremsen – falls die Theorie vom CO2 als das Klima beeinflussendes Spurengas überhaupt stimmt. Aber das ist ein anderes Gefechtsfeld.

(Jan-Philipp Hein, FOCUS 18 / 2011).

Die Politiker-Vision vom elektrisch angetriebenen Autoverkehr gab es übrigens schon einmal: Die Regierung von Bundeskanzler Kohl hatte bereits im Jahre 1992 die neue Elektroauto-Epoche angekündigt.   Zwischen 1992 und 1995 führte die Regierung – begeistert  befürwortet durch Forschungsminister Heinz Riesenhuber und eine gewisse Angela Merkel, Umweltministerin, – einen großen Feldtest für Elektroautos auf Rügen durch. Und der damalige Innenminister Manfred Kanther gab das Ziel aus, daß mindestens 10 Prozent aller neu zugelassenen KFZ im Jahre 2000 Elektroautos sein sollten.

Das erleben wir nun zum zweiten Mal.

Nr. 8: Das Märchen von der Sonne, die keine Rechnung schickt

Der Werbespruch "Die Sonne schickt keine Rechnung" ist gewiß der Anwärter für den Hauptgewinn im Volksverdummungs-Wettbewerb. Spötter haben dazu festgestellt, daß auch die geologischen Epochen Carbon und Perm keine Rechnung für die damals erzeugte Kohle schicken und daß die kosmische Katastrophe, die das Sonnensystem mit seinen Uranvorräten hervorbrachte, ebenfalls netterweise auf die Versendung von Rechnungen verzichtet hat.

Was mit diesem Verdummungsspruch verschleiert werden soll: Die Sonne scheint in Deutschland – wenn sie scheint – mit einer Leistungsdichte von nur ca. 1000 Watt (thermisch) pro Quadratmeter, woraus eine Silizium-Photovoltaikzelle etwa 90 Watt (elektrisch) erzeugt. Hoffnungen, daß sich das in Zukunft wesentlich verbessert, sind unbegründet und gehören zum technologiepolitischen Wunderglauben (siehe das Märchen vom Technologiesprung). Diese sehr alte Technik ist in den vielen Jahrzehnten bis dicht an ihre physikalische Grenze herangebracht worden; wundersame Verbesserungen, "Technologiesprünge",  wird es nicht  geben.

Dieser bei voller und möglichst senkrecht einfallender Sonne seine 90 Watt abgebende Quadratmeter kostet echtes Geld. Die Anschaffungskosten für ein Einfamilienhaus-Dach belaufen sich auf 13.000 Euro für eine Spitzenleistung von 2,5 KWp. Für den Anteil der  Solarzellen daran  zahlt man derzeit  bis 10.000 Euro – das übrigens zu gut zwei Dritteln nach China fließt, denn die chinesischen Hersteller haben die deutsche Konkurrenz längst in Grund und Boden konkurriert: Deutschland konnte 2010 gerade einmal Solarzellen für 138 Millionen Euro nach China exportieren – während von dort Konkurrenzware für 5,9 Milliarden Euro kam.

Daß China jetzt den Photovoltaik-Markt derart dominiert und die deutschen Hersteller beiseite gedrängt hat, haben unsere Medien kaum berichtet. Es ist zu peinlich. Das Sinken der Modulpreise hat man aber bemerkt. Teilweise wird dazu die Behauptung verbreitet,  dies läge an großen Fortschritten der Produktionstechnologie.

Die Wahrheit sieht jedoch anders aus: Die Technik der Herstellung von kristallinen Silizium-Solarzellen, die gegenüber den Dünnschichtzellen einen deutlich höheren Umwandlungs-Wirkungsgrad besitzen und trotz höherer Preise den Markt dominieren, ist durch eine lange Kette von schwierigen Bearbeitungsschritten gekennzeichnet, die sich sämtlich einer Automatisierung entziehen. Es beginnt mit dem langwierigen Ziehen der großen Siliziumkristalle aus der Schmelze, gefolgt vom Sägen dünner Scheiben, dem Schleifen, Läppen und Polieren, dann dem Ätzen und Reinigen. Es folgen die Prozesse der Silizium-Halbleitertechnik: Dotieren der Si-Scheiben entweder im Diffusionsofen oder durch den Beschuß mit elektrisch beschleunigten Atomen (Implantieren), wieder Reinigungsarbeiten, dann Kontaktieren durch Aufdampfprozesse im Vakuum, anschließend Zuschneiden der Zellen. Die meisten dieser Arbeiten müssen unter Reinraumbedingungen erfolgen. Sie erfordern an allen Stationen in extremer Weise Handarbeit durch geschultes Laborpersonal – und der begleitende Energieverbrauch ist dermaßen hoch, daß die Solarzellen zwei bis drei Jahre arbeiten müssen, bevor sie die für ihre Herstellung aufgewendete Energie wieder "verdient" haben. Eine Kostenreduktion durch Erhöhung des Produktionsvolumens, wie es bei allen Verfahrenstechniken möglich ist,  wird durch die technologiebedingt kleinen Anlagen (Ausnahme: die Implantationsaggregate) und deren Bedienung verhindert: Für die zehnfache Produktion braucht man auch zehn mal mehr Anlagen und zehn mal mehr Personal.

Es sind diese beiden prinzipiellen Handicaps, die deutsche Hersteller von Anfang an in eine fast aussichtslose Position gegenüber chinesischen Herstellern gebracht haben: Der sehr hohe Lohnanteil und der hohe Energieverbrauch.  Hier konnte China seine großen Vorteile ausspielen, die mit Technologie nichts zu tun haben.  Sowohl die deutschen Löhne als auch die Strompreise sind hierzulande viel höher. So kam es rasch zu deutlichen Preissenkungen und einer Eroberung des Photovoltaik-Marktes durch chinesische Hersteller.

Zwar gab es auch technologische Fortschritte bei der Effizienz der Zellen, aber das trug nur in geringem Maße zum Preisrückgang bei.

Wäre in der rot-grünen Regierung, die das Milliarden verschlingende Erneuerbare Energien-Gesetz EEG verabschiedete,  etwas Sachverstand über die sehr speziellen Fertigungsbedingungen der Photovoltaik vorhanden gewesen, man hätte den unvermeidlichen Verlust dieser lohnintensiven Technologie vorausgesehen und hätte sich wohl auch die großspurigen Reden über die viele tausend Arbeitsplätze schaffende Solarstromindustrie verkniffen. So fördern die deutschen vom EEG gerupften Verbraucher am Ende nur noch die chinesische Industrie.

An dieser Stelle muß auch mit dem Glauben an die Photovoltaik als Hochtechnologie aufgeräumt werden. Sie gehört zwar fachlich zur Halbleiter-Technik, ist aber hinsichtlich ihrer nicht vorhandenen Komplexität und ihrer relativ bescheidenen Ansprüche an die Fertigungseinrichtungen, das Reinraum-Niveau und die Mitarbeiter-Qualifikation in keiner Weise mit der Mikroelektronik ("Chip-Technologie") zu vergleichen.  Letztere befindet sich permanent an den Grenzen des gerade technologisch Machbaren, verbunden mit extremem apparativem Aufwand und ausgeklügelter Design-Software, stets auf dem Wege weiterer Verkleinerung und   Verdichtung der Schaltkreise bei Erhöhung ihrer Arbeitsgeschwindigkeit nebst Verringerung des Energieverbrauchs. Zwischen der ins Sub-Mikroskopische und Hyper-Komplexe gehenden Chip-Technologie und der Photovoltaik im Postkatenformat liegen technologische Lichtjahre.  Auch wenn es manchen Ideologen weh tut: Die Photovoltaik war immer "Low-Tec" – und deshalb konnte sie Deutschland nicht halten und verteidigen.

Die Deutschen sind  jetzt die Hauptabnehmer  der chinesischen Solarzellenfabriken. China selbst jedoch nicht.  Obschon etwas größer als Deutschland und auch von der Sonne bestrahlt, hat China für seine Stromerzeugung andere Pläne: Das Riesenreich installierte 2010 nur den achtzehnten Teil der 7.300 Megawatt Solaranlagen, die Deutschland  ans Netz brachte.

Jürgen Heraeus, der China-Beauftragte der deutschen Wirtschaft, stellte dazu fest: "Das haben wir uns selbst eingebrockt." Erst das Erneuerbare-Energien-Gesetz habe die chinesischen Solarunternehmen zu einer derartigen Konkurrenz gemacht. (FOCUS 15/2011).

Zu den happigen Preisen für den Kollektor selbst kommen noch der Wechselrichter (deutsches Produkt), die Montage, die Wartung, die Versicherung hinzu. 

So wurde vor 10 Jahren die alte bewährte Nischentechnik Photovoltaik, die für die Versorgung entlegener Plätze ohne Stromversorgung wie Bojen, Jagdhütten, Segelyachten, Telefonmasten in dünnbesiedelten Regionen etc. schon immer ihren Sinn hatte, durch den krampfhaften grün-roten Versuch, Kernkraftwerke durch irgend etwas ökologisch irgendwie Strom Erzeugendes zu ersetzen – möglichst mit Hilfe der symbolhaften Sonne, die keine Rechnungen schickt – zu einer extrem teuren, Milliarden verschlingenden Großtechnik aufgebaut. Die trotz einer Ende 2010 bereits installierten Spitzenleistung von ca. 16.900 MW  wegen ihres sehr geringen  Nutzungsgrades  auch nur einen geringfügigen Anteil von 1,9 Prozent an der Gesamt-Stromerzeugung von Deutschland ( 621 Mrd KWh) hatte. 

Dieser klägliche Beitrag kostet die deutschen Verbraucher, die das mit ihren Stromrechnungen bezahlen müssen, insgesamt unglaubliche 85,4 Milliarden Euro – diese Summe ist den Betreibern teils schon ausgezahlt worden, teils fällt sie noch an, da diese Einnahmen per EEG für 20 Jahre garantiert sind.

(Prof. Manuel Frondel, Prof. Christoph M. Schmidt, Nils aus dem Moore, Brennstoff-Wärme-Kraft  Bd. 63 (2011) Nr.3)

Der größte Teil dieser Milliarden dient der Anschaffung der Anlagen und den verdient jemand. Den Löwenanteil chinesische Hersteller, der Rest Zellen-Zusammenbauer und Handwerker.  

Es ist aber nicht die Sonne, so viel ist richtig.

Dr. Ing. Günter Keil.

Der dritte Teil mit den letzten sechs der (inzwischen) dreizehn und ein Märchen wird bald veröffentlicht. Alle Märchen zusammen können Sie jetzt schon als pdf im Anhang nachlesen. (Achtung: Aktualiserte Version)

Anmerkung der Redaktion 1: Dass die massive Subventionierung der Windenergie immer noch nicht ausreicht zeigt dieser Beitrag: Offshore-Branche fordert bessere Stromvergütung

* Anmerkung der Redaktion 2: Jürgen Heraäus ist Gründungsmitglied der 2 ° Inititiative "Deutsche Unternehmen für Klimaschutz"

Related Files




Dreizehn Energiewende-Märchen Teil I

Allein diese wenigen Zeilen enthalten eine hohe Konzentration an stark übertriebenen und unrealistischen und auch sehr kurzlebigen Zielvorgaben; im Falle Kernkraft eine 180-Grad-Wende innerhalb weniger Wochen.  Bereits der erste Satz stellt ein bemerkenswertes Beispiel von Schönfärberei dar, denn – wie in den folgenden Kapiteln dargelegt wird – dieses Energiekonzept würde Deutschland in eine sehr unzuverlässige, unbezahlbare und zudem ganz und gar nicht umweltschonende Energieversorgung befördern, wenn es denn jemals ernsthaft versucht wird. Bereits der Versuch würde große wirtschaftliche Schäden anrichten und es ist ein nur schwacher Trost, daß die vollständige Umsetzung dieses Energiekonzeptes ohnehin unerreichbar ist, weil bei einem bestimmten Ausmaß der angerichteten Schäden – Arbeitslosigkeit, Einbruch der Steuereinnahmen, Auswandern der Industrie, Verarmung der sozial Schwachen –  die Regierung davongejagt werden würde.

Die Bundesregierung selbst hat nun gerade einmal 5½ Monate nach der Verabschiedung dieses bis zum Jahre 2050 reichenden Energiekonzepts und  3 Monate nach der zu diesem Konzept gehörenden Laufzeitverlängerung für die Kernkraftwerke (am 14.12.10 in Kraft getreten) mit dessen Verbrennung begonnen.

Das Kernkraftmoratorium und die wohl folgende Stillegung von mehreren Kernkraftwerken, deren Laufzeit soeben noch verlängert wurde,  und die 180-Grad-Wende in der Nuklearpolitik, die plötzlich verkündet wird, befördern Deutschland in das mit teuren „Erneuerbaren“ angereicherte Kohle- und Gaszeitalter zurück und mit den  Klimabroschüren des BMU kann man nun sein Haus heizen. 

Es lag nahe, alle Widersprüche dieser Energiepolitik, die eigentlich diese Bezeichnung nicht verdient, zu kommentieren, wobei sich die Erzählform, die die Gebrüder Grimm begründet haben, als Rahmen anbot.

Einmal dabei, wurden aber auch noch einige weitere politische Illusionen, Manipulationen und Irreführungen, die seit Jahren die deutsche Energiedebatte kennzeichnen, in diese Darstellung aufgenommen.

Nr. 1: Das Märchen vom deutschen Vorbild

Es ist schon erstaunlich, wie oft von Politikern erzählt wird, daß Deutschland für den Rest der Welt mit seiner Umwelt- und Energiepolitik ein Vorbild ist, dem in Kürze alle nacheifern würden.                                                                                                                                 

Abgesehen davon, daß es seit Jahrzehnten in Deutschland eine langfristige, schlüssige und dem Standort dienende Energiepolitik, der man hätte nacheifern können,  niemals gegeben hat, stellt diese Ansicht nur einen Beleg für die völlige Unkenntnis der Meinungen über Deutschland im Ausland dar – und darüber hinaus ein Zeugnis von sehr unangebrachter Überheblichkeit  ( "Am deutschen Wesen…").

Eine Betrachtung der Meinung ausländischer Regierungen zur Erdbeben- und Tsunamikatastrophe von Fukushima und deren Konsequenzen für die Nutzung der Kernkraft ergibt ein eindeutiges Bild: Alle Länder, die selbst Kernkraftwerke bauen und betreiben, bleiben dabei. Ebenso  alle Länder, die Kernkraftwerke nur betreiben – eventuell mit Ausnahme der Schweiz.  Und von allen Ländern, die deren Bau planten, gibt es bisher nur ein einziges, das seine Pläne zurückgestellt hat: Venezuela.

"Die Welt versteht die deutsche Energiewende nicht," titelte der Bonner Generalanzeiger am 27. Mai seinen Bericht über das G8-Treffen in Deauville.

Zu den abrupten Stillegungs- und Ausstiegsplänen des weder von Erdbeben noch von Tsunamis bedrohten Deutschland gab es im Ausland nur Kommentare, die von Unverständnis bis zu beißender Ironie reichten.

Schließlich hat ja Deutschland soeben seine stolze Vorbildrolle als Klimaschützer abgebrochen und will jetzt zu Kohle- und Gasstrom zurückkehren. Die zugesagten nationalen Klimaziele sind Makulatur geworden:

Wird die bisherige Stromerzeugung aus deutschen Kernkraftwerken je zur Hälfte aus (Atom-) Stromimporten und neue hiesige Kohle- und Gaskraftwerke ersetzt, dann würden im Jahre 2018 allein durch die deutsche Energiewirtschaft 62 Millionen Tonnen CO2  mehr emittiert.

(www.bdi.eu/pressemitteilungen_energiekostenstudie_24_04_2011.htm)

Allein in den 3 Monaten des Atommoratoriums vom März 2011 werden in Deutschland rund 8 Millionen Tonnen CO2  zusätzlich erzeugt.

Wer sich jetzt noch als Vorbild vorkommt und das auch noch verkündet, läuft Gefahr, nur noch Mitleid zu erregen.

Es wächst aber auch Ärger in unseren Nachbarländern über die deutsche Schnellabschaltung von sieben Kernkraftwerken: So sehr Frankreich und Tschechien ihre Kernkraft-Neubaupläne von Flamanville,  Penly und Temelin auf den massiven Atomstromexport für ihre angsterfüllten deutschen Nachbarn ausgerichtet haben, stört sie doch die plötzliche Ausstiegs-Hektik der deutschen Regierung.  Zum einen fürchten sie das Überspringen deutscher Netz-Zusammenbrüche über das europäische Stromverbundnetz auf ihr Land.

Zum anderen bringt der durch die beträchtlichen Kraftwerks-Abschaltungen  nötig gewordene plötzliche Stromexport nach Deutschland die Preise an den Strombörsen zum Steigen – auch für unsere Nachbarn. So erhöhte sich dadurch der Börsenstrompreis schon jetzt um 12% und die Emissionszertifikate, die Kohle- und Gaskraftwerks-Betreiber kaufen müssen, stiegen im Preis um 10%.                       (Siehe: Das Märchen von der Überflüssigkeit der 7 abgeschalteten Kernkraftwerke).

Seit dem 17. März 2011 importiert Deutschland im Mittel täglich eine Energiemenge von durchschnittlich 45 Millionen Kilowattstunden (KWh) – überwiegend aus Frankreich und Tschechien, aber auch aus Polen und der Schweiz. Das ist überwiegend Atomstrom. Die Betreiber dieser Kraftwerke orientieren sich für ihren Abgabepreis an dem Niveau der Strombörsen – und der liegt um rund 50 Euro pro 1000 KWh über den Kosten der stillgelegten deutschen Kernkraftwerke. Damit zahlen die Deutschen seit dem 17. März täglich gut 7 Millionen Euro mehr für ihren Stromverbrauch. Die ausländischen Atomkraftwerke zahlen ihre Steuern nicht in Deutschland, auch nicht die  Brennelementesteuer.

Die Kanzlerin hatte übrigens zu dem Energiekonzept 2010, in dem zum Ärger der Regierung  in mehreren der dem Konzept zugrunde gelegten Szenarien erhebliche Stromimporte zum Ausgleich der abzuschaltenden Kohle- und Kernkraftwerke prognostiziert waren, verkündet, daß Stromimporte – die weitgehend Kernkraftstrom betreffen – nicht in Frage kämen. Sie hatte dabei übersehen, daß das ihre Regierung gar nicht beeinflussen kann, denn im freien europäischen Energiemarkt entscheiden das die Händler an den Strombörsen – und zwar nach Verfügbarkeit und Preis.

Im Übrigen: Das größte Land der Welt, China, nimmt mit konsequenter Regelmäßigkeit alle 4 Tage ein neues Kohlenkraftwerk in Betrieb und hält unverändert an seinen massiven Kernkraft-Ausbauplänen fest. Gottlob, könnte man sagen, denn sonst würde China für jedes nicht gebaute Kernkraftwerk zusätzlich ein bis zwei weitere Kohlenkraftwerke errichten.

Eine wirkliche Energiewende wird es vermutlich weltweit geben, wenn die verschiedenen, inhärent sicheren – also aus physikalischen Gründen zu keinem Kernschmelze-GAU fähigen – Kernkraftwerks-Konstruktionen der 4. Generation, die derzeit in der Entwicklung sind, auf den Markt kommen. (Siehe Internationale Arbeitsgemeinschaft "Generation IV International Forum – GIF"; www.gen-4.org/ ).

Leider kann Deutschland bei dieser Energiewende kein Vorbild sein, weil hier die Reaktorentwicklung seit Jahren politisch verhindert wurde und Deutschland deshalb aus den inzwischen auf 7 Nationen angewachsenen Kreis der Hersteller endgültig ausgeschieden ist.  Der gewollte Verlust dieses Milliardenmarktes kann auch nicht durch Beschwörungsfloskeln über großartige Exportchancen von Windmühlen, die inzwischen die verbliebenen Kunden selber bauen können,  wegdiskutiert werden.

Nr. 2: Das Märchen von der Überflüssigkeit der 7 abgeschalteten Kernkraftwerke

Als die Regierung in einer überstürzten Aktion, als drohe in den nächsten Tagen ein Tsunami, das sog. Moratorium beschloß, das 7 ältere Kernkraftwerke stillegte, erhob sich bei der SPD und den Grünen sowie in den diesen Parteien zugetanen Medien großer Jubel, weil es nicht sofort landesweite Blackouts gab. Damit war nach Ansicht dieser selbsternannten Energieexperten bewiesen, daß diese Kernkraftwerke – und vielleicht auch noch weitere – von Anfang an vollkommen überflüssig gewesen seien.

Auf die Idee, daß die Betreiber dieser Kraftwerke, allesamt börsennotierte Aktiengesellschaften, diese Anlagen nicht allein als Hobby oder zum Ärgern der Grünen am Laufen hielten, sondern deren Strom in Deutschland und Europa tatsächlich verkauften, kamen sie nicht. Und daß sie zusammen mit den Netzbetreibern in Wahrnehmung ihrer Verantwortung gegenüber ihren Kunden und ihren europäischen Nachbarn sämtliche Register zogen – auch recht problematische (s.u.) –  um Netzzusammenbrüche trotz der Panik-Abschaltung zu verhindern, wurde ignoriert.

Was aber im Hintergrund und ohne Medienbegleitung tatsächlich passierte, sah ganz anders aus:

Die Netzbetreiber verzichteten wegen der angespannten Stromnetz-Situation teilweise auf Wartungs- und Instandhaltungsarbeiten am Höchstspannungsnetz, da auch zeitweilige Abschaltungen das Risiko flächendeckender Stromausfälle zu sehr erhöht haben würden.

Auch Bauarbeiten sind betroffen: So mußten die Arbeiten zur Erneuerung des Umspannwerkes Großkrotzenburg unterbrochen werden.

E.On-Chef Teyssen teilte mit, daß E.On seine Gas- und Kohlekraftwerke hochgefahren und fällige Wartungsarbeiten verschoben hat, um Stromausfälle zu verhindern. Auch Reparaturen wurden verschoben. Die Netzbetreiber hätten darum gebeten, weil sie kurzfristige Blackouts infolge der abgeschalteten Kernkraftwerke befürchteten. Teyssen: "Wir verschieben auf Bitten der Netzbetreiber auch Revisionen von Kraftwerken."

Die Bundesnetzagentur warnte deshalb öffentlich vor weiteren politischen Abschaltungsverfügungen.

Für die Aufrechterhaltung der Versorgungssicherheit wurden sofort Stromimporte notwendig; sie wurden essentiell.

Die 4 großen Übertragungsnetz-Betreiber Tennet (früher E.On-Netz),  Amprion,  50hertz (früher Vattenfall-Netz) und EnBW warnten am 23.5.2011 vor drohenden Versorgungsproblemen im kommenden Winter, wenn der Solarstrom ausfällt, die Windkraft eine Zeitlang nichts liefert und unsere Nachbarn ihren Strom selber brauchen. Zur Zeit sei die Situation nur durch den Solarstrom und vor allem hohe Stromimporte von mindestens 8.000 MW zu beherrschen, wobei alle hiesigen konventionellen Kraftwerke bereits bis zu ihrer Leistungsgrenze hochgefahren wurden. „Das Netz ist gerade noch gemäß EU-Mindest-Sicherheitsstandards zu betreiben“

Im Winter würde eine andauernde Stillegung der 7+1 Kernkraftwerke (das achte ist das Z.Zt. außer Betrieb befindliche KKW Krümmel) an kalten, windarmen Tagen zu Netzzusammenbrüchen führen.

Auch nach einem Bericht der Bundesnetzagentur vom 11.4.2011 wird Deutschland als Stütze für das europäische Netz ausfallen.

Daß auch schon vor dem Fukushima-Unglück und der folgenden Reaktorabschaltung in Deutschland Teile der Regierung erhebliche Sorgen hatten, zeigt der Elektrizitätsbericht des Bundeswirtschaftsministeriums vom 20.1.2011, in dem vor Stromausfällen infolge überlasteter Netze durch den Ausbau "erneuerbarer" Energien gewarnt wurde.

Währenddessen sucht die Regierung nun nachträglich eine technische Begründung, um die jetzt abgeschalteten Kernkraftwerke endgültig stillzulegen.

(Prof. Johannes Paulus,  Experte für Thermodynamik und Energietechnik, Schweinfurt. Schweinfurter Tagblatt 16.4.2011).

Nr. 3: Das Märchen von den geringen Kosten der "Energiewende"

Politische Befürworter der sog. Energiewende behaupten, daß deren Zusatzkosten – insbesondere beim Strompreis – sehr gemäßigt ausfallen würden. Sie sind sich sehr darüber im Klaren, daß sich die Bürger derartige Wenden nicht gefallen lassen werden, wenn sie sich durch exorbitante Preissteigerungen ausgeplündert vorkommen. Umfragen zeigen bereits, daß die Zustimmung zum Kernkraft-Ausstieg stark abnimmt, wenn diese Aussichten angedeutet werden.

Deshalb muß den Bürgern, damit sie still halten, durch optimistische Berechnungen diese Angst genommen werden. Wenn erst alles beschlossen und eingeleitet ist, so die Spekulation, werden es die Menschen schon hinnehmen.

An optimistischen bzw. extrem geschönten Rechnungen herrscht kein Mangel. Bei der Expertenbefragung des Ethikrates zum Kernkraftausstieg erläuterte einer der Wissenschaftler, daß es von sogenannten Expertisen nur so wimmele, "in denen die Kostensteigerungs-Schätzungen zum Kernkraftausstieg und der damit verbundenen   Energiewende zwischen dem Faktor 1 und dem Faktor 100 liegen."

Mit anderen Worten: Diese Expertisen sind zwar wissenschaftlich dekoriert, aber der größte Teil davon verdient die Bezeichnung Expertise nicht, was durch  diese unglaubliche Streuung der Ergebnisse bewiesen wird.  Es handelt sich dabei vielmehr um Scharlatanerie und Gefälligkeits-"Gutachten", die politisch genutzt werden.

Die Energiewirtschaft ist ein durch eindeutige Daten und bekannte Abläufe präzise erfaßter Bereich, in dem die Gesetze der Mathematik bzw. der Betriebswirtschaft sowie die der Physik gelten und in dem es bei seriöser Herangehensweise vielleicht eine Streuung der Ergebnisse um den Faktor 1,5 aber niemals um den Faktor 100 geben kann.

Im Grunde kann aber jeder schon heute recht gut abschätzen, ob die Energiewende für ihn teuer wird: Der Schlüssel dazu sind die Vergütungssätze (Einspeisevergütung für Ökostrom gem. EEG) für jede Kilowattstunde (KWh) Wind-, Solar- und Biomassestrom im Vergleich zu den Gestehungskosten (ohne Steuern, Abgaben, Verteilungskosten, Gewinn) für Strom aus Kohle-, Kernkraft- und Gas-Dampf-Kombikraftwerke (GuD).

Die Höhe der Einspeisevergütungen ist ja genau danach bestimmt worden, was die Erzeugung durch die betr. Energieanlagen kostet – plus einer Rendite. Deshalb sind die Einspeisevergütungen pro eingespeister Kilowattstunde (KWh) ein exzellentes Maß für den Vergleich – und für das, was die Stromkunden bei ihrem weiteren starken Ausbau  erwartet.

Gestehungskosten für die konventionelle Stromerzeugung

– Braunkohlekraftwerke………………4,6 Cent / KWh  (davon  20% Brennstoffkosten)

– Steinkohlekraftwerke……………….4,9 Cent / KWh  ( davon  42% Brennstoffkosten)

– Kernkraftwerk (abgeschrieben)…2,2 Cent / KWh   (davon   27% Brennstoffkosten )

– Kernkraftwerk-Neubau……………..5,0  Cent / KWh  (davon 8,1% Brennstoffkosten)

– GuD-Gaskraftwerke…………………5,7 Cent / KWh  (davon 74% Brennstoffkosten)

       (Daten aus:Panos Konstantin: „Praxisbuch Energiewirtschaft“, 2009, VDI-Buch)

Einspeisevergütung gem. Erneuerbare Energien-Gesetz  (für 2011)

– Windstrom:   Landanlagen          9,2   Cent / KWh

                       Offshoreanlagen    13,0 Cent / KWh

– Biomasse-Strom: Grundvergütung:    

— bis 150 KW: ……………………….11,67 Cent / KWh, absinkend bis

— 5 MW – 20 MW: ……………………7,79 Cent / KWh

Dazu kommen zahlreiche Boni:   Nawaro-Bonus incl. Gülle-Bonus,

                                                                  Technologie-Bonus,

                                                                  Kraft-Wärme-Kopplungs-Bonus

                                                                  Formaldehyd-Bonus.                

– Photovoltaik-Solarstrom:

— Inbetriebnahme 1.1.- 30.6.2011: …28,74 Cent / KWh

— Inbetriebnahme 1.7.- 30.9.2011: …24,43 Cent / KWh.

Da sich an den zusätzlichen Kosten wie Steuern und Abgaben nichts ändern würde, weil der Staat das Geld braucht und sich die Netzkosten auch noch wegen der gewaltigen Erweiterungen  für den Nord-Süd-Transport des Windstroms  massiv erhöhen würden, steigen selbstverständlich die Strompreise deutlich. Der ehemalige Wirtschaftsminister Brüderle legte am 21.3.2011 Eckpunkte für den Stromnetzausbau vor: "Für den ehrgeizigen Ausbau der erneuerbaren Energien würden etwa 3.600 km neue Leitungen benötigt."

Die Deutsche Energie-Agentur dena rechnet jedoch mit erforderlichen 4.500 km an zusätzlichen Höchstspannungsleitungen. Der dena-Geschäftsführer Stephan Kohler erwartet einen Strompreisanstieg von 20% bei einem Kernkraftausstieg bis 2020/25.

Der VDE wies bereits in seiner Prognose von 2008 auch darauf hin, daß ein Netzausbau mit Hochspannungs-Freileitungen "zunehmend an der ablehnenden Haltung der Bürger scheitert." Die Folge sei der Bau von unterirdischen Leitungen, die jedoch "das Drei- bis Sechsfache einer Freileitung kosten."

Immerhin prognostizierten sowohl Kanzlerin Merkel als auch Herr Brüderle, daß auf die Verbraucher damit höhere Strompreise zukommen würden. Zahlen nannten sie nicht.

Im Dilemma zwischen Reaktorstillegungen, Klimaschutz-Verpflichtungen und drohenden Stromsperren tendiert die Regierung zu mehr Gaskraftwerken, da diese eine bessere CO2-Bilanz als Kohlekraftwerke haben und somit das „kleinere Übel“ darstellen – obwohl das die teuerste Art der konventionellen Stromerzeugung ist, deren Preis auch noch von Monopolisten abhängt.

Die Russen finden die deutsche Energiewende deshalb großartig: Gazprom-Chef Alexej Miller  schätzt, daß schon bis Dezember 2011 der Preis für 1000 Kubikmeter Erdgas von heute 354 Dollar auf 500 Dollar steigen wird. Sie haben durch die Schlafmützigkeit der letzten deutschen Regierungen eine bequeme Monopolstellung bekommen, weil Deutschland seit vielen Jahren auf den Bau eines Terminals für LNG (verflüssigtes Erdgas) in Wilhelmshaven verzichtet hat, was die Anlandung von Erdgas aus anderen Lieferländern – z.B. aus Nordafrika – ermöglicht hätte. Unsere westeuropäischen Nachbarn haben diese Chance konsequent genutzt. Auch dieses Kapitel gehört zum Generalthema "Nichtexistenz einer deutschen Energiepolitik."

Analysten gehen im Gegensatz zu der deutschen Rettungs-Vision "Gaskraftwerke statt Reaktoren" davon aus, daß eine durch Kernkraft-Abschaltung entstehende Versorgungslücke keineswegs durch neue Gaskraftwerke gefüllt werden kann. Sie sagen voraus, daß die Stromversorger erst dann in neue Gaskraftwerke investieren werden, wenn die Gasimport-Kapazitäten stark erhöht werden. Und damit meinen sie nicht noch mehr Leitungen zum Monopolisten Gazprom.

Wie wäre es dann mit Kohle ? Erich Schmitz, Geschäftsführer des Vereins der Kohleimporteure, sagt: "Würden wir die Kapazität der jetzt vom Netz genommenen Atomkraftwerke vollständig durch Steinkohle ersetzen, müßten wie pro Quartal bis zu 3 Millionen Tonnen mehr einführen." Und der Vorsitzende der Industriegewerkschaft IGBCE (Bergbau, Chemie, Energie) Michael Vassiliadis forderte bereits einen kräftigen Wiedereinstieg in die Kohleverstromung – Braun- und Steinkohle – bei einem Kernkraft-Ausstieg. Der SPD-Vorsitzende Siegmar Gabriel hat das vernommen und verwies bereits darauf, daß "wir die acht bis zehn Kohlekraftwerke brauchen, die sich derzeit im Bau befinden." Offenbar sieht die SPD jetzt die Chance, ihre Atomausstiegs-Forderungen mit gewerkschaftlichen Wünschen in Einklang zu bringen.

Wie es aussieht, hat sich die Regierung völlig in eine Sackgasse hinein manövriert.  Sie wird die Kohleoption nutzen müssen, wenn sie nicht eine erneute Kehrtwendung  ("Wir brauchen die Kernkraft nun doch…") machen will. Aber ganz ohne Kehrtwendungen geht es jetzt nicht mehr weiter:

Ein plötzlicher Abschied von bislang unantastbaren Umweltzielen steht ins Haus.

Nach einer Studie des BDI kämen durch den Kernkraftausstieg bis 2020 Mehrkosten von 33 Milliarden Euro zusammen;

– davon 24 Mrd. Euro für Industrie- und Gewerbekunden

– und 9 Mrd. Euro für private Verbraucher.

Rechne man noch die Kosten für den Ausbau der "Erneuerbaren" und des Stromnetzes (s.o.)  hinzu, würden aus den 33 Mrd. sogar 51 Mrd. Euro.

E.On-Chef Teyssen befürchtet bei steigenden Strompreisen eine De-Industrialisierung. 830.000 Arbeitsplätze seien in Gefahr. "Wenn die energieintensive Grundstoff- und Chemieindustrien uns verlassen, ist das für die ganze Wirtschaft schlimm."

In einer Wirtschaft ohne Grundstoffindustrie, ohne Stahl- und Aluminiumerzeugung, gebe es auch keine heimische Werkzeugmaschinenindustrie mehr. "Dann werden auch keine Windkraftanlagen mehr bei uns gebaut."

(Wirtschaftswoche 1.5.2011; http://wiwo.de/t/a/464720 )

Werden die Gewerkschaften dem zu befürchtenden  Exodus der deutschen Industrie, vor dem bereits der EU-Energiekommissar Oettinger gewarnt hat, weiterhin tatenlos zusehen ?

Lesen sie auch die Teile II und III mit  den Märchen 4 bis 13 in den nächsten Tagen 

Dr.ing.  Günter Keil Sankt Augustin, 27. Mai 2011 für EIKE

Den Beitrag können Sie auch als .pdf Dokument herunterladen.

Related Files




Weltweite Temperaturmessungen beweisen: Kein anthropogen verursachter Klimawandel

Auf der Konferenz in Kyoto 1997 verabschiedete die Staatengemeinschaft eine Klima-Rahmenkonvention, welche die völkerrechtliche Grundlage für den internationalen Klimaschutz bilden sollte. Weitere 20 Jahre später wird von den offiziellen Klimainstituten die angeblich vom Menschen verursachte globale Erwärmung immer noch als die Hauptaufgabe der Menschheit angesehen, denn diese Erwärmung gefährdet angeblich ihre Existenz. Tatsächlich wurde bis heute nie bewiesen, dass das vom Menschen direkt oder indirekt produzierte CO2 die ihm zugedachte Wirkung hat. Diese Annahme beruht lediglich auf Modellrechnungen für die künftige Entwicklung der Temperatur. Im Gegenteil: Nach den Grundgesetzen der Physik ist die vom Weltklimarat (IPCC) befürchtete Wirkung des CO2 gar nicht möglich.

Der „Klimawandel“ ist dank massiver Unterstützung der Medien und der Politik zum Zeitgeist ge­worden. Dies wurde möglich, weil die aus den mittels Modellrechnungen generierten Szenarien in der öffentlichen Wahrnehmung zu Prognosen wurden, die für die Zukunft lebensfeindliche Zu­stände voraussagen und Angst erzeugen. Angst fördert bekanntlich die Regierbarkeit.

In vielen Regionen Deutschlands haben sich Initiativen gebildet, um Maßnahmen gegen den Klimawandel zu entwickeln, im Detail zu planen, ihre Ausführung zu überwachen und nach der Fertigstellung zu unterhalten. Oft ergreifen Kommunal- oder Kreisverwaltungen oder Bezirksregierungen  die Initiative und behalten dann die Federführung. Neben vielen anderen Aktivitäten werden Tagungen veranstaltet, um die aktuelle Situation des Klimawandels zu behandeln, um Projekte vorzustellen (Anmerkung der Redaktion: Hier die neueste Idee zur Instrumentalisierung des Klimawandels: Die Klimakollekte der ev. Kirche), und ihre Ausführungen und die Ergebnisse zu erörtern. Und wer als Außenstehender daran teilnimmt, um die Aktivitäten kennen zu lernen – beispielsweise an den 21. Arnsberger Umweltgesprächen – , der kann seine Eindrücke wie folgt zusammenfassen:

  • Der Klimawandel als solcher wird offiziell weder diskutiert noch gar in Frage gestellt. Er wird als Tatsache angesehen, und deshalb wird Klimaschutz für erforderlich gehalten. Klimaschutz hat in Deutschland mittlerweile des Rang eines Glaubensbekenntnisses. 

  • Man spricht fast immer von Klimaschutz, obwohl es sich meistens um Maßnahmen des Umweltschutzes handelt. Der Unterschied zwischen beiden bleibt in der Regel unbekannt oder unbeachtet. Er  ist aber entscheidend, wenn es um die Auswahl konkreter Maßnahmen geht: Unsere Umwelt müssen – und können – wir schützen, unser Klima nicht, denn das bestimmen seit 4,5 Mrd. Jahren die Sonne und die von ihr gesteuerten Faktoren. Investitionen in Maßnahmen für den Umweltschutz sind notwendig, hilfreich und deshalb ihr Geld wert. Dagegen sind die vom IPCC und den nationalen Institutionen empfohlenen und von der Politik beschlossenen und in’s Werk gesetzten Investitionen in die Reduktion des Klimagases CO2 („2°C-Ziel“) sinn- und nutzlos. In den hier vorgestellten Berichten wird das bewiesen.

„Nur Geologen haben dazu noch eine andere Meinung“, wurde dem Verfasser mal in der Diskussion nach einem Vortrag vorgeworfen. Richtig! Und wenn die sie nicht hätten, wären sie keine Geologen, denn die haben verinnerlicht, dass das Klima nur vorübergehend  gleich bleibt., und dass ihr ständiger Wandel zu den Selbstverständlichkeiten gehört, mit denen wir auf der Erde zu leben haben. Und Geologen wissen üblicherweise nicht nur, dass sich das Klima ändert, sondern auch, warum dies geschieht. Manche Klimaforscher meinen, „auch die Sonne sei ein wirksamer Faktor“ – was ja wohl impliziert, dass andere Faktoren wirksamer und deshalb wichtiger sind. Das ist falsch, denn die Sonne ist der wirksame Faktor – und jedes anderes Modell ist obszön – was wäre unser Weltraum ohne Sonne? Wer sparsam bis unbekleidet am Strand liegt und zu frieren beginnt, wird sich freuen, wenn die vorüberziehende Wolke nicht mehr die Sonne verdeckt, und es wieder wärmer wird. 

Die Basis für die Beurteilung der Tempe­raturentwicklung haben die Temperaturmessungen zu sein, die als Temperaturgangli­nien aufgetragen werden. Sie lassen erkennen, ob – und wie – sich über die Zeit die Temperatur verän­dert. Der Trend, den die Ganglinien anzeigen, ist für eine qualitative Beurteilung zuverlässig. Die Ganglinien können auch für die Ermittlung der quantitativen Änderungen geeignet sein, wenn richtig gemessen und ausgewertet wird. Der Verfasser hat bisher in drei Etappen Temperaturdaten und Temperaturganglinien ausgewertet und stellt die Ergebnisse hier vor.

Im Frühjahr 2009 wurden in der ersten Etappe die Daten von 46 Stationen aus Wetterzentrale.de qualitativ und quantitativ ausgewertet. Mit den Messungen und Aufzeichnungen wurde 1701 in Berlin begonnen, die weiteren Stationen nahmen nach und nach ihren Dienst auf. Sie liegen meistens in Eu­ropa, aber auch in Nordamerika, Austra­lien, Sibirien und Japan. Diese „WZ-Daten“ haben gezeigt, dass außer einer geringen Er­wär­mung nach der Kleinen Eiszeit kein Klimawandel stattgefunden hat, sondern lediglich geringe Temperaturschwankungen, und folglich kann auch keine anthro­pogen verursachte Erwärmung im 20. Jahrhundert festgestellt werden.

Im Frühjahr 2010 folgte dann die zweite Bearbeitungsetappe. Es wurden 1134 Temperaturganglinien der NASA von allen Kontinenten Ozeanen analysiert, und damit weltweit die Temperaturentwicklung zwischen 1880 und 2008 er­fasst. Dabei wurden die Trends der Ganglinien beurteilt, nämlich ob sie Erwärmung oder Abküh­lung oder Konstanz anzeigen, und außerdem wurde der Wärme-Insel-Effekt beurteilt. Bei dieser Auswertung wurde eine geographische Zuordnung vorgenommen, d.h. die Ganglinien wurden nach Kontinenten und Ozeanen und dann innerhalb dieser geographischen Einheiten nach ihren Koordinaten so geordnet, dass die jeweils benachbarten in Gruppen zu je acht zusammengestellt wurden. Diese qualitative Auswertung ergab, dass ca. 74% aller Stationen keine größeren Erwärmungen als zuvor anzeigen, sondern dass die Temperaturen zwischen 1880 und 2008 größtenteils nicht angestiegen sind. Sie sind trotz vorübergehender Schwankungen im Mittel gleich geblieben oder haben sich sogar erniedrigt – nämlich 62,1% bzw. 11.9%. Das Ergebnis ist für die Temperaturentwicklung der Welt des letzten Jahrhunderts repräsentativ.

Die dritte Etappe wurde durch den Zufall initiiert, dass weitere Langzeit-Temperaturreihen verfügbar wurden. Der Weltklimarat (IPCC) und andere offizielle Institute haben für ihre Zustandsbeschreibung des Klimas und die daraus abgeleiteten Folgerungen die Temperaturmessungen seit ca. 1880 zugrunde gelegt. Dieser sehr viel zu kurze Beobachtungszeitraum kann Langzeitentwicklungen des Klimas nicht erfassen, dafür sind möglichst lange Temperaturreihen erforderlich. Zusammen mit denen des ersten Berichtes sind in der dritten Etappe die Daten von insgesamt 82 Stationen ausgewertet worden, nämlich aus den Internet-Portalen Wetterzentrale, The Little Ice Age Thermosmeters und Rimfrost. Die Ergebnisse bilden den Gegenstand des dritten Berichts, der im Februar, März und April 2011 erarbeitet wurde. Die Temperaturreihen beginnen 1659 mit der Ganglinie für Mittelengland, zu den in der Folgezeit immer weitere hinzu gekommen sind – ab 1701 in Berlin (siehe oben). Sie reichen bis zur Gegenwart, schließen also den Zeitraum 1880-2009 mit ein. Die 82 Stationen liegen größtenteils in Europa, aber auch in allen anderen Kontinenten.

Das IPCC erkennt in dem globalen Temperaturanstieg des 20. Jahrhunderts eine klima­tologische Besonderheit. Diese Diagnose ist nur möglich, wenn man die Tempe­raturmessungen des 18. und 19. Jahrhunderts unberücksichtigt und die Wirkung des Wärme-Insel-Effekts außer acht lässt. Eine solche Nichtbeachtung von älteren Daten ist jedoch unzulässig, denn eine Beurteilung erfordert immer einen Ver­gleich, d.h. Temperaturänderungen dürfen immer nur im Zu­sam­menhang mit vorhergehenden beurteilt werden. In diesem Falle zeigt der Vergleich, dass im 18. und 19. Jahrhundert stärkere und schnellere Än­derungen erfolgt sind als im 20. Jahrhundert, die folglich  keine Besonderheit bil­den.

In den letzten 300 Jahren haben, wie auch schon vorher, Abkühlungs- und Erwärmungsphasen miteinander abgewechselt. Das IPCC und, beispielsweise, das PIK sehen unsere CO2-Produktion als Ursache für die Erwärmung im 20. Jahrhundert an. Um dies zu klären, ist zu prüfen, wann es wärmer geworden ist, denn die Ursache kommt vor der Wirkung. Diese Auswertung weist nach, dass die wesentliche Erwärmungsphase vor unserer CO2-Produktion statt gefunden hat. Ein kausaler Zusammenhang ist folglich auszuschließen.

Die drei erwähnten Berichte sind als PDF-Dateien beigefügt und abrufbar. Ihre Titel lauten:

Temperature readings beginning in early 18th century disprove global warming

Repräsentative Beispiele von NASA-Temperaturkurven

Langzeit-Temperaturreihen widerlegen menschen-gemachten Klimawandel

 Prof. Dr. Friedrich Karl Ewert Diplom Geologe EIKE

Related Files




„Und ewig sterben die Wälder“ jetzt bei Youtube!

"Und ewig sterben die Wälder" Ein Film von Michael Miersch und Tobias Streck




Der Große Schwindel mit dem Meeresspiegel – Es gibt keinen alarmierenden Anstieg des Meeresspiegels!

In diesem Papier möchte ich die vom IPCC und Anderen propagierten Raten des Meeresspiegelanstiegs untersuchen. Abbildung 1 zeigt die Unterschiede zwischen den Modellrechnungen des IPCC und den beobachteten Fakten. Nach 1965 beginnen die beiden Kurven, signifikant auseinander zu laufen (markiert mit einem Fragezeichen). Diese Studie wird die Unterschiede beleuchten und eine Lösung anbieten, welchen Daten man trauen kann und welche zu verwerfen sind.

Abbildung 2 zeigt das Spektrum der gegenwärtigen Abschätzungen zur Änderung des Meeresspiegels. Die Raten reichen von 0,0 bis 3,2 mm pro Jahr. Logischerweise können nicht alle diese Raten richtig sein. Ich möchte versuchen, das Fragezeichen in Abbildung 1 aufzulösen, und zwar durch eine kritische Untersuchung der Graphen in Abbildung 2.

Während das IPCC und seine Propagandisten immer wildere Vorhersagen des Anstiegs des Meeresspiegel in naher Zukunft abgeben, zeigen die tatsächlich beobachteten Fakten, dass der Meeresspiegel während der vergangenen 40 bis 50 Jahre weitgehend stabil war.

Beobachtete Fakten

Eindeutige Messungen vor Ort deuten darauf hin, dass der Meeresspiegel weder bei den Malediven noch in Bangladesh, Tuvalu, Vanuatu und Französisch Guayana steigt (Mörner 2007a, 2007b, 2007c, 2010a, 2010b). Alle diese Orte nehmen in der Diskussion um den Meeresspiegel Schlüsselstellungen ein, in der das IPCC und seine ideologischen Erfüllungsgehilfen katastrophale Überflutungsszenarien entworfen haben. Die Wirklichkeit unterscheidet sich jedoch fundamental von den Behauptungen des IPCC, wie ich in einem Beitrag und dem Interview in 21st Century hier  dargelegt habe.

Das IPCC und die Präsidenten von den Malediven und Tuvalu behaupten weiterhin, dass die Überflutung bereits im Gange ist und die Inseln bald von der Oberfläche des Planeten (oder besser des Ozeans) verschwinden werden. Schon hier erleben wir ein Verhalten, das man gut und gerne als „Sea-Level-Gate“ bezeichnen könnte. In einem offenen Brief an den Präsidenten der Malediven (Mörner 2009) brachte ich die Diskrepanz zwischen dieser Behauptung und unseren Messungen zum Ausdruck. Bisher gab es keine Antwort.

Bangladesh ist eine Nation, die häufig Opfer von Naturkatastrophen ist – starke Niederschläge im Himalaya und tropische Wirbelstürme an der Küste. Als wäre das noch nicht schlimm genug, wurde behauptet, dass der Meeresspiegel in raschem Anstieg begriffen sei. Diese Behauptung wurde in meiner Studie im Sundarban-Gebiet total diskreditiert, wo es eine Tatsache ist, dass der Meeresspiegel seit 40 bis 50 Jahren stabil geblieben ist (Mörner 2010a).

Der fälschlich hergeleitete Anstieg des Meeresspiegels wurde benutzt, um wilde Szenarien zu erzeugen, in denen behauptet wird, dass Hunderte und Tausende Menschen ertrinken könnten und dass „Millionen von Menschen im Verlauf dieses Jahrhunderts aus ihren Häusern wegen des Anstiegs des Meeresspiegels vertrieben werden würden“ (Byravana und Raja 2010). Dies ist wirklich eine schlimme Verfälschung der augenblicklichen Situation. Zweifellos stehen wir vor einem „Sea-Level-Gate“. Das Magazin, dass die falschen Behauptungen verbreitet, Ethics and International Affairs, lehnt es ab, einen Kommentar zu veröffentlichen, der „empirische Daten in den Mittelpunkt stellt“. Mit Befremden müssen wir fragen: Was bedeuten die moralischen Warnungen, wenn die gesamte empirische Basis falsch ist?

In Tuvalu behauptet der Präsident weiterhin, dass sie dabei sind, überflutet zu werden. Und dies, obwohl Messungen des Pegelstands klar auf die Stabilität des Meeresspiegels während der letzten 30 Jahre hinweisen (Mörner 2007a, 2007c, 2010b; Murphy 2007). In Vanuatu zeigen die Wasserstandsmessungen während der letzten 14 Jahre einen stabilen Meeresspiegel (Mörner 2010c).

Von den Küsten von Französisch-Guayana und Surinam gibt es ausgezeichnete Aufzeichnungen des Meeresspiegels, die multiple 18,6 Jahre lange Tidenzyklen zeigen (Gratiot et al. 2008). Sie zeigen Variationen rund um einen stabilen Nullwert während der letzten 50 Jahre (Mörner 2010b). Für das gleiche Gebiet zeigen die Satellitenmessungen einen Anstieg des Meeresspiegels um 3,0 mm/Jahr. Dies erweckt erhebliche Zweifel an der Qualität der Satellitenwerte, was weiter unten diskutiert wird.

Die Aufzeichnungen des Meeresspiegels in Venedig können als ein Test für die globale Eustatik² verwendet werden. Zieht man den Faktor ab, der sich aus der Landabsenkung dort ergibt, zeigt sich kein Anstieg eustatischen Ursprungs, keine wie auch immer geartete Beschleunigung; statt dessen zeigt sich ein Absinken des Meeresspiegels um das Jahr 1970 (Mörner 2007a, 2007c).

² Eustatik oder eustatische Änderung (Im Gegensatz zu Änderungen der Landoberfläche) bedeuten Änderungen des Ozeanspiegels (von dem man früher dachte, er sei global, doch fand man inzwischen heraus, dass es wegen einer horizontalen Umverteilung von Wassermassen auch regionale Änderungen geben kann).

Die Küsten Nordwesteuropas sind interessant, weil es hier sowohl ein Heben als auch ein Absinken von Landmassen gibt. Der Pegel bei Korsør im Großen Belt (zwischen den dänischen Inseln Fünen und Seeland) beispielsweise befindet sich seit 8000 Jahren an einem Angelpunkt zwischen Hebung und Absenken. Dieser Pegel zeigt während der letzten 50 bis 60 Jahre keinen Anstieg des Meeresspiegels.

Cuxhaven an der deutschen Nordseeküste verfügt über einen Pegel bis zurück zum Jahr 1843, und zwar in einem Gebiet, dass das absinkende Segment der deutschen Nordseeküste repräsentiert. Abbildung 3 zeigt die mittleren jährlichen Werte über 160 Jahre mit einem langzeitlichen angepassten Trendpolynom (Herold, nicht veröffentlicht) versehen. Diese Kurve (blau) zeigt einen leichten Anstiegstrend in einem sinusförmigen Verlauf, welcher die mittleren relativen Änderungen des Meeresspiegels in dem Gebiet repräsentiert. Nächste Spalte über den beiden Bildern Zusätzlich zu dieser eustatischen Komponente in Nordwesteuropa (Mörner 1973) bekommt man teilweise die lokale Rate des Absinkens von Land (rote Kurve) und die teilweise eustatische Komponente, extrapoliert bis in die Gegenwart und doppelt geprüft für den Zeitraum bis 1970 (der Unterschied zwischen der roten und der blauen Kurve).

Die regionale eustatische Änderung des Meeresspiegels nimmt nach 1930 bis 1940 ab, wird flach von 1950 bis 1970 und fällt seit 1970 bis zum heutigen Tag. Dies stellt einen sicheren Beweis dafür dar, dass sich der Meeresspiegel heute in keiner Weise in einem rapiden Anstieg befindet; vielmehr gibt es einen gegenteiligen Trend: einen langsam fallenden Meeresspiegel.

Pegelmessstellen wurden an Häfen installiert, um die Änderungen des Tidenhubs und langfristige Änderungen des Meeresspiegels zu messen. Der Pegel in Amsterdam ist der Älteste, wurde er doch schon im Jahre 1682 errichtet. Die Messstelle in Stockholm ist die zweitälteste und wurde 1724/1774 errichtet, die drittälteste befindet sich in Liverpool, und zwar seit 1768. Die meisten Pegel sind auf instabilen Hafenkonstruktionen oder Landungsbrücken installiert. Daher neigen diese Aufzeichnungen dazu, den Anstieg des Meeresspiegels zu übertreiben. In der National Oceanic and Atmospheric Administration NOAA enthält die Datenbasis 159 Pegelmessstellen (Abbildung 4)

Die Autoren des IPCC nehmen sich die Freiheit, zur Rekonstruktion eines Meeresspiegeltrends pro Jahrhundert bestimmte Stationen auszusuchen, die sie „repräsentativ“ nennen. Dies bedeutet natürlich, dass ihre persönliche Ansicht – nämlich das IPCC-Szenario seit Beginn des Projektes – in dieser Auswahl einfließt und „repräsentativ“ nur die Messstellen sind, die diese Vorgabe erfüllen. Es beginnt, nach einem neuen „Sea-Level-Gate“ zu stinken.

Die Messung mit Satelliten ist eine wunderbare neue Technik, die eine Rekonstruktion von Änderungen des Meeresspiegels an der gesamten Wasseroberfläche zulässt. Dies ist unabdingbar, da sich der Meeresspiegel nicht nur vertikal, sondern auch horizontal ändert. Die horizontale Umverteilung von Wasser im Maßstab von Jahrhunderten und Jahrzehnten wurde zum ersten Mal während des späten Holozäns beobachtet (siehe z. B. Mörner 1995 und 1996) und zeigen sich deutlich in den Satellitenaufzeichnungen von 1992 bis 2010 (siehe z. B. Nicholls und Casenaye 2010; Casenaye und Llovel 2010). Jedoch verbleiben große Probleme hinsichtlich des gewählten Null-Niveaus und für den langfristigen Trend (Mörner 2004, 2007c, 2008).

Die Missionen Topex/Poseidon und später Jason zeichneten die Variationen der Ozeanoberfläche in hoher Auflösung auf. Nachdem man alle notwendigen technischen Korrekturen angebracht hat, präsentierten Menard (2000, auch Aviso 2000) den ersten Verlauf der Meeresspiegels von 1992 bis 2000 (Abbildung 5).

Die Abbildung 5 mit einem Trend von 1,0 mm/Jahr wird durch die lineare Annäherung begründet. Die Tatsache, dass das große Hoch in den Zyklen 175 bis 200 durch ein ENSO-Ereignis hervorgerufen wurde, wird ignoriert. (Bei ENSO handelt es sich um die El Niño – La Niña Southern Oscillation, eine quasi-periodische Schwankung, die es alle paar Jahre im tropischen Pazifik gibt). Darum ergibt sich eine viel bessere Annäherung, wenn man diese ENSO-Signale als ein separates Ereignis betrachtet, der dem langzeitlichen Trend überlagert ist, wie in Abbildung 6 gezeigt (Mörner 2004). Abbildung 6 zeigt eine Variabilität (von ±10 mm) um einen stabilen Nullwert (blaue Linie) im Jahre 1997 und ein starkes EBSO-Ereignis (gelbe Linien) im Jahre 1997. Der Trend danach ist weniger klar (graue Linien). Dieser Graph zeigt keinerlei Hinweis auf irgendeinen Anstieg während der betrachteten Zeitspanne (Mörner 2004, 2007a, 2007c).

Als die Satellitengruppe merkte, dass der Anstieg 1997 das Signal eines ENSO-Ereignisses war und sie den Trend bis 2003 extrapolierten, scheint es, dass sie ein Problem hatten: Es gab keinen sichtbaren Anstieg des Meeresspiegels, und daher musste eine „Reinterpretation“ vorgenommen werden (dies wurde mündlich auf dem Global Warming Meeting bestätigt, welches von der russischen Akademie der Wissenschaften abgehalten worden ist und an dem ich teilnahm). Nur, was man genau gemacht hatte, blieb unklar, da die Satellitengruppe die zusätzlichen „Korrekturen“, die sie angebracht hatten, nicht spezifiziert haben.

Im Jahre 2003 geriet die Aufzeichnung der Satellitenmessungen plötzlich erneut in Schieflage (Aviso 2003) – weg von dem weitgehend horizontalen Verlauf von 1992 bis 2000, wie man in den Abbildungen 5 und 6 erkennt – und zwar hin zu einer Rate von 2,3 (± 0,1) mm/Jahr (Abbildung 7)

Woher kommt diese neue Schieflage? War der Verlauf in Abbildung 5 aus dem Jahr 2000 noch flach, zeigt er jetzt aufwärts in Abbildung 7 aus dem Jahr 2003 (Aviso 2000, 2003). Offensichtlich wurde irgendeine Art „Korrektur“ angebracht, ohne diese jedoch zu spezifizieren, so dass eine Auswertung vorgenommen werden könnte (siehe Mörner 2007c, 2008). In den meisten Graphen der Satellitenaufzeichnungen des Meeresspiegels Seite 5 à Seite 6) (im Internet und Artikeln in Zeitschriften) wird nicht einmal angemerkt, dass die Graphen eben nicht die gegenwärtigen Trends zeigen, wie sie von den Satelliten registriert werden, sondern Trends nach Anbringung von „Korrekturen“. Ursprünglich schien es so, als ob sich diese nicht spezifizierte „Extrakorrektur“ auf die globale isostatische³ Anpassung (GIA) von 2,4 mm/Jahr (siehe z. B. Peltier 1998), oder 1,8 mm/Jahr (IPCC 2001) bezogen hatte. Die Nullbasis der GIA wurde nach Peltier (1998) in Hong Kong ermittelt, wo eine Messstelle einen relativen Anstieg des Meeresspiegels um 2,3 mm/Jahr zeigte. Dies entspricht genau dem Wert in Abbildung 7. Diese Messung steht jedoch im Widerspruch zu den vier anderen Messstellen in Hong Kong und repräsentiert offenbar eine lokale spezifische Landabsenkung, ein Faktum, dass den Geologen vor Ort wohlbekannt ist.

³Isostatisch bezieht sich auf die Balance der geologischen Massen und der Tendenz zum Gleichgewicht.

Nichtsdestotrotz wurde ein neuer Anpassungsfaktor an den Graph in Abbildung 7 angebracht.  Auf dem Moskauer Treffen 2005 erwiderte eine der Personen in der britischen IPCC-Delegation auf meine Frage und Kritik an dieser „Korrektur“: „Wir mussten das tun, weil es sonst gar keinen Trend gegeben hätte!“ darauf antwortete ich: „Haben Sie gehört, was Sie sagen? Das ist doch genau das, was ich Ihnen vorwerfe!“ Daher wurde in meinem Booklet aus dem Jahre 2007 (Mörner 2007c) der Graph in Abbildung 7 zurück in seine Originalposition gebracht (Abbildung 5).

Die Kalibrierungen, die an die altimetrischen Satellitenmessungen angebracht worden waren, werden bei Mitchum (2000 – cf. Casenave und Nerem 2004; Leuliette und Scharroo 2010) diskutiert. Die Messungen an den Pegeln spielten dabei eine zentrale Rolle und schlossen eine gewisse Art von Zirkelschluss hinsichtlich dieser Kalibrierungen ein. Andere wichtige Faktoren sind die globale isostatische Anpassung (GIA) und die Vertikalbewegungen der Orte mit den Pegeln.

Mitchum (2000) stellt zum Einen fest: „wir haben die Rate vorgegeben durch Douglass (1991, 1995) von 1,8 ± 0,1 mm/Jahr übernommen“, und zum Anderen: „von den Messstellen wurde angenommen, dass sie vertikal stabil sind“. Beide diese Annahmen sind falsch. Die Rate von 1,8 mm/Jahr ist nicht belegt, sondern eher im Gegenteil (siehe Abbildung 2). Die Aufzeichnungen an Messstellen sind alles andere als vertikal stabil, sondern eher im Gegenteil (dies gilt für die 6 Messstellen, die von Church et al. sowie die 25 Messstellen, die von Douglas verwendet wurden). Mitchum (2000) schlug die folgenden Beziehungen vor (wie in der farbig hinterlegten Gleichung unten):

Der vorgeschlagene „globale Faktor des Meeresspiegels” (Kasten B) ist niemals eindeutig und vertrauenswürdig, sondern eher Gegen­stand persönlicher Ansichten, wie man in Abbildung 2 sieht. Die Rate von 1,8 mm/Jahr ist mit Sicherheit eine Überschätzung, die stark durch Landabsenkungen an den ausgewählten Messstellen beeinflusst ist (Abbildung 2). Nach meiner Ansicht wäre 0,0 mm/Jahr (oder ein wenig darüber) ein viel besserer Wert.

Die lokalen Landbewegungen an den Messstellen (Kasten C) ist eine weitere komplexe Angelegenheit, die nach einem geologischen Verständnis der fraglichen Messstelle verlangt. Lokale Änderungen des aus Sedimenten gebildeten Untergrundes (wie Verdichtung, Rückzug des Wassers (water withdrawal) usw.) ist ein primärer Faktor, dem man Rechnung tragen muss (Mörner 2004, 2010b). Diese Änderungen können durch Satellitenmessungen nicht aufgezeichnet werden, sondern nur mit genauen Kenntnissen der Verhältnisse vor Ort. Viele Messstellen wurden in Häfen und an Landungsbrücken installiert, die alles andere als stabil sind. Bewegungen der Erdkruste sowie die Seismoektonik sind andere Faktoren. Im Falle des Hafens der maledivischen Hauptstadt Malé ist diese Insel so überladen mit Bebauung, dass die Hafenbauten zerbrechen und sich in einer Weise verändern, die jede glaubwürdige Messung des Meeresspiegels dort ungültig machen.

Abbildung 9 zeigt die Satellitenaufzeichnungen, wie sie von NOAA (2008) veröffentlicht worden sind, und die einen Anstieg von 3,2 ± 0,4 mm/Jahr ergeben.

In Abbildung 10 sind die Satellitenmessungen von Abbildung 9 zurück geneigt worden, damit sie zu dem Originaltrend der Abbildungen 5 und 6 im Zeitraum 1992 bis 2000 (gelbe Bereiche) sowie zu den Rohdaten von GRACE in Abbildung 8 des Zeitraumes 2003 bis 2007 (gelbe Linie) passen.

Ich habe früher behauptet (Mörner 2008), dass die Satellitenaufzeichnung aus drei Schritten besteht: (1) Messung mit den Instrumenten an Bord des Satelliten, (2) „instrumentelle Aufzeichnung“ (nach der Korrektur durch technische Anpassungen) S. 8 à S. 9 wie in Abbildung 10 gezeigt, und (3) „interpretierende Aufzeichnungen“ (nach Anbringung von „persönlichen Korrekturen“) wie in Abbildung 9 gezeigt. Dies veranschaulicht Abbildung 11.

Wie oben schon erwähnt hat mir ein Mitglied des IPCC hinsichtlich solcher Anpassungen gesagt: „Wir mussten das tun, denn anderenfalls hätte sich kein Trend irgendeiner Art gezeigt“, und genau das scheint der Fall zu sein. Das bedeutet, dass wir hier vor einem sehr schweren, um nicht zu sagen unethischen, „Sea-Level-Gate“ stehen. Somit ergibt sich aus den „instrumentellen Aufzeichnungen“ aus Satellitenmessungen (Abbildung 10) einen Anstieg des Meeresspiegels von 0,0 mm/Jahr. Dies passt viel besser zu den beobachteten Fakten, und es scheint sich hier ein schlüssiges Bild mit keinem oder höchstens einem sehr geringen (in einer Größenordnung von 0,5 mm/Jahr) Meeresspiegelanstieg während der letzten 50 Jahre abzuzeichnen .

So sehen wir, wie des IPCC Bedrohung durch den Meeresspiegel verschwindet. S. 9 à S. 10 Der Gedanke an einen fortgesetzten Anstieg des Meeresspiegels, der Inseln und niedrig liegende Küstenbereiche überflutet, mit Zehntausenden Ertrinkenden und Hunderttausenden bis Millionen Menschen, die zu Meeresspiegelflüchtlingen werden, ist einfach ein schwerer Irrtum, der hiermit als Täuschung, Humbug und schlimmer Desinformation entlarvt wird. Dies ist zweifellos ein ernstes und schäbiges „Sea-Level-Gate“.

Die echten Fakten können in der Natur selbst gefunden werden; mit Sicherheit aber nicht an den Modelliertischen. Einige Aufzeichnungen sind interpretativer Natur. Andere sind ziemlich eindeutig und geradlinig. Ich habe oft behauptet, dass „Bäume nicht lügen“ (z. B. Mörner 2007c) und meinte damit den einsamen Baum auf den Malediven, der auf einen stabilen Meeresspiegel während der letzten 50 bis 60 Jahre hinwies (und der daher von Hand durch eine Gruppe australischer „Wissenschaftler“ und Kundschaftern des IPCC gefällt worden ist). Und ich dachte an die Bäume auf einem Strand in Sundarban, die eine starke Erosion, aber keinerlei Anstieg des Meeresspiegels zeigen. (Mörner 2007c, 2010a).

Durch diesen Beitrag können wir, so hoffe ich, die Welt von einer künstlichen Krise befreien, zu der sie durch den IPCC und seinen Schergen verdammt worden ist, einer Krise durch extensive und desaströse Überflutungen in naher Zukunft. Dies war die Hauptbedrohung im Szenario des IPCC, und jetzt ist sie verschwunden.

 Autor Nils Axel Mörner; mit freundlicher Genehmigung

Übersetzt von Chris Frey für EIKE

References _______________________________

Aviso, 2000. Observing the oceans by altimetry. www.aviso.cis.cnes.fr

Aviso, 2003. Observing the oceans by altimetry. www.aviso.cis.cnes.fr

Aviso, 2008. Mean Sea Level as seen by altimeters. www.avsio.oceanobs.com

D.A. Burton, 2010. “Analysis of global linear mean sea level (MSL)-trends, including distance-weighted averaging.” www.burtonsys.com/global_msl_trend_analysis.html

S. Byravana and S.C. Rajan, 2010. “The ethical implications of sea-level rise due to climate changes.” Ethics and International Affairs, Vol. 24, No. 3, pp. 239-260.

A. Casenave, K. Dominh, S. Guinehut, E. Berthier, W. Llovel, G. Rammien, M. Ablain, and G. Larnicol, 2009. “Sea level budget over 2003-2008: A reevaluation from GRACE space gravimetry, satellite altimetry and Argo.” Global Planetary Change, Vol. 65, pp. 83-88. A. Cazenave and W. Llovel, 2010. “Contemporary sea level rise.” Ann. Rev. Marine Sci., Vol. 2, pp. 145-173.

A. Casenave, and R.S. Nerem, 2004. Present-day sea level changes: Observations and causes. Rev. Geophysics, Vol. 42, pp. 1-20.

J.A. Church, N.J. White, and J.R. Hunter, 2006. “Sea-level rise at tropical Pacific and Indian Ocean islands.” Global Planetary Change, Vol. 53, pp. 155-168.

B.C. Douglas, 1991. “Global sea level rise.” J. Geophys. Res., Vol. 96, pp. 6981-6992.

B.C. Douglas, 1995. “Global sea level changes: determination and interpretation.” Rev. Geophys., Vol. 33, pp. 1425-1432.

N. Gratiot, E.J. Anthony, A. Gardel, C. Gaucherel, C. Proisy, and J.T. Wells, 2008. “Significant contribution of the 18.6 year tidal cycle to regional coastal changes.” Nature Geoscience, Vol. 1, pp. 169-172 (doi: 0.1038/ngeo127).

S.J. Holgate, 2007. “On the decadal rates of sea level change during the twentieth century.” Geophys. Res. Letters, Vol. 34, LO1602, doi:10.1029/2006GL028492.

INQUA, 2000. “Sea Level Changes and Coastal Evolution.” www.pog.su.se, (from 2005: www.pog.nu).

IPCC, 2001. Climate Change. (Cambridge: Cambridge Univ. Press).

IPPC, 2007. Climate Change. (Cambridge: Cambridge Univ. Press).

G. Menard, 2000. “Satellite-based altimetry reveals physical ocean.” MEDIAS Newsletter, Vol. 12, pp. 9-17.

G.T. Mitchum, 2000. “An improved calibration of satellite altimetric heights using tide gauge sea levels with adjustment for land motion.” Marine Geodesy, Vol. 23, pp. 145-166.

N.-A. Mörner, 1973. “Eustatic changes during the last 300 years.” Palaeogeogr. Palaeoclim. Palaeoecol., Vol. 13, pp. 1-14.

N.-A. Mörner, 1995. “Earth rotation, ocean circulation and paleoclimate.” GeoJournal, Vol. 37, No. 4, pp. 419-430.

N.-A. Mörner, 1996. “Sea Level Variability.” Z. Geomorphology N.S., Vol. 102, pp. 223-232.

N.-A. Mörner, 2004. “Estimating future sea level changes.” Global Planet. Change, Vol. 40, pp. 49-54.

N.-A. Mörner, 2005. “Sea level changes and crustal movements with special aspects on the Mediterranean.” Z. Geomorph. N.F., Suppl. Vol. 137, pp. 91-102.

N.-A. Mörner, 2007a. “The Sun rules climate. There’s no danger of global sea level rise.” 21st Century, Fall 2007, pp. 31-34.

N.-A. Mörner, 2007b. “Sea Level Changes and Tsunamis. Environmental Stress and Migration over the Seas.” Internationales Asienforum, Vol. 38, pp. 353-374.

N.-A. Mörner, 2007c. “The Greatest Lie Ever Told.” P&G-print (2nd edition 2009, 3rd edition 2010.

N.-A. Mörner, 2008. “Comments.” Global Planet. Change, Vol. 62, pp. 219-220.

N.-A. Mörner, 2009. “Open letter to the President of the Maldives.” New Concepts in Global Tectonics Newsletter, No. 53, pp. 80-83.

N.-A. Mörner, 2010a. “Sea level changes in Bangladesh. New observational facts.” Energy and Environment, Vol. 21, No. 3, pp. 249-263.

N.-A. Mörner, 2010b. “Some problems in the reconstruction of mean sea level and its changes with time.” Quaternary International, Vol. 221, pp. 3-8.

G. Murphy, 2007. “Claim that sea level is rising is a total fraud (interview).” 21st Century, Fall 2007, pp. 33-37.

R.J. Nicholls and A. Casenave, 2010. “Sea-level rise and its impact on coastal zones.” Science, Vol. 328, pp. 1517-1520.

NOAA, 2008. “The NOAA satellite altimetry program: Closing the sea level rise budget with alrimetry, Argos and Grace.” www.oco.noaa.gov .

W.R. Peltier, 1998. “Postglacial variations in the level of the sea: implications for climate dynamics and solid-earth geophysics.” Rev. Geophysics, Vol. 36, pp. 603-689.




Ökodiktatur auf Samtpfoten?

Seit nicht nur der Kollege Maxeiner in der „Welt“ vom 14. Mai und an dieser Stelle, sondern am Tag darauf auch der Kollege Winand von Petersdorff in der Frankfurter Allgemeinen Sonntagszeitung vom 15. Mai 2011 im neuen WBGU-Gutachten „Welt im Wandel. Gesellschaftsvertrag für eine Große Transformation“ klar Schritte in Richtung auf eine „herzliche Ökodiktatur“ ausgemacht haben, fühlen sich die Mitglieder des WBGU, deren Ansichten in den „Qualitätsmedien“ längst zum Mainstream geworden sind, offenbar unter Rechtfertigungsdruck. Niemand wolle eine Ökodiktatur, beteuert Leggewie, denn dieser Begriff komme im genannten Gutachten gar nicht vor. Wie beruhigend!

Notorische Leugner des Klimawandels, bekennende Autonarren und verwirrte Berufspolemiker ließen ihren Vorurteilen freien Lauf, wenn sie im WBGU-Gutachten eine totalitäre Verschwörung wittern, meint Leggewie.

 

Prof. Dr. Claus Leggewie; Mitglied des WBGU

Demgegenüber will er klarstellen: „Der von uns entworfene Gesellschaftsvertrag sieht deutlich mehr, nicht weniger Demokratie vor. Der gestaltende Staat, der den Primat erneuerbarer Energien mit parlamentarischer Mehrheit und transparenter Gesetzgebung durchsetzen soll, muss sich durch erweiterte Bürgerbeteiligung Legitimation verschaffen.“ Doch gerade das hatte der Kollege von Petersdorff als Beleg für die in Deutschland heraufziehende Ökodiktatur gewertet, indem er den englischen Liberalen Lord Action zitierte, der einmal bemerkte: „Es ist schlimm, von einer Minderheit unterdrückt zu werden, aber es ist schlimmer, von einer Mehrheit unterdrückt zu werden.“ Von Petersdorff listet eine ganze Reihe von Beispielen grüner Zwangsmaßnahmen von der Einführung von Biosprit über die Verpflichtung der Verbraucher zur Abnahme von überteuertem Öko-Strom bis zur gesundheitlich bedenklichen Wärmedämmung von Wohngebäuden auf und stellt fest: „Es wächst eine Ökotyrannei in Deutschland, sie stützt sich auf eine große Mehrheit. Und die Bundesregierung steht an der Spitze.“

Ich vermute, dass Leggewie als Politikwissenschaftler die gängigen Definitionen von Totalitarismus geläufig sind. Eine davon lautet: „Massenmobilisierung für unerreichbare Ziele.“ Diese Massenmobilisierung setzt keine Verschwörung voraus, wohl aber eine auf einer eingängigen Fiktion beruhende diesseitige Heilslehre. Um eine solche handelt es sich bei der vom IPCC vertretenen „Klimawissenschaft“ zweifelsohne. Wir wissen über das Zusammenspiel möglicher Ursachen des Klimawandels so wenig, dass jeglicher Versuch, ihn mithilfe einer „Klimapolitik“ systematisch zu bekämpfen, auf einer Fiktion aufbauen muss. Um die Fiktion aufrecht zu erhalten, müssen abweichende Meinungen bekämpft, Skeptiker kaltgestellt und mit gesellschaftlicher Isolierung bestraft werden. Wie der „gestaltende Staat“ das erreichen kann, hat der WBGU in seinem Gutachten detailliert aufgezeigt.

Totalitäre Bewegungen finden, wie Hannah Arendt in ihrem Werk „Elemente und Ursprünge totalitärer Herrschaft“ gezeigt hat, ihr Ende nicht durch eine wissenschaftliche Widerlegung, sondern an der Wand. Dieses Ende zeichnet sich auch für die in Deutschland von einer breiten Mehrheit getragene „Energiewende“ ab. Der vom WBGU-Gutachten empfohlene gleichzeitige Ausstieg aus der der Nutzung der Kern- und der Kohleenergie stört nicht nur, wie Leggewie meint, die „buchhalterische Bedenkenträgerei“ einiger „schlecht gelaunter Spießer“, sondern widerspricht, wie ausländische Beobachter leicht feststellen konnten, dem kleinen Einmaleins.

Edgar L. Gärtner (EIKE) 

Website von Claus Leggewie mit ausgewählten Forschungsschwerpunkten

„FORSCHUNGSSCHWERPUNKTE“ von Leggewie

KlimaKultur: Kulturelle Voraussetzungen der Anpassung moderner Gesellschaften an die Auswirkungen des Klimawandels; InterKultur: Voraussetzungen und Folgen der kulturellen und religiösen Globalisierung; ErinnerungsKultur: Europäische Erinnerungskonflikte und Geschichtspolitiken. Ferner: Politische und wissenschaftliche Kommunikation via digitale Medien, Demokratisierung nichtwestlicher Gesellschaften.

Update: Essay von Fritz Vahrenholt in Die Welt vom 27.5.11

Ökodiktatur pur

http://www.welt.de/print/die_welt/debatte/article13397280/Oekodiktatur-pur.html

Auszug:

…..Der WBGU vergleicht die Dekarbonisierung der Weltwirtschaft mit der Neolithischen und der Industriellen Revolution. Er liegt nicht richtig mit der Aussage, eine bewusst geplante, radikale Umgestaltung ökonomischer und sozialer Großsysteme sei ohne geschichtliches Vorbild. Zumindest partielle Vorbilder hierfür sind die Industrialisierung der UdSSR in den 20er- und 30er-Jahren oder der „Große Sprung nach vorne“ sowie die „Kulturrevolution“ im China Maos.

Ob geplant oder nicht – revolutionäre Transformationen wirtschaftlicher Großsysteme sind immer mit Entbehrungen für die Generation verbunden, die sie gerade erlebt. Bestehende produktive Wirtschaftsstrukturen werden eingerissen und ganz neue erst aufgebaut werden. Der Preis für den utopischen Klima-Jakobinismus des WBGU ist zu hoch. Demokratische Institutionen, die Freiheit der Lebensführung und das Recht auf materiellen Wohlstand dürfen ihm nicht geopfert werden. Vernünftig ist es, den Weg in die klimafreundliche Wirtschaft der Zukunft über eine ausreichend lange Brücke zu gehen, die von sicher verfügbarer und bewährter Technologie sowie von Marktmechanismen gestützt wird. So bleibt Klimaschutz selbst demokratisch zustimmungsfähig. Dabei mehren sich ohnehin die Zeichen, dass das Antriebsmoment für die „Große Transformation“ erlahmen wird, da die Klimaerwärmung seit 12 Jahren zum Stillstand gekommen ist und sich die wissenschaftlichen Stimmen (außerhalb des WGBU und des Potsdam-Institutes) mehren, dass wir vor einer langjährigen Abkühlungsphase des Klimas stehen.




Jetzt bekannt: Sechs schwere Sicherheitsmängel in Fukushima! Und Fakten zur Kernkraftwerken der IV Generation

Politiker erklären jetzt, dass ihnen die Fukushima-Katastrophe die Größe des Restrisikos deutscher Kernkraftwerke klar gemacht hätte. Welch ein Unsinn. Das ist nur dasjenige Risiko, das bei einem richtig ausgelegten, bestens konstruierten und auch später sicherheitstechnisch nachgerüsteten Kraftwerk am Ende übrig bleibt. Bei den japanischen Reaktoren war das bei Weitem nicht der Fall.

Es gab dort 6 schwere Fehler

Fehler 1

Der Reaktor war auf ein stärkstes Erdbeben von 8,4 ausgelegt – wie es aber schon 1933 auftrat. Es gab keine Sicherheitsreserve darüber – und so übertraf das Beben vom 11.März  die Belastungsgrenze des Reaktors um 25%.

Fehler Nr. 2

war die krasse Mißachtung der Höhe eines Tsunamis, denn im Mittel alle 30 Jahre gab es Tsunamis mit Wellenhöhen über 10 m, oft weit darüber.  Der Betonwall am Meer hatte 5,7 m – dazu kamen 4,3 m vom höher gelegenen Kraftwerk. Die reale Tsunamiwelle hatte aber 14 m. Damit verbunden war

Fehler Nr. 3:

Die Diesel für die Notkühlung befanden sich im Untergeschoß und dieser Raum war auch nicht gegen Hochwasser abgedichtet. Die Diesel soffen ab, die Kühlung fiel aus.

Fehler Nr. 4

war die Unterlassung einer Nachrüstung der zu schwachen Druckentlastungs-Leitungen in der US-Konstruktion. Diese können im Falle einer Kernaufheizung durch den Druck von Dampf und Wasserstoff Lecks bekommen, wodurch alles in das Reaktorgebäude gelangen kann. In den USA wurde das erkannt und die Leitungen verstärkt – in Japan nicht.

Fehler Nr.5:

Weil diese Druckentlastung keine Filter enthielt, konnten radioaktive Aerosole und Partikel entweichen und nach außen gelangen. Deutsche Reaktoren haben diese Filter, die 99,9% zurück halten.

Fehler Nr. 6:

Der im Reaktorgebäude angesammelte Wasserstoff – siehe Nr.5 – konnte explodieren, weil die japanischen Reaktoren im Gegensatz zu unseren nicht über Rekombinatoren verfügen, die Wasserstoff zu Wasser umwandeln. So kam es zu den Explosionen und zur Verbreitung radioaktiver Substanzen. Deshalb lag das tatsächliche Risiko der Fukushima-Reaktoren um das Zig-Tausendfache über dem theoretischen Restrisiko.

Die in Japan unbegreiflicherweise unterlassenen Maßnahmen sind in deutschen KKW lange verwirklicht. Keinen dieser Fehler und Unterlassungen hätte unsere Reaktorsicherheits-Kommission RSK durchgehen lassen – die übrigens von 2002 bis 2006 von Michael Sailer, Mitglied der Geschäftsführung des Öko-Instituts Darmstadt,  geleitet wurde, der heute noch RSK-Mitglied ist.

Dr.-Ing. Günter Keil, Sankt Augustin 18.5.2011

Update: aus 

Grüne surfen auf dem Tsunami an die Macht

…..Niemand hat sich gefragt, warum das Kraftwerk Fukushima nach dem Erdbeben genauso aussah wie vor dem Erdbeben, abgesehen von der geborstenen Betonhülle des Reaktorbaus, welche erst nachträglich durch eine Wasserstoffexplosion aufbrach. Eigentlich hätten die Gebäude doch in Mitleidenschaft gezogen werden müssen bei Horizontalbeschleunigungen von bis zu 550 cm/s2, die auf dem Kernkraftwerksgelände in Ost-West-Richtung gemessen wurden. Die Erdbebensicherheit der Konstruktion hatte seine Aufgabe erfüllt. Alle Sicherheitseinrichtungen taten planmäßig ihren Dienst. Auch die Zerstörung der örtlichen Stromversorgung konnte dem Kraftwerk nichts anhaben, dann aber passierte es. Etwa eine Stunde nach dem verheerenden Beben erreichte ein an dieser Stelle ca. 14 m hoher Tsunami die Küste. Mühelos überwand er die 5,7 m hohe Steinbarriere im Meer, die zweifellos zu niedrig ausgelegt war und spülte ins Kraftwerk hinein bis in die Höhe der Notstromdiesel, die daraufhin ihren Dienst versagten. Im Folgenden konnte die Kühlung nur noch für eine kurze Zeit aufrechterhalten werden, der Rest ist bekannt…

Weiterführender Link zu den Ursachen der Fukushima Havarie hier

Fragen zu KKW der IV Generation: Erläuterungen von Konstantin Foskolos; Deputy Head Nuclear Energy and Safety Research Department Paul Scherrer Institut*

http://www.psi.ch/

Sehr geehrter Herr XXXXXXX Stefan Hirschberg leitete Ihre Anfrage an mich weiter. Hier ein Paar kurze Antworten zu Ihren Fragen: 

F. Wenn ich es richtig verstanden habe, wird bei der heutigen Reaktorgeneration (III) das Energiepotential von Uran nur zu einem verschwindend geringen Teil genutzt. Zahlen zwischen 1 und 3% werden genannt. Stimmt das, und wenn ja, woran liegt das? Was geschieht mit den restlichen ca. 97%? Sind die allesamt "nuklearer" Abfall?

A. Ja, das stimmt. Dies liegt daran, dass in Leichtwasserreaktoren (LWR, welche die Mehrheit der heute in Betrieb stehenden Anlagen ausmachen) die Kernspaltung durch den Aufprall von langsamen („thermischen“) Neutronen auf die spaltbaren Kerne verursacht wird. Das Uran in der Natur besteht aus zwei Isotopen, U-235 (0.7%) und U-238 (99.3%), wovon nur das erste mit thermischen Neutronen gespalten werden kann. Über die Anreicherung wird der Anteil von U-235 auf bis zu 5% erhöht, und dies gelangt in den Reaktor. Allerdings wird der Brennstoff herausgenommen, bevor das U-235 völlig gespalten wird; der „abgebrannte“ Brennstoff enthält noch 1-2% U-235. Der Rest besteht hauptsächlich aus „Ballast“, d.h. U-238. Allerdings wird ein kleiner Teil des U-238 über den Einfang von Neutronen zu Plutonium verwandelt, welches wiederum mit thermischen Neutronen spaltbar ist. 

F. Was geschieht bei der "Wiederaufbereitung"? Wird daraus wieder verwendbares Reaktormaterial gewonnen?

A. Bei der Wiederaufarbeitung wird der abgebrannte Brennstoff in Salpetersäure aufgelöst und seine verschiedenen Bestandteile mittels chemischer Bindestoffe separiert. So gewinnt man separat Uran (wie gesagt noch 1-2% angereichert), Plutonium, und ein Gemisch aus Spaltprodukten und den sog. „höheren Actiniden“ (Americium, Curium)“. Dieses Gemisch bildet den eigentlichen Abfall, der nach der Abtrennung mit Sand vermischt, geschmolzen und verglast wird. Die daraus entstehenden (hochradioaktiven) Glaszylinder werden in Stahlbehältern eingepackt und mit Castor-Behältern von der Wiederaufbereitungsanlage zur Zwischen- und Endlagerung geführt. Wiederaufarbeitungsanlagen gibt es in Frankreich (La Hague), Grossbritannien (Sellafield), Japan (Rokkasho) und Russlad (Mayak). Findet keine Wiederaufarbeitung statt, so transportieren die Castor-Behälter ganze Brennelemente vom jeweiligen Reaktor zum Zwischenlager und später zum Endlager. 

F. Wenn ja, was geschieht damit? Nach Deutschland kommen doch nur die Castor Behälter zur "Endlagerung" zurück.

A. Das abgetrennte Uran und Plutonium sind wertvolle Rohstoffe, die wieder in den Reaktor eingesetzt werden können. Allerdings waren bis vor kurzem die Uranpreise auf dem Spotmarkt so tief, dass es sich nicht lohnte, rezykliertes Material einzusetzen. Die sich abzeichnende Wiedergeburt der Kernenergie mit weltweit erhöhtem Bedarf an spaltbaren Materialien und die steigenden Uranpreise werden vermutlich zu einem nachhaltigeren Umgang mit dieser Ressource und zur Nutzung auch von rezykliertem Material führen. Allerdings besteht mancherorts entweder eine politische Verhinderung für Wiederaufarbeitung (D: Verbot, CH: Moratorium), andere Länder haben bewusst davon abgesehen (USA), in der Hoffnung damit das Proliferationsrisiko zu reduzieren. Tatsache ist, dass es heute keine technischen Massnahmen gibt, welche einen Missbrauch des abgetrennten Plutoniums deterministisch ausschliessen können – man nutzt internationale Kontrollen und prozedurale Massnahmen. Tatsache ist auch, dass solcher „Missbrauch“ bisher nur von Staaten, aber nie von sonstigen Gruppierungen ausgeübt wurde. 

F. Wie hoch wäre die "Ausbeute" bei der VI. Generation von Kernreaktoren?

A. Reaktoren der Generation IV arbeiten mehrheitlich mit schnellen Neutronen, welche alle spaltbaren Isotope spalten können. Damit kann theoretisch der gesamte energetische Inhalt des Urans genutzt, und auch das Plutonium und die höheren Actiniden gespalten werden. Nach mehrfacher Wiederaufarbeitung und Rezyklierung blieben somit theoretisch nur Spaltprodukte übrig, die endgelagert werden müssten; allerdings haben diese viel kürzere Halbwertszeiten und zerfallen somit viel schneller zu nicht-radioaktiven Isotopen. Damit lassen sich die erforderlichen Endlagerzeiten massiv verkürzen, von heute einigen 100000 Jahren auf einige 100 Jahre. Gegenüber LWR steigt die Nutzung von Uran bei schnellen Reaktoren um mindestens einen Faktor 50 – was auch die Frage der Ressourcenverfügbarkeit wesentlich entschärft. 

F. Worin liegt das "Neue" von "Transmutation" im Vergleich zur Wiederaufbereitung?

A. Transmutation ist die Verwandlung von einem Isotop in ein anderes. Allgemein wird damit die Umwandlung durch Spaltung von höheren Actiniden mit sehr langen Halbwertszeiten in wesentlich kurzlebigere Spaltprodukte gemeint; solche Spaltungen finden in Reaktoren mit schnellen Neutronen statt, also Reaktoren der Generation IV. Wiederaufarbeitung ist ein der Transmutation vorgelagerter Prozess, um die zu rezyklierenden und zu transmutierenden Isotope von den Spaltprodukten zu separieren. Parallel zur Entwicklung neuer Reaktoren der Generation IV werden fortgeschrittene Wiederaufarbeitungsmethoden entwickelt, welche kompakter und effizienter sind und weniger Abfall produzieren; es wäre möglich, solche kleine Wiederaufarbeitungsanlagen mit dem Reaktor auf dem gleichen Standort zu kombinieren und somit die lästigen Castor-Transporte massiv zu reduzieren.

Ich hoffe damit Ihre Fragen im Wesentlichen beantwortet zu haben. Sie finden eingehendere Information zu Reaktoren der Generation IV unter http://gif.inel.gov/roadmap/ und zur Kerntechnik allgemein im ausgezeichneten Lexikon zur Kernenergie des Forschungszentrums Karlsruhe: http://iwrwww1.fzk.de/kernenergielexikon/ .

Freundliche Grüsse,
 
Konstantin Foskolos
Deputy Head
Nuclear Energy and Safety Research Department
Paul Scherrer Institut http://www.psi.ch/

Das Paul Scherer Institut ist eine international anerkannte private Forschungseinrichtung in der Schweiz. Es arbeitet eng mit dem Gen IV Forum GIF zusammen:

The Generation IV International Forum (GIF) is a cooperative international endeavor organized to carry out the research and development (R&D) needed to establish the feasibility and performance capabilities of the next generation nuclear energy systems.

Zum Transmutationsverfahren der Vermeidung und weitgehenden Unschädlichkeitsmachung des Kernbrennstoff-Abfalls s. auch die EIKE-News von Pressesprecher Prof. Dr. Horst-Joachim Lüdecke hier




Temperaturverzerrungen aufgrund der Örtlichkeit der Messungen am Königlich Niederländischen Meteorologischen Institut KNMI

Die Angelegenheit wurde zur Hauptnachricht auf allen  Titelseiten der Medien, weil die KNMI Klimadaten von einem privaten Anbieter meteorologischer Leistungen in Frage gestellt worden waren, weil sie immer zu warm waren:

Wetterexperten der Firma Meteo Consult mit Zentrale in Wageningen haben jahrelang ihr Misstrauen bekundet, weil die Messungen in De Bilt immer ein wenig wärmer waren als im 16 km entfernten Cabau, wo es ebenfalls ein Thermometer des KNMI gibt. Die Lage beider Standorte kann Meteo Consult zufolge diesen Unterschied von einem halben Grad Celsius nicht erklären. Außerdem wurde nicht berücksichtigt, dass die Station De Bilt in einer Umgebung mit viel stärkerer Bebauung liegt und damit wärmer ist als die Umgebung von Cabau bei Ijsselstein.

Link: http://wattsupwiththat.com/2011/05/18/temperature-related-siting-bias-at-the-dutch-meteorlogical-institute/

Oben: Temperaturplot von GISS für die Station De Bilt KNMI – man beachte die Stufenfunktion.

Zugunsten von KNMI muss man sagen, dass man dort eine umfangreiche Parallelstudie durchgeführt hat, um die Größenordnung der Auswirkungen durch Änderungen des Aufstellortes zu ermessen. Die Ergebnisse und die Schlussfolgerung daraus zeigen sehr deutlich, dass die Örtlichkeit sehr wohl von Bedeutung ist.

Dr. Roger Pielke Sr. schreibt:

Important New Report “Parallel Air Temperature Measurements At The KNMI observatory In De Bilt (the Netherlands) May 2003 – June 2005? By Theo Brandsma

(Übersetzung des Links: Wichtiger neuer Bericht: „Parallele Messungen der Lufttemperatur am KNMI-Observatorium in De Bilt (Niederlande) von Mai 2003 bis Juni 2005“ von Theo Brandsma)

Es gibt einen wichtigen und dringend benötigten Zusatz zur wissenschaftlichen Literatur hinsichtlich unserer Schlussfolgerungen in:

Fall, S., A. Watts, J. Nielsen-Gammon, E. Jones, D. Niyogi, J. Christy, and R.A. Pielke Sr., 2011: Analysis of the impacts of station exposure on the U.S. Historical Climatology Network temperatures and temperature trends. J. Geophys. Res., in press. Copyright (2011) American Geophysical Union.

Darin beschreiben wir, dass die Örtlichkeit einer Klimareferenzstation sehr wohl eine Rolle spielt hinsichtlich langzeitlicher Temperaturtrends und –anomalien. Dieser neue Bericht heißt:

Parallel air temperature measurements at the KNMI observatory in De Bilt (the Netherlands) May 2003 – June 2005
(16 MB PDF von der Site des KNMI – einen alternativen, schnelleren Download gibt es hier: KNMI_DeBilt_WR2011-01)

Die Zusammenfassung lautet wie folgt (Hervorhebung von mir {Watts}):

Die Messungen der Lufttemperatur am KNMI-Observatorium in De Bilt sind wichtig, hauptsächlich weil es dort eine lange und relativ homogene Reihe gibt und weil dessen Beobachtungen häufig als Indikator für Änderungen des Klimas in den Niederlanden als Ganzes dienen. Unter Anderem beeinflussen örtliche Verlegungen der Station sowie (graduelle) Änderungen der Umgebung die Messungen. Um die Homogenität der langfristigen Temperaturaufzeichnungen zu verbessern und um die Repräsentativität der jüngsten Messungen zu untersuchen, wurde ein Programm mit Parallelmessungen vom KNMI in De Bilt durchgeführt, und zwar von Mai 2003 bis Juni 2005.

Fünf Messorte am KNMI-Observatorium einschließlich des (zu jener Zeit) operationellen Messortes WMO 06260 (im Folgenden DB260) wurden mit identischen (operationellen) Instrumenten zur Messung von Temperatur und Windgeschwindigkeit in einer Höhe von 1,5 m ausgerüstet. Die Instrumente wurden jedes halbe Jahr kalibriert, und die Kalibrierungskurven wurden für die Korrektur der Daten genutzt, um Instrumentenfehler zu minimieren. Mit den Messungen an der Test4-Station (operationell seit September 2008) als Referenz wurden die Temperaturunterschiede zwischen den Stationen in Zusammenhang der lokalen Windgeschwindigkeit und deren Differenzen sowie den operationell gemessenen Wettervariablen am KNMI-Observatorium untersucht. Im September/Oktober 2004 wurde das Gebiet westlich von DB260 in einen Landschaftspark umgestaltet. Seit 1999 veränderte sich das Gebiet allmählich von Grasland in eine vernachlässigte Landschaft mit Büschen (Ödnis). Die Parallelmessungen boten die Möglichkeit, die Auswirkungen dieser neuen Inhomogenität im Detail zu untersuchen.

Die Ergebnisse zeigen, dass Veränderungen der Umgebung die Korrektur von Messungen der Vergangenheit  aufgrund von aktuellen Messungen kompliziert oder erschwert. Zum Beispiel sorgte das (vertikale) Wachstum der Büsche in der Ödnis westlich von DB260 für zunehmende Temperaturdifferenzen zwischen der operationellen Station DB260 und benachbarten Stationen. Am deutlichsten zeigten sich die Auswirkungen im trockenen Sommer 2003, als die mittleren monatlichen Maxima der Temperatur bis zu 0,4°C höher lagen als an der Referenzstation Test4. Diese Zunahme wurde mehr als kompensiert durch eine Abnahme der mittleren monatlichen Minima bis zu 0,6°C. Nach der Neugestaltung der Ödnis verringerten sich die Gegensätze zwischen DB260 und Test4 bis zu nahe Null (< 0,1°C). Der Vergleich von DB260 mit vier benachbarten Stationen zeigte, dass die Neugestaltung die Temperaturdifferenzen von vor 1999 in gewisser Weise wieder herstellte. Jedoch wurde die Landschaft westlich von DB260 permanent verändert (kein Grasland wie zwischen 1951 und 1999, sondern ein Landschaftspark mit Seen). Dadurch wurden die Messungen an DB260 problematisch, und KNMI entschloss sich, die operationelle Station im September 2008 zum Messort Test4 zu verlegen. Die Test4-Station ist die am freiesten gelegene Station der fünf in der Studie untersuchten Standorte.

Die Ergebnisse vergrößern unser Verständnis von Temperaturdifferenzen zwischen verschiedenen Messorten. Einer der wichtigsten Gründe für diese Unterschiede liegt in der unterschiedlichen Abschirmung (sheltering) der Messorte. Eine Abschirmung begünstigt die Bildung einer nächtlichen stabilen Grenzschicht, behindert die langwellige Ausstrahlung, lässt die Wetterhütte in den Stunden nach Sonnenaufgang und vor Sonnenuntergang im Schatten liegen und steigert den Strahlungsfehler der Wetterhütten wegen der verringerten natürlichen Ventilation. Abhängig von Grad und Natur der Abschirmung kann die letztendliche Auswirkung eine Temperaturzu- oder –abnahme sein. DB260 ist ein Messort, wo die Abschirmung zu einer Abnahme der Mitteltemperatur führt (vor der Neugestaltung). Der frühere historische Messort Test1 ist ein Beispiel für eine Temperaturzunahme. Die monatliche mittlere Minimumtemperatur am Messort Test1 liegt um 1,2°C höher als der Referenzwert, und die Höchsttemperatur ist bis zu 0,5°C höher als am Messort Test4. Die Mitteltemperatur an Test1 liegt jedoch nur wenig höher als das Mittel an Test4. Ursache hierfür sind die relativ niedrigen Temperaturwerte in den Stunden nach Sonnenaufgang und vor Sonnenuntergang, wenn sich die Hütte von Test1 im Schatten befindet. Sowohl die Station Test1 als auch Test4 sind möglicherweise von der Neugestaltung nicht betroffen.

Die Neugestaltung der Ödnis führte nicht nur zu einer Verschiebung des Messpunktes und der täglichen Temperaturdifferenzen, sondern auch zu einer Veränderung von deren Ausprägung. Dies bedeutet, dass es zur Homogenisierung der täglichen Temperaturreihen nicht ausreichend ist, nur das Mittel zu korrigieren.

Wir haben gezeigt, dass die Größenordnung der Temperaturunterschiede zwischen den verschiedenen Messorten stark abhängig ist von der Windgeschwindigkeit und der Bewölkung. Im Allgemeinen nehmen die Unterschiede bei abnehmender Windgeschwindigkeit und zurückgehender Bewölkung zu. Veränderungen der Messorte beeinflussen direkt die Windgeschwindigkeit, weil sie normalerweise mit Änderungen in der Wetterhütte einhergehen. Einige Auswirkungen, wie die Ausbildung und der (teilweise) Zusammenbruch einer stabilen oberflächennahen Grenzschicht sind hochgradig nicht-lineare Prozesse und daher schwer zu modellieren. Die Tatsache, dass diese Prozesse bei geringer Windgeschwindigkeit (<1.0 m/s in einer Höhe von 1,5 m) am besten  ausgeprägt sind, kompliziert die Modellierung noch mehr. Reguläre Schalensternanemometer sind nicht wirklich in der Lage, geringe Windgeschwindigkeiten zu messen. Operationell haben diese Anemometer einen Schwellenwert um etwa 0,5 m/s, und diese grenzwertige Windgeschwindigkeit nimmt oft mit der Zeit, in der das Anemometer im Feld ist,  zu. Außerdem befinden sich die Anemometer meistens in einer Höhe von 10 m, und die Windgeschwindigkeit in Höhe der Wetterhütte ist schwach. Dies kompliziert die Homogenisierung täglicher Temperaturreihen.

Link: http://wattsupwiththat.com/2011/05/18/temperature-related-siting-bias-at-the-dutch-meteorlogical-institute/

Übersetzt von Chris Frey für EIKE




Die neue Wissenschaft vom Klimawandel!

Aber wie auch immer, für die Suche nach Messfehlern bei der Ermittlung der Bodendaten scheint es eine gute Idee zu sein, die Datensätze der globalen Mitteltemperatur zur Hand zu haben, nur so als Referenz. Man weiß nie, wann diese zur Verfügung stehen.

Ich verfügte bereits [über die Datensätzen von] GISSTEMP 2007 und 2010 von der GISS-Website (2) sowie über die CRU-Daten 2005 als Download von der Site des Carbon Dioxide Information Analysis Center (CDIAC) (3). Aber frühere Daten zu erhalten erschien ebenfalls sinnvoll. Wie zu erwarten war, hat sich herausgestellt, dass diese interessante Eigenschaften haben.

Ich wollte die Datensätze so, wie sie veröffentlicht worden waren und habe sie deshalb direkt aus den veröffentlichten Graphiken digitalisiert: GISS 1984 (4), 1988 (5), 1996 (6) und 1999 (7), ferner CRU 1994 (8) und 2003 (9). Bei den Jahreszahlen handelt es sich um die Jahre der Veröffentlichung, daher enden die Datensätze ein oder zwei Jahre früher. In jedem Falle habe ich nur die ungeglätteten Daten digitalisiert, und jeder digitalisierte Punkt wurde in die Mitte des veröffentlichten Punktes gestellt. Unter Berücksichtigung der gewählten Auflösung der veröffentlichten Graphiken schätze ich die digitalisierte Präzision auf ± 0,002°C.

Eines der ersten Dinge, die ich fand, war etwas unerwartet – wie Jim Hansen 1988 vor dem Kongress aussagen konnte, dass er zu 99% sicher war, den menschlichen Fingerabdruck in der Klimaerwärmung zu sehen. Im Januar 1988 veröffentlichte er eine Studie über den Trend der globalen Temperatur an der Erdoberfläche (5), in der er die Normalisierung von 1951 bis 1980 eine 1-sigma globale Temperaturvariabilität von ± 0,13°C zeigte. Dies präsentierte er als die Grenzen der natürlichen Variabilität seit 1880 und sagte: „Falls eine Erwärmung um 3-sigma erreicht werden würde (d. h. 0,39°C – P), würde dies einen Trend nahe einem Vertrauenslevel von 99% Signifikanz repräsentieren“.

Er wurde ein wenig zweideutig in dieser Studie vom Januar, wiederholte aber die Abgrenzung in seiner Studie vom Juni 1988, in der er die Vorhersagen  über einen „robusten“ 3-sigma-Antrieb aus dem GISS-Modell II (10) vorstellte. JH sagte weiter, dass „(eine persistente globale Erwärmung von) 0,4°C einen überzeugenden Beweis für die Beziehung von Ursache und Wirkung darstellen würde, d. h. eine „rauchende Kanone“ in der gegenwärtigen Umgangssprache“.

Der globale Anomalietrend von GISS 1996 zeigte, dass er sich im Jahre 1988 zügig der 3-sigma-Marke näherte, was sein Vertrauen gefestigt haben könnte. Aber die gesamte Basis für die 99%-Gewissheit, die Jim vor dem Kongress beschworen hatte, beruhte darauf, dass der Trend von 1951 bis 1980 als definitive Größe der natürlichen Variabilität für die letzten Jahrtausende des Klimas im Holozän stehen würde. Das können Sie nun selbst beurteilen, aber ich sehe das als wissenschaftlichen Blödsinn.

Wie auch immer, als ich nun alle Datensätze zur Hand hatte, schien es mir eine gute Idee, die früher veröffentlichten Trends mit den später veröffentlichten zu vergleichen. Sie würden diesen Artikel nicht lesen, wenn sich nicht interessante Dinge herausgestellt hätten. Hier kommen sie!

Eine unkritische Entdeckung war, dass die Anomalien von GISS 1987 zufällig mit einem positiven Abstand von 0,1°C von der Null-Linie geplottet worden waren. Ansonsten sind die Anomalien von 1987 identisch mit denen von GISS 1988. Beide Datensätze wurden auf das Mittel des Zeitraumes 1951 bis 1980 bezogen, so dass der Abstand von der Null-Linie nicht aufgrund von Normalisierungsverfahren zustande gekommen ist. Hansen und Lebedeff haben 1988 nichts zu dem Irrtum des Abstandes gesagt, den sie 1987 veröffentlicht hatten, und keines der beiden Studien hatte ein Korrigendum bis zum 1. Mai 2011. Vielleicht haben sich die Autoren gedacht, dass jeder das selbst herausfinden kann.

Aber weiter: Abbildung 1 zeigt die globale mittlere Temperatur, wie sie 1988 und 1999 veröffentlicht worden war. Die beiden Trendlinien scheinen sich gut zu überlagern, außer in der Zeit um 1880 bis 1890.

Abbildung 1: Anomalien der jährlichen globalen Mitteltemperatur, wie veröffentlicht in den Jahren 1988 und 1999. Die Unterschiede der Jahre 1996 bis 1988 und 1999 bis 1988 in den Datensätzen sind darunter geplottet.

Unten in der Abbildung 1 habe ich den Unterschied in den Trends geplottet: 1999 minus 1988 und 1996 minus 1988. Dieser Plot der Unterschiede zeigt, dass zwischen den Jahren 1925 und 1988 die globalen Temperaturtrends von 1996 und 1999 nicht wesentlich von dem Trend des Jahres 1988 unterscheiden. Aber 1996 und 1999 wurden die Jahre von 1880 bis 1925 plötzlich wärmer , als sie 1988 gewesen sein sollen. Und im Jahre 1999 erschienen die Jahre 1880 bis 1920 sogar noch wärmer als in 1996. Dies ist eine anthropogene globale Erwärmung, die wirklich jenseits der natürlichen Variabilität liegt.

Wir alle wissen, dass wir in einer wärmeren Welt leben. Aber wenn man die Aufzeichnungen des frühen 20. Jahrhunderts erhöht, reduziert sich die Erwärmungsrate bis zum Ende des 20. Jahrhunderts. 1988 lag die Erwärmungsrate bei 0,55°C pro Jahrhundert, während es 1999 nur noch 0,48°C pro Jahrhundert war (und nur 0,41°C zwischen 1880 und 1988). Wenn die Erwärmungsrate 1999 15% unter der des Jahres 1988 liegt, würde es da nicht weniger Anlass zur Sorge geben? Warum die Veränderung hin zu einer wärmeren Vergangenheit?

 „Warum” könnte eine Frage der persönlichen Absicht sein, die unbekannt ist. Aber wir können ein „was?“ bemerken. 1988 schrieben Hansen und Lebedeff, dass „die Rate der Erwärmung zwischen Mitte der sechziger Jahre und der Gegenwart höher ist als die vorherige Periode einer rapiden Erwärmung zwischen 1880 und 1940“.

Das stimmt, aber nur, weil die Anomalie des Jahres 1964 ein starker Ausschlag nach unten war, während die achtziger Jahre mit einem ebenso großen Ausschlag nach oben begannen. Vielleicht wurden H&L wegen der Auswahl eines bequemen Startpunktes in den sechziger Jahren kritisiert, weil eine solche Feststellung in der Temperaturanomalie von GISS aus dem Jahr 1996 nicht auftauchte.

Aber im Jahre 1999 finden wir Beweise für eine erneute Durchsetzungskraft [assertiveness] in der Einführung: „Die Rate der Temperaturänderung war während der letzten 25 Jahre höher als jemals zuvor in dem Zeitraum mit instrumentellen Messungen“. 25 Jahre vor 1999, das bedeutet 1974, und 1976 zeigte sich erneut am Grund eines großen Ausschlags der Anomalie nach unten. Das hilft auch.

Aber schauen wir selbst. Hier folgt eine Tabelle von Erwärmungsraten nach GISS:

Tabelle 1: Mittlere dekadische Rate der Temperaturänderung (DDC)

Die Verzerrung (Bias) des Anfangspunktes 1964 ist ziemlich offensichtlich (Spalte 2 zu Spalte 3), also verpufft das zum Fenster hinaus. Das Jahr 1960 scheint einen viel weniger verzerrten Startpunkt für den Vergleich von Erwärmungsraten zu bieten, weil die Dekade wie 1880 und 1960 an der Spitze eines Anomalieausschlags begann.

Ich kann nicht darüber spekulieren, warum die Wissenschaftler beim GISS irgendwann zwischen 1960 und 1988 die Periode von 1880 bis 1920 systematisch erwärmt haben, aber Tabelle 1 zeigt die Auswirkung davon: Im Jahre 1988 erwärmte es sich von 1880 bis 1940 mit der gleichen Rate wie 1960 bis 1988 – also um etwa 0,1°C pro Dekade. Wie die Idsos sagen würden: ‚Hier ist nicht viel AGW!‘

Aber 1996 (Reihe 2) wurden von der Erwärmung pro Dekade im frühen 20. Jahrhundert 0,017°C abgezogen. Auf einmal lag die Erwärmungsrate von 1960 bis 1988 um 50% über der Rate von 1880 bis 1940. Vielleicht erschien ihnen das als eine gute Sache, weil 1999 (Reihe 3) weitere 0,019°C Erwärmung verschwanden. Also hat sich bis 1999 die Erde von  1960 bis 1988 doppelt so schnell erwärmt wie in den Jahren von 1880 bis 1940. Und diese für die NGOs vielversprechende Rate wurde gleich bis 1999 verlängert.

Abbildung 2: Die globalen jährlichen Temperaturtrends an der Erdoberfläche, wie sie 1988 und 1999 von GISS veröffentlicht worden waren. Blaue glatte Linie: Der Trend von 1880 bis 1940 aus dem Jahr 1988. Orange glatte Linie: Der Trend von 1880 bis 1940 nach den von GISS vorgenommenen Anpassungen der Daten. Rosa glatte Linie: die Rate von 1960 bis 1999. Dieser Trend verläuft auch eindeutig steiler als die Anomalien von 1988.

Abbildung 2 zeigt diesen Effekt visuell. Die blaue und die rosa Linie stellen die Glättungen der Temperaturen vor den Anpassungen dar. Sie verlaufen nahezu parallel. Also waren die Erwärmungsraten für die Zeiträume von 1880 bis 1940 und 1960 bis 1988 etwa gleich groß. Laut Tabelle 1 waren sie so ziemlich identisch, innerhalb der Fehlergrenzen.

Es wird ziemlich klar, dass man 1988 nicht behaupten konnte, dass es im späten 20. Jahrhundert schneller wärmer geworden ist als im frühen 20. Jahrhundert. Genau das konnte man jedoch 1999 sehr wohl behaupten. Wirklich?

Ist die verstärkte Erwärmung im späten 20. Jahrhundert die Erklärung für die seit 1988 von GISS vorgenommenen Änderungen bei der Anpassung? Ich weiß es nicht. Aber wir wissen sicher, dass die Anpassungen nach 1988 den Anpassern sehr geholfen haben.

Es wird jedoch noch ein wenig merkwürdiger. Danach verglich ich den GISS-Trend 1999 mit den GISS-Trends von 2007 und 2010. Und siehe da, Gräber öffneten sich und Wunder liefen durch das Land.

Abbildung 3 zeigt die Anomalietrends von GISS 1999 und 2010. Auch diese scheinen sich auf den ersten Blick nicht sehr zu unterscheiden. Aber man betrachte unten in Abbildung 3 den Unterschied 2010 minus 1999.

Abbildung 3: der globale mittlere Anoamlietrend der Temperatur nach GISS 1999 und 2010. Unten zeigt die blaue Linie den Unterschied 2010 minus 1999. Die orange Linie ist ein an den Unterschied angepasster Cosinus [?].

Das Wunder der Wissenschaft von der Klimaänderung besteht darin, dass sichere Klimaphänomene des 20. Jahrhunderts 1999 seltsam unsichtbar waren, sie wurden klar 2010 manifest. Die gleiche Cosinus-Differenz ergibt sich aus dem Reich der Wunder auch im Datensatz der globalen Temperatur nach GISS 2007, daher wissen wir, dass dieser Effekt vor 2007 in die Daten von 1999 eingegangen war.

Irgendwann zwischen 1999 und 2007 erschien ein Temperaturzyklus im Anomalietrend der globalen jährlichen Mitteltemperatur. Die Sinuskurven stehen für den gesamten signifikanten Unterschied der Anomalietrends zwischen 1999 und 2010 (einer spielt jedoch immer noch mit dem Zeitraum von 1880 bis 1890).

Ich habe eine exzellente Anpassung an den Unterschied zwischen 1999 und 2010 erhalten, und zwar durch Verwendung einer beliebigen Cosinus-Funktion. Die Periode ist 66 Jahre; leider nicht religiös signifikante 66,6 Jahre. 66 Jahre ist ein merkwürdiger Zyklus. Er ist etwas zu kurz für einen Gleissberg-Zyklus (60 bis 150 Jahre{11}) und scheint nicht zu irgendeinem der gewöhnlichen solaren Zyklen zu passen (http://en.wikipedia.org/wiki/Solar_variation). Also suchte ich in Google nach einem „66-Jahre-Zyklus“, und die ersten vier der über 88 Millionen Treffer führten mich zu Klimablogs.

Luboš (The Reference Frame, http://motls.blogspot.com/2011/03/is-there-66-year-cycle-in-temperatures.html) war der erste Treffer, und bei ihm findet sich eine gute Einführung in die Diskussion. Es scheint, dass Tamino über eine Studie bloggt, die einen 66-Jahre-Zyklus der Atlantischen Multidekadischen Oszillation innerhalb von 8000 Jahren in einem Eisbohrkern gefunden hatte. Tamino war skeptisch und Luboš stimmte zu, aber die AMO zeigt nicht die Aufzeichnungen der globalen jährlichen Mitteltemperatur. Das war also das. Wir haben keine Ahnung, was dieser wunderbare neue 66-Jahres-Zyklus repräsentiert. Vielleicht neu gefundene Zusammenhänge der AMO?

Noch mehr auf den Punkt gebracht: Welche legitime Anpassungsstrategie bringt ein Sinusoid in den Trend der globalen jährlichen Mitteltemperatur? Wird sie ‚entdeckt‘, wenn das nächste Mal jemand eine Wellenanalyse der instrumentellen Aufzeichnungen durchführt?

Man beachte, dass die Periodizität nicht sehr ersichtlich die Änderung des globalen mittleren Temperaturtrends zeigt. Hier folgt, welche Auswirkungen es auf die Temperaturtrends im frühen und im späten 20. Jahrhundert hat: das Sinusoid reduzierte 2010 die Erwärmungsrate zwischen 1960 und 1999 auf 20% unter die Rate im Datensatz von 1999, reduzierte jedoch den Trend zwischen 1880 und 1940 um 33%. Tabelle 2 zeigt die Zahlen.

Tabelle 2: GISS mittlere Dekadische Temperaturänderung mit Sinusoid (DDC)

Man sieht: als Ergebnis zeigt sich, dass die Erwärmung im späten 20.Jahrhundert bis 2010 2,8 mal schneller vonstatten ging als im frühen 20. Jahrhundert. 1999 lag das Verhältnis noch bei 2,3 mal schneller. Daraus folgt, dass das Sinusoid den gleichen Effekt hat wie die Erniedrigung der Temperatur von 1880 bis 1900: es verstärkt das Missverhältnis zwischen den Erwärmungsraten des frühen und des späten 20. Jahrhunderts. Aber es führt nicht dazu, dass sich die Trendlinien selbst aufsteilen. Der Effekt ist ziemlich subtil.

Die Änderung kommt – natürlich rein zufällig – jenen zupass, die nach einer noch nie da gewesenen Änderung anthropogenen Ursprungs suchen, aber wir alle wissen, dass wissenschaftliche Ergebnisse unabhängig von menschlichen Wünschen sind.

Aber vielleicht gibt es ja das Sinusoid wirklich, und es ist durch die primitiven Anpassungen vor 2007 nur zufällig verschwunden. Also beschloss ich, die analogen Datensätze der Climate Research Unit (CRU) der University of East Anglia zu untersuchen. Falls ein Temperaturzyklus mit den fortgeschrittenen Algorithmen des 21. Jahrhunderts wirklich enthüllt werden könnte, müssten die Differenztemperaturen CRU 2005 minus CRU 1994 das auch sicher zeigen. Gibt es einen 66-Jahres-Zyklus der Temperatur, der nur in späteren Datensätzen der CRU erscheint? Abbildung 4 zeigt die Antwort: Es gibt keinen Hinweis darauf. Wir bleiben zurück mit der Frage, was GISS sich bloß dabei gedacht hat.

Abbildung 4: Der Trend der mittleren globalen jährlichen Mitteltemperatur wie 1996 und 2006 von der CRU veröffentlicht. Unten zeigt die blaue Linie wieder die Differenz dieser Anomalien. Kein kryptisches Sinusoid ist zu sehen. Die y-Achse wird 1860 bei dem Wert -0,036°C geschnitten (Original: The fit y-intercept at 1860 is at -0.036 C).

Es ist interessant zu sehen, dass der Datensatz der CRU von 1994 kühler war als der Datensatz von CRU 2005, jedenfalls vor etwa 1940. 2005 hat das UK Met Office die Erstellung der globalen Temperaturanomalien in UK von der CRU übernommen. Daher dachte ich, dass das Met Office die Anpassungsmethoden vielleicht etwas verändert hätte. Aber die gleiche Kühle vor 1940 zeigte sich auch hier wieder, und jener Datensatz stammte ausschließlich von der CRU.

Was also auch immer der Fall ist, die Arbeitsgruppen der UEA CRU und des UK Met Office kühlten die Temperaturen vor 1940 mit den gleichen Methoden. Was bewirkte dies bei der Differenz der Anomalieraten zwischen dem frühen und dem späten 20. Jahrhundert? Tabelle 3 zeigt: fast nichts.

Aber die nach 1994 von CRU vorgenommene Anpassung hat den gesamten Anomalietrend von 1880 bis 1993 um 0,01°C pro Dekade zunehmen lassen.

Tabelle 3: CRU Mittlere dekadische Temperaturänderung (DDC)

Die Trends der CRU enthüllen auch etwas Interessantes bei den GISS-Trends: Die Hinzufügung des Sinusoids zu den GISS-Anomalien von 1999 zog ihre Trends von 2010 genau auf die Linie der CRU-Trends- Ein glücklicher Zufall? Ich weiß es nicht.

So verbleiben nach all dem mehr Fragen als Antworten. Aber die neue Wissenschaft von der Klimaänderung ist ganz klar umrissen: Sie hat sich von einem Studium des Klimas zu einem studierten Klima gewandelt.

Link: http://noconsensus.wordpress.com/2011/05/08/delta-t/

Autor: Pat Frank

References:

1.         Frank, P., Uncertainty in the Global Average Surface Air Temperature Index: A  Representative Lower Limit, Energy & Environment, 2010, 21 (8), 969-989; freely available by the generosity of Multi-Science http://meteo.lcd.lu/globalwarming/Frank/uncertainty_in%20global_average_temperature_2010.pdf.”>here</a>.

2.         Hansen, J. and Sato, M., GISS Surface Temperature Analysis, Goddard Institute for Space Studies, NASA, http://data.giss.nasa.gov/gistemp/graphs/, Last accessed on: 2 April 2011.

3.         Jones, P.D., Osborn, T.J., Briffa, K.R. and Parker, D.E., Global Monthly and Annual Temperature Anomalies (degrees C), 1856-2004 (Relative to the 1961-1990 Mean), CRU, University of East Anglia, and Hadley Centre for Climate Prediction and Research, http://cdiac.ornl.gov/ftp/trends/temp/jonescru/global.txt, Last accessed on: 27 November 2010.

4.         Hansen, J. and Lebedeff, S., Global Trends of Measured Surface Air Temperature, J. Geophys. Res., 1987, 92 (D11), 13345-13372.

5.         Hansen, J. and Lebedeff, S., Global Surface Air Temperatures: Update through 1987, Geophys. Res. Lett., 1988, 15 (4), 323-326.

6.         Hansen, J., Ruedy, R., Sato, M. and Reynolds, R., Global surface air temperature in 1995: Return to pre-Pinatubo level, Geophys. Res. Lett., 1996, 23 (13), 1665-1668.

7.         Hansen, J., Ruedy, R., Glascoe, J. and M. Sato, M., GISS analysis of surface temperature change, J. Geophys. Res., 1999, 104 (D24), 30997–31022.

8.         Parker, D.E., Jones, P.D., Folland, C.K. and Bevan, A., Interdecadal changes of surface temperature since the late nineteenth century, J. Geophys. Res., 1994, 99 (D7), 14373-14399.

9.         Jones, P.D. and Moberg, A., Hemispheric and Large-Scale Surface Air Temperature Variations: An Extensive Revision and an Update to 2001, Journal of Climate, 2003, 16 (2), 206-223.

10.       Hansen, J., Fung, I., Lacis, A., Rind, D., Lebedeff, S., Ruedy, R., Russell, G. and Stone, P., Global Climate Changes as Forecast by Goddard Institute for Space Studies Three?Dimensional Model, J. Geophys. Res., 1988, 93 (D8), 9341-9364.

11.       Ma, L.H., Gleissberg cycle of solar activity over the last 7000 years, New Astronomy, 2009, 14 (1), 1-3.

Übersetzt von Chris Frey für EIKE




Unbedingt jetzt anhören: Die Klimakontroverse – Ein diskursiver Ausflug! MDR Figaro

Die Menschen hinterfragen immer weniger ihre Wirklichkeit und geraten zunehmend in einen Zustand ängstlichen Verharrens, allgemeinen Akzeptierens oder Gleichgültigkeit gegenüber den gewaltigen gesellschaftlichen Umwälzungen des kommenden Zeitalters. Die Sendung verschafft sich ein Bild im Dschungel der Wissenschaft, der medialen Fokussierung und politischen Korrektheit und lädt zu einer spielerischen Erkenntnisexpedition in die Arktis, die arabische Wüste und anderen Orten ein. Ein Feature mit:

Prof. Hauke Trinks   (Meereisforscher)
Prof. Steve Coulsen  (UNIS Terrestrische Ökologie)
Prof. Jørgen Berge    (UNIS Meeresbiologie)
Andreas Umbreidt    (Terra-Polaris)

Joachim Kundt (CEO Abu Dhabi Siemens)
Rene Umlauft (CEO Erneuerbare Energien Siemens)
Dolf Gehlen (CEO International Renewable Energy Agency)

Christoph Hein (Schriftsteller)
Mike Kess / Udo Schulze (Bürgerinitiative "CO2 Endlager")
Dr. Franz Berger  (Wetterstation Lindenberg )
Prof. Hartmut Grassl  (Hamburger Max Planck Institut)
Dr. Wolfgang Thüne (Metereologe)
Prof. Dr. Werner Kirstein (Institut für Geografie, Universität Leipzig)
Prof. Friedrich Wilhelm Gerstengarbe (Potsdam Institut für Klimafolgenforschung)
Michael Limburg  (Europäisches Institut für Klima und Energie)
Dr. Joachim Bublath (Wissenschaftspublizist)
Prof. Hans von Storch (Institut für Küstenforschung Gestach)
Prof. Jan Veizer (Evolutionsgeologe, University of Ottawa)
Dr. Nico Bauer  (Potsdam Institut für Klimafolgenforschung)
Prof. Dr. Claudia Kemfert (Deutsches Institut für Wirtschaft)

Erstsendung: Mittwoch 25. Mai
22 Uhr / MDR-Figaro 
22.04 Uhr rbb- Kulturradio




Weltweite Temperaturmessungen beweisen: Kein anthropogen verursachter Klimawandel

Der „Klimawandel“ ist dank massiver Unterstützung der Medien und der Politik zum Zeitgeist ge­worden. Dies wurde möglich, weil die aus den mittels Modellrechnungen generierten Szenarien in der öffentlichen Wahrnehmung zu Prognosen wurden, die für die Zukunft lebensfeindliche Zu­stände voraussagen und Angst erzeugen. Angst fördert bekanntlich die Regierbarkeit.

In vielen Regionen Deutschlands haben sich Initiativen gebildet, um Maßnahmen gegen den Klimawandel zu entwickeln, im Detail zu planen, ihre Ausführung zu überwachen und nach der Fertigstellung zu unterhalten. Oft ergreifen Kommunal- oder Kreisverwaltungen oder Bezirksregierungen  die Initiative und behalten dann die Federführung. Neben vielen anderen Aktivitäten werden Tagungen veranstaltet, um die aktuelle Situation des Klimawandels zu behandeln, um Projekte vorzustellen, und ihre Ausführungen und die Ergebnisse zu erörtern. Und wer als Außenstehender daran teilnimmt, um die Aktivitäten kennen zu lernen – beispielsweise an den 21. Arnsberger Umweltgesprächen – , der kann seine Eindrücke wie folgt zusammenfassen:

  • Der Klimawandel als solcher wird offiziell weder diskutiert noch gar in Frage gestellt. Er wird als Tatsache angesehen, und deshalb wird Klimaschutz für erforderlich gehalten. Klimaschutz hat in Deutschland mittlerweile des Rang eines Glaubensbekenntnisses.

·      Viele Maßnahmen sind praktischer Umweltschutz, beispielsweise bei der Stadt- und Landschaftsplanung; sie sind zweckmäßig und gerechtfertigt, haben aber sachlich mit Klimaschutz nichts zu tun.  Beispielsweise kann die Renaturierung unserer Flüsse vernünftig sein, sie beeinflussen jedoch bestenfalls das örtliche Mikroklima, das regionale aber schon nicht mehr.

  • Man spricht fast immer von Klimaschutz, obwohl es sich meistens um Maßnahmen des Umweltschutzes handelt. Der Unterschied zwischen beiden bleibt in der Regel unbekannt oder unbeachtet. Er  ist aber entscheidend, wenn es um die Auswahl konkreter Maßnahmen geht: Unsere Umwelt müssen – und können – wir schützen, unser Klima nicht, denn das bestimmen seit 4,5 Mrd. Jahren die Sonne und die von ihr gesteuerten Faktoren. Investitionen in Maßnahmen für den Umweltschutz sind notwendig, hilfreich und deshalb ihr Geld wert. Dagegen sind die vom IPCC und den nationalen Institutionen empfohlenen und von der Politik beschlossenen und in’s Werk gesetzten Investitionen in die Reduktion des Klimagases CO2 („2°C-Ziel“) sinn- und nutzlos. In den hier vorgestellten Berichten wird das bewiesen.

„Nur Geologen haben dazu noch eine andere Meinung“, wurde dem Verfasser mal in der Diskussion nach einem Vortrag vorgeworfen. Richtig! Und wenn die sie nicht hätten, wären sie keine Geologen, denn die haben verinnerlicht, dass das Klima nur vorübergehend  gleich bleibt., und dass ihr ständiger Wandel zu den Selbstverständlichkeiten gehört, mit denen wir auf der Erde zu leben haben. Und Geologen wissen üblicherweise nicht nur, dass sich das Klima ändert, sondern auch, warum dies geschieht. Manche Klimaforscher meinen, „auch die Sonne sei ein wirksamer Faktor“ – was ja wohl impliziert, dass andere Faktoren wirksamer und deshalb wichtiger sind. Das ist falsch, denn die Sonne ist der wirksame Faktor – und jedes anderes Modell ist obszön – was wäre unser Weltraum ohne Sonne? Wer sparsam bis unbekleidet am Strand liegt und zu frieren beginnt, wird sich freuen, wenn die vorüberziehende Wolke nicht mehr die Sonne verdeckt, und es wieder wärmer wird.

Auswertung von Temperaturmessungen

Die Basis für die Beurteilung der Tempe­raturentwicklung haben die Temperaturmessungen zu sein, die als Temperaturgangli­nien aufgetragen werden. Sie lassen erkennen, ob – und wie – sich über die Zeit die Temperatur verän­dert. Der Trend, den die Ganglinien anzeigen, ist für eine qualitative Beurteilung zuverlässig. Die Ganglinien können auch für die Ermittlung der quantitativen Änderungen geeignet sein, wenn richtig gemessen und ausgewertet wird. Der Verfasser hat bisher in drei Etappen Temperaturdaten und Temperaturganglinien ausgewertet und stellt die Ergebnisse hier vor.

Im Frühjahr 2009 wurden in der ersten Etappe die Daten von 46 Stationen aus Wetterzentrale.de qualitativ und quantitativ ausgewertet. Mit den Messungen und Aufzeichnungen wurde 1701 in Berlin begonnen, die weiteren Stationen nahmen nach und nach ihren Dienst auf. Sie liegen meistens in Eu­ropa, aber auch in Nordamerika, Austra­lien, Sibirien und Japan. Diese „WZ-Daten“ haben gezeigt, dass außer einer geringen Er­wär­mung nach der Kleinen Eiszeit kein Klimawandel stattgefunden hat, sondern lediglich geringe Temperaturschwankungen, und folglich kann auch keine anthro­pogen verursachte Erwärmung im 20. Jahrhundert festgestellt werden.

Im Frühjahr 2010 folgte dann die zweite Bearbeitungsetappe. Es wurden 1134 Temperaturganglinien der NASA von allen Kontinenten Ozeanen analysiert, und damit weltweit die Temperaturentwicklung zwischen 1880 und 2008 er­fasst. Dabei wurden die Trends der Ganglinien beurteilt, nämlich ob sie Erwärmung oder Abküh­lung oder Konstanz anzeigen, und außerdem wurde der Wärme-Insel-Effekt beurteilt. Bei dieser Auswertung wurde eine geographische Zuordnung vorgenommen, d.h. die Ganglinien wurden nach Kontinenten und Ozeanen und dann innerhalb dieser geographischen Einheiten nach ihren Koordinaten so geordnet, dass die jeweils benachbarten in Gruppen zu je acht zusammengestellt wurden. Diese qualitative Auswertung ergab, dass ca. 74% aller Stationen keine größeren Erwärmungen als zuvor anzeigen, sondern dass die Temperaturen zwischen 1880 und 2008 größtenteils nicht angestiegen sind. Sie sind trotz vorübergehender Schwankungen im Mittel gleich geblieben oder haben sich sogar erniedrigt – nämlich 62,1% bzw. 11.9%. Das Ergebnis ist für die Temperaturentwicklung der Welt des letzten Jahrhunderts repräsentativ.

Die dritte Etappe wurde durch den Zufall initiiert, dass weitere Langzeit-Temperaturreihen verfügbar wurden. Der Weltklimarat (IPCC) und andere offizielle Institute haben für ihre Zustandsbeschreibung des Klimas und die daraus abgeleiteten Folgerungen die Temperaturmessungen seit ca. 1880 zugrunde gelegt. Dieser sehr viel zu kurze Beobachtungszeitraum kann Langzeitentwicklungen des Klimas nicht erfassen, dafür sind möglichst lange Temperaturreihen erforderlich. Zusammen mit denen des ersten Berichtes sind in der dritten Etappe die Daten von insgesamt 82 Stationen ausgewertet worden, nämlich aus den Internet-Portalen Wetterzentrale, The Little Ice Age Thermosmeters und Rimfrost. Die Ergebnisse bilden den Gegenstand des dritten Berichts, der im Februar, März und April 2011 erarbeitet wurde. Die Temperaturreihen beginnen 1659 mit der Ganglinie für Mittelengland, zu den in der Folgezeit immer weitere hinzu gekommen sind – ab 1701 in Berlin (siehe oben). Sie reichen bis zur Gegenwart, schließen also den Zeitraum 1880-2009 mit ein. Die 82 Stationen liegen größtenteils in Europa, aber auch in allen anderen Kontinenten.

Das IPCC erkennt in dem globalen Temperaturanstieg des 20. Jahrhunderts eine klima­tologische Besonderheit. Diese Diagnose ist nur möglich, wenn man die Tempe­raturmessungen des 18. und 19. Jahrhunderts unberücksichtigt und die Wirkung des Wärme-Insel-Effekts außer acht lässt. Eine solche Nichtbeachtung von älteren Daten ist jedoch unzulässig, denn eine Beurteilung erfordert immer einen Ver­gleich, d.h. Temperaturänderungen dürfen immer nur im Zu­sam­menhang mit vorhergehenden beurteilt werden. In diesem Falle zeigt der Vergleich, dass im 18. und 19. Jahrhundert stärkere und schnellere Än­derungen erfolgt sind als im 20. Jahrhundert, die folglich  keine Besonderheit bil­den.

In den letzten 300 Jahren haben, wie auch schon vorher, Abkühlungs- und Erwärmungsphasen miteinander abgewechselt. Das IPCC und, beispielsweise, das PIK sehen unsere CO2-Produktion als Ursache für die Erwärmung im 20. Jahrhundert an. Um dies zu klären, ist zu prüfen, wann es wärmer geworden ist, denn die Ursache kommt vor der Wirkung. Diese Auswertung weist nach, dass die wesentliche Erwärmungsphase vor unserer CO2-Produktion statt gefunden hat. Ein kausaler Zusammenhang ist folglich auszuschließen.

Die drei erwähnten Berichte sind als PDF-Dateien beigefügt und abrufbar. Ihre Titel lauten:

  • Temperature readings beginning in early 18th century disprove global warming

·      Repräsentative Beispiele von NASA-Temperaturkurven

·      Langzeit-Temperaturreihen widerlegen menschen-gemachten Klimawandel

Related Files




Leben ist wie eine Schokoladen-Blackbox

Eine „Blackbox”-Analyse könnte es uns gestatten, das „funktionale Äquivalent” dessen, was auch immer in der Blackbox vor sich geht, zu entdecken. Mit anderen Worten, wir könnten in der Lage sein, eine simple Funktion zu finden, die den gleichen Output ergibt wie aus der Blackbox. Ich dachte, dass es interessant ist, wenn ich erkläre, wie ich darauf kam, dies mit dem Klimamodell CCSM3 zu tun.

Als Erstes sammelte ich die Variablen des Inputs. Sie sind alle in der Form von
„ncdf“-Dateien, einem Standardformat, das sowohl Daten als auch Metadaten enthält. Ich habe diese in Excel geöffnet und in einer Datei zusammen gefasst. Diese Daten habe ich dann hier als Excel-Arbeitsblatt veröffentlicht.

Als Nächstes brauchte ich den Output. Am einfachsten ließ sich dieser aus der Graphik hier entnehmen. Ich habe diese Daten digitalisiert [?] mit Hilfe eines Digitalisierungsprogramms (und zwar des Programms „GraphClick“ auf einem Mac-Computer).

Meine erste Prozedur in diesem Verfahren war es, die verschiedenen Datensätze zu „normalisieren“ oder zu „standardisieren“. Dies bedeutet, sie so zu adjustieren, dass das Mittel Null ergibt und die Standardabweichung 1. Ich habe zu diesem Zweck die Excelfunktion ‚STANDARDIZE‘ verwendet. Dies erlaubt es mir, alle Daten in einem allgemeinen Größenformat zu sehen. Abbildung 2 zeigt jene Ergebnisse.

Abbidlung 2. Standardisierte Antriebskräfte, die vom Klimamodell CCSM 3.0 verwendet wurden, um eine Rückschau der Temperaturen des 20. Jahrhunderts zu erhalten. Dunkle schwarze Linien zeigen den Temperaturverlauf, wie ihn das Modell CCSM 3 sieht.

Ich kann viele Dinge erkennen, wenn ich das betrachte. Erstens, die Daten von CO2 haben das gleiche allgemeine Aussehen wie Schwefel, Ozon und Methan (CH4). Außerdem waren die Auswirkungen solarer Daten und vulkanischer Aktivitäten klar im Output der Temperaturen zu erkennen. Dies führte mich zu der Annahme, dass die GHG-Daten zusammen mit den solaren und vulkanischen Daten ausreichend seien, um das Temperaturoutput des Modells nachzuvollziehen.

Und tatsächlich zeigte sich, dass genau das der Fall war. Mit der Excelfunktion SOLVER verwendete ich die Formel, die (wie oben erwähnt) durch die Analyse des GISS-Modells entwickelt worden war. Diese Formel lautet*:

 T(n+1) = T(n)+lambda x delta F(n+1) / tau + deltaT(n) exp(-1 / tau)

Nun gut, lassen Sie uns diese Gleichung in unsere Sprache übersetzen. Sie sieht kompliziert aus, ist es aber nicht.

T(n) ist die Temperatur „T” zum Zeitpunkt „n”. Also ist T(n+1) die Temperatur der nachfolgenden Zeitspanne. In unserem Falle rechnen wir mit Jahren, so dass hier die Temperatur des nächsten Jahres gemeint ist.

F ist die Antriebskraft (forcing) in Watt pro Quadratmeter. Dies ist die Summe aller Antriebe, die hier betrachtet werden. Die Zeitkonvention ist die Gleiche, so dass F(n) den Antrieb F zum Zeitpunkt n bedeutet.

Delta, bedeutet „Änderung nach…”. Also ist deltaT(n) die Temperaturänderung seit der voran gegangenen Zeitspanne, oder T(n) minus der vorherigen Temperatur T(n-1). Korrespondierend dazu ist delta F(n) die Änderung der Antriebskraft seit der vorherigen Zeitspanne.

Lambda, ist die Klimasensitivität. Und schließlich ist tau, die Zeitverzögerugnskonstante (the lag time constant). Diese Zeitkonstante legt die Zeitspanne fest, bis das System auf den Antrieb reagiert. Und zu guter letzt, der Terminus „exp(x)“ bedeutet e hoch x, oder 2,71828… hoch x.

Also im Klartext: Die Temperatur im nächsten Jahr oder T(n+1) ist gleich der Temperatur dieses Jahres T(n) plus der sofortigen Temperaturzunahme wegen der Änderung der Antriebskraft delta F(n+1)/tau plus dem Verzögerungsterm {lag term} deltaT(n) exp(-1 /tau ) aus dem vorangegangenen Antrieb. Dieser Verzögerungsterm ist notwendig, weil die Auswirkungen einer Änderung des Antriebs nicht sofortiger Natur sind.

Abbildung 3 zeigt das Endergebnis dieser Rechnung. Ich habe nur eine Teilmenge der Antriebe verwendet, nämlich den Antrieb durch Treibhausgase (GHGs), den solaren und den vulkanischen Input. Die Größenordnung der übrigen Kräfte ist hinsichtlich des Antriebspotentials so gering, dass ich sie in der Rechnung nicht berücksichtigt habe.

Abbildung 3. Gleichung zum funktionalen Äquivalent des CCSM3-Klimamodells im Vergleich zum aktuellen Output von CCSM3. Beide sind etwa identisch.

Verglichen mit dem GISSE-Modell ergibt sich, dass CCSM3-Modell ebenfalls sklavisch dem verzögerten Input folgt. Sie passen ebenfalls exzellent zusammen mit einem Korrelationsfaktor von 0,995. Die Werte für Lambda und Tau sind auch ähnlich denen, die man während der GISSE-Untersuchung gefunden hatte.

Was bedeutet das alles nun?

Nun, erst einmal bedeutet es, dass die Output-Temperatur des CCSM3-Modells ebenso wie beim GISSE-Modell funktional äquivalent zu einer einfachen, eindimensionalen zeitlich verzögerten linearen Transformation der Input-Antriebskräfte ist.

Sollten die Modelle GISSE und CCSM3 in gleicher Weise funktionieren, bedeutet es, dass man sehr wahrscheinlich die gleiche lineare Abhängigkeit des Outputs vom Input auch in anderen Klimamodellen finden wird

 (Lassen Sie mich hinzufügen, dass das CCSM3-Modell nur sehr schlecht den historischen Temperaturrückgang von ~1945 bis ~1975 abbilden kann … genau wie auch das GISSE-Modell).

Wenn Sie glauben, dass die Temperatur unseres Planeten eine einfache lineare Transformation durch die eingehenden Antriebskräfte ist, glaube ich, dass diese Modellergebnisse vernünftig klingen, zumindest theoretisch.

Ich selbst empfinde den Gedanken eines linearen Zusammenhangs zwischen Input und Output in einem komplexen, vielfach wechselwirkenden, chaotischen System als eine lächerliche Fantasie. In keinem anderen komplexen System, das ich kenne, ist das so. Warum sollte das Klima so einfach und mechanistisch vorhersagbar sein, wenn es alle anderen, vergleichbaren Systeme nicht sind?

Dies alles stellt nach meiner Ansicht den Kern des Missverständnisses des gegenwärtigen Standes der Klimawissenschaft dar. Das aktuelle Klima-Paradigma, wie es in den Modellen zum Ausdruck kommt, lautet, dass die globale Temperatur eine lineare Funktion der Antriebe ist. Ich finde das extrem unwahrscheinlich, sowohl vom theoretischen als auch vom praktischen Standpunkt. Diese Behauptung ist das Ergebnis der schlechten Mathematik, die ich detailliert in “The Cold Equations“ aufgelistet habe [auf Deutsch bei EIKE hier]. Also: falsche Substitutionen gestatten es ihnen, alles außer Antrieb und Temperatur aus den Gleichungen herauszuhalten … was zu der falschen Behauptung führt, dass bei einer Zunahme der Antriebskräfte die Temperatur linear und sklavisch folgen muss.

Wie man sieht, scheitern sowohl das GISSE- als auch das CCSM3-Modells damit, die Abkühlung nach 1945 abzubilden. Die Behauptung eines linearen Zusammenhangs zwischen den Antriebskräften und der Temperatur scheitert am Praxistest der realen Welt genauso wie am gesunden Menschenverstand.

Willis Eschenbach

TECHNISCHE BEMERKUNGEN ZUR KONVERSION IN WATT PRO QUADRATMETER

Viele der in das CCSM3-Modell eingehenden Antriebskräfte werden in anderen Einheiten als Watt/Quadratmeter angegeben. Viele Konversionen wurden benutzt.

Die Werte von CO2, CH4, NO2, CFC-11 und CFC-12 wurden in w/m² umgerechnet, und zwar mit Hilfe der verschiedenen Formeln von Myhre in Tabelle 3.

Der solare Antrieb wurde mit Hilfe der Division des äquivalenten mittleren Antriebs durch 4 umgerechnet.

Für die vulkanischen Auswirkungen, die im CCSM3-Modell als die gesamte ausgeworfene Masse in Tonnen angegeben wird, gibt es keine Standardumrechnung in W/m². Daher wissen wir nicht, welchen vulkanischen Antrieb das CCSM3-Modell benutzt. Folglich passte ich diese Daten an die gleichen W/m²-Werte des GISSE-Modells an. Danach adjustierte ich die Werte schrittweise, um sie passend zu machen. Das Ergebnis zeigt das „Volcanic Adjustment“ oben in Abbildung 3.

Den Originalartikel von Willis Eschenbach finden Sie hier:

Übersetzt von Chris Frey für EIKE

* Leider werden in diesem Editor mathematische Sonderzeichen nicht abgebildet




Neues zu Gorleben: Irreführung durch Wikipedia seit Oktober 2008

Eine umfassende und gründliche Studie der BGR (Bundesanstalt für Geowissenschaften und Rohstoffe) kam 2008 zu dem Ergebnis (1), dass keine Erkenntnisse gegen die Langzeitsicherheit des Salzstocks Gorleben vorliegen. Hier Auszüge aus der Zusammenfassung der Studie von 2008:

            „Die Erkundung des Salzstocks Gorleben im niedersächsischen Landkreis Lüchow-Dannenberg erfolgte von 1979 bis zum Beginn des politisch bedingten Moratoriums am 1. Oktober 2000, welches die Einstellung aller Standortuntersuchungen beinhaltet. Das Untersuchungsprogramm bestand aus der übertägigen und untertägigen geologischen und bergmännischen Erkundung sowie aus der Bearbeitung und Bewertung aller Fragen, die für eine spätere Eignungs- und Sicherheitsaussage notwendig sind.“

            „Abschätzungen zur Bedeutung der Subrosion für die Langzeitsicherheit des geplanten Endlagers ergaben, dass die Mächtigkeit des Hauptsalzes als wesentlichster sicherheitsrelevanter Bestandteil des einschlusswirksamen Gebirgsbereiches auch nach Ablauf eines  Zeitraums von bis zu einer Million Jahre aufgrund der ermittelten Subrosionsraten, der  wahrscheinlich zu erwartenden epirogenetischen Entwicklung des regionalen Umfeldes und der nur noch geringen Salzaufstiegstendenzen genügend groß ist, um einen Radionuklid-transport aus dem Endlager in die Biosphäre nachhaltig zu verhindern.“

            „Die in einigen Bohrungen und bei den Auffahrungen beobachteten Lösungsvorkommen waren an bestimmte stratigraphische Horizonte, wie z. B den Hauptanhydrit oder den Grenzbereich zwischen der Staßfurt- und der Leine-Folge, gebunden. Die Lösungszuflüsse erfolgten zeitlich begrenzt. Untersuchungen ergaben, dass von isolierten Hohlräumen oder Kluftsystemen auszugehen ist, die durch den Aufschluss während der Erkundung entleert wurden. Entsprechende Erkundungsergebnisse gelten auch für die Vorkommen von Kohlenwasserstoffen, die teilweise die Zutritte der Lösungen begleiteten und ebenfalls in ihren Mengen und ihrem zeitlichen Auftreten begrenzt waren.“

            „Aufgrund der bisherigen Untersuchungsergebnisse konnte für den Erkundungsbereich 1 die Größe der Verbreitungsfläche des Endlager-Wirtsgesteins (Hauptsalz) im Bereich der 840m-Sohle bzw. 150m unterhalb der 840m-Sohle abgeschätzt werden. Unter Berücksichtigung eines 50m breiten Sicherheitspfeilers zum Kaliflöz Staßfurt und zum Hauptanhydrit stehen im EB 1 mindestens 306.000 m2 Hauptsalz für ein mögliches Endlager zur Verfügung.“

            „Um Aussagen zur geologischen Langzeitsicherheit des geplanten Endlagers machen zu können, müssen mögliche Transportpfade für Radionuklide beschrieben werden. Als Transportpfade gelten im Salzgestein Klüfte und Störungen. Aufgrund der Kriecheigenschaften des Salzes sowie der sich mit der Zeit verringernden oder völlig versiegenden Zulaufmengen von Salzlösungen und ihres geringen Volumens muss von räumlich begrenzten, zum größten Teil verheilten Kluftsystemen ausgegangen werden, sodass nach den bisherigen Erkenntnissen kein durchgängiger Transportweg aus dem Salzstock zur Salzstock bzw. Erdoberfläche vorliegt.“

            „Trotz der bislang noch nicht abgeschlossenen Erkundung des EB 1 kann nach den bisherigen Untersuchungen festgestellt werden, dass aus geowissenschaftlicher Sicht keine Erkenntnisse aus dem Studium des Salinars gegen die Langzeitsicherheit des Salzstocks Gorleben vorliegen und dass das Hauptsalz der Staßfurt-Folge als potenzielles Wirtsgestein für die Endlagerung hochradioaktiver Abfälle in ausreichendem Maße zur Verfügung stehen wird.“

Autor Dr. W. Monninger, Hervorhebungen durch den Autor

Quellen:

(1) O. Bornemann, J. Behlau, R. Fischbeck, J. Hammer, W. Jaritz, S. Keller, G. Mingerzahn, M. Schramm (2008):  Standortbeschreibung Gorleben, Teil 3: Ergebnisse der über- und untertägigen Erkundung des Salinars – Geol.Jb., C 73, 5-211, 50 Abb., 7 Tab., 5 Anl.; Hannover, erschienen bei Schweizerbart Stuttgart, ISBN 978-3-510-95964-8.

http://www.bmwi.de/BMWi/Redaktion/PDF/Publikationen/endlagerung-hochradioaktiver-abfaelle-endlagerprojekt-gorleben,property=pdf,bereich=bmwi,sprache=de,rwb=true.pdf

http://www.bgr.bund.de/DE/Themen/Geotechnik/geotechnik__node.html

http://de.wikipedia.org/wiki/Endlager_Gorleben




Update zum Wolkenexperiment des CERN

Weiter unten gibt es ein paar Informationen von Bishop Hill über eine kürzliche Konferenz in Cambridge, UK, worin er Bemerkungen über Q&A [Questions&Answers – Fragen und Antworten?] mit Svensmark macht, plus einer Karikatur von Josh.

Aus der Website von Physics World Head in a CLOUD:

In diesem speziellen Video für physicsworld.com erklärt der Leiter des CLOUD-Projektes Jasper Kirkby, was er mit seinem Team mit diesem Experiment erreichen will. „Wir versuchen, die Verbindung zu verstehen, die zwischen der die Atmosphäre durchdringenden kosmischen Strahlung und der Erzeugung von sog. Aerosolen besteht – dem erforderlichen  Grundbaustein für ein Wolkentröpfchen oder ein Eiskristall“, erklärt Kirkby.

Das CLOUD-Experiment stellt diese wolkenbildenden Prozesse nach, indem es den Hauptstrahl der Protonen-Synchroton-Strahlung des CERN in eine aus rostfreiem Stahl bestehende Kammer lenkt, die extrem reine Luft und ausgewählte Spurengase enthält.

Eines der Ziele des Experiments ist es, Details der Wolkenbildung zu entdecken, mit denen man Klimamodelle füttern kann. „Jeder weiß, dass Wolken einen gewaltigen Effekt auf das Klima haben. Aber das Verständnis darüber, wie stark dieser Effekt ist, ist wirklich noch kaum bekannt“, sagt Kirkby.

Hier ist das Video; anklicken, um es zu starten:

Bishop Hill liveblogs aus Cambridge über Fragen und Antworten (Q&A) mit Henrik Svensmark:

  • Der solare Effekt scheint groß zu sein. Schließt man das solare Regime aus, lässt es den anthropogenen Einfluss viel größer aussehen. Dieser Effekt wird von den Klimamodellen kaum abgebildet.
  • Wird der Effekt beim Klima sichtbar? Man betrachte den Wärmegehalt der Ozeane. Antriebskräfte sind vulkanisch, gcr [galactic cosmic rays], sowie anthropogen und eine Änderung des solaren Regimes im Jahr 1977. der solare Effekt mit ~1 W/m², passt gut zu Shaviv. Falls man den solaren Effekt herausnimmt, mit der offensichtlichen Änderung im Regime 1977.  Dies kann man beispielsweise in troposphärischen Radiosondenaufstiegen (eg tropospheric temps) erkennen.
  • Koronale Massenausbrüche – Abnahme von gcrs [galactic cosmic rays] auf der Erde – Forbush-Abnahme . Gibt es eine atmosphärische Reaktion? Der Gehalt flüssigen Wassers in Wolken über dem Ozean geht nach einer Forbush-Abnahme zurück. Ebenso der in tiefen Wolken usw. sowie bei den Aerosolen.
  • Immer viele Kondensationskerne in der Atmosphäre. Stimmt das?
  • Man betrachte die atmosphärischen Konzentrationen von Spurengasen. Verändere die Stärke der Ionisation. Schau nach, ob man mehr Aerosolpartikel erhält. SKY-Experiment.
  • [Es gibt eine] Korrelation zwischen tiefen Wolken und GCRs – aber welcher Mechanismus [steckt dahinter]? Ionen?
  • Diskussion von LIA und solar. Solare Strahlung zu niedrig, um es zu erklären. Brauchen die Mechanismen der Verstärkung – Wolken.
  • Bekomme Korrelationen zwischen dem O18-Gehalt in Stalagmiten und der solaren Variabilität.
  • Ein Partikel, das in die Atmosphäre eindringt, erzeugt einen Schauer weiterer Partikel – einschließlich Ionen, die die Chemie verändern.
  • Cosmic Rays werden durch solare Ereignisse verstärkt – Supernovae.

Josh Livetoons dies:

Den Originalartikel finden Sie hier: 

Übersetzt von Chris Frey für EIKE

Anmerkung des Übersetzers: Der letzte Abschnitt mit der im Telegrammstil gehaltenen Aufzählung von Fakten sprengt ein wenig meine Fachkenntnisse und war gelegentlich ein Blindflug.  Ich bitte um Verständnis!