1

Ein bisschen Schummeln kann beim Klimawandel nie schaden

Schaut man beim dänischen meteorologischen Institut die Arktis-Temperaturen nach, sieht man zwar Abweichungen nach oben, aber immer noch recht viel Kälte (Bild rechts). Dabei bitte beachten: Temperatur in Kelvin angegeben)

Bild 1 (rechts): Daily mean temperatures for the Arctic area north of the 80th northern parallel, plotted with daily climate values calculated from the period 1958-2002. (Kelvin) 0 °C = 273,15 K = 32 Fahrenheit. Quelle: dänisches meteorologisches Institut

Nun weiß ein regelmäßiger EIKE Leser, dass es um den 1. Januar 2016 eine deutliche Temperaturanomalie in Bereichen der Arktis gab „Die Klimaente zum Jahreswechsel Der Nordpol taut mitten im Winter“. Aber dass „… die Temperaturen am Nordpol im Dezember und Januar über dem Gefrierpunkt lagen“ erscheint doch ungewöhnlich.

In einem solchen Fall fragt man am besten nach. Also eine Anfrage an das AWI gestellt.

Zurück kam ein freundliches Mail und die entsprechende Information. Die Temperaturen wurden an Bojen des AWI gemessen. Eine Listung der entsprechenden Bojendaten (Bild 2) und Grafiken waren anbei. Leider war ein Teil der Grafiken recht unscharf, so dass die Daten geladen und mit Excel umgesetzt werden mussten (Bild 3).

Bild 2, Tabelle 1: Übersicht verschiedener Parameter der in der Arktis im Einsatz befindlichen Schneebojen.

Tabelle: Bojendaten mit Werten ab 0 Grad (Quelle: Detaildaten der Bojen aus dem Meereisportal):

Boje 2015S35 (blaue Linie), 500 km vom Pol entfernt, 19 Stunden 13.12. – 01.01.2016, 12 Stunden 24 / 25.01.2016

Boje 2015S29 (rosa Linie), 290 km vom Pol entfernt, 3 Stunden 30.12.2015

Boje 2015S16 (hellgrüne Linie), 407 km vom Pol entfernt, 4 stunden 30.12.2015

Man sieht im Bild 3, dass 30 Grad Temperatursprünge innerhalb kürzester Zeit bei Stürmen in der Arktis im Winter normal sind. Und wirklich, für einige Stunden haben Bojen im Winter auch positive Werte gezeigt. Wie lange, ist in der Tabelle „Bojendaten“ gelistet.

Jedoch: Keine Boje war am Nordpol. Am nahesten dran war Boje 2015 S29 mit 290 km Entfernung zum Pol und Messwerten über ca. 3 Stunden mit über 0 Grad am 30.12.2015.

Bild 3, Bojen-Messdaten S35; S29; S16. Quelle: http://www.meereisportal.de (Förderung: REKLIM-2013-04) bojendaten

Wie sich die Temperaturen um den 1. Januar global gesehen darstellten, zeigt Bild 4. Die NOAA hat in den Randbereichen von den AWI-Bojendaten demnach nichts mitbekommen, denn deren 0-Grad-Grenze liegt meilenweit entfernt.

Und da stellt sich die Frage: Sind solche Erscheinungen im Polarmeer eventuell sogar „normal“ und wurden bisher nur nicht entdeckt, weil es Messbojen mit Stundenauflösung in dieser Gegend erst seit wenigen Jahren gibt?

Eine Grafik über die Variabilität der Stratosphäre im Winter zeigt es. Über dem Polarmeer geht es im Winter richtig „Abartig“ zu. Dazu der Textausschnitt:

Institut für Meteorologie der Freien Universität Berlin K. Labitzke: Die Rolle der Stratosphäre für das Klimasystem:

Über der Nordhemisphäre wird die Zirkulation in den mittleren und hohen Breiten der Stratosphäre im Winter im wesentlichen von einem großen kalten Polarwirbel und einem quasistationären Hoch über den Alëuten bestimmt. Planetarische Wellen aus der Troposphäre dringen in die Stratosphäre ein, verstärken sich gelegentlich und führen zu großen Stratosphärenerwärmungen (s.u.), die unter Umständen einen Zusammenbruch des Polarwirbels und den Aufbau eines Hochs über der Arktis bewirken. Die einzelnen Winter sind sehr verschieden, daher ist die Variabilität der Stratosphäre in der winterlichen Arktis besonders groß

heute wissen wir, daß derart gestörte Winter mit verhältnismäßig ruhigen, kalten Wintern wechseln. Einen guten

Eindruck von der Variabilität von Tag zu Tag im 10-hPa-Niveau über dem Nordpol gibt Abb.2 (Anmerkung: ist Bild 5), in der der Temperaturverlauf von 11 Wintern dargestellt ist. Die großen Erwärmungen werden durch eine Verstärkung der langen planetarischen Wellen verursacht, die gleichzeitig Ozon aus den Subtropen in das Polargebiet transportieren.

Fazit

Dass es am Nordpol im Winter wirklich über 0 Grad hatte, ist weiterhin unwahrscheinlich und auch nicht belegt.

Nahe am Nordpol ist es der Fall gewesen, allerdings belegt nur für 3 Stunden im Dezember 2015 in 290 km Entfernung. Im Dezember und Januar geschah es in 500 km Entfernung.

So ganz weit hergeholt ist die Aussage des AWI nicht, aber richtig ist sie deshalb auch nicht.

Bild 4, Oberflächentemperatur am 30. Dezember 2015 (Daten: NCEP/NCAR Reanalysedaten www.esrl.noaa.gov/psd/products). Weiße Punkte sind AWI-Messboyen. Zufügung: Der rote Pfeil kennzeichnet die 0 Grad Grenze, das weiße Kreuz den Nordpol.

Bild 5, Abb. 2 Zeitreihen von täglichen 10-hPa-Temperaturen (°C) am Nordpol von November bis April, für die 11 Winter von 1988/89 bis 1998/99. (Daten: Institut für Meteorologie, Freie Universität Berlin)




Atomkonzerne wollen Ausstiegskosten drücken

Welchen Müll?

Um gleich mal mit einer provokativen Frage anzufangen. Abgebrannte Brennelemente z. B. sind Abfälle – weil nicht mehr vom Kraftwerk verwendbar – aber deshalb noch lange kein Müll. Kein Mensch kommt heute auf die Idee, eine alte Autobatterie oder eine alte Zeitung als Müll zu verunglimpfen. Bei der “gelben Tonne” spricht man deshalb heute selbstverständlich von einer “Wertstofftonne”. Von Anfang an, war es vorgesehen, die “abgebrannten” Brennelemente zu recyceln. Aus dem Abfall – aus der Sicht eines Kraftwerks – wurde erst durch grüne Politiker “Atommüll” gemacht, nachdem man die Wiederaufbereitung in Deutschland verboten hat. Genau der heutige (große) Vorsitzende der “Kommission Lagerung hoch radioaktiver Abfallstoffe” war maßgeblich an dieser Schandtat beteiligt.

Die Unterscheidung von “Abfall” und “Müll” ist alles andere als Haarspalterei. Abfall ist immer ein höchst subjektiver Zustand, der erst zum Müll wird, wenn keine Nachfrage mehr vorhanden ist. Wesentlicher Unterschied ist die Menge vorher und nach der Aufbereitung. Ein typisches Beispiel wohin die Entwicklung geht: Als mit dem “Endlager Konrad” begonnen wurde, war ein wesentliches Sicherheitskriterium der Absturz eines mehrere hundert Tonnen schweren Dampferzeugers in die Grube. Seit Jahren ist aber die komplette Versendung der Dampferzeuger z. B. nach Schweden Realität. Dort werden sie industriell (maßgeblich durch Roboter) zerlegt und “dekontaminiert”. Zurück kommt ein Würfel, etwa so groß wie ein Kühlschrank, in dem alle Radioaktivität eingeschmolzen ist. Alle anderen Materialien werden an lokale Schrotthändler verkauft und damit dem normalen Materialkreislauf wieder zugeführt. Dies ist bereits heute billiger, als die komplette Einlagerung.

Radioaktiver Zerfall geht immer nur in eine Richtung

Das ist die andere (schöne) Seite der Medaille. Je länger man wartet, um so geringer wird die ausgesendete Strahlung. Dies ist z. B. bei Umweltgiften wie Asbest oder Quecksilber nicht der Fall. Insofern müßte eigentlich von dem “Endlager Herfa-Neurode” eine unendliche Sicherheit gefordert werden – aber “Chemiemüll” ist wohl politisch korrekt.

Der radioaktive Zerfall verläuft meist in Ketten (d. h. mehrere Zwischenglieder), endet aber immer mit einem stabilen Endglied (welches nicht mehr radioaktiv ist). Diese Zerfallsketten laufen unbeeinflußbar ab. Am Anfang nimmt die Strahlung sehr stark ab (Elemente mit kleiner Halbwertszeit), später sehr langsam (immer mehr Kerne sind bereits zerfallen, es sind nur noch Elemente mit großer Halbwertszeit vorhanden). Wichtig für das Verständnis eines “Endlagers” ist die Tatsache, daß der “Atommüll” in menschlichen Zeiträumen eine Intensität erreicht, die der natürlich vorkommender Erzlagerstätten entspricht. Anders ausgedrückt: Solange man den “Atommüll” nicht isst, kann man ihn problemlos in die Hand nehmen. Sollte er tatsächlich wieder in den biologischen Kreislauf gelangen (z. B. durch Grundwasser) ist die entscheidende Frage, wieviel Zeit vergangen ist (d. h. wieviele und welche radioaktiven Elemente überhaupt noch vorhanden sind) und welche Konzentration vorliegt.

Die Crux mit der Radioaktivität ist, daß man einerseits noch geringste Mengen nachweisen kann, andererseits diese längst nicht mehr schädlich sind. Typisches Beispiel ist die Banane oder verschiedene Mineralwässer. Für die “Beherrschbarkeit” und dem Umgang mit abgebrannten Brennelementen könnte man sagen: Je länger abgelagert, je harmloser und technisch einfacher handhabbar. Jeder Laie kann das nachvollziehen. Nach der Entnahme aus dem Reaktor kann man die “frischen Brennelemente” nur fernbedient handhaben und muß diese zur Kühlung und Abschirmung in metertiefen Wasserbecken lagern. Nach einigen Jahren werden sie in Spezialbehälter umgepackt. Neben solchen “Castoren” kann man gefahrlos herlaufen oder eine Lagerhalle betreten.

Warum nicht einfach verkaufen?

Abgelagerte Brennelemente sind der ideale Input für Wiederaufbereitungsanlagen. Je geringer die Strahlung ist, desto weniger belasten sie die Anlage und das notwendige Personal. In diesem Sinne, sind z.B. Indien und China ideale Kunden. Beide Länder haben sich zum Bau von Wiederaufbereitungsanlagen entschlossen, da sie arm an eigenen Uranvorkommen sind. Je zügiger sie mit dem Bau beginnen, desto geringer ist die Menge, die sich aus den eigenen Kernkraftwerken ansammelt. Bis solche Anlagen richtig laufen, sind Jahrzehnte Vorlauf (Planung, Bau, Probebetrieb) notwendig. Gerade in den ersten Betriebsjahren sind abgelagerte Brennelemente die ideale Beschickung. In diesem Sinne wären Brennelemente aus Deutschland ein interessantes Handelsgut.

Wäre nicht die zur Zeit vorherrschende ideologische Verblendung bestimmend, könnten wir international – gerade bei einem Totalausstieg – zu vernünftigen und wirtschaftlich optimalen Lösungen gelangen. Schließlich haben wir ja auch bisher schon die “Dienstleistung Wiederaufbereitung” in England und Frankreich eingekauft. Warum zukünftig nicht auch in Rußland, China oder sonst wo? Entsprechendes gilt für die Konditionierung von Abfällen. Es wurden ganze LKW-Ladungen von brennbaren Abfällen in die USA verschifft und anschließend die “radioaktive Asche” nach Deutschland zurückgeführt. Bei den geringen Mengen, die bis zum “Totalausstieg” angefallen sein werden, kann man gleich über die Mit-Einlagerung in deren “Endlager” verhandeln. Ganz so, wie wir ja auch das “Endlager Herfa-Neurode” international vermarkten. Falls das nicht politisch gewollt ist, bliebe auf diesem Weg nicht viel mehr als ein zentraler Bunker über, indem der gesamte Restmüll sicher eingelagert werden kann.

Die Finanzierung

Die Kerntechnik ist die erste Sparte überhaupt, die von Anfang an die gesamten Kosten berücksichtigt hat. Dies ist – nach wie vor – ein Alleinstellungsmerkmal. Kein Windmüller muß für seine als Plastikmüll endenden Flügel, kein Sonnensammler für seine giftmüllhaltigen Sonnenzellen Rücklagen bilden. Auch die sog. Ewigkeitskosten der Bergwerke wurden nicht in den Kohlepreis eingerechnet. Heute findet man beispielsweise “Giftmülldeponien”, die Bohrschlämme aus der Gas- und Ölförderung enthalten.

Man kann die Folgekosten grundsätzlich erst tragen, wenn sie tatsächlich anfallen oder bereits zu Anfang versuchen sie einzurechnen. Für beide Vorgehensweisen lassen sich stichhaltige Argumente anführen. Das einzige, was zu völlig falschen Ergebnissen führt, ist die gleichzeitige Anwendung beider gegensätzlichen Prinzipien. Genau das, wurde aber von der “Anti-Atomkraft-Bewegung” als Kampfmittel entdeckt.

Wenn man schon bei der Nutzung adäquate Rücklagen bildet, bleibt immer noch die Frage wie: Als Umlagesystem (analog zu unserem Rentensystem) mit dem Staat als Garanten, der Vermögensbildung beim Unternehmen oder der Anlage in einem Fonds. In Deutschland hat man sich zur Bildung von Rücklagen im jeweiligen Unternehmen entschlossen. Dies wurde ursprünglich sehr gründlich und kontrovers diskutiert und abgewogen. Allen Möglichkeiten ist die Schwierigkeit der Abschätzung der zukünftigen Kosten und die Sicherheit der Anlage gemeinsam: Staaten können verschwinden, Unternehmen pleite gehen und Anlagen durch Finanzkrisen etc. dahinschmelzen.

Die vermeintliche Anlagesicherheit

In Deutschland mußten die Energieversorgungsunternehmen mit Kernkraftwerken Rücklagen für den Abriß und die Abfallentsorgung bereitstellen. Ein revolutionärer Gedanke, ein Alleinstellungsmerkmal und die “praktizierte Nachhaltigkeit”.

Ein (vorgeschriebener) Anteil an den Unternehmenserlösen wurde für die Entsorgung zurückgestellt. In der Praxis bedeutete das, man hat mit diesen Mitteln neue Kraftwerke, Stromleitungen etc. finanziert. Dies führte zu zusätzlichen Erträgen, da man keine Zinsen für Kredite an die Banken zahlen mußte. Es mußte nur der Barwert, der in der Zukunft anfallenden Kosten, zurückgestellt werden. Die Vorteile kamen indirekt allen zu gute, da jeder elektrische Energie verbraucht. Insofern bestand volkswirtschaftlich kein Unterschied zu einem Umlagesystem. Bei einem Fonds hätte man zusätzliche Kosten für die externe Vermögensverwaltung in Rechnung stellen müssen.

Jetzt zur (vermeintlichen) Sicherheit der Anlage. Das Geld wurde in Vermögenswerte umgewandelt. Nichts anderes kann auch ein Fonds bieten. Er kann jedoch nicht auf dingliche Werte (Kraftwerke, Umspannwerke etc.) zurückgreifen, sondern nur auf Finanzprodukte (Aktien, Anleihen etc.). Ironischerweise sind gerade Anleger mit ähnlich langfristigem Anlagehorizont und ähnlichem Sicherheitsbedürfnis brennend an Sachanlagen aus der Energiewirtschaft mit regelmäßigen Einnahmen interessiert. Versicherungswirtschaft und Pensionsfonds investieren in Pipelines, Stromtrassen usw. Sie erscheinen heute durchaus sicherer und ertragreicher als Staatsanleihen und Aktien. Strom wird halt immer gebraucht. Insofern werden auch die Anlagen zur Erzeugung und Verteilung gebraucht – es sind echte Vermögenswerte.

Von dem Gedanken des Verursacherprinzips ausgehend, ist die Anlage in den Unternehmen ebenfalls logischer: Das Unternehmen haftet mit seiner Substanz. Wenn man einen Fonds zwischen schaltet, kann man die Haftung kaum noch durchleiten. Ist das Geld an der Börse verspekuliert, kann das Unternehmen nicht dafür verantwortlich gemacht werden. Die Anlagen der Energieversorger waren im Zeitalter des Energiemixes auch breit gestreut. Wo bitte, soll der “Entsorgungsfonds” denn seine Milliarden anlegen? In Windparks, E-Autos oder doch lieber in griechischen Staatsanleihen? Wer verwaltet den Fonds und wer bekommt die Verwaltungskosten? Der Fonds soll doch bestimmt ethisch und politisch korrekt sein und “klimaneutral”, nicht wahr?

Woher soll das Geld kommen?

Die Rücklagen der Energieversorgungsunternehmen sind Vermögen als Sachanlagen im eigenen Unternehmen. Dieses Vermögen ist eine Immobilie. Darin unterscheidet sie sich nicht grundsätzlich von einem Gebäude: Der Bau hat mal eine bestimmte Summe gekostet, mit der es in die Bücher eingegangen ist. Vermindert um die gesetzlichen Abschreibungen, erhöht um Modernisierungen etc. Soweit ist es Vermögen. Wenn aber nun diese Werte plötzlich ausgeschüttet werden sollen, ergibt sich schlagartig das Problem der Umwandlung in einen Preis: Es muß ein Käufer – nach den Gesetzen von Angebot und Nachfrage – gefunden werden. Wer bitte, soll aber so blöd sein, in Deutschland ein Kraftwerk zu kaufen? In einem Land, indem gerade die Kernkraftwerke entschädigungslos enteignet worden sind und nun auch die Kohlekraftwerke abgeschafft werden sollen? Jeder seriöse Investor, wird eher nach Afrika oder Asien gehen. Übrig bleiben, werden nur Spekulanten, die bereit sind Wetten darauf abzuschließen, wie lange der Wahnsinn in Deutschland noch anhält. Da politische Veränderungen erfahrungsgemäß sehr langsam ablaufen, kann der finanzielle Einsatz nur gering ausfallen. Selbst die DDR konnte sich rund vier Jahrzehnte über Wasser halten. Für technische Entwicklungen ein unendlich langer Zeitraum. Lange Rede, kurzer Sinn: Es werden gewaltige Preisabschläge auf die Buchwerte nötig sein, um 23 Milliarden kurzfristig flüssig zu machen.

Mal angenommen, es gelingt tatsächlich. Mit welchen Produktionsmitteln sollen dann die übrig gebliebenen Skelette noch Ergebnisse erzielen? Das Ganze gleicht doch einem Bauern, der Trecker und Saatgut verkauft. Die von dem Sozialisten Trittin dem Volk vorgegaukelte Sicherheit, ist in Wirklichkeit nichts weiter als die Schlachtung der Kuh, die er melken will. Oder frei nach Maggie Thatcher: Den Sozialisten geht irgendwann immer das Geld der anderen aus. Dieser Fonds wird – nach dem er das Geld für alle möglichen linken Projekte verbrannt hat – möglichst unauffällig dahinsiechen, ohne eine einzige Tonne “Atommüll” beseitigt zu haben.

Spätestens wenn die Blase “Windparks” geplatzt ist, wird nur noch ein Heer von Arbeitslosen, von den ehemals stolzen Energieversorgern übrig bleiben. Wer nicht jetzt beginnt, sich zu wehren, sollte sich schon mal mit den “Schlecker-Frauen und Karstadt-Verkäufern” über das Leben danach unterhalten. Die Ex-Minister Trittin, Müller und der grüne Gewerkschaftsfunktionär Bsirske werden sicherlich ihre Pensionen genießen und auch weiter unter Palmen über den “Raubtierkapitalismus” schwadronieren. Noch nie war Enteignung so schön, wie heute.

Dieser Beitrag erschien zuerst bei Nukeklaus hier




Zum Schieflachen: Klimaalarmistischer Diskussionsleitfaden “Ungewissheit gekonnt vermitteln”

Nun ist guter Rat natürlich teuer. Angesichts der kippenden wissenschaftlichen Faktenlage sehen sich die Klima-Lobbyisten immer stärkerer Kritik ausgesetzt. Die Klimaaktivistenplattform SkepticalScience hat nun für seine Anhänger einen Leitfaden zur Diskussion mit Andersdenkenden herausgegegeben, deren Lektüre zum mitleidigen Schmunzeln anregt:

Ungewissheit gekonnt vermitteln 
Hatten Sie schon irgendwann einmal Probleme damit, die Unsicherheiten beim Thema Klimawandel zu vermitteln? Sind sie frustriert über die Klima-Zweifler, die diese – in jedem komplexen wissenschaftlichen Gebiet vorkommende – Ungewissheit als Rechtfertigung ausnutzen, um politische Antworten hinauszuzögern? Dann ist “Ungewissheit gekonnt vermitteln” der richtige Ratgeber für Sie.

Nochmals: Dies ist kein Witz. Dies ist die Einleitung einer realen auf SkepticalScience vorgestellten Broschüre, auf die uns Leser Mr.U. dankenswerterweise hinwies. Mitverfasser der Handlungsanweisung ist der Hardcore Aktivist und experimentelle Psychologieprofessor Stephan Lewandowsky. Hier die Zehn – Verzeihung, Zwölf – Gebote der ungewissen Klimadiskussionsgesprächsführung:

1. Steuern Sie die Erwartungen Ihrer Zielgruppe

Soll heißen: Stellen Sie sicher, dass die Diskussionspartner nicht merken, wie wackelig das ganze Klimakatastrophengebäude ist. Am besten wäre es, wenn sie schon bei der bloßen Erwähnung eines heißen Sommertages Klimaalarmkrämpfe bekämen.

2. Beginnen Sie mit dem, was Sie wissen, nicht mit dem, was Sie nicht wissen

Problematisch, denn für die meisten klimaalarmistisch Diskutierenden wäre dann nämlich die Diskussion ziemlich schnell zuende. Testdiskussionen auf der Klimaretter-Webplattform zeigen dies in erschreckender Weise.

3. Stellen Sie den wissenschaftlichen Konsens deutlich heraus

Oder andersherum: Vermeiden Sie es tunlichst, die vielen Diskrepanzen und Probleme des klimaalarmistischen Konzepts zu erwähnen. Versuchen Sie Ihre Gesprächspartner vom Elefanten im Raum abzulenken. 

4. Verlagern Sie den Schwerpunkt von “Ungewissheit” zu “Risiko”’

Erstellen Sie ein totgefährliches Alarmszenario, das die gesamte Erde auslöscht, auch wenn das Risiko nur 0,03 Promille beträgt. Für etliche Zeitgenossen ist dies schon genug, ihr Leben vollkommen umzukrempeln. Vermeiden Sie dabei auf jeden Fall, andere nichtklimatische Probleme zu erwähnen, die bereits heute real existieren, also ein 100%-’Risiko’ darstellen. Die dem Klimawandel zugedachten Gelder fehlen der Bekämpfung der aktuellen Missstände. Stichworte sauberes Trinkwasser, Bildung, Diskriminierung, schlechte Staatsführung, Umweltverpestung durch Abrennen von tropischem Regenwald zum Anbau von Palmöl, etc. etc.

5. Machen Sie deutlich, über welche Art von Ungewissheit Sie reden
Eine häufige Strategie derjeniger, die den wissenschaftlichen Konsens ablehnen, ist es, absichtlich Verwirrung zu stiften und verschiedene Arten der Ungewissheit in einen Topf zu werfen. Es ist deshalb entscheidend, dass Sie deutlich machen, über welche Art von Ungewissheit Sie reden – Ursachen, Auswirkungen, Politik oder Lösungen – und die jeweils passende Sprache einzusetzen.

Was ist das für ein Unsinn?

6. Verstehen Sie, was die Meinungen der Leute zum Klimawandel beeinflusst
Die Ungewissheit über den Klimawandel ist bei Personen höher, die bei ihren politischen Werten nach rechts tendieren. Es gibt mittlerweile jedoch eine zunehmende Zahl von Forschungsergebnissen, die Wege aufzeigen, wie über den Klimawandel so berichtet werden kann, ohne dass das konservative Wertesystem bedroht wird, oder das eine Sprache verwendet wird, die bei Personen, die von Werten rechts der Mitte geprägt sind, Anklang findet.

Trick 17

7. Die wichtigste Frage zu Auswirkungen des Klimawandels ist “wann” und nicht “ob”

Falsch. Die wichtigste Frage ist “wieviel”. Welchen Wert hat die CO2-Klimasensibilität?

8. Verwenden Sie Bilder und Geschichten

Eines Tages ging Tante Trixi mit Hund Bello einkaufen. Auf dem Weg zum Kaufmannsladen wurden sie von einer Dürre überrascht. Schuld daran waren all die bösen Nachbarn von Tante Trixi, die mit dem Auto zur Arbeit fuhren und damit das Klima auf dem Gewissen hatten. Daraufhin beschloss sie, Klimaaktivistin zu werden. In unregelmäßigen Abständen stoch sie seither Autoreifen auf, um die Leute vom klimaschädlichen Autofahren abzuhalten. Anlässlich der Weihnachtsfeier erhielt Trixi die Große Klimaauszeichnung am grünen Bande.

9. Heben Sie die “positiven” Seiten der Ungewissheit hervor

Wieso sollte es positiv sein, wenn auf dieser wackeligen Basis weitreichende gesellschaftliche Veränderungen begründet werden?

10. Kommunizieren Sie effektiv über die Auswirkungen des Klimawandels

Dürfte schwierig sein, wenn die wissenschaftlichen Fakten so uneindeutig sind.

11. Führen Sie eine Unterhaltung und kein Streitgespräch
Trotz der überproportionalen Aufmerksamkeit, die “Skeptikern” in den Medien eingeräumt wird, reden oder denken die meisten Menschen vergleichsweise wenig über den Klimawandel nach. Dies bedeutet, dass schon alleine eine Unterhaltung über den Klimawandel – aber kein Streitgespräch oder eine simple Wiederholung eines Slogans – eine wirksame Methode hin zu mehr Engagement sein kann.

Der pure Hohn. Die Medien sind noch immer fest in der Hand der Klimaalarmisten. Meist verwehren sich die Aktivisten sogar einer Diskussion. Ist das wirklich alles, was die Aktivistenseite zu bieten hat? Aufforderung zur “simplen Wiederholung eines Slogans“?

12. Erzählen Sie eine menschliche Geschichte und keine wissenschaftliche

Warum? Weil die Wissenschaft den Klimaalarm nicht mehr deckt. Daher muss jetzt Tante Trixi ran.

Übernommen von Die kalte Sonne hier




Neuer Abkassier-Plan der Chefs der Atomkommission – Die Kosten der Endlagerung sollen die von der Politik bereits ausgeraubten Versorger übernehmen.

Der Vorschlag stieß erwartungsgemäß auf einige Kritik. So erklärte zum Beispiel Franziska Buch, Energiereferentin am Umweltinstitut München: „Die Kommission hat sich von den Energieversorgern einlullen lassen. Der so genannte Risikoaufschlag von 6,14 Milliarden Euro ist nichts anderes als eine lächerlich geringe Ablasszahlung der Unternehmen dafür, dass sie aus der Haftung für die Atommüll-Lagerung entlassen werden und dadurch ihre aktuelle Situation auf dem Kapitalmarkt verbessern.“

Sie ist nicht die einzige, die uns davon überzeugen will, dass am Ende die Kosten weit höher sein werden als veranschlagt. Gefürchtet wird auch, dass die mittlerweile finanziell angeschlagenen Konzerne das Geld für den Rückbau nicht aufbringen könnten. NABU-Energieexperte Sebastian Scholz warnt: „Die Altlasten der Atomkonzerne drohen zu einem Fass ohne Boden zu werden und es zeigt sich einmal mehr, der Staat und die Allgemeinheit sind die Dummen: Gewinne wurden privatisiert und die Gefahren und Altlasten werden verstaatlicht. Denn bei der wirtschaftlichen Lage der Energiekonzerne kann kaum damit gerechnet werden, dass sie tatsächlich nach dem Verursacherprinzip auch die Kosten schultern.“

Wer AKW-Firmen ausknipst, muss sich nicht wundern, dass kein Geld mehr da ist

Ein Kommentator auf SWR2 beklagt, die Atomkonzerne hätten "über Jahrzehnte satte Gewinne eingefahren“ und „die Stromkunden geschröpft“. Fazit: „Für das Abenteuer Atomkraft werden wir alle teuer bezahlen.“ Sollte es so kommen, dürfen wir die Schuld gewiss nicht nur bei den Konzernen suchen. Warum werden die vier unter Umständen nicht in der Lage sein, die Rückstellungen tatsächlich bereit zu stellen? Weil das notwendige Geld durch den Betrieb von Atomkraftwerken generiert wird.

Wenn man diesen Betrieb unterbindet, darf man sich hinterher nicht wundern, dass das Geld fehlt. Atomausstieg, aber auch die Energiewende insgesamt, die zudem Kohle- und Gaskraftwerke unrentabel hat werden lassen, sind die eigentliche Ursache für die schlechte wirtschaftliche Situation der Stromkonzerne. Wenn man ihnen jetzt vorwirft, sie hätten die Zeichen der Zeit nicht erkannt und seien nicht rechtzeitig auf Erneuerbare umgeschwenkt, dann kritisiert man sie dafür, dass sie zum Nutzen der Verbraucher weiter preiswerten Strom produziert haben, statt Profite mit sehr viel teurerem Ökostrom zu machen, für den sie staatliche garantierte Höchstpreise einstreichen können.

Jahrzehnte lang wurde der Allgemeinheit billiger Strom geliefert

Auch ein weiteres Argument ist zweifelhaft. Die Kernkraftbetreiber hätten Gewinne eingesackt und an ihre Aktionäre weitergereicht, wird geklagt. Wer aber sind diese Aktionäre? Man konnte es aus den Reaktionen sehen, als RWE Anfang des Jahres bekanntgab, erstmals keine Dividenden zahlen zu können. Hart getroffen waren Städte wie Dortmund und Bochum, die viele Anteile halten. EnBW gehört, wie der Name schon sagt, mehrheitlich dem Land Baden-Württemberg (und den Oberschwäbischen Elektrizitätswerken – einem kommunalen Zweckverband).

Atomkraftwerke haben jahrzehntelang billigen CO2-freien Strom geliefert. Es wird auf Profite der Konzerne verwiesen, nicht aber die Ersparnis der Stromkunden. Seit 1961 lieferten die deutschen AKWs insgesamt über 5000 Milliarden Kilowattstunden CO2-freien Strom. Dieser Strom war durchschnittlich 2 Ct billiger als aus anderen Quellen erzeugter. Wir hatten also schon mal eine Ersparnis von rund 100 Milliarden Euro.

Obwohl das immer wieder munter behauptet wird, hat es eine Subventionierung der Atomstromerzeugung  nie gegeben. Lediglich in die Forschung floss Geld. Rechnet man diese Forschungsförderung auf die Stromerzeugung um, kommt man auf eine staatliche Unterstützung von Atomstrom mit 0,18 Ct pro Kilowattstunde. Vergleichen  wir mit Strom  aus Erneuerbaren, bei dem tatsächlich nicht nur die Forschung, sondern auch die kommerzielle Erzeugung massiv unterstützt wird: Hier zahlen wir im Moment über die EEG-Zulage 6,3 Ct pro Kilowattstunde.

Erneuerbare erhalten hundertmal soviel Subventionen wie einst die Kernkraft

Allerdings auf jede Kilowattstunde Strom, die wir kaufen, nicht nur für die aus Erneuerbaren. Die lagen in 2015 bei knapp 30% der gesamten Stromerzeugung. Somit kommen wir pro Kilowattstunde Erneuerbaren-Strom auf über 20 Ct, also mehr als das Hundertfache dessen, was der Atomstrom uns an Subventionen gekostet hat. Ziehen wir noch 20% ab, weil Teile der Industrie von der Zulage befreit sind, bleiben immer noch 16 Cent. Forschungsförderung und Kosten für den Netzausbau sind dabei noch nicht berücksichtigt.

Was aber kommt zusammen, wenn wir jetzt noch Hunderttausende von Jahren den Atommüll sicher verwahren müssen? Die ungelöste Endlagerfrage gilt als schwere Hypothek. Im Deutschlandfunk wird das zum Beispiel so zusammengefasst: „Wenn in vermutlich rund 10 Jahren der letzte deutsche Atommeiler vom Netz geht, werden die Betreiber auf einem stattlichen Berg stark radioaktiven Mülls sitzen. Ungefähr 127 Tonnen Plutonium, 6 Tonnen Neptunium und 14 Tonnen Americium dürften sich bis dahin angehäuft haben. Wohin damit weiß keiner. Weltweit wurde bis heute kein einziges Endlager für solch hochaktiven Strahlenmüll in Betrieb genommen.“

Bedenkt man, dass Plutonium eine Dichte von fast 20 g/cm3 hat, ist der Berg eher kümmerlich. Ein 127 Tonnen schwerer Plutoniumwürfel hat rechnerisch eine Kantenlänge von 1,86 Meter. Auch bei aufwändiger Verpackung ist der benötigte Platz also sehr überschaubar. Zudem gibt es immer weniger Menschen, die eine Endlagerung für nötig oder sinnvoll erachten. Selbst einige Grüne, wie der Minister für Energiewende, Landwirtschaft, Umwelt in Schleswig-Holstein Robert Habeck, glauben nicht mehr an das Konzept eines Endlagers. In einem Interview in der Zeit beschreibt das Verfahren zur Lagerung so simpel, wie es ist: „Wir verschließen die Behälter mit Atommüll sicher, hinter Barrieren aus Gestein, Beton und Stahl. Sie sollten aber zugänglich bleiben.“

Der Atommüll wird für kommende Generationen wieder Rohstoff sein

Was er zu sagen vermeidet, obwohl anzunehmen ist, dass er es weiß: Künftige Generationen müssen sich keineswegs grämen und Tausende von Jahren mit den Hinterlassenschaften des „Atomzeitalters“ herumärgern. Sie werden vielmehr den sogenannten Atommüll als willkommenen Rohstoff nutzen. Denn er enthält noch etwa 98 Prozent der potenziell nutzbaren Energie. Die ZEIT fragt Habeck im Interview: „So ein Endlager müsste strenger bewacht werden als Fort Knox. Was kostet das?" Muss es das wirklich? Werden die deutschen Zwischenlager, wo seit Jahrzehnten die abgebrannten Brennstäbe lagern, strenger bewacht als Fort Knox? Glaubt man wirklich, Terroristen kämen auf die Idee in Deutschland über 100 Tonnen schwere Castoren zu klauen, um sie als Sondertransport per Güterzug und Schiff nach Libyen zu schaffen, wo sie absolut nichts damit anfangen könnten?

Die ominösen Kosten für die aufwändige Endlagerung für Millionen von Jahren sind eine Chimäre. Was heute als „Atommüll“ bezeichnet wird, kann in Schnellspaltreaktoren als Brennstoff eingesetzt werden. Die notwendige Technologie fortgeschrittener Kernreaktoren wird in den nächsten Jahren und Jahrzehnten erprobt. Am Ende bleibt dann nur noch extrem wenig tatsächlicher Müll übrig, von dem 80% nach Jahrzehnten und der Rest nach etwa 300 Jahren unschädlich ist.

Vergessen wir also die Idee der „Endlagerung“ und fangen wir an, eine sinnvolle Nutzung vorzubereiten. Im Moment werden verschiedene Reaktortypen entwickelt, die in der Lage sein werden, Atommüll  als Brennstoff zu nutzen, etwa der von der Firma Terrapower (unter Vorstandsvorsitzendem Bill Gates) konzipierte Laufwellenreaktor, der nach einem jüngst geschlossenen Abkommen bis 2024 in China gebaut werden soll, oder Flüssigsalzreaktoren, beispielsweise von der Firma Transatomic Power, dem Berliner Institut für Festkörper-Kernphysik, der dänischen Firma Seaborg, der kanadischen Terrestrial Energy oder dem Shanghai Institute of Applied Physics, das in einer Kooperation mit dem U.S. Department of Energy bis 2020 einen Prototypen bauen will. Wer nicht darauf warten will, bis diese neuartigen Reaktoren marktreif sind, kann auch heute schon bei der Firma GE Hitachi einen PRISM Reaktor bestellen, der Plutonium verbrennt. Der ehemalige Geschäftsführer von Greenpeace UK, Stephen Tindale fasst die Vorteile so zusammen: „Der von GE-Hitachi angebotene PRISM Reaktor ist ein Reaktor der vierten Generation, der CO2-freie Energie liefert, indem er mit Plutonium und auf Halde liegenden verbrauchten Brennstäben betrieben wird. So kann man gleichzeitig die Atommüll- und die Klimaproblematik bewältigen.“

Schon in Betrieb ist der russische Atommüllverbrenner BN-800, der auch Plutonium aus ausrangierten Atombomben verbrennt. Machen wir uns also keine allzu großen Sorgen um die Abwicklung des Atomzeitalters. Noch ist Deutschland auf einem Sonderweg. Doch es ist wenig wahrscheinlich, dass wir in den nächsten Jahrzehnten stur auf diesem verharren werden. Die Endlagerfrage wird dann ein interessantes Thema für Historiker.

Thilo Spahl ist Diplom-Psychologe und lebt in Berlin. Er ist freier Wissenschaftsautor, Mitgründer des Freiblickinstituts und Novo-Argumente Redakteur, wo dieser Beitrag zuerst erschien.




Glückliche Schwarze im Schein einer Solarlampe als neokolonialer Traum

Sehr deutlich formuliert es der philanthropische Start-up-Unternehmer Lars Krückeberg in einem TEDx-Talk: „16 Prozent der Weltbevölkerung leben ohne Stromanschluss. Sie haben keinen Strom. Und sie werden keinen Strom haben. Es ist einfach zu teuer, Straßen und Stromleitungen zu diesen ländlichen Gebieten zu bauen. Es wird niemals geschehen.“ Niemals! Der erfolgreiche Architekt Krückeberg will diesen „Off-Grid-Menschen“ helfen und hat daher die Firma Solarkiosk gegründet. Ihr Produkt ist eine kleine Bude mit Solarzellen auf dem Dach, die als eine Art Stromtankstelle dient. Die Rotterdam School of Management an der Erasmus-Universität hat das Berliner Unternehmen dafür mit dem Erasmus Energy Business Award 2015ausgezeichnet. Im Februar hatte die Firma auch schon den „Zeit Wissen-Preis Mut zur Nachhaltigkeit“ erhalten.

Solarkioske sind ein Tropfen auf den heißen Stein

In der Begründung besonders hervorgehoben wird, dass durch die Solarkioske CO2-Emissionen aus der Verbrennung von Holz reduziert und der Entwaldung vorgebeugt werde. Es wird also gleichermaßen Mensch und Planet geholfen. (Wobei, nebenbei bemerkt, auffällt, dass bei uns die Verbrennung von Holz in den Bereich der klimaneutralen, also „guten“ erneuerbaren Energien gezählt wird und in Deutschland mittlerweile zum Zwecke des Klimaschutzes in Kraftwerken Holz verbrannt wird, das eigens dafür aus Afrika importiert wird.) Tatsächlich ist den extrem armen Menschen geholfen, die über die mittlerweile über 100 Kioske Zugang zu etwas Elektrizität erhalten.

Wenn wir aber auf der Website von Solarkiosk erfahren, dass ein Kiosk 7500 Menschen „versorgt“, können wir ermessen, dass die Hilfe sehr bescheiden ist. Rechnerisch kommt jeder Mensch auf 0,36 Kilowattstunden (kWh) pro Jahr. Damit kann man eine 40-Watt-Lampe neun Stunden brennen lassen oder sein Samsung Galaxy S5 immerhin 33 Tage betreiben. Der Pro-Kopf-Stromverbrauch in Deutschland liegt bei knapp über 7000 kWh im Jahr, ist also gut 20.000-mal so hoch. Der Durchschnitt in Subsahara-Afrika (Südafrika ausgenommen) liegt bei 150 kWh. Noch bescheidener sind Projekte wie „Little Sun“, ein von einem Künstler gestaltetes kitschiges Solar-LED-Lämpchen, das mit dem Greentec Award 2015 ausgezeichnet wurde, weil es angeblich gleichzeitig Licht zu den Ärmsten bringe und ein begehrtes Kunstobjekt sei.

Viele Menschen glauben, dass der globale Energieverbrauch schon viel zu hoch sei und uns dies letztlich in die (Klima-)Katastrophe führen wird. Wenn sie sich spontan ein ideales Afrika ausmalen, dann ist es ein Kontinent, wo Eingeborene mit deutscher Unterstützung in kleinen, solarifizierten Öko-Dörfern ein würdevolles einfaches Leben in Einklang mit der Natur führen, ohne dem Planeten Böses zu tun. Ein Leben, das die wohlmeinenden westlichen Off-Grid-Fans freiwillig jederzeit beginnen könnten, es aber nicht tun, woraus man schließen kann, dass es so erstrebenswert wohl nicht ist. Ein Leben, das aus westlicher Sicht offenbar gut genug für Afrikaner ist, mehr aber nicht. Doch diese Fiktion hat mit der Realität nichts zu tun.

Die Afrikaner als Energie-Hobbits

Die Menschen in Afrika sind entschlossen, den Weg einzuschlagen, der zu Wohlstand nach westlichem Vorbild führt. Immer mehr Afrikaner wohnen nicht abgelegen im Busch, sondern in Millionenstädten. Afrika zählt 46 davon, Europa lediglich 23. Und sie wissen, dass der wichtigste Schritt auf dem Weg in diese bessere Zukunft eine umfassende, verlässliche Elektrizitätsinfrastruktur ist, die dafür sorgt, dass jeder 24 Stunden am Tag seinen Strom aus der Steckdose bekommt. Die Partner, die ihnen beim Aufbau helfen, kommen aus Japan, China, Indien, Südkorea, Russland und Brasilien. Ganz selten aus Europa.

Die Liste der afrikanischen Kraftwerksprojekte ist lang: Algerien hat von 2011 bis 2013 seine Erzeugungskapazität um ein Drittel erhöht und will sie bis zum Jahr 2017 nochmal verdoppeln. Dazu baut das Land unter anderem sechs Gaskraftwerke. 99 Prozent der Bevölkerung haben bereits Zugang zum Stromnetz. 5 Ägypten will die Energieerzeugung bis 2020 auf rund 60 GW (Gigawatt) verdoppeln. Anfang des Jahres wurde u.a. vereinbart, gemeinsam mit Russland vier Atomreaktoren zu bauen 6, im Juni mit Siemens ein Vertrag über den Bau eines 4,4-GW-Gaskraftwerks geschlossen und im August die Entdeckung des großen Gasfelds Zohr vor der ägyptischen Mittelmeerküste bekannt gegeben. Dank des Gasfelds möchte das Land ab 2020 auf Importe verzichten. In Angola wurde die Kapazität seit Ende des Bürgerkriegs 2002 verdoppelt, aber noch immer haben nur 30 Prozent der Menschen einen Stromanschluss. In 10 Jahren sollen es doppelt so viele sein. 70 Prozent der Elektrizität kommen aus Wasserkraftwerken, 15 weitere sollen gebaut werden.

Das wichtigste ist der Laúca-Damm in der Provinz Kwanza Norte, eine Investition von gut vier Milliarden US-Dollar, die bereits im Jahr 2017 zwei Gigawatt Strom erzeugen soll. 8 Auch Uganda plant drei große Wasserkraftwerke mit insgesamt 1,4 Megawatt Kapazität. In Libyen hat sich die Erzeugung von 2000 bis 2010 verdoppelt. Vor Ausbruch des Bürgerkriegs und den westlichen Luftschlägen hatten auch auf dem Land 99 Prozent der Bevölkerung Zugang zu Strom. In Mosambik wird gerade das erste Kohlekraftwerk des Landes gebaut, um die großen heimischen Kohlevorkommen nutzen zu können. Außerdem wurden in den letzten Jahren enorme Erdgaslagerstätten entdeckt. Bisher haben nur 20 Prozent der Menschen Zugang zu Elektrizität, die hauptsächlich vom in den 1970er-Jahren errichteten Cahora-Bassa-Staudamm stammt.

Ghana baut ein Atomkraftwerk mit russischer Hilfe

In Nigeria, dem Powerhouse und größten Erdölproduzenten Afrikas, ist die Stromversorgung extrem schlecht. Rund sechs Gigawatt müssen für eine Bevölkerung von 180 Millionen Menschen reichen. Im Jahr 2013 wurden die Kraftwerke des Landes privatisiert. Bis zum Jahr 2020 soll sich die Kapazität vervierfachen. Südafrika produziert mit einer installierten Kapazität von 26 GW mit Abstand den meisten Strom. Knapp 12 GW sollen in den nächsten Jahren hinzukommen. In Ghana hatten im Jahr 1990 nur 15 Prozent der Menschen einen Stromanschluss, in 2016 sollen es 93 Prozent sein. Im Juni vereinbarte das Land mit Russland eine Zusammenarbeit zum Bau eines Atomkraftwerks. Es will außerdem zum Zentrum der Ausbildung im Bereich der Nukleartechnik in Afrika werden.

Äthiopien ist dabei, die Stromerzeugung massiv auszubauen, um als regionaler Versorger auch Sudan und Kenia zu beliefern. Das Wasserkraftpotenzial des Landes wird auf 46 GW beziffert. Allein der Grand-Renaissance-Damm soll 6 GW liefern, die fünf Staustufen des Flusses Omo, Gilgel Gibe 1–5, rund 4,6 GW. Aber auch Kenia hat ambitionierte Ausbauziele und will unter anderem bis zum Jahr 2020 das erste Atomkraftwerk fertigstellen. Das weltweit weitaus größte Projekt ist der Grand-Inga-Damm im Kongo, der eine Leistung von 40 GW haben soll, mehr als alle heute existierenden afrikanischen Wasserkraftwerke zusammen.

Ehrgeizige Ausbaupläne bei Solar und Wind sind eher selten. Eine Ausnahme bildet Marokko. Das Land will den Anteil von weniger als vier Prozent im Jahr 2011 auf 42 Prozent im Jahr 2020 steigern. Dass die meisten Länder freiwillig kaum auf Wind und Sonne setzen, ist verständlich. Die Kosten sind selbst für den sonnenverwöhnten Kontinent zu hoch. Nach einer Schätzung des Center for Global Development kann mit Investitionen von zehn Milliarden US-Dollar in erneuerbare Energien eine Elektrizitätsversorgung für 30 Millionen Menschen aufgebaut werden. Der gleiche Betrag in Gaskraftwerke investiert würde jedoch 90 Millionen Menschen Zugang zu Elektrizität ermöglichen.

Gas versorgt dreimal soviel Menschen wie Solar und Wind – fürs gleiche Geld

Die Liste lässt sich fortsetzen. Das Potenzial für die Stromerzeugung ist sowohl im fossilen Bereich mit vielen nicht erschlossenen Gas-, Öl- und Kohlevorkommen als auch bei den Erneuerbaren, allem voran der Wasserkraft, riesig. Einer Studie von McKinsey zufolge verfügt Afrika südlich der Sahara (ohne Biomasse, Solar- und Nuklearenergie) über ein Erzeugungspotenzial von 1200 GW.16 Es gibt also viel Luft nach oben. Um ganz Afrika auf das Niveau von Südafrika zu bringen, wären ungefähr 1000 Gigawatt Kraftwerkskapazität notwendig, also etwa 1000 mittelgroße Kraftwerke. Wenn sich Investoren finden, kann Afrika die Stromversorgung zügig massiv ausbauen. Dass das machbar ist, haben wir in vielen Ländern gesehen. Im Jahr 1970 hatten nur rund 300 Millionen Chinesen Zugang zu elektrischer Energie, heute sind es eine Milliarde mehr. In Thailand hatten im Jahr 1980 nur rund 25 Prozent der Menschen Zugang, zehn Jahre später waren es schon über 90 Prozent und kurz vor der Jahrtausendwende 100 Prozent. In Südafrika waren es im Jahr 1990 noch weniger als 40 Prozent, heute sind es rund doppelt so viele.

Dass sich solche Investitionen lohnen, steht ebenfalls außer Frage. Mit der Stromversorgung erhöht sich die Produktivität der Menschen enorm. Abnehmer gibt es auch heute schon genug. Denn die sehr schlecht ausgebauten Energiesysteme bedeuten nicht notwendig, dass die Menschen keinen Strom benutzen. Schließlich kann praktisch kein Unternehmen ohne auskommen. Es bedeutet oft, dass sie sehr teuren Strom nutzen, da sie ihn notgedrungen mit Dieselaggregaten zum vielfachen Preis selbst produzieren. In Kenia besitzen 57 Prozent aller Betriebe solche Generatoren, in Tansania 42 Prozent und in Äthiopien 41 Prozent.

Laut der Internationalen Energieagentur (IEA) müssten rund 300 Milliarden US-Dollar investiert werden, um den allgemeinen Zugang zu Elektrizität in Afrika bis zum Jahr 2030 aufzubauen. McKinsey beziffert die notwendigen Investitionen bis 2040 für eine Vervierfachung der Stromerzeugung in Subsahara-Afrika auf 490 Milliarden US-Dollar. Das ist deutlich weniger Geld als Deutschland für die Ökostromumlage ausgibt. Der Nutzen wäre aber unvergleichlich viel größer.

Nicht nur deutsche Start-ups, auch die US-Regierung und andere westliche Organisationen fokussieren immer mehr auf kleine Projekte. Mitte des Jahres 2013 hat Präsident Obama die „Power Africa Initiative“ ins Leben gerufen. Im Juni 2014 startete die „Beyond the Grid“-Subinitiative, die auf kleinteilige Lösungen ohne Netzanbindung setzt. Allein die Bebilderung des Jahresberichts 2015 der „Power Africa“-Initiative spricht Bände. 18 Auf dem Titel sitzen einige Schwarze im Schein des Bildschirms eines alten Laptops in einer dunklen Hütte. Im Innenteil sind fünf Bilder von Solarpanels, fünf Fotos von glücklichen Menschen mit spärlicher Beleuchtung bei Nacht und viermal Menschen bei Bau- oder Montagearbeiten. Aber kein einziges Kraftwerk.

Glückliche Schwarze im Schein einer Solarlampe als neokolonialer Entwicklungstraum

„Beyond the Grid“ hört sich sehr fortschrittlich an. Auch hierzulande schwärmen Menschen davon, dass in Zukunft jeder seinen Strom selbst erzeugen kann und das alte System der großen Kraftwerke und Energienetze überwunden wird. Solche romantischen Ideen sind aber grundfalsch. Wenn man eine effiziente und verlässliche Energieversorgung möchte, gilt nach wie vor: Grid is King. Auch Afrika braucht große Kraftwerke und ein Stromnetz, das alle erreicht.

Wie soll die Bevölkerung auf dem Land versorgt werden? Größtenteils wahrscheinlich so, wie es auch bei uns geschehen ist: Indem die Menschen in die Städte oder Ballungsräume ziehen und dort ans Netz angeschlossen werden. Die Urbanisierung ist real und positiv. Nicht die Versorgung entlegener Dörfer, sondern die der großen Millionenstädte ist die Herausforderung. Dies gelingt am besten durch eine Energieerzeugung mit großen Kraftwerken, die in den Zentren großen Verbrauchs ein stabiles Netz versorgen.

Wer in kleinen Dörfern fernab der Städte bleibt, muss mit kleinen, teureren Lösungen leben, hat aber heute technisch mehr Möglichkeiten als früher. Robuste und leistungsfähige Off-Grid-Systeme sehen anders aus als die Solarkioske und Little-Suns. Off-Grid heißt zunächst, dass man nicht an ein überregionales Netz angeschlossen ist. Das Ziel muss aber dennoch sein, in seinem Zuhause Strom aus der Steckdose zu bekommen. Dies geschieht heute vor allem mit ineffizienten und sehr teuren Dieselgeneratoren. Die kann man mit Wind oder Solaranlagen sinnvoll ergänzen zu Hybridanlagen, die dann eine kleinere Zahl von Haushalten verlässlich versorgen. In vielen afrikanischen Ländern gibt es entsprechende Off-Grid-Entwicklungspläne. Für größere Kommunen kommen auch kleine Gaskraftwerke in Frage oder Mini-Kernreaktoren, die als kompakte, hermetisch abgeschlossene Einheiten geliefert werden, 30 Jahre kontinuierlich und wartungsfrei Strom produzieren, ohne dafür neuen Brennstoff zu benötigen, und dann wieder abtransportiert und rezykliert werden können.

Menschen leiden täglich unter Energiearmut – der Klimawandel spielt keine große Rolle

Klimaschutz ist heute das große globale Ziel, um das sich aus westlicher Sicht alles dreht. Eine weltweite verlässliche Energieversorgung für alle Menschen ist ein anderes. Welches ist wichtiger? Wir sollten wenigstens damit beginnen, ernsthaft darüber nachzudenken. Schon heute leiden angeblich Milliarden Menschen unter den Folgen des Klimawandels, hören wir immer wieder: Stürme, Hitze und andere Wetterextreme. Die Belege dafür sind von zweifelhafter Qualität. Eine andere Aussage lautet: Noch heute leiden vier Milliarden Menschen tagtäglich unter den Folgen unzureichender Energieversorgung. Diese Tatsache ist vollkommen unzweifelhaft und das Leiden ein vielfältiges. Energiearmut führt unmittelbar zu unzureichender Wohnqualität, Ernährung, Gesundheit, Bildung, Mobilität. Sie führt auch zu einer gering ausgeprägten Fähigkeit, sich vor Naturkatastrophen und Wetterextremen zu schützen. Und letztlich auch zu weniger Naturschutz. Wo achtmal so viel Land gebraucht wird, um die gleiche Menge Getreide zu erzeugen, und statt fossiler Energieträger Holz verheizt wird, braucht man sich über die Abholzung von Wäldern und den Rückgang der Artenvielfalt nicht zu wundern.

Ohne Frage sollten wir große Anstrengungen unternehmen, unsere Energieversorgung effizienter und umweltverträglicher zu gestalten. Wir dürfen aber das primäre Ziel nicht aus den Augen zu verlieren, die globale Energieversorgung massiv auszuweiten. Aus welchen Quellen kann der große Nachholbedarf Afrikas gedeckt werden? Der Anteil an Erneuerbaren am Primärenergieverbrauch beträgt heute in Afrika etwa 50 Prozent und wird hauptsächlich durch Brennholz gedeckt, in Asien (Nicht-OECD-Länder) und Südamerika sind es 30, in der EU und Deutschland etwa zehn und in den USA fünf Prozent. Die Richtung, die Afrika gehen muss, ist klar: weg von den alten Erneuerbaren, hin zu fossiler und Nuklearenergie und teilweise zu den neuen Erneuerbaren. Afrika hat größere Gasvorkommen als die USA, fördert aber nur ein Viertel so viel, wovon das meiste exportiert wird. Gas wird daher in den nächsten Jahrzehnten die dominante Rolle spielen. Nach den McKinsey-Prognosen wächst die Erzeugung aus Gas von 28 TWh (Terawattstunden) im Jahr 2010 auf 710 TWh in 2040, Kohle würde von 225 auf 371 ansteigen, Wasser von 92 auf 256, Solar von Null auf 127, wobei das Wachstum vor allem nach dem Jahr 2030 zu erwarten sei, wenn die Solarzellen  effizient genug geworden sein soll.

Beim Klimaschutz muss man der Realität ins Auge blicken. Die Vorstellung diverser Öko-Visionäre, zugunsten des Klimaschutzes den weltweiten Energieverbrauch auf dem heutigen Niveau zu halten oder gar zu senken, ist absurd und beinhaltet die klammheimliche Hoffnung, dass Afrika arm und unterentwickelt bleibt. Um bis zum Jahr 2035 die Energieverfügbarkeit pro Kopf weltweit auf das Niveau von Bulgarien zu bringen, wäre ein Anstieg um 88 Prozent nötig. Das hieße aber auch, dass wir in Deutschland auf bulgarisches Niveau absinken. Das fänden die meisten sicher nicht lustig. Um auf deutsches Niveau zu kommen, sind 200 Prozent Steigerung notwendig. Das ist noch weit entfernt vom US-Niveau (460 Prozent Zuwachs), aber doch recht ambitioniert. 20 Global gesehen müssen wir also verdoppeln oder verdreifachen. Ein nur moderater Anstieg wäre ein katastrophales Versagen. Unser Ziel kann es nicht sein, die Welt dadurch zu retten, dass ein Großteil der Menschen arm bleibt. Energiearmut kann nicht der Preis für Klimaschutz sein. Andere Lösungen sind erforderlich und werden durch den weiteren technischen Fortschritt auch zu finden sein.

Eine energiearme Welt ist auch eine kulturell arme Welt

Ein wichtiger Schritt für Afrika ist die Entwicklung einer modernen Landwirtschaft. Dazu gehören Traktoren, Erntemaschinen, Dünger, Bewässerung, Kühlhäuser, die erhebliche Mengen an Energie benötigen. Wie bei uns vor 50–100 Jahren werden sie zu einer elementaren Befreiung der Menschen führen und enorme neue Möglichkeiten eröffnen. Männer, Frauen und Kinder können sich, statt auf dem Feld zu ackern, der Bildung und der Entfaltung ihrer kreativen Möglichkeiten in privaten und geschäftlichen Aktivitäten aller Art widmen. Sie können der Gesellschaft, nicht anders als bei uns, als Industriearbeiter, Handwerker, Ärzte, Wissenschaftler, Ingenieure, Lehrer, Programmierer, Filmproduzenten, Künstler und so weiter zu Reichtum verhelfen, von dem alle profitieren. Ohne umfassende und schnell wachsende Energieversorgung können sie all das nur in weitaus geringerem Maße. Eine energiearme Welt ist auch eine kulturell arme Welt.

Wir brauchen im Energiesektor Innovation. Die findet vor allem dort statt, wo im großen Stil neue Energieerzeugungskapazität aufgebaut wird. Es ist also die Mission der Entwicklungs- und Schwellenländer, die Energiesysteme der Zukunft zu entwickeln, zu erproben und in großem Maßstab zu implementieren. China hat nicht nur die Führung in der Solarenergie übernommen, es ist auch das Land, in dem saubere Kohlekraftwerke und neue Typen von Kernreaktoren entwickelt werden, die die bei uns genutzte, ein halbes Jahrhundert alte Technologie in Hinblick auf Sicherheit und Effizienz weit übertreffen können.

Die vornehmste Aufgabe der entwickelten Länder ist es, Technologien und Know-how zur Verfügung zu stellen und in Projekte zum Aufbau einer effizienten Energieversorgung sowie einer modernen Landwirtschaft und Gesundheitsversorgung zu investieren. Der Rest wird sich auch in Afrika von allein entwickeln. Natürlich nicht ohne Fehler, Irrwege und Ungerechtigkeiten, aber letztlich zum Vorteil und zum Wohle von Hunderten von Millionen von Menschen. Menschen, die so leben wollen wie wir und denen niemand das Recht dazu absprechen kann.

Afrika ist im Aufbruch. In Afrika finden sich 9 der 15 wachstumsstärksten Nationen der Welt. Ein entscheidender Faktor für den Erfolg ist der schnelle, massive Ausbau der Energieversorgung mit all seinen positiven Auswirkungen, allen voran die, Hunderten von Millionen von Menschen die Chance zu geben, in produktiven Tätigkeiten ihr kreatives Potenzial zu entfalten.Was gut genug für Afrika ist, sollten wir daran messen, was gut genug für uns ist. Und gut genug für uns ist ohne Zweifel nur eine 100-prozentige Verfügbarkeit von Strom in beliebigen Mengen 24 Stunden am Tag und 365 Tage im Jahr.

Thilo Spahl ist Ressortleiter Wissenschaft bei NovoArgumente wo dieser Beitrag zuerst erschien erschien (hier). Dort finden Sie auch eine umfangreiche Linkliste mit Quellenangaben und weiterreichenden Informationen.




Kohlenstoff-(halb-)Kreislauf und Kinder

Ich habe kürzlich für das EIKE einen Beitrag aus den USA übersetzt, in dem die Ergebnisse einer Umfrage unter Lehrern naturwissenschaftlicher Fächer an Schulen in den USA vorgestellt werden. Das hat mich auf die Idee gebracht, einmal darüber nachzudenken, ob man nicht doch die (Nicht-)Zusammenhänge mit CO2 und Klima so einfach darstellen kann, dass auch Kinder im Grundschulalter sie verstehen. Tatsächlich habe ich mir einen solchen Gedankengang ausgedacht, den ich mal hier vorstellen möchte. Er richtet sich auch an alle Gläubigen des Klima-CO2-Dogmas, die mir mal erklären müssten, was an dem Gedankengang nicht stimmt.

Also möchte ich jetzt mal so tun, als stünde ich vor einer Klasse interessierter Kinder. Da an vielen Grundschulen die CO2-Problematik ein Thema war, gehe ich davon aus, dass die Kinder zumindest schon davon gehört haben, und was für ein „gefährlicher“ Stoff dieses CO2 ist. Er steckt im Benzin, in Kohle und Erdöl.

Diese Stoffe stecken ja im Boden und müssen von dort gefördert werden. Es gibt Kampagnen, denen zufolge man „das CO2 im Boden lassen sollte“.

Erste Frage: Wie kam das überhaupt CO2 in den Boden?

Antwort: Die fossilen Reserven sind ja das Ergebnis von zerfallenen prähistorischen Pflanzen, die mittels komplizierter Prozesse im Boden zu diesen Stoffen geworden sind. Kurz, das CO2 ist also in Gestalt dieser Pflanzen in den Boden gelangt. Daraus folgt die

zweite Frage: Wo aber haben die Pflanzen zu ihren Lebzeiten das CO2 hergenommen?

Antwort: Aus der Luft natürlich! Ohne CO2 können Pflanzen nun einmal nicht existieren.

Fazit: Es muss also in grauer Vorzeit, vor der Entwicklung der Flora, ein gigantischer CO2-Vorrat in der Luft gewesen sein, sicher die zehnfache Menge des heutigen Gehaltes. Sonst hätten sich die Pflanzen ja nicht entwickeln können, oder? Und daraus ergibt sich die

dritte Frage: Heute heißt es ja, dass die Erde und damit wir alle schon bei einer Verdoppelung des heutigen CO2-Gehaltes der Luft (was wir nie erreichen können) den Hitzetod sterben würde. Komisch – als damals die zehnfache Menge CO2 in der Luft enthalten war, ist die Erde nicht den Hitzetod gestorben, sondern das Leben ist explodiert.

Wie passt das zusammen?

Zusammenfassung:

● CO2 kam durch Pflanzen aus der Luft in den Boden.

● Die Pflanzen haben dieses CO2 seinerzeit der Luft entnommen.

● Der CO2-Gehalt der Luft war zu jener Zeit mindestens zehnmal so hoch wie heute.

● Die Erde ist damals keineswegs den Hitzetod gestorben, sondern das Gegenteil war der Fall.

● Warum sollte dann die Erde heute den Hitzetod sterben bei einem nur zweimal so hohen Gehalt wie heute?!

Man sieht, die Natur hat etwas gemacht, dass heute angeblich den Menschen vorbehalten sein soll: Sie hat sich selbst weitgehend dekarbonisiert. Dieser Prozess der natürlichen Dekarbonisierung ist natürlich weiterhin im Gange, und irgendwann hätte sich die Natur selbst den Ast abgesägt, auf dem sie sitzt.

Und deswegen steht auch in der Überschrift „Kohlenstoff-(halb-)Kreislauf: Den Kindern wird nur beigebracht, wie das CO2 aus dem Boden die Luft „verpestet“. Wie es dort hinein gekommen ist, wurden meines Wissens dagegen noch nie gelehrt, weder Kindern noch Erwachsenen.

Wenn man sich das alles vor Augen führt, ist es dann nicht ein Verbrechen gegen das Leben schlechthin, wenn wir der Natur und dem Leben diesen Stoff NICHT zurückgeben, obwohl wir dazu in der Lage sind?

Schlussbemerkung: Noch viel mehr Kohlenstoff als in den fossilen Quellen ist ja in den gewaltigen Massen von Kalkstein und Schiefer gebunden. Dieser Kohlenstoff war ja auch mal in der Luft, ist aber jetzt auf absehbare Zeit für immer der Natur entzogen!

Dieser Beitrag steht hier auch auf meiner Website und ist eine Ergänzung zu einem früheren Beitrag ebenda. Man kann dort auch kommentieren. Außerdem möchte ich mir vorbehalten, gute Kommentare zu diesem Beitrag auf dieser Website unter meinen Beitrag auf meiner Website zu setzen.

© Chris Frey April 2016




Mein Tschernobyl

Vor kurzem war ich im Kernkraftwerk Grohnde im Weserbergland auf der Warte dabei, während der Block zur Revision abgefahren wurde. Der Abfahrplan eines Leistungskernkraftwerks zieht sich über mehrere Tage hin, aber die erste Spät- und Nachtschicht ist immer die spannendste – Stunden voller Konzentration und intensiver Arbeit, in denen sich in der Regel über zwanzig Leute gleichzeitig im Raum aufhalten und an unterschiedlichen Stellen parallel arbeiten, beim Abfahren der Systeme und bei Tests und Wiederkehrenden Prüfungen (WKP), die nur unter diesen Transienten und in diesem Anlagenzustand durchgeführt werden können.

Kernkraftwerk Tschernobyl, Blöcke 3 und 4 (links), von Süden aus gesehen. Fotografiert 10 Tage vor dem Unfall von Elektromonteur Ivan Zholud.


Mitten in dieser Situation, irgendwann nach ein Uhr nachts – der Generator war planmäßig kurz nach Mitternacht vom Netz getrennt, die Turbine abgeschaltet, der Reaktor abgefahren und bei geringer Leistung von Hand schnellabgeschaltet worden – dachte ich plötzlich an Tschernobyl: »Es ist April, es sind die ersten warmen Tage des Jahres, es ist eine Nacht von Freitag auf Samstag, wir fahren einen Kernreaktor zur Revision ab, und führen Testprogramme durch. Es ist fast dieselbe Stunde, als es geschah.«

Um ungefähr zwei Uhr verließ ich die Warte und ging vor das Reaktorgebäude, unter die Armaturenkammer, weil ich die Tests der Frischdampf-Sicherheitsventile von außen beobachten wollte. Es war stockfinster, windstill und kalt, und ich erschrak fast, als der Dampf mit 80 bar Druck und lautem Fauchen in den Nachthimmel abgeblasen wurde. Die Momente sind selten, in denen man mit den eigenen Sinnen, nicht nur vermittelt durch Messgeräte und Anzeigen, erfassen kann, welche Energien in einem Kernreaktor umgesetzt werden. Dies war so ein Moment. Ich dachte daran, dass auch damals in Tschernobyl viele Leute nach ihrer eigenen Schicht wegen des Abfahrens und der Tests im Kraftwerk geblieben waren, auch wenn sie selbst keine Arbeitsaufgaben hatten. Sie wollten bei den seltenen Prozeduren dabei sein und die geschäftige Spannung auf der Warte miterleben, und sie wollten dabei etwas lernen.

Der Unfall als Grenzerfahrung

Damit enden die technischen Parallelen zwischen der Druckwasserreaktor-Anlage Grohnde und dem grafitmoderierten Druckröhren-Siedewasserreaktor RBMK 1000 im Block 4 des KKW Tschernobyl – einer der Tests, die in Tschernobyl in der Abfahrnacht durchgeführt wurden, endete in einem Reaktivitätsstörfall mit prompt-kritischer Leistungsexkursion und der Totalzerstörung der Anlage. Und in den folgenden Momenten war die elementare Erfahrung der Beteiligten, dass sie zunächst ihren Messgeräten und selbst den eigenen Sinnen nicht trauen wollten. Was die Messgeräte anzeigten, erschien zu schrecklich, um wahr sein zu können – die Strahlungswerte jenseits der Skala, die Steuerstäbe auf der Hälfte des Reaktorkerns steckengeblieben, viele Anzeigen erloschen und auf Null gefahren.

Hinzu traten die Sinneserfahrungen, die das Ausmaß des Unglücks schließlich ins Bewusstsein vordringen ließen – die durch Verbrühungen und Strahlung tödlich Verletzten, die während der Arbeiten zur Eingrenzung des Unglücks buchstäblich umfielen vor Schmerzen und Erschöpfung; die Trümmer in den Betriebsräumen, das Grafit unter den Schuhsohlen draußen vor dem Block, das sinnlos aus abgerissenen Leitungen auf die Ruine fließende Wasser, der himbeerrote Schein am Abend des Unfalltages, als Brände im zerstörten Reaktorgebäude wüteten. Die Sinne erfassten bald das Ausmaß des Unglücks, wie die Augenzeugen berichten – der Geist brauchte lange, um den Schock zu verarbeiten, und zu begreifen, was da eigentlich schiefgelaufen war. Der Schock von Tschernobyl war für die sowjetische, später russische und ukrainische Atomindustrie der Beginn eines schmerz- und verlustreichen Transformations- und Umdenkprozesses, der sich über Jahrzehnte hinzog.

»Mein« Tschernobyl

Trotzdem sind Tschernobyl und Grohnde für mich mit einem unsichtbaren Faden verbunden. Nicht nur, dass Grohndes vorzeitiges Ende, besiegelt durch den deutschen Atomausstieg, zwar direkt auf die Ereignisse von Fukushima, indirekt aber auch auf jene von Tschernobyl zurückgeht, weil sich bereits damals die deutsche Atomangst und -kritik formierte und die Diskurse eroberte. Sondern auch, weil für mich selbst aus Tschernobyl auf verschlungenen Wegen, und im Nachhinein einer strengen Logik folgend, auch Grohnde folgte.

Gäbe mir eine wunderbare Macht einen Wunsch frei, dann würde ich mir das Heile und das Ganze für Tschernobyl zurückerbitten, so wie es auf dem Foto zu sehen ist – dem letzten Foto, das die Anlage Tschernobyl 3 und 4 in unbeschädigtem Zustand zeigt, zehn Tage vor dem Unfall. Ich würde es mir wünschen, und damit die Entscheidung fällen, dass auch mein eigenes Leben anders verlaufen wäre. Stephen King hat dieses Thema der potenziellen Lebensweg-Parallelen in seinem Meisterwerk »Der Anschlag« verarbeitet. Mein Leben, wenn ich es mir als Teilchen auf seiner Flugbahn vorstelle, hat durch den Zusammenstoß mit dem energiereichen Teilchen von Tschernobyl einen Impuls und eine wesentliche Richtungsänderung erfahren.

1986 war ich auf einem genuin westeuropäischen Lebensweg unterwegs, mit Studienplänen in Frankreich und Forschungsinteressen in der Geschichte der Sozialdemokratie – und einem nach wie vor regen Interesse an Technik und Naturwissenschaften, das mich auch eine Zeitlang hatte zögern lassen, ob ich überhaupt Historikerin werden wollte. Mitten auf diesen Lebensweg fiel wie ein eiserner Meteorit aus heiterem Himmel das Ereignis von Tschernobyl, das mir schlaglichtartig klar machte, dass es östlich von uns Menschen, politische Verhältnisse, technische Systeme gibt, von denen wir nichts wussten oder nichts wissen konnten, da alles hinter dem Eisernen Vorhang verborgen war.

Aber das war nicht sofort so. Meine erste Konfrontation mit Tschernobyl war sonderbar. Ich erinnere mich an meinen ersten Gedanken beim Anblick des ersten Fotos des zerstörten Kraftwerksblocks – wie ich später erfuhr, eins der Schadensaufnahmefotos des Kraftwerksfotografen, aufgenommen aus gut 800 Meter Entfernung. Mein erster Gedanke kam mir irgendwie fehl am Platze vor, weil alle um mich sehr betroffen waren und, es muss der 30. April oder 1. Mai gewesen sein, die Strahlenängste im eigenen Land schon Fahrt aufnahmen.

Gleichwohl konnte ich ihn nicht verhindern, den ersten, überhaupt nicht angemessenen Gedanken. Ich dachte: »Sonderbar, so sieht also dort ein Kernkraftwerk aus. Kann so ein Kernkraftwerk aussehen?« Ich dachte an die weißen Kuppeln der westdeutschen Anlagen, die ich auf Bildern oder beim seltenen Vorbeifahren gesehen hatte. Ich wusste mehr von der Kernenergie als meine Altersgenossen, weil ich schon als Kind gerne Bücher über Technik gelesen hatte. Mein erster Reaktor war der plutoniumproduzierende Uran-Grafit-Reaktor von Professor Bienlein/Tournesol im Tim-und-Struppi-Band »Reiseziel Mond«, der friedlichen Raketenbrenstoff herstellte und in mir im Alter von acht Jahren das Fundament einer Grundsympathie für solche Anlagen gelegt hatte. Diese stand in einem gewissen Spannungsverhältnis zu meinem halbwüchsigen linken Engagement, zu dem irgendwie unhinterfragt gehörte, auch gegen Atomkraft zu sein.

Auf den ersten Bildern von Tschernobyl sah ich ein Industriegebäude, das mich an jene erinnerte, wie ich sie vorher mal auf den Fotos der von mir verehrten Fotografen Bernd und Hilla Becher gesehen hatte, kantig und streng symmetrisch, mit einem Abluftkamin, den ein konstruktivistisches Stahlskelett umgab, eine echte Landmarke. Aber dem Doppelreaktorblock war infolge der Zerstörungen seine Symmetrie abhanden gekommen. Das war mein erster Gedanke, das etwas einst Markantes und in seiner industriellen Kantigkeit und Schnoddrigkeit Schönes nun zerstört sei, und ich schämte mich ein wenig, dass ich daran und nicht an die Strahlungsbelastung dachte.

Mein Weg nach Osteuropa

  

Bild und rechts oben: Anna Veronika Wendland als Studentin zu Gast im Kernkraftwerk Tschernobyl, 02.10.1991.

Mein zweiter Gedanke, an den ich mich erinnere, war: Wenn die Folgen sogar bei uns im Rheinland zu messen sind – was muss dann erst vor Ort los sein? Und damit war geschehen, was mein Leben in eine andere Bahn lenkte. Inmitten der deutschen Diskussionen um Salat, Milch, Grenzwerte und Kinderspielplätze ließ mich der Gedanke nicht mehr los: Was ist dort los? Ich begann den deutschen Sendedienst von Radio Moskau zu hören. Ich bestellte mir die Moskovskie novosti auf Deutsch. Ich fing an, Russisch zu lernen. Ich sammelte wie verrückt alles, was ich bekommen konnnte über Tschernobyl. Nach einem Jahr endete das in einem Studienfachwechsel hin zur Geschichte Osteuropas. Und nach drei Jahren in einem Studienplatzwechsel. Ich ging 1989 für ein Jahr in die Sowjetunion, verpasste den Mauerfall und verbrauchte in meinem Kiewer Studentenwohnheim Atomstrom aus Tschernobyl – dessen drei verbliebene Blöcke längst wieder in Betrieb waren.

Fünf Jahre nach dem Unfall war ich zum ersten Mal im KKW Tschernobyl und in der verlassenen Stadt Prypjat, mitgenommen von Bekannten, die dort arbeiteten. Zehn Jahre nach dem Unfall heiratete ich meinem ukrainischen Freund, den ich im Kiewer Wohnheim kennengelernt hatte, und der mir erzählt hatte, wie es im Mai 1986 in Kiew gewesen war, als die Stadt sich spontan selbst evakuierte, ohne auf die Direktiven der Partei zu hören, als sich auf den Bahnhöfen tumultartige Szenen abspielten und sich die Verbliebenen mit feuchten Lappen vor den Wohnungen und Rotwein im Magen die Radionuklide vom Leib zu halten versuchten. Der Vater meines Mannes war häufig in Prypjat gewesen, denn das KKW war »Patenbetrieb« des Kiewer Schriftstellerverbandes, wo mein Schwiegervater arbeitete. Und so kannte man Leute, die Leute kannten, die besser wussten, was im Kraftwerk los war.

Trotzdem hat es danach ein Vierteljahrhundert gebraucht, bis ich mich als Historikerin, als Forscherin an das Thema heranwagte, das mich so lange begleitet und nie losgelassen hatte. Ich wachte eifersüchtig über »mein« Tschernobyl. Die meisten deutschen Publikationen darüber reizten und ärgerten mich, weil ich sie für oberflächlich, landesunkundig, sensationshungrig und voreingenommen hielt. Es bereitete mir fast körperlichen Schmerz, sie zu lesen. Ich wollte es irgendwann bessser machen, wusste aber nicht, wie. Ich hatte die Möglichkeit, Russisch und Ukrainisch zu lesen, und verschlang, was ich kriegen konnte, von den beeindruckenden semidokumentarischen Texten der späteren Nobelpreisträgerin Svetlana Aleksijewitsch und den Tschernobyler Heften des Atomingenieurs Georgij Medvedev, der die Ereignisse im Kraftwerk rekonstruiert hatte, bis hin zu den kleinen Broschüren unbekannter Liquidatoren. Aber auch in diesen Büchern fand ich nicht, was ich auch immer suchte, nämlich die Antwort auf meine Frage, wie es eigentlich vor dem Unfall gewesen sei in Tschernobyl und in Prypjat.

Kernenergetische Lebenswelten: Ein Forschungsprojekt entsteht

Als ich persönlich mit Menschen in Kontakt kam, die dort gelebt hatten, an diesem Ground Zero der deutschen Risikogesellschafts- und anthropologischer Schock-Konstrukte, war ich zunächst irritiert und verwundert, denn mir schien, dass diese Leute nicht aussahen und sich benahmen, wie ich das von Tschernobyl-Opfern erwartet hätte. Sie hegten keinen Groll gegen die Kernenergie – wohl aber gegen jene, die die Kerntechnik in der Sowjetunion so auf den Hund gebracht hatten, dass Tschernobyl hatte passieren können. Sie sprachen mit Wärme und Liebe von ihrer Stadt Prypjat und ihrer Arbeit im Atomkraftwerk: Dinge, die in Deutschland nur Abscheu auslösen konnten. Eine sozialistische Plattenbaustadt, wie hässlich. Ein Atomkraftwerk, wie gefährlich und zudem noch hässlich. Jeden Tag der Blick vom Plattenbau-Balkon auf das Atomkraftwerk. Unmöglich.

Dem Lebensgefühl, welches das Leben in Prypjat nicht für das falsche Leben im Falschen hielt, wollte ich auf den Grund gehen. Die Antwort auf die Frage fand ich nicht in der fast unermesslichen Tschernobyl-Literatur, schon gar nicht in der deutschen. Und das wurde zum Ausgangspunkt meines späteren Projektes über die Lebenswelt der Atomstädte, das sich aber inzwischen ausgeweitet hat zu einem Projekt über die Arbeitswelt der Kernkraftwerke in Ost und West und die Entstehung und Transformation, aber auch die Krisen nuklearer Sicherheitskulturen, und ihre konkrete Ausgestaltung in der Mikrobeziehung zwischen Menschen und Maschinen.

Ich lernte rasch, dass ich, um diese Welt aus Menschen und kerntechnischen Maschinen und soziopolitischen Verflechtungen zu verstehen, mich mit ihr konfrontieren musste – und konfrontieren heißt mitleben und mitarbeiten. Diese Erkenntnis führte mich schließlich als Langzeit-Beobachterin ins ukrainische Kernkraftwerk Rivne und in die Atomstadt Kuznecovsk, mit dem Atomkraftwerk vor dem Plattenbau-Küchenfenster und sechs Kühlturmfahnen im Himmel; ins litauische Ignalina, wo ich den »Tschernobyl-Reaktor« RBMK erst richtig technologisch und im Maßstab 1:1 kennenlernte; und in die deutschen KKW Grafenrheinfeld und Grohnde, die mir nach der gigantischen Anlage in der Ukraine wie mittelständische Betriebe vorkamen, die in ländlichen Regionen ganz ohne Atomstadt auskamen und wo ich im Fachwerkbauernhaus übernachtete.

Lernprozesse

Historisch arbeiten im Kontrollbereich: Als Forscherin in den Kernkraftwerken Rivne (Ukraine) und Grohnde (Deutschland), 2015 – 2016

Meine Forschung führte aber vor allem in Bekanntschaften, auch Freundschaften mit Menschen, ohne deren Fürsprache, Rat und genaugenommen sogar Ausbildung ich nichts hätte bewerkstelligen können. Was für mich vorher die Osteuropa-Kapazitäten Andreas Kappeler, Manfred Alexander oder Gerhard Simon gewesen waren, also Hochschullehrer im besten Wortsinne, wurden jetzt die Ingenieure, Schichtleiter, Reaktorfahrer, Chemiker, Elektriker, Armaturenschlosser und Anlagenwärter, die meinen Weg kreuzten – oder, genaugenommen, deren Weg ich kreuzte. Mit denen ich zur Schicht ging und zur Revision, unter Atemschutz schwitzte und unter riesigen Anlagenlüftern fror; mit denen ich durch die Ausrüstung kletterte, die ich bei Aufschreibungen begleitete und die mir tausende von Fragen beantworten, mich in ihre Betriebshandbücher und Schichtbücher schauen ließen; die mir beibrachten, wie ich einen Leitstand »lesen« muss und wie den kerntechnischen Jargon mit seinen Tausenden von Buchstaben-Zahlen-Chiffren; wie man am Ton einer Pumpe erkennt, ob sie sauber läuft; die mich in Tricks, Kniffen und informellem Wissen unterrichteten – und die mir zeigten, wie ich mich in dem labyrinthischen Innenleben eines Kernkraftwerks orientiere und wie ich mich in radiologisch »heißen« Umgebungen bewegen und benehmen muss. Ich fing mit Mitte 40 noch mal neu an zu lernen, als Quasi-Werkspraktikant zwischen Rivne und Grohnde. Diesen Leuten aus der Atomindustrie in der Ukraine, Litauen und Deutschland verdanke ich, neben der jahrelangen Lektüre der Fachliteratur, meine heutige Expertise – die keine kerntechnische ist, sondern eine historische, welche kerntechnisch informiert ist, und auf deren Grundlage ich in bestimmten Grenzen Aussagen über die Kernenergie und die für sie typischen Mensch-Technik-Beziehungen machen kann.

So gesehen ist Tschernobyl ein archimedischer Punkt in meinem eigenen Leben – als Wissenschaftlerin, als Familienmensch, als Zoon politikon, das sich in Debatten einmischt, ob über die Ukraine oder über die Kernenergie. Meine Wissenswege enden, wenn ich sie zurücklaufe, in der Zone von Tschernobyl und schließlich vor dem historisch, menschlich und technisch unermesslichen Massiv von Block vier.

Und daher ist der 26. April für mich genauso wichtig ist wie mein Geburtstag und die Geburtstage meiner Liebsten. Mein Forschungsbeitrag zum Nachleben dieses Tages ist einer unter vielen, und er ist wenig im Vergleich zu dem Anteil, den andere an diesem Geschehen haben – vor allem diejenigen, die dort ihr Leben riskierten, um Schlimmeres zu verhindern, und die sich unermesslichen Qualen aussetzten.

Tschernobyl: Entscheider in der Zwangsjacke der Verhältnisse

Zu ihnen gehören viele der Kernkraftwerksbeschäftigten, die noch auf dem Sterbebett von Ermittlern drangsaliert und in den Jahren nach dem Unfall durch den Dreck gezogen wurden, weil die Propaganda, die das System zu schützen hatte, das Personal als Alleinschuldige hinstellte und andere ungeschoren ließ: die hochmögenden Akademiemitglieder, die den Reaktor konstruiert hatten, und die Parteibonzen, die Produktionserfolge über alles stellten und daher ungeheuren Druck auf die Leitungsebenen der KKW ausübten. Diese waren zum Erfolg verdammt – und gaben den Druck an ihre Mitarbeiter weiter. Fehlerdiskussion, eine Grundhaltung des Nachfragens und eine Kultur der Wissensweitergabe über Betriebsereignisse – lebensnotwendige Dinge in der Kerntechnik – waren in dieser Atmosphäre nur unter großen Schwierigkeiten möglich – und unter Einsatz allen Mutes, der jemandem eben gegeben war. Womöglich war er manchen weniger gegeben, weil man wusste, dass der Werks-KGB jedem das Leben zur Hölle machte, der sich einen Fehler zuschulden kommen ließ.

Am Ende der Befehlskette saßen Menschen wie der Schichtleiter Sascha Akimov und sein junger Reaktorfahrer Ljonja Toptunov, die am Leitstand ihre Entscheidungen fällen mussten – in der Weltminute waren sie allein damit, und mit dem Vorgesetzten, der sie antrieb. Es waren nach Aussagen ihrer Kollegen gewissenhafte, hervorragend ausgebildete Ingenieure. Sie liefen den Umständen ins Messer, so wie sie damals waren, in einer schicksalhaften Verknüpfung von menschlichen Fehleinschätzungen über den Charakter der vertrauten Anlage, von der spezifischen Reaktorphysik und dem Abbrand des Kerns mit den Auslegungsspezifika des Abschaltsystems. Von sozialen mit politischen Einflusslinien, von einer ökonomisch motivierten Lastverteiler-Entscheidung, die zur Verschiebung des Tests und somit zur Verwicklung ganz anderer Menschen als ursprünglich geplant führte, mit einem Leistungseinbruch, der den Reaktor erst in jenen instabilen Zustand bei geringer Leistung brachte, welcher die notwendige Rahmenbedingung für den weiteren Unfallablauf darstellte. Es war nicht Ljonja, der mit Auslösen der Schnellabschaltung die Anlage in die Katastrophe trieb, sondern dieses hochkomplexe und in einem diskreten historischen Moment labile System aus Menschen, Maschinen und soziopolitischem Regime, das in der Nacht des 26. April kollabierte.

Deshalb wiederhole ich mich womöglich jedes Jahr. »In memoriam 26.04.1986« schrieb ich vor einem Jahr auf Facebook in ukrainischer Sprache, »… und weil wir an Erinnerungstagen uns an unsere Nächsten erinnern, wie sie im Leben waren, zeige ich euch ein Foto vom Kernkraftwerk Tschernobyl, wie es aussah, als es lebendig und ganz war, am 17. April 1986«, fotografiert von Ivan Zholud, der zu der Zeit dort als Elektromonteur arbeitete und extra auf einen Mast kletterte, um »sein« Kraftwerk abzulichten, ein stolzes weißes Dampfschiff am Horizont einer technischen Landschaft. Block 4 ist das Gebäude links vom Abluftschornstein. Die Symmetrie ist für immer zerstört, aber die Erinnerung und die Ehrung der Opfer kann sie wenigstens geistig und sozial wieder herstellen. Daher erinnere ich zum 30. Jahrestag, wie in jedem Jahr, an jene, die dort davor und danach gearbeitet haben – die, welche unter uns sind, und jene, die nicht mehr da sind.

Dieser Beitrag ist zuerst erschienen bei Nuklearia hier 

Dr. Anna Veronika Wendland ist Nuklearia-Mitglied und forscht zur Geschichte und Gegenwart nuklearer Sicherheitskulturen in Ost- und Westeuropa. Für ihre Habilitationsschrift hat sie in mehreren Kernkraftwerken in der Ukraine, Litauen und Deutschland, zuletzt in den KKW Grafenrheinfeld und Grohnde, Forschungsaufenthalte durchgeführt. Dr. Wendland arbeitet in der Direktion des Herder-Instituts für historische Ostmitteleuropaforschung in Marburg. Sie leitet Arbeitsgruppen im Bereich Technik-, Umwelt- und Sicherheitsgeschichte, u.a. im Sonderforschungsbereich SFB-TRR 138 »Dynamiken der Sicherheit«.




Beim Thema Klima werden wir trickreich manipuliert

Das Ereignis setzte dem Wall Street Journal zufolge „einen Prozess in Gang, die Auswirkung der globalen Erwärmung zu dämpfen“. In der International Business Times hieß es: „es war der jüngste in einer Reihe von Schritten, die globalen Bemühungen in ein echtes Werkzeug zu transformieren, mit dem man Treibhausgas-Emissionen bekämpfen und saubererer Energie einen Schub verleihen könnte“. Newsweek berichtete: „Die Staatslenker akzeptierten die Wissenschaft vom Klimawandel und haben beschlossen, zusammen etwas dagegen zu tun“.

Vielleicht haben die „Staatslenker“ mit ihrer Unterschrift die „Wissenschaft akzeptiert“, aber man lese, was individuelle Personen zu den oben erwähnten Geschichten zu sagen haben, und man wird sehen, dass es immer noch sehr viele Diskussionen hinsichtlich globaler Erwärmung gibt – oder war es globale Abkühlung, oder vielleicht sollten wir es einfach nur Klimawandel nennen. Was immer es ist, die Alarmisten sagen, dass es dringend ist.

Auf dem Earth Day-Treffen erklärte UN-Generalsekretär Ban Ki-Moon: „Wir stehen im Wettlauf mit der Zeit“.

Wie allerdings der neue Film Climate Hustle eindeutig zeigt, haben Klimaalarmisten derartige Proklamationen schon seit Jahrzehnten ausgestoßen.

Der Film, der am 2. Mai in den gesamten USA in die Kinos kommt, beginnt mit Clips zahlreicher derartiger Behauptungen seitens der Nachrichtenmedien und, wie könnte es anders sein, Vizepräsident Al Gore.

Marc Morano, Moderator der Dokumentation, stellt zu Beginn fest: „Wir hören immer wieder, dass die Zeit der Debatten vorbei ist“ und sprach dann das oftmals bemühte Narrativ an, dass „97 von 100 Wissenschaftlern darin übereinstimmen, dass der Klimawandel real ist“. Climate Hustle räumt dann mit beiden Behauptungen auf – und auch vielen Weiteren (einschließlich der Frage, ob CO2 „der Schurke“ ist oder nicht).

Mit einer Prise Humor und einem Vergleich mit einem Hütchenspiel vergleicht Morano die Krise mit Taschenspielertricks; ein Climate Hustle. Er sagt: „Wenn man Sie drängt mitzuspielen, nämlich bei dem Spiel derjenigen, die eine katastrophale Zukunft infolge der globalen Erwärmung prophezeien, lassen sich diese nicht in die Karten schauen, es ist ein Trick“. Der Film legt die Karten offen, so dass der Zuschauer selbst erkennen kann, ob sie „ehrlich oder mit gezinkten Karten spielen“.

Climate Hustle hat die Historie des Klima-Alarmismus zum Thema. Morano fragt: „Wie hat sich der vermeintliche Klima-Konsens mit der Zeit verändert?“ Während sich viele von uns an einige der „wilden Behauptungen“ erinnern dürften, stellt Climate Hustle diese allesamt zusammen – und die Aufeinanderfolge derselben sollte alle des Denkens fähigen Menschen in die Lage versetzen zu hinterfragen, was uns heutzutage erzählt wird. Zum Beispiel hat Leonard Nimoy im Jahre 1978 verkündet: „Die nächste Eiszeit ist im Anzug“. Er prophezeite „beispiellosen“ Hunger und Todesfälle. Im Jahre 1972 warnte der angesehene Nachrichtensprecher Walter Cronkite: „Eine neue Eiszeit schleicht sich über die Nordhemisphäre“.

[Der Übersetzer hielt sich zu jener Zeit in den USA auf und weiß, dass damals viele Menschen davon sprachen. Es war nicht die einzige diesbezügliche Bemerkung von Cronkite, einer echten „alten, grauen Eminenz“ der Nachrichtenlandschaft, den jedermann sich als Opa gewünscht hätte. Anm. d. Übers.]

In dem Film kommt sogar einer von den Gründungsvätern der USA zu Wort, der sich besorgt über Klimawandel äußerte. Thomas Jefferson schrieb seinerzeit: „Eine Änderung unseres Klimas ist im Gange“. Dann, im Jahre 1817, sprach der Präsident der UK Royal Society Joseph Banks das schmelzende Polareis an. Es ist zu bezweifeln, dass die Bedenken beider Persönlichkeiten die Folge des Verbrauches fossiler Treibstoffe waren.

Im Jahre 1988 glitt die globale Abkühlung der siebziger Jahre in die globale Erwärmung ab. Mit Hilfe von „schauspielerischem Können“ wurde am heißesten Tag des Jahres eine Anhörung im Capitol Hill angesetzt, bei der sich James Hansen mit hochgezogenen Augenbrauen über die Dringlichkeit der globalen Erwärmung ausließ.

Immer wieder wurden wir während der letzten Jahrzehnte mit düsteren Prophezeiungen bombardiert unter der Prämisse „die Zeit läuft aus“. Im Jahre 1989 prophezeiten die UN „die globale Erwärmung würde bis zum Jahr 2000 ganze Nationen auslöschen“. Im Jahre 2007 machte man uns weis: „Wissenschaftler glauben, dass uns weniger als zehn Jahre verbleiben, um die Emissionen unter Kontrolle zu bringen und eine Katastrophe zu verhindern“. Im Jahre 2008 sagte Prinz Charles, dass uns nur noch 100 Monate bleiben, um das Problem zu lösen. Im Jahre 2009 tönte Al Gore: „Wir müssen es dieses Jahr tun“. Und dennoch, wie der Film zeigt, wollen die Wissenschaftler nicht über ihre falschen Prophezeiungen reden.

Inzwischen werden Wissenschaftler, die mit den „Führern“ nicht übereinstimmen, von Konsorten wie Robert F. Kennedy Jr. des „Hochverrats“ angeklagt.Er möchte sie „im Gefängnis“ sehen.

Ja, wie Climate Hustle eindeutig klarstellt, gibt es abweichende Wissenschaftler – aber diese werden marginalisiert und sogar als „Spinner“ bezeichnet. Falls sie sich zu Wort melden, werden sie beleidigt, ignoriert, lächerlich gemacht, geächtet, Häretiker genannt, professionell geschädigt und sogar für abweichende Standpunkte gefeuert. Dies ist nicht die wissenschaftliche Methode.

Und trotz dieser Behandlung von der Art, wie man mit „Hexen“ im 17. Jahrhundert umgegangen ist, sichten viele Wissenschaftler noch einmal die Beweise und ändern ihre Haltung – wobei sie sogar ihre ehemaligen An sichten als „einen ziemlich großen Fehler“ betrachten.

Climate Hustle spricht viele der Punkte an, die wir als Verteidigung der Ansichten der Unterzeichner des Pariser Klimaabkommens hören, einschließlich Eisbären und des arktischen Meereises, Hurrikanen und Tornados. Es werden die betrügerischen Modelle und der „Stillstand“ erklärt. Das Gemeine Gürteltier wurde als Beweis sowohl für globale Erwärmung als auch für globale Abkühlung angekündigt.

Indem zwischen dramatischen Behauptungen und wissenschaftlichen Tatsachen hin und her gesprungen wird, hilft Climate Hustle den denkenden Menschen, hinter die Angsterzeugung des gegenwärtigen Klimawandel-Narrativs zu schauen und die Beweise für die globale Erwärmung selbst zu begutachten.

In dem Film kommt der bekannte schwedische Meeresspiegel-Experte und Klimatologe Bils-Axel Mörner zu der Schlussfolgerung: „Geologische Fakten sind die eine Seite, Lobbyismus und Modelle sind die andere Seite“.

{Freie Übersetzung des letzten Satzes: Wir müssen jetzt sehen, ob, wann und wo der Film Climate Hustle hier in Deutschland gezeigt wird – wenn überhaupt.}

The author of [Energy Freedom][9], Marita Noon serves as the executive director for Energy Makes America Great Inc. and the companion educational organization, the Citizens’ Alliance for Responsible Energy (CARE). She hosts a weekly radio program: America’s Voice for Energy—which expands on the content of her weekly column.

Link: http://oilpro.com/post/24006/climate-were-manipulated-sleight-hand

Übersetzt von Chris Frey EIKE




Systematischer Fehler bei Klimamessungen: Die Aufzeichnung der Lufttemperatur an der Erdoberfläche

Es war eine sehr interessante Konferenz, und als Nebenaspekt nahm ich mit nach Hause, dass der kurzfristige Notfall die islamistische Gewalt ist und der langfristige Notfall, dass irgendwelche Riesen-Meteore auf die Erde stürzen. Aber bitte, gleiten Sie bei der Diskussion zu diesem Vortrag nicht in diese beiden Themen ab.

Abstract: Ursprünglich war das Abstract länger, aber hier folgt die Kurzform. Jene, die die globalen gemittelten Lufttemperaturen zusammenstellen, haben nicht nur systematische Messfehler (siehe auch hier) ignoriert, sondern haben sogar auch die Messgenauigkeit der Instrumente selbst in Abrede gestellt. Seit mindestens dem Jahr 1860 wurde die Thermometer-Genauigkeit nur vage berücksichtigt. Ebenfalls seit jenem Jahr sowie im 95%-Vertrauens-Intervall ist die Rate oder Größenordnung des globalen Anstiegs der Lufttemperatur nicht erkennbar. Gegenwärtiger Streit über die Lufttemperatur und seiner Beispiellosigkeit ist spekulative Theologie.

1. Einführung: Systematischer Fehler

Systematische Fehler treten bei experimentell oder anders gemessenen Ergebnissen auf durch unkontrollierte und oftmals kryptische deterministische Prozesse (1). Diese können so einfach sein wie ein konsistenter Fehler des Bedieners. Typischer jedoch entstehen Fehler aus einer unkontrollierten experimentellen Variable oder Ungenauigkeit der Instrumente. Ungenauigkeit der Instrumente resultiert aus einer Fehlfunktion oder dem Fehlen einer Kalibrierung. Unkontrollierte Variable können die Größenordnung einer Messung beeinflussen und/oder den Verlauf eines Experimentes. Abbildung 1 zeigt die Auswirkung einer unkontrollierten Variable. Sie stammt aus meinen eigenen Arbeiten (2, 3):

Abbildung 1: Links: Titration gelösten Eisens [ferrous iron] unter Bedingungen, die ungeplant eine Spur Luft in das Experiment gelangen lassen. Kleine Graphik darin: Die inkorrekten Daten folgen präzise der Gleichgewichts-Thermodynamik. Rechts: das gleiche Experiment, aber mit einer angemessen strikten Abwehr von Luft. Die Daten sind total unterschiedlich. Kleine Graphik rechts: die korrekten Daten zeigen eine ausgesprochen unterschiedliche Thermodynamik.

Abbildung 1 zeigt, dass der unbeabsichtigte Eintritt einer Spur Luft ausreichte, um den Verlauf des Experimentes vollkommen zu verändern. Nichtsdestotrotz zeigen die fehlerhaften Daten ein kohärentes Verhalten und folgen einer Trajektorie, die vollkommen konsistent ist mit der Gleichgewichts-Thermodynamik. In allen Erscheinungen war das Experiment gültig. Isoliert betrachtet sind die Daten überzeugend. Allerdings sind sie vollständig falsch, weil die eingetretene Luft das Eisen chemisch modifiziert hat.

Abbildung 1 zeigt exemplarisch die Gefahr eines systematischen Fehlers. Kontaminierte experimentell oder anders gemessene Ergebnisse können sich genau wie gute Daten verhalten und daherkommen sowie rigoros validen physikalischen Theorien folgen. Lässt man hier keine Vorsicht walten, laden solche Daten zu falschen Schlussfolgerungen ein.

Ein systematischer Fehler ist seiner Natur nach schwer zu erkennen und zu entfernen. Zu den Methoden der Entfernung gehören sorgfältige Kalibrierung der Instrumente unter Bedingungen, die mit der Messung oder dem Experiment identisch sind. Methodisch unabhängige Experimente, die das gleiche Phänomen behandeln, bieten eine Möglichkeit, die Ergebnisse zu prüfen. Sorgfältige Aufmerksamkeit bzgl. dieser Verfahren ist Standard in den experimentellen physikalischen Wissenschaften.

Die jüngste Entwicklung einer neuen und höchst genauen Atomuhr zeigt die extreme Vorsicht, die Physiker walten lassen, wenn sie systematische Fehler eliminieren wollen. Kritisch für die Erreichung einer Genauigkeit von 10^-18 Sekunden war die Ausmerzung eines systematischen Fehlers, den die Schwarzkörperstrahlung des Instrumentes selbst erzeugte (4).

Abbildung 2 [oben rechts]: Nahaufnahme der neuen Atomuhr. Das Zeitmess-Element ist ein Cluster fluoreszierender Strontium-Atome, eingehüllt in ein optisches Netz. Thermisches Rauschen wird entfernt mittels Daten eines Sensors, der die Schwarzkörper-Temperatur des Instrumentes misst.

Abschließend hierzu: Ein systematischer Fehler mittelt sich mit wiederholten Messungen nicht heraus. Die Wiederholung kann den Fehler sogar verstärken. Wenn systematische Fehler nicht eliminiert werden können, um deren Existenz man aber weiß, müssen Angaben zur Unsicherheit zusammen mit den Daten angezeigt werden. In graphischen Präsentationen gemessener oder gerechneter Daten wird der systematische Fehler durch Balken der Fehlerbandbreite repräsentiert (1). Jene Balken geben Aufschluss über die Zuverlässigkeit des Ergebnisses.

2. Systematische Fehler bei Temperaturmessungen

2.1 Lufttemperatur auf dem Festland

Während des größten Teils des 20. Jahrhunderts wurden die Temperaturen auf dem Festland mittels eines Thermometers gemessen, in dem sich eine Flüssigkeit hinter Glas befand. Es war eingebettet in eine Wetterhütte (5, 6). Nach etwa 1985 kamen Thermistoren oder Platin-Widerstands-Thermometer (PRT) zum Einsatz, die sich in einer unbelüfteten zylindrischen Plastikumhüllung befanden. Dies erfolgte in Europa, den Anglo-Pazifischen Ländern und den USA. Seit dem Jahr 2000 platzierte das Climate Research Network der USA Sensoren in einer belüfteten Umhüllung, die ein Trio von PRTs enthielten (5, 7, 8, 9). Eine belüftete Schutzhülle enthält einen kleinen Ventilator, der für einen Austausch der Luft im Inneren der Hülle mit der Außenluft sorgt.

Unbelüftete Sensoren stützen sich auf vorherrschenden Wind zur Ventilation. Sonnenstrahlung kann die Umhüllung des Sensors aufheizen, was die Innenluft um den Sensor erwärmt. Im Winter kann aufwärts gerichtete Strahlung durch die Albedo einer schneebedeckten Erdoberfläche ebenfalls einen Warm-Bias erzeugen (10). Zu bedeutenden systematischen Messfehlern kommt es, wenn die Windgeschwindigkeit unter 5 m/s liegt (9, 11).

Abbildung 3: Der Plaine Morte Glacier in der Schweiz. Hier wird gezeigt, wie das Experiment der Kalibrierung des Lufttemperatur-Sensors von Huwald et al. während der Jahre 2007 und 2008 durchgeführt worden ist (12). Eingebettet: Nahaufnahmen der PRT und Schall-Anemometer-Sensoren. Bild: Bou-Zeid, Martinet, Huwald, Couach, 2.2006 EPFL-ENAC.

Bei den während der Jahre 2007 und 2008 durchgeführten Kalibrierungs-Experimenten auf dem Gletscher (Abbildung 3) wurde die Feld-Genauigkeit des RM Young PRT innerhalb einer unbelüfteten Umhüllung über einer schneebedeckten Oberfläche getestet. Im Labor kann der RM Young Sensor mit einer Genauigkeit von ±0,1°C anzeigen. Die Genauigkeit auf dem Feld wurde bestimmt durch den Vergleich von Lufttemperaturen, gemessen mittels eines Schall-Anemometers, wobei der Effekt ausgenutzt wird, dass die Temperatur Einfluss auf die Schallgeschwindigkeit in der Luft hat. Dies ist unabhängig von Strahlung und Windgeschwindigkeit.

Abbildung 4: Gleichzeitig aufgezeichnete Temperaturtrends auf dem Plaine Morte-Gletscher von Februar bis April 2007. (¾), Sonic anemometer, and; (¾), RM Young PRT probe.

Abbildung 4 zeigt, dass bei identischen Umwelt-Bedingungen der RM Young-Sensor deutlich höhere winterliche Lufttemperaturen aufgezeichnet hat als das Schall-Anemometer. Die Neigung des RM Young-Temperaturtrends ist auch mehr als dreimal größer. Verglichen mit einem üblichen Mittel würde der Fehler von RM Young einen unechten Erwärmungstrend in ein globales Temperaturmittel einbringen. Die noch größere Bedeutung dieses Ergebnisses ist, dass RM Young im Design und der Reaktion sehr ähnlich ist den verbesserten Temperaturmessungen, die weltweit seit etwa 1985 verwendet werden.

Abbildung 5 zeigt ein Histogramm des systematischen Temperaturfehlers, der beim RM Young in Erscheinung tritt.

Abbildung 5: Systematischer Fehler von RM Young auf dem Plaine Morte-Gletscher. Der Fehler tagsüber beträgt 2.0°C ± 1.4°C, der Fehler nachts 0.03°C ± 0.32°C.

Die systematischen Fehler von RM Young bedeuten, dass im Falle des Fehlens eines unabhängigen Kalibrierungs-Instrumentes jedwede gegebene tägliche Mitteltemperatur eine damit verbundene Unsicherheit von 1°C ± 1.4°C aufweist [an 1s uncertainty]. Abbildung 5 zeigt, dass diese Unsicherheit weder zufällig verteilt noch konstant ist. Sie kann nicht entfernt werden durch Mittelung individueller Messungen oder wenn man Anomalien heranzieht. Die Subtraktion des mittleren Bias‘ wird nicht die normale 1s-Unsicherheit [?] entfernen. Fügt man die Temperaturaufzeichnung der RM Young-Station in ein globales Mittel ein, wird dies den mittleren Fehler mit hineintragen.

Vor der Inklusion in einem globalen Mittel werden Temperaturreihen individueller meteorologischer Stationen statistischen Tests der Datenqualität unterzogen (13). Von den Lufttemperaturen weiß man, dass sie eine Korrelation von R = 0,5 über Entfernungen von etwa 1200 km zeigen (14, 15). Der erste Test der Qualitätskontrolle jeder gegebenen Stationsaufzeichnung enthält einen statistischen Check der Korrelation mit Temperaturreihen benachbarter Stationen. Abbildung 6 zeigt, dass eine mit dem RM Young-Fehler kontaminierte Temperaturreihe diesen grundlegendsten aller Tests bestehen wird. Außerdem wird die irrige RM Young-Aufzeichnung jeden einzelnen statistischen Test bestehen, der bzgl. der Qualitätskontrolle von Aufzeichnungen meteorologischer Stationen weltweit durchgeführt wird.

Abbildung 6: Korrelation der RM Young-Temperaturmessungen mit jenen des Schall-Anemometers. Eingebettet: Abbildung 1a aus (14), die Korrelationen von Temperaturaufzeichnungen zeigt von meteorologischen Stationen im terrestrischen Netz 65° bis 70°N, 0° bis 5° E. Bei einer Korrelation von 0,5 beträgt die Länge bis zu 1400 km.

Abbildung 7: Kalibrierungs-Experiment an der University of Nebraska in Lincoln (aus (11), Abbildung 1); E, MMTS shield; F, CRS shield; G, the aspirated RM Young reference.

Abbildung 7 zeigt das screen-type [?] Kalibrierungs-Experiment an der University of Nebraska. Jeder Typ enthielt den identischen HMP45C-Sensor (11). Die Referenz-Temperaturen der Kalibrierung wurden mittels eines belüfteten RM Young PRT erhalten, eingestuft als akkurat bis < ±0.2°C bei einer Sonneneinstrahlung unter 1100 W/m².

Diese unabhängigen Kalibrierungs-Experimente testeten die Auswirkung einer Vielfalt von allgemein verwendeten Typen zur Genauigkeit von Lufttemperatur-Messungen durch PRT (10, 11, 18). Unter den Typen waren auch das allgemeine Cotton Regional Shelter (CRS, Stevenson screen) und der MMTS-Screen, der jetzt allgemein verwendet wird in den USHCN-Daten.

Abbildung 8: Mittlerer systematischer Messfehler eines HMP45C-Sensors innerhalb eines MMTS über einer Gras-Oberfläche (oben) und einer schneebedeckten Oberfläche (unten) (10, 11).

Abbildung 8 oben zeigt den mittleren systematischen Messfehler einer MMTS-Umhüllung, der auf eine PRT-Temperaturmessung angewendet wird. Den Fehler fand man während des Kalibrierungs-Experimentes der Abbildung 7 (11). Abbildung 8 unten zeigt die Ergebnisse einer unabhängigen PRT/MMTS-Kalibrierung über einer schneebedeckten Oberfläche (10). Die mittlere jährliche systematische Unsicherheit, die von dem MMTS erzeugt wird, kann aus diesen Daten berechnet werden zu 1s = 0.32°C ± 0.23°C. Die verzerrte Warm-Bias-Verteilung des Fehlers über Schnee ist größenordnungsmäßig ähnlich der unbelüfteten RM Young-Hülle beim Plaine Morten-Experiment (Abbildung 5).

Abbildung 9 zeigt den mittleren systematischen Messfehler erzeugt von einer PRT-Stichprobe innerhalb einer traditionellen CRS-Umhüllung (11).

Abbildung 9: der mittlere systematische Tag-Nacht-Messfehler, erzeugt von einer PRT-Temperaturstichprobe innerhalb einer traditionellen CRS-Hütte.

Der Warm-Bias in den Daten ist offensichtlich, ebenso wie die Nicht-Normalverteilung des Fehlers. Die systematische Unsicherheit der CRS-Hütte betrug 1s = 0.44°C ± 0.41°C. Die HMP45C-PRT-Stichprobe ist mindestens genauso akkurat wie das traditionelle LiG-Thermometer innerhalb der Wetterhütte (19, 20). Mittels des PRT/CRS-Experimentes kann man dann eine untere Grenze der systematischen Messunsicherheit abschätzen, der in den Festlands-Temperaturaufzeichnungen im gesamten 19. und fast dem ganzen 20. Jahrhundert enthalten ist.

2.2 Wassertemperatur

Obwohl erhebliche Bemühungen aufgewendet wurden, um die Wassertemperaturen besser zu verstehen (21 bis 28), gab es nur sehr wenige Feld-Kalibrierungs-Experimente der Wassertemperatur-Sensoren. Eimermessungen sowie solche in Kühlwasser von Schiffen ergaben den Hauptanteil von Messungen der Wassertemperatur Anfang und Mitte des 20. Jahrhunderts. Auf Fest- und Treibbojen montierte Sensoren kamen seit etwa 1980 immer stärker zum Einsatz. Inzwischen dominieren sie die Messungen der Wassertemperatur (29). Die Aufmerksamkeit gilt den Kalibrierungs-Studien dieser Instrumente.

Die von Charles Brooks im Jahre 1926 durchgeführten Reihen-Experimente sind bei weitem die umfassendsten Feld-Kalibrierungen von Messungen der Wassertemperatur mit Eimern und im Kühlwasser von Schiffen, die jemals von einem einzelnen individuellen Wissenschaftler durchgeführt worden waren (30). Abbildung 10 zeigt typische Beispiele des systematischen Fehlers dieser Messungen, die Brooks gefunden hatte.

Abbildung 10: Systematischer Messfehler in einem Satz von Messungen der Wassertemperatur im Kühlwasser- (links) und mit Eimermessungen (rechts) wie von Brooks beschrieben (30).

Brooks stellte auch einen Mann ab, der die Messungen an Bord des Schiffes überwachen sollte, nachdem er seine Experimente abgeschlossen hatte und von Bord gegangen war. Die Fehler nach seinem Verlassen des Schiffes waren etwa doppelt so groß als mit ihm an Bord. Die einfachste Erklärung hierfür ist, dass die Sorgfalt schwand, vielleicht zurück zum Normalen, wenn niemand schaute. Dieses Ergebnis verletzt die Standard-Hypothese, dass Fehler von Temperatursensoren für jedes einzelne Schiff konstant sind.

Im Jahre 1963 beschrieb Saur das größte Feld-Kalibrierungs-Experiment von Thermometern in Kühlwasser, durchgeführt von Freiwilligen an Bord von 12 Transportschiffen des US-Militärs, die vor der US-Pazifikküste operierten (31). Das Experiment enthielt auch 6826 Beobachtungs-Paare. Abbildung 11 zeigt die experimentellen Ergebnisse einer Fahrt eines Schiffes.

Abbildung 11: Systematischer Fehler in gemessenen Kühlwasser-Temperaturen an Bord eines Militär-Transportschiffes, das im Juni/Juli 1959 operierte. Der mittlere systematische Bias und die Unsicherheit in diesen Daten beträgt 1s = 0.9°C ± 0.6°C.

Saur bezeichnete die Abbildung 11 als „eine typische Verteilung der Unterschiede“, die auf den verschiedenen Schiffen aufgetreten waren. Die ±0.6°C-Unsicherheit hinsichtlich des mittleren systematischen Fehlers ist vergleichbar mit den von Brooks genannten Werten in Abbildung 10.

Saur schloss seinen Bericht mit den Worten: „Der mittlere Bias der gemessenen Meerwasser-Temperaturen beim Vergleich mit den Wassertemperaturen an der Ozeanoberfläche wird innerhalb des 95%-Vertrauensintervalls abgeschätzt mit 0,67°C ± 0,33°C auf der Grundlage einer Stichprobe von 12 Schiffen. Die Standardabweichung der Unterschiede zwischen den Schiffen wird mit 0,9°C geschätzt. Folglich sind die in Gegenwart und Vergangenheit gemessenen Wassertemperaturdaten ohne verbesserte Qualitätskontrolle zum größten Teil nur geeignet für allgemeine klimatologische Studien“. Saurs Sorgfalt ist aufschlussreich, wurde aber offensichtlich von Konsens-Wissenschaftlern missbraucht.

Messungen mittels Bathythermographen (BT) und Einmal-Bathythermographen (XBT) haben ebenfalls bedeutend zu den Wassertemperatur-Aufzeichnungen beigetragen (32). Extensive BT und XBT-Kalibrierungs-Experimente zeigten multiple Quellen systematischer Fehler, hauptsächlich durch mechanische Probleme und Kalibrierungsfehler (33 bis 35). Relativ zu einem reversing Thermometer-Standard [?] zeigten BT-Feldmessungen einen Fehler von ±s = 0.34°C ± 0.43°C (35). Diese Standardabweichung ist mehr als doppelt so groß wie wie die vom Hersteller genannte Genauigkeit von ±0,2°C und reflektiert den Einfluss unkontrollierter Feldvariablen.

Die SST-Sensoren in treibenden und festen Bojen wurden während des 20.Jahrhunderts niemals feld-kalibriert, so dass keine allgemeine Schätzung systematischer Messfehler vorgenommen werden konnte.

Allerdings hat Emery einen 1s = ±0.3°C-Fehler geschätzt mittels eines Vergleichs der Wassertemperatur von Treibbojen, die sich nicht weiter als 5 km voneinander entfernt hatten (28). Wassertemperatur-Messungen bei Entfernungen unter 10 km werden als übereinstimmend betrachtet.

Eine ähnliche Größenordnung des Bojenfehlers von ±0,26°C wurde relativ zu den Wassertemperaturdaten gefunden, die aus Advanced Along-Track Scanning Radiometer (AATSR)-Satellitendaten abgeleitet worden waren. Die Fehlerverteilungen waren nicht-normal.

In noch jüngerer Zeit wurden ARGO-Bojen feld-kalibriert gegen sehr genaue CTD-Messungen (CTD = conductivity-temperature-depth). Sie zeigten mittlere RMS-Fehler von ±0,56°C (37). Dies ist größenordnungsmäßig ähnlich der gemessenen mittleren Differenz von ±0,58°C in buoy-Advanced Microwave Scanning Radiometer (AMSR)-Satellitendaten (38).

3.Diskussion

Bis vor Kurzem (39, 40) waren systematische Temperatursensor-Messfehler niemals erwähnt worden bei der Berichterstattung bzgl. Ursprung, Bewertung und Berechnung der globalen mittleren Lufttemperatur. Auch in Fehleranalysen hatten sie niemals Eingang gefunden (15, 16, 39 bis 46). Selbst nach der Nennung systematischer Fehler in der veröffentlichten Literatur in letzter Zeit wird jedoch das Central Limit Theorem herangezogen um abzuschätzen, dass diese sich zu Null mitteln (36). Allerdings sind systematische Temperatursensor-Fehler weder zufällig verteilt noch zeitlich, räumlich oder von Instrument zu Instrument konstant. Es gibt keinen theoretischen Grund zu erwarten, dass diese Fehler dem Central Limit Theorem folgen (47, 48) oder dass solche Fehler reduziert oder eliminiert werden durch Mittelung multipler Messungen; selbst wenn diese Messungen millionenfach durchgeführt werden. Eine vollständige Inventur der Beiträge zur Unsicherheit in den Aufzeichnungen der Lufttemperatur muss den systematischen Messfehler des Temperatursensors selbst enthalten; tatsächlich muss sie damit beginnen (39).

Die WMO bietet nützliche Ratschläge an hinsichtlich systematischer Fehler (20). Es heißt dort in Abschnitt

1.6.4.2.3 Abschätzung des wahren Wertes – zusätzliche Bemerkungen:

In der Praxis enthalten Messungen sowohl zufällige als auch systematische Fehler. In jedem Falle muss der gemessene mittlere Wert um den systematischen Fehler korrigiert werden, soweit dieser bekannt ist. Wenn man das tut, bleibt die Schätzung des wahren Wertes ungenau wegen der zufälligen Fehler und wegen jedweder unbekannter Komponenten des systematischen Fehlers. Der Unsicherheit des systematischen Fehlers sollten Grenzen gesetzt werden. Sie sollten den Zufallsfehlern hinzugefügt werden, um die Gesamt-Unsicherheit zu ermitteln. Solange jedoch die Unsicherheit des systematischen Fehlers nicht in Wahrscheinlichkeits-Termen ausgedrückt und geeignet mit dem Zufallsfehler kombiniert werden kann, ist das Vertrauensniveau unbekannt. Es ist daher wünschenswert, dass der systematische Fehler vollständig bestimmt wird.

Bei der Erstellung der globalen mittleren Lufttemperatur lagen Angaben der WMO bisher bei der Erstellung der globalen mittleren Temperatur brach.

Systematische Sensorfehler bei Messungen der Luft- und Wassertemperatur waren beklagenswert gering geachtet worden, und es gab nur sehr wenige Feld-Kalibrierungen. Nichtsdestotrotz wird aus den berichteten Fällen klar, dass die Aufzeichnung der Lufttemperatur kontaminiert ist mit einem sehr signifikanten Niveau systematischer Messfehler. Die Nicht-Normalität systematischer Fehler bedeutet, dass die Subtraktion eines mittleren Bias‘ die Messungenauigkeit des globalen Temperaturmittels nicht beseitigen wird.

Außerdem ist die Größenordnung des systematischen Fehlerbias‘ der Messungen von Luft- und Wassertemperatur offensichtlich genauso räumlich und zeitlich variabel wie die Größenordnung der Standardabweichung der systematischen Unsicherheit über den mittleren Fehlerbias. Das heißt, der mittlere systematische Fehlerbias über Schnee auf dem Plaine Morte-Gletscher betrug 2°C, jedoch nur 0,4°C über Schnee in Lincoln, Nebraska. Ähnliche Differenzen wurden von Brooks und Saur auch beim Fehlermittelwert von Kühlwasser gemeldet. Daher wird die Eliminierung eines mittleren Bias‘ um einen geschätzten Betrag immer die Größenordnungs-Mehrdeutigkeit des verbleibenden mittleren Bias‘ hinterlassen. In jeder vollständigen Fehler-Evaluierung wird die verbleibende Unsicherheit des mittleren Bias‘ mit der 1s-Standardabweichung der Messunsicherheit zur Gesamt-Unsicherheit verschmelzen.

Eine vollständige Evaluierung systematischer Fehler liegt jenseits dieser Analyse. Allerdings kann ein Satz geschätzter Unsicherheits-Balken infolge des systematischen Fehlers in der Aufzeichnung der globalen mittleren Lufttemperatur berechnet werden – unter der Voraussetzung, dass die oben beschriebenen Fehler repräsentativ sind (Abbildung 12).

Die Unsicherheits-Bandbreite in Abbildung 12 (rechts) reflektiert ein Verhältnis systematischer Fehler zwischen Wasser- und Festlands-Temperatur von 0,7 zu 0,3. Quadriert bildet die Kombination von Eimer- und Kühlwassermessungen die SST-Unsicherheit vor 1990. Im gleichen Zeitintervall bildete der systematische Fehler der PRT/CRS-Sensoren (39, 40) die Unsicherheit der Festlands-Temperaturen. Treibbojen leisteten einen teilweisen Beitrag (0,25) zu der Unsicherheit bei der Wassertemperatur zwischen 1980 und 1990. Nach 1990 wurde die Fehlerbandbreite weiterhin stetig reduziert, was den zunehmenden Beitrag und die kleineren Fehler der MMTS (Festland) und Treibbojen (Wasseroberfläche) reflektiert.

Abbildung 12: Die globale mittlere Lufttemperatur im Jahre 2010, entnommen der Website der Climate Research Unit (CRU), University of East Anglia, UK (hier). Links: Unsicherheits-Bandbreite aufgrund der Beschreibung auf der CRU-Website. Rechts: Fehlerbandbreite der Unsicherheit aufgrund geschätzter systematischer Fehler der Sensormessungen innerhalb der Land- und Wasser-Aufzeichnungen. Weiteres im Text.

Abbildung 12 (rechts) ist sehr wahrscheinlich eine genauere Repräsentation des Wissensstandes als Abbildung 12 (links), jedenfalls was die Rate oder Größenordnung der Änderung der global gemittelten Änderung der Lufttemperatur seit 1850 angeht. Die überarbeitete Unsicherheits-Bandbreite repräsentiert einen nicht-normalen systematischen Fehler. Daher verliert der mittlere Trend der Lufttemperatur jedweden Status als wahrscheinlichster Trend.

Schließlich widmet Abbildung 13 der instrumentellen Auflösung der historischen meteorologischen Thermometer Aufmerksamkeit.

Abbildung 13 provozierte einige wütende Zwischenrufe aus dem Publikum in Sizilien, die nach dem Vortrag gefolgt wurden von einigen sehr groben Angriffen und einer netten E-Mail-Diskussion. Die hier vorgebrachten Argumente waren vorherrschend.

Die instrumentelle Auflösung definiert das Limit der Messgenauigkeit [measurement detection limit]. Beispielsweise waren unter den besten historischen Thermometern vom 19. bis Mitte des 20. Jahrhunderts 1°C-Einteilungen. Die Best-Case-Temperaturauflösung unter Laborbedingungen beträgt daher ±0,25°C. Darüber kann es keinen Streit geben.

Die Standard-Eimermessungen der Wassertemperatur der Challenger-Reise hatte ebenfalls eine 1°C-Abstufung. Damit kommt das gleiche Limit der Auflösung zur Anwendung.

Die besten Thermometer zur Messung des Kühlwassers bei amerikanischen Schiffen enthielten 1°C-Abstufungen; bei britischen Schiffen waren es 2°C. Die beste Auflösung ist demnach ±(0,25 bis 0,5)°C. Dies sind die bekannten Quantitäten. Auflösungs-Unsicherheiten wie systematische Fehler mitteln sich nicht heraus. Kenntnis der Messgrenzen der Instrumente-Klassen gestattet uns die Abschätzung der Auflösungs-Unsicherheit in jeder zusammengestellten historischen Aufzeichnung der Lufttemperatur.

Abbildung 13 zeigt die Grenzen der Auflösung. Darin wird die historische instrumentelle ±2s-Auflösung verglichen mit der ±2s-Unsicherheit in der veröffentlichten Temperatur-Zusammenstellung von Berkeley Earth. Die Analyse lässt sich genauso gut anwenden auf die veröffentlichten Temperaturreihen vom GISS oder der CRU/UKMet, welche die gleichen Unsicherheitsgrenzen aufweisen.

Abbildung 13: Der Trend der globalen gemittelten Lufttemperatur von Berkeley Earth mit den veröffentlichten ±2s-Unsicherheitsgrenzen in grau. Die zeitliche ±2s-Auflösung ist rot eingezeichnet. Rechts findet sich eine Zusammenstellung der best resolution limits in blau der historischen Temperatursensoren, aus denen die globalen Auflösungs-Limits berechnet worden sind.

Die global kombinierte instrumentelle Auflösung wurde mit den gleichen Teilbeiträgen berechnet wie die oben genannte Abschätzung des unteren Limits des systematischen Messfehlers. Das heißt 0,30 zu 0,70 Land- zu Wassertemperatur-Instrumenten, und der veröffentlichte fraktionale Gebrauch jeder Instrumentenart (land: CRS vs. MMTS, and; SS: buckets vs. engine intakes vs. Buoys).

Die Aufzeichnung zeigt, dass während der Jahre von 1800 bis 1860 die veröffentlichten globalen Unsicherheits-Limits von im Feld gemessenen meteorologischen Temperaturen gleich sind der Messungen unter bestmöglichen Laborbedingungen.

Nach etwa 1860 bis zum Jahr 2000 ist die veröffentlichte Auflösung kleiner als die Auflösungs-Limits der Instrumente selbst. Seit mindestens 1860 wurde die Genauigkeit aus dünner Luft hervorgezaubert.

Findet irgendjemand die veröffentlichten Unsicherheiten glaubwürdig?

Alle Ingenieure und Experimentalwissenschaftler könnten nach der Lektüre dieses Beitrags schockiert sein. Zumindest war das bei mir so. Ein Espresso hat mir geholfen.

Die Leute, die die globalen instrumentellen Aufzeichnungen zusammenstellen, haben ein experimentelles Limit stiefmütterlich behandelt, das sogar noch grundlegender ist als systematische Messfehler: Die Messgrenzen [detection limits] ihrer Instrumente. Sie haben dem keinerlei Aufmerksamkeit geschenkt.

Auflösungs-Limits und systematische Messfehler durch das Instrument selbst legen niedrigere Grenzen der Unsicherheit fest. Die in der Konsens-Klimatologie engagierten Wissenschaftler haben beides kaum beachtet.

Das ist fast so, als ob keiner von ihnen jemals eine Messung durchgeführt oder sich jemals mit einem Instrument abgemüht hätte. Es gibt keine andere rationale Erklärung für diese Missachtung als eine ausgeprägte Ignoranz gegenüber experimentellen Verfahren.

Die hier entwickelte Unsicherheits-Abschätzung zeigt, dass die Rate oder die Größenordnung der Änderung der globalen Lufttemperatur seit 1850 nicht genauer bekannt sein kann als mit ±1°C vor 1980 oder innerhalb von ±0,6°C nach 1990, jedenfalls im 95%-Intervall.

Rate und Größenordnung der Temperaturänderung seit 1850 ist buchstäblich unbekannt. Es gibt keinerlei Unterstützung für jedwedes „beispiellos“ in den Aufzeichnungen der Lufttemperatur.

Behauptungen über die höchste Temperatur jemals, selbst auf der Grundlage von 0,5°C-Differenzen, sind völlig unhaltbar und ohne jede Bedeutung.

All diese Debatten um die höchste Lufttemperatur jemals sind nicht besser als theologische Streitereien über das Unaussprechliche. Es sind nach den Worten von William F. Buckley „langweilige Spekulationen über das inhärent Unbekannte“.

Es gibt in den Temperaturaufzeichnungen keinerlei Stützung für irgendwelche Notfälle bzgl. Klima. Außer vielleicht ein Notfall der scheinbaren Kompetenz der AGW-Konsens-Wissenschaftler.

4. Danksagungen: Ich danke Prof. Hendrik Huwald und Dr. Marc Parlange von der Ecole Polytechnique Federale de Lausanne (EPFL), CH-1015 Lausanne, Schweiz, für die großzügige Überlassung der Sensor-Kalibrierungsdaten vom Plaine Morte Gletscher, die Eingang in die Abbildungen 4, 5 und 6 gefunden haben. Diese Arbeit wurde ohne jede externe Zuwendung geleistet.

5. References

[1] JCGM, Evaluation of measurement data — Guide to the expression of uncertainty in measurement 100:2008, Bureau International des Poids et Mesures: Sevres, France.

[2] Frank, P., et al., Determination of ligand binding constants for the iron-molybdenum cofactor of nitrogenase: monomers, multimers, and cooperative behavior. J. Biol. Inorg. Chem., 2001. 6(7): p. 683-697.

[3] Frank, P. and K.O. Hodgson, Cooperativity and intermediates in the equilibrium reactions of Fe(II,III) with ethanethiolate in N-methylformamide solution. J. Biol. Inorg. Chem., 2005. 10(4): p. 373-382.

[4] Hinkley, N., et al., An Atomic Clock with 10-18 Instability. Science, 2013. 341(p. 1215-1218.

[5] Parker, D.E., et al., Interdecadal changes of surface temperature since the late nineteenth century. J. Geophys. Res., 1994. 99(D7): p. 14373-14399.

[6] Quayle, R.G., et al., Effects of Recent Thermometer Changes in the Cooperative Station Network. Bull. Amer. Met. Soc., 1991. 72(11): p. 1718-1723; doi: 10.1175/1520-0477(1991)072<1718:EORTCI>2.0.CO;2.

[7] Hubbard, K.G., X. Lin, and C.B. Baker, On the USCRN Temperature system. J. Atmos. Ocean. Technol., 2005. 22(p. 1095-1101.

[8] van der Meulen, J.P. and T. Brandsma, Thermometer screen intercomparison in De Bilt (The Netherlands), Part I: Understanding the weather-dependent temperature differences). International Journal of Climatology, 2008. 28(3): p. 371-387.

[9] Barnett, A., D.B. Hatton, and D.W. Jones, Recent Changes in Thermometer Screen Design and Their Impact in Instruments and Observing Methods WMO Report No. 66, J. Kruus, Editor. 1998, World Meteorlogical Organization: Geneva.

[10] Lin, X., K.G. Hubbard, and C.B. Baker, Surface Air Temperature Records Biased by Snow-Covered Surface. Int. J. Climatol., 2005. 25(p. 1223-1236; doi: 10.1002/joc.1184.

[11] Hubbard, K.G. and X. Lin, Realtime data filtering models for air temperature measurements. Geophys. Res. Lett., 2002. 29(10): p. 1425 1-4; doi: 10.1029/2001GL013191.

[12] Huwald, H., et al., Albedo effect on radiative errors in air temperature measurements. Water Resorces Res., 2009. 45(p. W08431; 1-13.

[13] Menne, M.J. and C.N. Williams, Homogenization of Temperature Series via Pairwise Comparisons. J. Climate, 2009. 22(7): p. 1700-1717.

[14] Briffa, K.R. and P.D. Jones, Global surface air temperature variations during the twentieth century: Part 2 , implications for large-scale high-frequency palaeoclimatic studies. The Holocene, 1993. 3(1): p. 77-88.

[15] Hansen, J. and S. Lebedeff, Global Trends of Measured Surface Air Temperature. J. Geophys. Res., 1987. 92(D11): p. 13345-13372.

[16] Brohan, P., et al., Uncertainty estimates in regional and global observed temperature changes: A new data set from 1850. J. Geophys. Res., 2006. 111(p. D12106 1-21; doi:10.1029/2005JD006548; see http://www.cru.uea.ac.uk/cru/info/warming/.

[17] Karl, T.R., et al., The Recent Climate Record: What it Can and Cannot Tell Us. Rev. Geophys., 1989. 27(3): p. 405-430.

[18] Hubbard, K.G., X. Lin, and E.A. Walter-Shea, The Effectiveness of the ASOS, MMTS, Gill, and CRS Air Temperature Radiation Shields. J. Atmos. Oceanic Technol., 2001. 18(6): p. 851-864.

[19] MacHattie, L.B., Radiation Screens for Air Temperature Measurement. Ecology, 1965. 46(4): p. 533-538.

[20] Rüedi, I., WMO Guide to Meteorological Instruments and Methods of Observation: WMO-8 Part I: Measurement of Meteorological Variables, 7th Ed., Chapter 1. 2006, World Meteorological Organization: Geneva.

[21] Berry, D.I. and E.C. Kent, Air–Sea fluxes from ICOADS: the construction of a new gridded dataset with uncertainty estimates. International Journal of Climatology, 2011: p. 987-1001.

[22] Challenor, P.G. and D.J.T. Carter, On the Accuracy of Monthly Means. J. Atmos. Oceanic Technol., 1994. 11(5): p. 1425-1430.

[23] Kent, E.C. and D.I. Berry, Quantifying random measurement errors in Voluntary Observing Ships’ meteorological observations. Int. J. Climatol., 2005. 25(7): p. 843-856; doi: 10.1002/joc.1167.

[24] Kent, E.C. and P.G. Challenor, Toward Estimating Climatic Trends in SST. Part II: Random Errors. Journal of Atmospheric and Oceanic Technology, 2006. 23(3): p. 476-486.

[25] Kent, E.C., et al., The Accuracy of Voluntary Observing Ships’ Meteorological Observations-Results of the VSOP-NA. J. Atmos. Oceanic Technol., 1993. 10(4): p. 591-608.

[26] Rayner, N.A., et al., Global analyses of sea surface temperature, sea ice, and night marine air temperature since the late nineteenth century. Journal of Geophysical Research-Atmospheres, 2003. 108(D14).

[27] Emery, W.J. and D. Baldwin. In situ calibration of satellite sea surface temperature. in Geoscience and Remote Sensing Symposium, 1999. IGARSS ’99 Proceedings. IEEE 1999 International. 1999.

[28] Emery, W.J., et al., Accuracy of in situ sea surface temperatures used to calibrate infrared satellite measurements. J. Geophys. Res., 2001. 106(C2): p. 2387-2405.

[29] Woodruff, S.D., et al., The Evolving SST Record from ICOADS, in Climate Variability and Extremes during the Past 100 Years, S. Brönnimann, et al. eds, 2007, Springer: Netherlands, pp. 65-83.

[30] Brooks, C.F., Observing Water-Surface Temperatures at Sea. Monthly Weather Review, 1926. 54(6): p. 241-253.

[31] Saur, J.F.T., A Study of the Quality of Sea Water Temperatures Reported in Logs of Ships’ Weather Observations. J. Appl. Meteorol., 1963. 2(3): p. 417-425.

[32] Barnett, T.P., Long-Term Trends in Surface Temperature over the Oceans. Monthly Weather Review, 1984. 112(2): p. 303-312.

[33] Anderson, E.R., Expendable bathythermograph (XBT) accuracy studies; NOSC TR 550 1980, Naval Ocean Systems Center: San Diego, CA. p. 201.

[34] Bralove, A.L. and E.I. Williams Jr., A Study of the Errors of the Bathythermograph 1952, National Scientific Laboratories, Inc.: Washington, DC.

[35] Hazelworth, J.B., Quantitative Analysis of Some Bathythermograph Errors 1966, U.S. Naval Oceanographic Office Washington DC.

[36] Kennedy, J.J., R.O. Smith, and N.A. Rayner, Using AATSR data to assess the quality of in situ sea-surface temperature observations for climate studies. Remote Sensing of Environment, 2012. 116(0): p. 79-92.

[37] Hadfield, R.E., et al., On the accuracy of North Atlantic temperature and heat storage fields from Argo. J. Geophys. Res.: Oceans, 2007. 112(C1): p. C01009.

[38] Castro, S.L., G.A. Wick, and W.J. Emery, Evaluation of the relative performance of sea surface temperature measurements from different types of drifting and moored buoys using satellite-derived reference products. J. Geophys. Res.: Oceans, 2012. 117(C2): p. C02029.

[39] Frank, P., Uncertainty in the Global Average Surface Air Temperature Index: A Representative Lower Limit. Energy & Environment, 2010. 21(8): p. 969-989.

[40] Frank, P., Imposed and Neglected Uncertainty in the Global Average Surface Air Temperature Index. Energy & Environment, 2011. 22(4): p. 407-424.

[41] Hansen, J., et al., GISS analysis of surface temperature change. J. Geophys. Res., 1999. 104(D24): p. 30997–31022.

[42] Hansen, J., et al., Global Surface Temperature Change. Rev. Geophys., 2010. 48(4): p. RG4004 1-29.

[43] Jones, P.D., et al., Surface Air Temperature and its Changes Over the Past 150 Years. Rev. Geophys., 1999. 37(2): p. 173-199.

[44] Jones, P.D. and T.M.L. Wigley, Corrections to pre-1941 SST measurements for studies of long-term changes in SSTs, in Proc. Int. COADS Workshop, H.F. Diaz, K. Wolter, and S.D. Woodruff, Editors. 1992, NOAA Environmental Research Laboratories: Boulder, CO. p. 227–237.

[45] Jones, P.D. and T.M.L. Wigley, Estimation of global temperature trends: what’s important and what isn’t. Climatic Change, 2010. 100(1): p. 59-69.

[46] Jones, P.D., T.M.L. Wigley, and P.B. Wright, Global temperature variations between 1861 and 1984. Nature, 1986. 322(6078): p. 430-434.

[47] Emery, W.J. and R.E. Thomson, Data Analysis Methods in Physical Oceanography. 2nd ed. 2004, Amsterdam: Elsevier.

[48] Frank, P., Negligence, Non-Science, and Consensus Climatology. Energy & Environment, 2015. 26(3): p. 391-416.

[49] Folland, C.K., et al., Global Temperature Change and its Uncertainties Since 1861. Geophys. Res. Lett., 2001. 28(13): p. 2621-2624.

Link: https://wattsupwiththat.com/2016/04/19/systematic-error-in-climate-measurements-the-surface-air-temperature-record/

Übersetzt von Chris Frey EIKE




Glücklicherweise zeigt eine Umfrage, dass viele Klassenlehrer das Klimawandel-Dogma zurückweisen

[*Der Terminus „Science teacher“ lässt sich nur schwer übersetzen, weil es eben nicht einfach nur „Wissenschafts-Lehrer“ sind. Der Einfachheit halber übersetze ich im Folgenden immer nur mit dem Begriff „Lehrer“, gemeint sind aber immer nur die Lehrer naturwissenschaftlicher Fächer. Anm. d. Übers.]

Etwa 75 Prozent der Lehrer gaben der Umfrage zufolge an, dass sie über globale Erwärmung im Klassenraum reden, typischerweise weniger als eine Stunde oder zwei im Verlauf eines akademischen Jahres. Von jenen, die das tun, propagiert nur etwa die Hälfte aller Lehrer die falsche Behauptung der Alarmisten, der zufolge 97 Prozent aller Wissenschaftler den Verbrauch fossiler Treibstoffe seitens der Menschen als Ursache eines katastrophalen Klimawandels ausgemacht haben. Etwa 30 Prozent aller Lehrer, die über den Klimawandel sprechen sagen, dass der Mensch teilweise verantwortlich ist, räumen aber auch ein, dass natürliche Kräfte eine Rolle spielen. Etwa 10 Prozent weisen zurück, dass die Menschen überhaupt irgendeine Rolle bzgl. des Klimawandels spielen, und etwa 5% all derjenigen, die über Klimawandel im Klassenraum reden, sprechen überhaupt nicht über die Gründe dafür.

Was aber positiv ist: während 68% der Befragten angaben, dass sie persönlich an den Menschen als

Ursache für die globale Erwärmung glauben, sagen viele, dass sie ihre persönliche Meinung nicht vor der Klasse ausbreiten. Vielmehr ziehen sie es vor, die wissenschaftliche Methode zu erläutern und eine ausgeglichene Ansicht der Beweise präsentieren.

Ich habe daran gearbeitet, Parteilichkeit auf beiden Seiten der Klimawandel-Debatte aus Lehrbüchern über soziale Studien herauszuhalten – dennoch hat Texas die Übernahme im Jahre 2014 genehmigt. Außerdem habe ich darum gekämpft zu verhindern, dass ausgewogene Klimawissenschaft aus den Lehrplänen in West Virginia herausgestrichen wird. Aufgrund dieser Erfahrungen habe ich lange befürchtet, dass der Kampf um die Herzen und Gehirne der amerikanischen Jugend bzgl. Klimathemen verloren ist. Die jüngsten Ergebnisse der nationalen Umfrage sollte den Klimarealisten überall neue Hoffnung geben.

Der Klimawandel findet statt. Tatsächlich ändert sich das Klima der Erde immer, aber es gibt derzeit eine bedeutende wissenschaftliche Debatte, ob menschliche Aktivitäten für den gesamten Klimawandel, teilweise oder überhaupt nicht dafür verantwortlich sind. Trotz gegenteiliger Behauptungen einiger Alarmisten der globalen Erwärmung stimmen die Wissenschaftler noch nicht einmal in der Frage überein, ob ein wärmeres Klima vorteilhaft oder schädlich ist.

Was in den Klassenräumen unserer Nation über Klimawandel gelehrt wird, sollte die begrenzte Natur dessen reflektieren, was wir mit Vertrauen bzgl. des zukünftigen Klimas sagen können und die Gründe für jedwede Änderung. Glücklicherweise scheint es so, dass die Hälfte aller Lehrer, die das Thema Klimawandel im Unterricht behandeln, der Ansicht sind, dass man den Kindern unter ihrer Obhut diese Wahrheit lehren müsse.

Falls diese Umfrage ein genaues Bild der wirklichen Vorgänge in den Klassenzimmern der USA ist, gibt es immer noch Raum für Befürworter eines gesunden, ausgewogenen und nuancierten Verständnisses der Klimawissenschaft und der Politik, den Lehrern an Schulen genau dies nahezubringen.

Klimarealisten sollten konzertierte Bemühungen starten, um die Lehrer in die Klimawandel-Debatte einzubeziehen. Die Bemühungen sollten sich konzentrieren auf die Überredung jener 50 Prozent der Lehrer, die leugnen, dass es irgendwelche Unsicherheiten bzgl. der menschlichen Ursachen gebe und sie offener für die Infragestellung katastrophaler Konsequenzen von Klimawandel zu machen. Sie sollten Überzeugungsarbeit leisten, dass diese Lehrer anerkennen, dass natürliche Faktoren zum Klimawandel beitragen, dass ein sich änderndes Klima wahrscheinlich zu Vorteilen und Kostenersparnis führt und dass die Vorschläge, die gegenwärtig von den Regierungen zum Kampf gegen die globale Erwärmung durchgepeitscht werden, einen hohen Preis erfordern und nahezu keinen Einfluss auf steigende Temperaturen oder Wetterbedingungen haben.

Lehrer, die eine ausgewogene Präsentation der Fakten bzgl. des Klimawandels präsentieren, sollte man mit qualitativ hochwertigen Lehrmaterialien versorgen. Man sollte ihnen außerdem erlauben, Außenstehende einzuladen, die eine realistische Ansicht von Klimawissenschaft und Politik präsentieren können. Lehrer, die sich um eine profunde, ausgewogene Darstellung der Wissenschaft bemühen, sollten belohnt und gefördert werden.

Wenn man die Lehrer ermutigt, der wissenschaftlichen Methode zu folgen, für welche die stetige Praxis vernünftigen Skeptizismus‘ erforderlich ist ebenso wie das Testen der Theorie gegen beobachtete Fakten – alles angesichts des Medien-Hypes und des Druckes von Umweltaktivisten, das alarmistische Dogma in den Klassen zu lehren – könnte dies der nachhaltigste Weg sein um sicherzustellen, dass eine misanthropische Klimapolitik nicht auf eine unwissende und falsch informierte Öffentlichkeit losgelassen wird, heute nicht und in Zukunft nicht.

Falls Ihr Schulkind Sie nicht fragt, warum sie zur Zerstörung der Erde beitragen, danken Sie dem Lehrer Ihres Kindes, dass er sich an eine faire und ausgewogene Sicht auf die Klimawissenschaft gehalten hat. Falls Ihr Kind wiederholt falsche Behauptungen der Klimaalarmisten von sich gibt, dann machen Sie ihr Kind (und dessen Lehrer) mit den wissenschaftlichen Fakten vertraut.

Link: http://news.heartland.org/editorial/2016/04/05/thankfully-survey-shows-many-science-teachers-reject-climate-change-dogma

Übersetzt von Chris Frey EIKE




Ist die Globale Erwärmung neu für Sie? James Hansen räumt einige Dinge über die globalen Temperaturen und den Meeresspiegel ein, die Sie kennen sollten.

Das Interview finden Sie hier:

James Hansen, die Wissenschaft verlangt Aktivismus für das Klima auf YaleEnvironment360. Das Interview wurde in The Guardian wiederholt mit dem Titel: "Ich glaube nicht, dass ich ein Alarmist bin“.

Zunächst waren die globalen Oberflächentemperaturen während der letzten Zwischeneiszeit wärmer als heute. Ein Interglacial ist eine Zeit zwischen zwei Eiszeiten. Das wird neu für viele Leser sein.

Wie dann, werden sich viele fragen, wissen wir sicher, dass die jüngste Erwärmung durch vom Menschen verursachte Treibhausgase verursacht wurde, da wir immer noch im Bereich der natürlichen Variabilität sind?

Natürlich ist die Antwort: Die Klimamodelle sagen es uns, auch wenn diese Klimamodelle nicht das Klima der Erde simulieren, wie es in der Vergangenheit bestand, wie es jetzt ist und wie es in der Zukunft sein könnte … Klimamodelle simulieren nicht natürlich vorkommende Ozean-Atmosphäre-Prozesse, welche globale Erwärmung verursachen können.

Hansen‘s zweite Anerkennung war, dass der Meeresspiegel während der letzten Zwischeneiszeit 6 bis 9 Meter höher war als heute.

Hier ist eine Illustration aus meinem E-Book:

On Global Warming and the Illusion of Control – Part 1

700 Seiten, 25MB, pdf  [Über die globale Erwärmung und die Illusion von Kontrolle]

 

Pegelstände während und zwischen den Eiszeiten und Heute

Aber Hansen versäumte zu erzählen, dass paläoklimatologische Studien gezeigt haben, dass es einige Tausend Jahre dauerte, bis der Meeresspiegel um 6 bis 9 Meter anstieg, als die Temperaturen höher als heute waren:

 Dutton & Lambeck (2012) Ice volume and sea level during the last interglacial.

   [Eisvolumen und Meeresspiegel während der letzten Zwischeneiszeit]

Der entsprechende Teil des Interviews mit Hansen (Fettdruck und Klammern von Bob Tisdale)

James Hansen: Wir wissen aus der Geschichte der Erde, dass 2 Grad [mehr] schließlich zum Anstieg des Meeresspiegels von mehreren Metern führen würden. Die letzte innere glaziale (Seufzer) Zeit vor 120.000 Jahre (das sollte Interglaziale Periode heißen), das war das letzte Mal, dass es wärmer war als heute, war der Meeresspiegel 6 bis 9 Meter höher – das würde den Verlust von fast allen Küstenstädten bedeuten. Es ist undenkbar, dass wir offenen Auges in eine solche Situation laufen und ja, die Wissenschaft versteht das sehr gut.

Es gibt keinen Streit über die Tatsache, dass wir die Küstengebiete verlieren, die jetzt von den meisten der großen Städte der Welt besetzt sind. Es ist nur eine Frage, wie bald. Ich glaube nicht, dass diese Botschaft den politischen Entscheidungsträgern und der Öffentlichkeit klar rüber gebracht wurde…

Wenn ich neu wäre bei Diskussionen über die globale Erwärmung und den Anstieg des Meeresspiegels, dann hätte ich das Interview weit genug gelesen. Er hätte mich genau damit zu einem Skeptiker gemacht.

Aber im Gegensatz zu seinen Behauptungen über Alarmismus, führt Hansen dann weiter fort einen Alarmisten zu spielen und zu diskutieren, wie seine jüngsten Bemühungen mit der Modellierung und dem daraus resultierenden Paper zeigen, dass der Anstieg – vielleicht –sogar – abrupt auftreten könnte.

 … Mehr als 190 Nationen vereinbarten [auf der Pariser Klimakonferenz im vergangenen Dezember], dass wir den gefährlichen, vom Menschen verursachten Klimawandel vermeiden sollten. Der Verlust von Küstenstädten wäre ein gefährliches Ergebnis. Es ist schwer vorstellbar, dass die Welt regierbar sein wird, wenn dies relativ schnell geschieht. Was wir feststellen ist, dass die Zeitscala für den Zerfall der Eisdecke wahrscheinlich viel kürzer ist, als es in den Diskussionen zwischen den Regierungen angenommen wird.

Natürlich, auch die Befürworter der Hypothese der vom Menschen verursachten globalen Erwärmung empfanden die jüngste Hansen et al. (2016) Studie als Unsinn (Eisschmelze, Anstieg des Meeresspiegels und Superstürme: Beweise aus Paleoklimatischen Daten, Klimamodellierung und moderne Beobachtungen, dass 2 ° C globale Erwärmung gefährlich sein könnte)

[Aber alarmistisch im Handelsblatt vom 22. April wiederholt; der Übersetzer].

Schon der Titel des Papers enthält die oft gebrauchte zweideutige Ausdrucksweise „könnte". Lesen sie hier Beiträge bei WattsUpWithThat:

· James Hansen’s latest doomsday paper falls flat on its face, grounds his ‘flying boulders’
[James Hansen neuestes Weltuntergangs Paper fällt flach auf die Nase, holt seinen "fliegenden Schutt“ auf die Erde zurück

· Schism on the Left: James Hansen’s climatic ‘canon’ gets fired from a cannon
[Schisma auf der Linken: James Hansen Klima ‚Kanon‘ wird aus einer Kanone abgefeuert]

Feststellungen:

Zwei Kapitel aus meinem o.g. E-book: On Global Warming and the Illusion of Control – Part 1.

Von der Festellung bis Kapitel 1.16 – der Meeresspiegel steigt

  • Dieses Kapitel beginnt: Für viele Menschen, vor allem für Personen die in der Nähe der Küsten leben, ist der Meeresspiegel kritische verknüpft mit der globalen Erwärmung und dem Klimawandel.

Der Meeresspiegel ist seit dem Höhepunkt der letzten Eiszeit gestiegen, und wenn sich die Geschichte wiederholt, wird er auch weiterhin steigen bis zur Höhe während der letzten Zwischeneiszeit: 5 bis 10 Meter höher.

Aber wie in diesem Kapitel beschrieben, gibt es eine Vielzahl von Faktoren, die zum Anstieg beitragen können oder in den lokalen Meeresspiegel fallen [z.B. Absenkung der tektonischen Platten]. Der Anstieg des Meeresspiegels ist daher ein lokales Problem, sowie die Maßnahmen, um das Problem zu bekämpfen, wie ich in diesem Kapitel bereits viele Male erwähnt habe. Viele Länder und Gemeinden führen bereits Maßnahmen durch, um die Auswirkungen des steigenden Meeresspiegels zu reduzieren – mit Methoden, die speziell für ihren Standort entworfen sind.

Unter der Annahme, dass vom Menschen verursachte Treibhausgase die Rate, mit der der  globale Meeresspiegel steigt, verursacht, würde eine Reduzierung der mensch-gemachten Treibhausgas-Emissionen die Steigerungsrate nur verlangsamen, aber nicht stoppen. Doch nochmal, die Houston & Dean Studie (2010): Meeresspiegel-Beschleunigung, basierend auf dem US-Küstenpegel und Erweiterungen der bisherigen Globalen-Pegel Analyse, stellt fest, dass der Anstieg des Meeresspiegels sich nicht mit der globalen Erwärmung beschleunigt hat.

Und nach der Einleitung, die ich mit Diskussion unter der Überschrift des Meeresspiegels anfing, gibt es AUF DER ANDEREN SEITE, ein völlig anderes Problem:

Nochmals, auch wenn wir den CO2-Gehalt auf vorindustrielle Werte zurückdrehen könnten, der Meeresspiegel würde weiter steigen. Der Meeresspiegel steigt seit dem Ende der letzten Eiszeit und wird dies auch weiterhin tun, bis die Erde wieder abkühlt und wir in Richtung der nächsten Eiszeit kommen. Das heißt, der einzige Weg, den Anstieg des Meeresspiegels zu verhindern, ist Wasser auf dem Land in Form von Eis zu akkumulieren.

Ferner ist die Geschwindigkeit, mit der der globale Meeresspiegel steigt, in Reaktion auf die hypothetischen Auswirkungen der vom Menschen verursachten Treibhausgase, Gegenstand von weiten Bereichen der Unsicherheit und der offenen Debatte … und das Thema zu viel mehr Alarmismus von Aktivisten und den Medien, wenn das überhaupt möglich ist.

Und ich schließe die Diskussion mit dieser Aussage:

Die lächerlichen Vorschläge von Politikern und Panikmachern, dass wir den Anstieg des Meeresspiegels durch Reduzierung der Treibhausgase steuern könnten, ist einer der Hauptgründe für den Titel dieses Buches: Über die globale Erwärmung und die Illusion von Kontrolle.

Erschienen auf WUWT am 13. April 2016

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2016/04/13/are-you-new-to-the-global-warming-debate-james-hansen-admits-a-couple-of-things-about-global-temperatures-and-sea-levels-you-should-know/




U.A.w.g- arte Sendung: Die große Stromlüge -verlogener kann eine Sendung nicht sein

Peter Würdig, Oberreihe 5, 21782 Bülkau-Aue

Infoo@pww.dewww.pww.de

Datum: 9.4.2016

Sendung: Die Stromlüge

im Kanal Arte der ARD

Stellungnahme.

Bei dieser Sendung muss man sich fragen, ist es tatsächlich die Stromlüge oder ist nicht vielmehr die Sendung selbst die Lüge, zumindest fällt auf, dass die Sendung eine verworrene Anhäufung von fragwürdigen Teil-Aspekten des Themas ist und dass den Autoren eine fachliche Beratung insbesondere im Bereich der Ingenieurwissenschaften wohl gefehlt hat, anders kann man sich die vielen Fehler nicht recht erklären.

Video der arte Doku: Die große Stromlüge; In der Mediathek gibt arte fälschlich den 19.4.16 als Termin der Erstausstrahlung an (hier)

Es werden im folgenden Beispiele von fragwürdigen Teilen der Sendung besprochen, ohne Anspruch auf Vollständigkeit. 

Punkt eins.

Im Anfang der Sendung wird gezeigt, dass durch die hohen Preise für elektrische Energie Menschen in der Folge zu leiden haben, da sie dadurch ihre Wohnung nicht ausreichend beheizen können. Der Fehler ist, dass elektrische Energie eigentlich nicht für Zwecke der Beheizung von Wohnungen verwendet werden sollte, denn dabei würde Edel-Energie in minderwertige Energie umgewandelt. Stattdessen wäre es besser, die Wohnung mit fossilen Brennstoffen, am besten mit Holz zu beheizen, und wenn die Dame nun zu alt und zu gebrechlich ist um selbst Holz zu sammeln oder zu beschaffen, dann müssten das ihre Kinder tun oder eine soziale Einrichtung. Hohe Strompreise haben auf die Kosten von Brennholz nur eine untergeordnete Wirkung.

Nun wird in der Sendung auch davon gesprochen, dass die Preise für Gas zu hoch sind, aber diese wiederum sind nicht eine unmittelbare Folge der Preise für elektrischen Strom, und das ist ein Beispiel, wie in der Sendung verschiedene Dinge ziemlich unreflektiert zusammengeworfen werden. Fragwürdig auch, warum man gerade England als Beispiel für Kälte-Tote heranzieht, der Winter bringt in Ländern wie Estland oder Norwegen ganz andere Anforderungen als der verhältnismäßig milde Winter auf der britischen Insel. 

Punkt zwei

„Strom sollte billiger werden und verstärkt aus erneuerbaren Energien gewonnen werden.“ Das ist ein Widerspruch in sich. Die sog. „erneuerbaren Energien“ konnten von Anfang an nur durch massive Subventionsversprechen in Gang gebracht werden, diese Subventionen muss am Ende der Verbraucher bezahlen, die Teuerung war das politische Ziel, einzig der Umfang der Teuerung wurde bewusst nicht klar dargestellt. Bekannt ist die Aussage von Trittin, diese Teuerung wäre nur vergleichbar mit dem Preis einer Eiswaffel pro Monat für eine Familie, und für so einen bescheidenen Aufpreis sollte man sich eine Energieerzeugung, die aus ideologischen Gründen im Sinne einer Heilsbotschaft als besonders edel dargestellt wurde, wohl leisten können. Bei dem Aufpreis in Höhe einer Eiswaffel ist es geblieben, aber eben nicht pro Monat sondern pro Tag oder pro Stunde oder in noch kürzeren Zeitabschnitten.

Lüge also hier: billiger werden war gar nicht beabsichtigt, teurer sollte es werden, fragt sich nur, wie viel  teurer.

Allen Anhängern von „grünen“ Energien war immer bewusst, dass sie das, was da als Botschaft verkündet wurde, ziemlich teuer sein würde, und deshalb kam immer wieder die Hoffnung und die Prognose, dass die konventionellen Energien sich verknappen und teurer werden würden sodass sich dann ihr Lieblingskind auch ökonomische rechnen würde. Diese Prognose ist allerdings nicht aufgegangen, die konventionellen Energien haben ihren Preis einigermaßen halten können oder wurden nur maßvoll teurer, und da die „grünen“ Energien auch jetzt  nicht mithalten können versucht man, die konventionellen Energien künstlich zu verteuern, indem man ihnen sog. „externe“ Kosten zurechnet (was weitgehend ein Phantasieprodukt ist) oder indem man sie mit zusätzlichen Abgaben belastet um den Preis irgendwie in die Höhe zu treiben. 

Punkt drei.

„Liberalisierung des Strommarktes“. Über Liberalisierung  auf europäischer Ebene kann man nachdenken, aber die Voraussetzung ist schon mal die Liberalisierung im nationalen Rahmen, und schon daran fehlt es, insbesondere der politische Wille dazu. In Deutschland wurde Liberalisierung und Marktwirtschaft praktisch abgeschafft, vor allem durch das EEG und den Atomausstieg. Statt Marktwirtschaft gab es den Einstieg in eine Planwirtschaft mit weitgehend staatlichen Vorgaben, Unternehmen, die in der Lage waren, Strom sehr preiswert anzubieten wurden durch staatliche Gewalt gezwungen ihre Anlagen stillzulegen, und sog. Erneuerbare Energien wurden durch ein sehr kostspieliges Subventionssystem in die Produktion gebracht, dadurch wiederum wurden sehr moderne Anlagen wie Gaskraftwerke unrentabel und zum Aufgeben gezwungen, ebenso kommunale Anbieter, insgesamt ein desaströses System, das mit „Liberalisierung“ nichts hat, es ist das Gegenteil davon.

In Frankreich wiederum ist die Situation ganz anders, es gibt ein staatliches Monopol, die EDF, und damit hat man alle Vorteile, die ein marktwirtschaftliches System hätte gar nicht erst angefangen.

Liberalisierung auf europäischer Ebene ist auch nur eine Sprechblase, denn alle, die das schwafeln übersehen geflissentlich, dass es technische Gegebenheiten sind, die das vereiteln, denn elektrische Energie kann man über sehr große Entfernungen eben nur mit erheblichen Verlusten transportieren, daher scheitert das von Anfang an. Typisch ist jedoch, dass alle die, die von Technik nichts verstehen, weiter in diesem Sinne schwadronnieren, wie das real aussehen soll und wo die Kosten liegen, das hat da noch keiner ausgerechnet.

Punkt vier

„Positives Gefühl mit der Energiewende“, das ist zunächst richtig, denn einerseits gibt es eine massive Propaganda in den staatlich gelenkten Medien, die den Menschen Illusionen vorgaukelt, und zweitens ist es eben nur „das Gefühl“, man fühlt zwar, aber man denkt nicht nach, und gerechnet wird schon gar nicht, das heißt, der Verstand ist weitgehend ausgeschaltet. 

Punkt fünf

„97 % der Jugendlichen wollen nur eneuerbare Energien“. Hier wird die Unwissenheit von jungen Menschen rücksichtslos ausgenutzt. Wenn diese jungen Menschen ihr Haus an erneuerbare Energien anschließen würden sie sehr bald merken, was es heißt, mit der Stromversorgung vom Wetter abhängig zu sein und manchmal Stunden und Tage im Dunkeln und in Kälte zu sitzen, da würde sich die Einstellung zu dieser Energieart sehr schnell ändern. Es stellt sich nur die Frage, warum man diese Frage nicht diesem Schwätzer, dem Herrn Fell, einmal gestellt hat und welche Ausreden er dann von sich gibt. 

Punkt sechs

„Man hat nicht gegen gesteuert durch Klimaschutzinstrumente“. Wie sollen denn diese „Instrumente“ aussehen ? Man will (oder soll) durch Abgaben die Kohle teurer machen, aber das nützt nichts, das würde nur den Preis weiter in die Höhe treiben, denn nachts ist es dunkel, Photovoltaik liefert also nichts, und Wind ist auch nur manchmal da, also müssen Kohle und/oder Kernenergie weiter liefern und auch ständig in Bereitschaft gehalten werden, was auch schon enorm kostet. Aus diesem Dilemma gibt es keinen Ausweg, und da hilft auch alle Schwätzerei der Kempfert nicht. Das war übrigens von Anfang an allen Beteiligten bekannt, aber man hat sich selbst was in die Tasche gelogen (und tut das erst mal weiter so).

Auch Zertifikate als „Klimaschutzinstrumente“ helfen hier nicht, der Sinn der Zertifikate ist es ja, den Produzenten auf eine Alternative der Energieerzeugung zu schieben, aber diese Alternative ist technisch nicht realisierbar, denn zuverlässige elektrische Energie gibt es eben nur durch Kohle oder Atom. Auch der Gedanke, durch verbesserte Effizienz noch etwas zu erreichen geht fehl, denn dieses Potential ist in aller Regel inzwischen weitgehend ausgenutzt, da ist das Ende der technischen Möglichkeiten nahezu überall erreicht.

Punkt sieben

Die angeblichen Gefahren der Kohle-Energie werden übertrieben, denn die Filter-Elemente stehen auf dem neuesten Stand der Technik. Von diesen Leuten (BUND und andere) werden gerade der Bau neuerer Kraftwerke mit verbesserter Technik so weit wie möglich verhindert, aber einen sinnvollen Ausweg können diese Leute auch nicht vorweisen.

Punkt acht.

„Viertausend Todesfälle pro Jahr“. Ist natürlich eine rein hypothetische Zahl, andere Untersuchungen kommen zu anderen Ergebnissen oder zu keinen Todesfällen. Selbst wenn das in etwa stimmen sollte,wäre das ziemlich bescheiden, das Rauchen kostet 100.000 Todesfälle pro Jahr, also sehr viel mehr, und die Leute hören auch mit dem Rauchen nicht auf. Also, wollen wir nun Strom haben oder nicht ? Auch hier gibt es wieder keine brauchbare Antwort. 

Punkt neun

Braunkohlentagebau und die Umsiedlung von Dörfern. Braunkohle wird seit Jahrhunderten im Tagebau gewonnen, das ist nun nicht neu und für die Betroffenen, die eine Umsiedlung verkraften müssen, nicht so angenehm. Man versteht nicht, warum die Jammerei eines Einzelnen in der Sendung einen so breiten Raum einnimmt, der hat sich wohl einen sehr preiswerten Baugrund ausgesucht obwohl er die Folgen kannte. Hier piekst die Sendung in unverantwortlicher Weise auf das Gefühl von Menschen an, obwohl jedem klar ist, dass es anders nicht geht. Diese Teile der Sendung sind insgesamt eigentlich überflüssig und dumm, eine ziemlich blöde Rührduselei. „Das Geld, der Kapitalismus“ ? So ein Unfug. Es soll Strom produziert werden, und die, die so klagen, wollen auch eine Steckdose im Haus haben. Die Heuchelei kennt keine Grenzen. 

Punkt zehn

Wenn man selbst nicht produziert, dann muss man importieren. Das ist richtig. Schön, dass in der Sendung nach dieser endlos langen Duselei auch mal wieder etwas Vernünftiges gesagt wird. 

Punkt elf

Das Hin- und Her mit dem Abschalten der Kernenergie ist ein Nonsens, insgesamt unvernünftig. Das einzig Richtige wäre hier, den Markt regieren zu lassen, das heißt, Kernkraftwerke werden dann abgeschaltet, wenn günstigere Alternativen zur Verfügung stehen, wann das ist, weiß heute niemand. So mischt sich der Staat in die Energiewirtschaft ein, für seine Fehler beschimpft er auch noch die anderen, und für uns alle wird das dann ziemlich teuer, natürlich. 

Punkt zwölf

„Achtzig Euro die Tonne“. Sehr hypothetische Rechnereien, weitgehend Phantasiewerte um die eigene Ideologie zu unterstützen. Die CO2-Propaganda ist eine höchst fragwürdige Geschichte. Tatsächlich steigt der CO2-Anteil in der Luft, aber es wird verschwiegen, dass CO2 die Voraussetzung für das Pflanzenwachstum ist und dass eine höhere Konzentration dieses Spurengases überwiegend positive Wirkungen hat. Das ist die größte Lüge in dieser Szenerie (und auch in der Sendung).

Punkt dreizehn

Dass die Sendung das Beispiel Spanien gebracht hat, ist sehr lehrreich. Es ist richtig, dass eine große Produktion von Solarstrom das ganze Stromsystem ruinieren würde, das wusste man auch vorher, dass man das zunächst anders dargestellt hat ist ein politisches Problem, allerdings hätte jeder der Anleger wissen müssen, dass er sich auf ein politisches Spielchen eingelassen hatte, die Sucht auf schnellen Reibach hat die Leute blind gemacht, da ist Mitgefühl nicht angebracht. Es ist allerdings nicht der Unterschied von 50 Euro oder 90 Euro, der Punkt liegt ganz woanders. Jeder dieser Sonnenenergie-Anleger hat immer noch die Möglichkeit, sein Produkt im Markt anzubieten, und nun endlich kommt die Wahrheit heraus (die immer klar war), dieses Produkt ist praktisch wertlos. Niemand kauft freiwillig spanischen Solarstrom, auch die Autoren der Sendung würden das nicht tun. Strom ist erst dann marktfähig, wenn er rund ums Jahr im Rhythmus 24/7 zur Verfügung steht, das heißt, diese Solar-Anleger  hatten „vergessen“, ihre Anlagen mit Speichereinheiten auszustatten. Das ist das wahre Problem der „erneuerbaren Energien“, und wenn man die notwendigen Speichereinheiten dazu stellt, dann wird die Sache so teuer, dass das niemals wettbewerbsfähig wird. Also müssten diese Solaranlagen eigentlich verschrottet werden, das ist die Wahrheit, wird leider in der Sendung nicht ausgesprochen. Wenn das für Solaranlagen im sonnenreichen Spanien schon so ist, wie trübe sehen die Marktchancen für Solaranlagen im sonnenärmeren Deutschland aus ? Das ist die Realität, und die wird erst mal mit einem riesigen Aufkommen von Subventionen verschleiert, und an dieser Verschleierung beteiligt sich auch diese Sendung. 

Später wird in der Sendung gesagt, dass die erneuerbaren spanischen Energien nun anfangen wettbewerbsfähig zu werden. Wenn dem so ist, warum tun sie es denn nicht ? Offensichtlich sind diese eben nicht wettbewerbsfähig, deshalb kauft niemand den solaren Strom. Man sieht, was herauskommt, wenn Wirtschaftsfachleute fabulieren, die von technischen Gegebenheiten nichts verstehen. 

Punkt vierzehn

Der Drehtüreffekt wird in der Sendung zu Recht angesprochen. Allerdings, die Einkommen, die hier gezahlt werden sind geradezu spartanisch im Vergleich zu dem, was von den deutschen Bankern abkassiert wird oder von Fußball-Funktionären, und die Energiefirmen liefern wenigstens ein volkswirtschaftlich wertvolles Produkt, was man von den anderen nicht sagen kann. 

Punkt fünfzehn

Man redet vom „Klimaschutz“, aber nirgends wird klar gemacht, dass die erneuerbaren Energien für den Klimaschutz unbrauchbar sind (weil eben die Speichereinheiten fehlen, die unbezahlbar sind). Das zeigt das Beispiel Deutschlands, denn man hat sehr hohe Subventionen für die erneuerbaren Energien ausgegeben, jedoch nichts Brauchbares erreicht, denn der Ausstoß von CO2 ist nicht wirklich vermindert worden, eher leicht gestiegen. Man will das nicht zugeben, weil man dann eingestehen müsste, dass die ganze Energiewendepolitik von Anfang an ein einziger Schwindel war. 

Punkt sechzehn

 

Die Investitionen der EdF. Eine Firma kann investieren oder auch nicht, und es kann passieren, dass die Investitionen verloren gehen. Dabei kann sich eine Firma total ruinieren, und dann muss sie Konkurs anmelden, und das bezahlen nicht die Stromkunden, sondern die Aktionäre. Der einzige Fehler ist hier, die EdF ist ein staatliches Unternehmen, ist für das System unverzichtbar und deswegen kann man die nicht in den Konkurs gehen lassen. Mit „Stromlüge“ hat das also nichts zu tun sondern mit der Tatsache, dass es in Frankreich eben keinen Markt gibt, hier hätte man rechtzeitig aufteilen und privatisieren müssen. Man sieht an diesem Beispiel, wie fragwürdig es ist, wenn man statt eines Marktes mit vielen Anbietern ein staatliches Monopol hat, diesem ist der Konsument am Ende hilflos ausgeliefert, von daher nicht zu verstehen warum in der Sendung für einen Übergang zu einem staatlichen Versorgungssystem geworben wird. 

Punkt siebzehn

„Spanien findet keinen Markt für seinen (erneuerbaren) Strom“. Warum verbrauchen sie den denn nicht im eigenen Land, da gibt es für diese Energien auch keinen Markt, wie wir vorher am Beispiel der spanischen Photovoltaik-Produzenten gesehen haben.

„Dieser kann nicht nach Frankreich transportiert werden, weil die nötige Infrastuktur fehlt“. Aber die Frage ist, warum soll denn Frankreich zu enormen Kosten erneuerbaren Strom einkaufen, den man in Spanien auch nicht haben will ? Und diese „nötige Infrastruktur“ würde ja ganz erhebliche Kosten bringen, die dann auch der Verbraucher zu tragen hätte, also ist das, was hier vorgeschlagen wird nur ein Modell für eine weitere erhebliche Kostensteigerung.

Man will die Kapazität um das 10-fache erhöhen (welche Kapazität gemeint ist wird nicht gesagt) und man will das Verbundziel um 15% erhöhen, alles dies auch nur Sprechblasen ohne jede Realität. 

Punkt achtzehn

„Ein Sechstel des europäischen Marktes soll vernetzt werden“. Wie soll denn das geschehen, internationale Stromleitungen hoher Kapazität, in denen große Mengen elektrischer Energie hin- und hergeschoben werden ? Das würde natürlich weitere erhebliche Kosten mit sich bringen, aber es würde keinen Nutzen bringen, denn nachts ist es dunkel, und zwar in ganz Europa, da kann man dann nicht solaren Strom durch die Netze schieben wollen. Also auch nur hohle Sprüche ohne jede sinnvolle Realisierung.

Punkt neunzehn

Die Ile de Sein. Die wollen auf erneuerbare Energien umsteigen, warum machen die denn das nicht, wenn das so toll ist ? Das Netz gehört der EdF, aber wer hindert denn die daran, ihr eigenes Netz aufzubauen und den Umstieg zu machen ? Offensichtlich haben die mal nachgerechnet und festgestellt, das wird dann unbezahlbar, aber auch dazu äußert sich die Sendung nicht. 

Punkt zwanzig

„Liberalisierung mit gleichzeitiger Regulierung stellt den Wettbewerb her“. Das ist ja ein Widerspruch in sich. Wer und was wird denn da „reguliert“, und wie soll diese Liberalisierung konkret aussehen ? Das wird nicht erklärt.  Also auch nur eine Sprechblase. 

Punkt einundzwanzig

Am Schluss heißt es, „eine saubere, unabhängige und erneuerbare Energie“.

Im Norden weht der Wind (der weht da aber beileibe nicht immer) und im Süden scheint die Sonne (die scheint nachts auch im Süden nicht). Mit schönen Bildern und einschmeichelnder Musik werden Illusionen aufgebaut, offensichtlich weit von jeder Realisierung. Das ist dann wirklich die „Stromlüge“, verlogener geht es nicht.

Punkt zweiundzwanzig

Zum Schluss zeigt man stimmungsvolle Bilder mit Windmühlen. Angesichts dessen, was man eigentlich über diese Technik hätte wissen müssen schon eine ziemliche Heuchelei. 

Es gibt noch viele weitere technisch offensichtlich unsinnige Aussagen in dieser Sendung, ich muss hier jedoch Schluss machen.

Peter Würdig

 




7 umweltliche Prophezeiungen vom Ersten Earth Day 1970, die sich als total falsch erwiesen haben

Ist irgendeine dieser düsteren Prophezeiungen eingetreten? Nein, aber das hat die Aktivisten nicht davon abgehalten, sich weiter Sorgen zu machen. Von Prophezeiungen bzgl. dem Ende der Zivilisation bis zu klassischen Bedenken bzgl. Peak Oil folgen hier sieben Prophezeiungen von Umweltaktivisten aus jener Zeit, die einfach nur total falsch waren.

1: „Während der nächsten 15 bis 30 Jahre wird die Zivilisation zusammenbrechen“

Der Harvard-Biologe Dr. George Wald warnte kurz vor dem Ersten Earth Day 1970, dass die Zivilisation bald zu Ende gehen wird, „es sei denn, sofortige Maßnahmen werden ergriffen gegen die Probleme, vor denen die Menschheit steht“. Drei Jahre vor dieser seiner Projektion wurde ihm der Nobelpreis für Physiologie oder Medizin verliehen (hier).

Wald war lautstarker Gegner des Vietnam-Krieges und des nuklearen Wettrüstens. Er flog sogar einmal nach Moskau, um den Führer der Sowjetunion bzgl. der Umwelt zu beraten.

Trotz seiner Hilfestellung für eine kommunistische Regierung besteht die Zivilisation immer noch. Der prozentuale Anteil der Amerikaner, die sich mit dem Zusammenbrechen der Zivilisation über Umweltbedrohungen Sorgen machen, ist stark zurückgegangen (hier).

2: „100 bis 200 Millionen Menschen pro Jahr werden während der nächsten zehn Jahre verhungern“

Der Stanford-Professor Dr. Paul Ehrlich erklärte im April 1970, dass eine Massenhungersnot unmittelbar bevorstehe. Seine düsteren Prophezeiungen haben sich jedoch nie materialisiert, ist doch die Anzahl der in Armut lebenden Menschen signifikant zurückgegangen (hier), und die Menge an Nahrungsmitteln pro Person ist stetig gestiegen (hier). Das BIP der Welt pro Person hat unermesslich zugenommen trotz der Bevölkerungszunahme (hier).

[Natürlich gibt es immer noch sehr viel Armut. Das liegt aber mit Sicherheit nicht an der Klimaentwicklung! Anm. d. Übers.]

Ehrlich ist zum allergrößten Teil für diesen Standpunkt verantwortlich (hier), fungierte er doch als Mitautor der Veröffentlichung „The Population Bomb“ zusammen mit dem Sierra Club im Jahre 1968. In dem Buch wurde eine Reihe von Behauptungen erhoben einschließlich der Aussage, dass Millionen von Menschen während der siebziger und achtziger Jahre verhungern würden; dass Massenhungersnöte England in den Untergang führen würden und dass ökologische Zerstörungen den Planeten verheeren würden, was zu einem Zusammenbruch der Zivilisation führen wird.

3: „Egal welche geringen Fortschritte der Versorgung mit Nahrungsmitteln erreicht werden – der Bevölkerungszuwachs wird dies unvermeidlich und vollständig übertreffen“

Ebenfalls Paul Ehrlich erhob diese Behauptung im Jahre 1970 kurz vor einer landwirtschaftlichen Revolution, die zu einer rapiden Zunahme der Nahrungsmittelversorgung der Welt führte (hier).

Ehrlich hat sich standhaft geweigert, seine Prophezeiungen zu korrigieren, nachdem er mit der Tatsache konfrontiert worden war, dass sie nicht eingetroffen sind. Im Jahre 2009 konstatierte er nur, dass „der vielleicht größte Flop in The Bomb war, dass die Zukunft viel zu optimistisch beurteilt worden ist“.

4: „Die Demographen stimmen fast völlig überein … in dreißig Jahren wird die ganze Welt in einer Hungersnot stecken“.

Umweltaktivisten aller Couleur glaubten wirklich an einen wissenschaftlichen Konsens, dem zufolge eine globale Hungersnot prophezeit wurde wegen des Bevölkerungswachstums in den Entwicklungsländern, vor allem Indien.

„Die Demographen stimmen fast einhellig hinsichtlich des folgenden düsteren Zeitplanes überein: bis 1975 werden in Indien verbreitet Hungersnöte ausbrechen, welche sich bis zum Jahr 1990 auf das gesamte Gebiet von Indien, Pakistan, China und den Nahen Osten ausbreiten werden. Bis zum Jahr 2000, wahrscheinlich aber schon eher, werden Süd- und Mittelamerika unter permanenter Hungersnot leben“. Dies sagte Peter Gunter, ein Professor an der North Texas State University in einer Ausgabe des Magazins The Living Wilderness [Die lebendige Wildnis] im Jahre 1970. „Um das Jahr 2000, also in dreißig Jahren, wird die gesamte Welt unter Hunger leiden, außer Westeuropa, Nordamerika und Australien“.

Indien, wo die Hungersnöte vermeintlich beginnen sollten, wurde jüngst zum weltgrößten Exporteur landwirtschaftlicher Produkte (hier), und das Nahrungsangebot pro Person in dem Land hat während der letzten Jahre drastisch zugenommen (hier). Tatsächlich ist die Anzahl der Menschen in jedem von Gunter gelisteten Land seit 1970 dramatisch gestiegen (hier).

5: „In einem Jahrzehnt werden Stadtbewohner Gasmasken tragen müssen, um die Luftverschmutzung zu überleben“.

Im Januar 1970 hieß es im Life Magazine, dass Wissenschaftler „solide und theoretische Beweise“ dafür hätten, dass „Stadtbewohner in einem Jahrzehnt werden Gasmasken tragen müssen, um die Luftverschmutzung zu überleben … bis 1985 wird die Luftverschmutzung die Menge der auf die Erde treffenden Sonneneinstrahlung um die Hälfte reduziert haben“.

Im Gegensatz zu dieser Prophezeiung hat sich die Luftqualität weltweit verbessert, wie die World Health Organization hier schreibt. Die Luftverschmutzung hat ebenfalls in den industrialisierten Ländern stark abgenommen (hier)*. Kohlendioxid, also das Gas, um das sich die Umweltaktivisten heutzutage sorgen, ist geruchlos, unsichtbar und in normalen Mengen für Menschen harmlos.

[*Na ja, in einigen begrenzten Gebieten ist die Luftverschmutzung aber doch zu einer Gefahr geworden. Anm. d. Übers.]

6: „Das Gebären von Kindern wird ein strafwürdiges Verbrechen gegen die Gesellschaft sein, es sei denn, die Eltern erhalten eine Lizenz von der Regierung“.

David Brower, der erste geschäftsführende Direktor des Sierra Clubs, stellte diese Behauptung hier auf und fuhr fort: „alle Eltern sollten gesetzlich verpflichtet werden, empfängnisverhütende Chemikalien einzunehmen. Die Regierung stellt Eltern, die zum Gebären von Kindern ausgewählt wurden, ein Gegenmittel zur Verfügung“. Brower war auch maßgeblich an der Gründung von Friends of the Earth [Ableger in D ist der BUND, Anm. d. Übers.] beteiligt sowie der League Of Conservation Voters. Außerdem prägte er in weiten Teilen die heutige Umweltbewegung.

Brower glaubte, dass die meisten Umweltprobleme ultimativ neuen Technologien zuzuschreiben waren, die es den Menschen erlaubten, natürliche Grenzen der Bevölkerungsmenge zu überwinden. Berühmt ist seine Behauptung vor seinem Tod im Jahre 2000, dass „jedwede Technologie schuldig gesprochen werden sollte, bis sie sich als unschuldig erweist“. Wiederholt plädierte er für eine gesetzliche Geburtenkontrolle.

Heute ist die einzige Regierung, die sich dieser Vision ansatzweise genähert hat, China. Dort jedoch hat man die Ein-Kind-Politik im Oktober vorigen Jahres abgeschafft (hier).

7:„Im Jahr 2000 wird es keinen Tropfen Rohöl mehr geben“.

Am Earth Day 1970 prophezeite der Ökologe Kenneth Watt prominent, dass der Welt das Öl ausgehen werde, und beschrieb dies so: „Man wird an eine Tankstelle fahren und sagen ,einmal auffüllen bitte!‘, und er wird sagen ,tut mir leid, hier gibt es nichts mehr!’“

Zahlreiche Akademiker wie Watt prophezeiten, dass die Ölerzeugung in Amerika um das Jahr 1970 ihren Höhepunkt überschreiten und dann graduell abnehmen werde, was vermutlich zu einem ökonomischen Einbruch führen würde. Allerdings hat die erfolgreiche Anwendung massiven hydraulischen Brechens oder Fracking zu einer massiven Renaissance der amerikanischen Ölerzeugung geführt, und gegenwärtig gibt es viel zu viel Öl auf dem Markt (hier).

Die amerikanischen Öl- und Erdgasreserven befinden sich auf ihrem höchsten Niveau seit 1972, und dank Fracking lag die amerikanische Ölerzeugung im Jahre 2014 um 80 Prozent höher als 2008.

Außerdem kontrollieren die USA inzwischen auch die größte, noch unangetastete Ölreserve der Welt (hier), nämlich die Green River Formation in Colorado. Diese Formation allein enthält 3 Billionen Barrel Schieferöl, von dem die Hälfte zum Abbau geeignet erscheint. Das ist fünfeinhalb mal so viel wie die nachgewiesenen Reserven von Saudi Arabien (hier). Diese einzelne geologische Formation könnte mehr Öl enthalten als alle nachgewiesenen Reserven der Welt zusammen.

(H/T, Ronald Bailey at Reason and Mark Perry at the American Enterprise Institute).

Link: http://dailycaller.com/2016/04/22/7-enviro-predictions-from-earth-day-1970-that-were-just-dead-wrong/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Bei diesen Vorhersagen geht es zwar nicht um die Bereiche Klima oder Energie, aber die Qualität der Prophezeiungen als solche kann man wohl auch auf die Erwärmungs-Fetischisten übertragen.




Tschernobyl – 30 Jahre danach

Was macht Tschernobyl so besonders?

Diese Katastrophe – Unfall wäre diesem Ereignis nicht angemessen – brach auch über die Fachwelt wie ein Tsunami herein. Man kann es nur verstehen, wenn man sich die Begriffe “Sowjetunion” (damals offiziell als das “Reich des Bösen” betitelt) – und “eiserner Vorhang” wieder vor Augen führt. Es gab kaum Informationen über Kernkraftwerke im “Ostblock”. Wenn überhaupt, wurden sie privat mit äußerster Zurückhaltung auf internationalen Kongressen etc. ausgetauscht. Für mich gibt es bis heute zwei Schlüsselerlebnisse für den damaligen Zustand: Das – auch im Westen sehr beliebte – Standardlehrbuch der DDR über Kernenergie (Tereza Khristoforovna Margulova, zahlreiche Bücher und über 300 Fachaufsätze), enthielt nur Zeichnungen und Bilder von westlichen Reaktoren. Es war also mehr ein “Wunschbuch” als ein Lehrbuch. Noch viel bewegender war für mich der offene Streit zwischen Edward Teller und der Reagan-Administration über die Geheimhaltungspolitik der USA: Edward Teller trat vehement für die Freigabe aller vorhandenen Informationen über die Sowjetunion ein, weil er der Meinung war, dies würde den Menschen die Augen öffnen über dieses System und zum unmittelbaren Zusammenbruch dieser “Weltmacht” führen.

In diese Stimmungslage platzte die Nachricht von Tschernobyl. Nicht etwa aus der Sowjetunion selbst, sondern aus Skandinavien und Frankreich. Man hat in beiden Ländern die radioaktiven Wolken mit den Überwachungssystemen der Kernkraftwerke erfaßt. Die Nachricht war nicht mehr geheim zu halten. Jedem Fachmann war klar, da mußte etwas unvorstellbares in der Ukraine passiert sein. Besonders kafkaesk mutete die Lage in der DDR an. Das “Westfernsehen” berichtete stündlich, die “Aktuelle Kamera ” machte noch tagelang weiter, als sei nichts geschehen. Ähnlichkeiten zu heutigem Regierungsverhalten sind keinesfalls zufällig, sondern eher von Kindheit an anerzogen. Was nicht in das eigene Weltbild zu passen scheint, wird lieber ignoriert und das eigene Nichthandeln läßt man regierungsamtlich als Besonnenheit verklären.

Die Reaktion in “West-Deutschland”

Die Wahrheit ist, das Land war überhaupt nicht vorbereitet. Kernkraftwerke sind sicher. Punkt. Nach dem Störfall von Harrisburg (TMI) galt das um so mehr: Reaktor Totalschaden, aber keine Verletzten und (praktisch) keine Freisetzung von Radioaktivität in die Umgebung – also alles richtig gemacht. Wer sich mit “schweren Unglücken” und Gegenmaßnahmen beschäftigte, arbeitete angeblich nur den “AKW-Gegnern” in die Hände. Ein schwerer Irrtum. Schon damals war Deutschland keine Insel der Glückseligen, umgeben von einem Meer ohne Kernenergie. Noch heute hält man eisern an dieser Ideologie fest. Man verklagt lieber Länder auf die Stilllegung ihrer Kraftwerke, als das man sich mit der Realität auseinandersetzt.

Durch die mangelnde Vorbereitung haben auch die Kernenergiebefürworter eine Chance verpasst. Man hätte die Ausbreitung, Kontaminierung von Boden und Lebensmitteln viel genauer dokumentieren können. Ein unschätzbarer Schatz gegen Kollektivdosen, LNT etc. Stattdessen waren die Messkampagnen höchst selten und unvollständig. Meist unorganisiertes Ergebnis privater Initiative.

Gleichwohl packte die “Angstindustrie” die Gelegenheit beim Schopfe. Tschernobyl sollte Greenpeace und Co. Millionen an Spendengelder einbringen. Allerdings kann man auch das nur im geschichtlichen Zusammenhang sehen. In der zweiten Hälfte der Siebzigerjahre begann der rapide Niedergang der sog. K-Gruppen an deutschen Universitäten. Die Genossen Trittin, Kretschmann etc. mußten sich umorientieren, wenn sie ihre Vorstellungen von Gesellschaftsveränderung und Sozialismus noch umsetzen wollten. Die Hunderttausende gegen Nato-Doppelbeschluss, Kernkraftwerk Brokdorf, Wiederaufbereitungsanlage Wackersdorf und Endlager Gorleben waren einfach zu verlockend. Erst 1980 gegründet, stellten die Grünen 1985 in Hessen die erste Koalition mit dem Umweltminister Joschka Fischer. Dies war noch keiner Partei “links von der SPD” gelungen.

Interessant, aber bis heute nicht aufgearbeitet, ist die selektive Wahrnehmung unter den Linken gewesen. Irgendwie waren ja russische “AKW” eigentlich gute “AKW”, weil sozialistische “AKW”. Bitte keine Fragen zum Sinn und Konstruktionsprinzip der RBMK stellen, denn für jeden gläubigen Linken gehört(e) es zu den Glaubensgrundsätzen, daß Ronald Reagan der Kriegstreiber gegen den friedliebenden Kreml war. Wenn man auch sonst keine Gelegenheit ausließ, auf die Verknüpfung von “AKW” und “Atombombe” hinzuweisen, war das im Zusammenhang mit Tschernobyl tabu. In dieser Zeit wurde der Mythos von der “Unbeherrschbarkeit” erschaffen, der bis heute in der “ungelösten Endlagerfrage” religiöses Dogma ist. Wenn es nicht einmal in der friedliebenden und nicht profitorientierten Sowjetunion möglich war, Kernkraftwerke “sicher” zu betreiben, dann mußte die Kerntechnik prinzipiell nicht beherrschbar sein. Heute mag das fast lächerlich anmuten, aber 1986 konnte sich kein westdeutscher Linker vorstellen, was real existierender Sozialismus darstellte oder gar, daß dieses System in wenigen Jahren kollabieren würde. In Deutschland geht halt Ideologie vor Fakten: War doch die Begründung der Bundeskanzlerin für ihre 180°-Wende nach Fukushima, ihr angeblich enttäuschter Glaube an die Unfehlbarkeit der japanischen Technik.

Besonders zynisch ist es, wenn in deutschen Qualitätsmedien die Aufräumarbeiten von Fukushima immer in einem Atemzug mit Tschernobyl genannt werden. Kein Wort über die ahnungslosen und schlecht ausgerüsteten Feuerwehrleute, die brutal in den Tod geschickt worden sind. Kein Wort über die (fast unmittelbar) neben der Ruine spielenden Kinder, die aus ideologischen Gründen nicht unverzüglich in Sicherheit gebracht wurden. Kein Wort über die “heldenhaften” Bauarbeiter, die direkt von den Gerüsten im Baltikum verhaftet wurden, um unter höchster Strahlenbelastung Dienst zu tun. Ganz ohne Meßgeräte, aber dafür mit jeder Menge Falschinformationen. Manch ein “Putinversteher”, der immer noch nicht begreift, warum man im Baltikum so gerne Nato-Panzer sieht, könnte hier eine Antwort (von vielen) finden. Tschernobyl war der letzte Sargnagel, den sich das Sowjetsystem höchstselbst eingeschlagen hat. Dies könnte auch eine Erklärung für “Grüne” sein, warum Tschernobyl nicht zu einer “Anti-AKW-Bewegung” in der Ukraine, Polen und dem Baltikum geführt hat. Anders als in Deutschland, vermag man dort zwischen Physik und Politik zu differenzieren.

Die Lehren aus Tschernobyl

Es gibt zahlreiche Lehren und Konsequenzen, die international aus dieser Katastrophe gezogen worden sind. Allein die technischen Berichte und Auswertungen füllen ganze Regale. Die Kerntechniker – aber leider nur die Techniker – haben ihre Lektion gelernt. Insofern ist Tschernobyl für die Kerntechnik, was die Titanic für den Schiffbau war. Ein unüberhörbarer Weckruf, der sicherheitstechnische Grundsätze erschaffen hat, die weltweit anerkannt und praktiziert werden: Baue keinen Reaktor mit positivem Reaktivitätskoeffizienten, baue immer ein Containment usw. usw.

Seefahrt tut not, wußte man schon im Altertum, obwohl sie bis zum heutigen Tage immer wieder Opfer fordert. Energieversorgung ist für eine Gesellschaft ohne Sklaverei mindestens genauso lebensnotwendig. Aus diesem Grunde hat man in rationaleren Gesellschaften die Kernenergie auch nicht als Teufelswerk verdammt. Es gilt Risiko und Nutzen abzuwägen und die Technik beständig zu verbessern. Ganz genauso, wie es die Menschheit in ihrer Entwicklungsgeschichte immer getan hat. Ohne diese Verfahrensweise, wäre ein Fortschritt im Seetransport, der Luftfahrt usw. nicht vorstellbar gewesen. Ganz nebenbei gesagt, hat die Kerntechnik in diesem Sinne vorbildliches geleistet. Nicht ohne Grund, ist sie zu der Energieform mit der geringsten Opferzahl geworden. Gleichwohl gibt es eine “opferfreie” Energieerzeugung nur im Märchen. Schon im Kindergarten weiß man, daß man mit einem Fahrrad schnell von A nach B gelangen kann, aber auch übel stürzen kann. Kaum ein Kind verzichtet deshalb aufs Fahrradfahren. Wer “voran gehen will”, kann das gerne tun, muß sich nur nicht wundern, wenn er irgendwann feststellt, daß die anderen viel schneller waren und schon längst beim Essen sind.

Tschernobyl hat die Angst-vorm-schwarzen-Mann genommen

Von Anfang an, hat die Angstindustrie daran gefeilt, ein Alleinstellungsmerkmal für die Kerntechnik zu konstruieren: Wenn ein “AKW explodiert”, gibt es Millionen Tote und die betroffene Gegend ist für zehntausende von Jahren unbewohnbar. Aus moralischen Gründen sei es deshalb nicht zulässig eine solche Technik zu erlauben. Das war das Totschlagargument in jeder deutschen Talkshow. Sofort standen sich der idealistische und hoch moralische Gutmensch und der profitgierige, unterbelichtete Vasall der “Atomindustrie” gegenüber. In diesen Momenten, konnte sich selbst eine Theaterwissenschaftlerin wie eine Greenpeace-Amazone im Schlauchboot vor einem Walfänger fühlen – selbstverständlich ohne Risiko auch nur die Frisur zu gefährden.

Nun hat in Tschernobyl tatsächlich der Super-Gau stattgefunden und das Kraftwerk ist explodiert, abgebrannt und hat den größten Teil seiner radioaktiven Stoffe wie ein Vulkan ausgeworfen. Schlimmer geht nicht. Nur, wo blieb der Weltuntergang? Eine Zeit lang, konnte man die Sache noch am köcheln halten, in dem man irgendwelche Geschichten über irgendwelche Mutanten in der Zone erfand. Heute ist die “Sperrzone” längst zu einer Touristenattraktion mutiert. In den Tagen nach der Katastrophe, schwelgte noch die gesamte Presse in apokalyptischen “Krebs-Epidemien”, die in einigen Jahren folgen würden. Nun, 30-Jahre später ist davon nichts eingetreten. Lediglich die staatstragenden Medien, wie z. B. der Deutschlandfunk, machen unbeirrbar weiter: “Kinder, die erst nach dem Reaktorunglück geboren wurden, leiden unter Erbgutschäden und Missbildungen” (Deutschlandfunk, 30 Jahre nach der Atomkatastrophe von Tschernobyl). Solch einen Schwachsinn trauen sich nur noch Medienbeamte mit garantierter Vollversorgung aus Zwangsbeiträgen. Das ist nicht mal mehr “Lügenpresse”, sondern einfach nur ganz schlechte Propaganda.

Es soll sogar Abtreibungen in Deutschland gegeben haben, weil Frauen fürchteten, irgendwelche Mutanten zur Welt zu bringen. In welcher Statistik werden eigentlich diese Opfer verbucht?

Die DPA teilt noch Anfang des Monats in ein und derselben Verlautbarung mit, daß 2015 bereits 15.000 Menschen die 30 km Todeszone (dieses Wort wird tatsächlich verwendet) als Touristen besucht hätten. Experten würden von Zehntausend Todesfällen infolge des Unglücks ausgehen. Sind solche Texte nun “Lügenpresse” oder schlichte Blödheit oder beides?

Interessant ist auch, welche Hektik bei jeder Diskussion zur Endlagerung, die Erwähnung von Tschernobyl auslöst. Es fällt sogar den Kirchenvertretern sichtlich schwer zu glauben, warum das, was in Tschernobyl ziemlich offen rumliegt, nach aufwendiger Verpackung und Lagerung in hunderten Metern Tiefe, sich in eine die Menschheit gefährdende Angelegenheit verwandeln soll. Dafür ist mindestens so viel Glauben notwenig, wie für die Verwandlung von Wasser in Wein. In diesem Sinne, setzt die Feststellung von Greenpeace (Bergungskonzept für Tschernobyl-Ruine fehlt; vom 14.4.16) allem die Krönung auf: 440.000 Kubikmeter langlebiger Atomabfälle lägen unter dem alten “Sarkophag”. Das entspräche dem fünfzehnfachen Volumen aller hochradioaktiven Abfälle deutscher Atomkraftwerke. Danke Greenpeace, manchmal hab ich euch richtig lieb. So lieb, wie nach eurer Kampagne gegen die Versenkung einer alten Bohrinsel in der Nordsee.

Nun sind aber die PR-Abteilungen der Angstindustrie flexibel. Man rückte deshalb – bis Fukushima – immer weiter von der Angstmache ab. Es wurde eine angebliche Unwirtschaftlichkeit von Kernkraftwerken und die “ungelöste Endlagerfrage” in den Vordergrund gestellt. Das erste Argument ist trefflich geeignet für Menschen, die immer noch Planwirtschaft für eine überlegene Wirtschaftsordnung halten. Wer nicht rechnen kann, glaubt halt jeden Zahlensalat. Das zweite Argument trieft vor moralischer Überlegenheit. Wer will schon seinen Nachfahren ein Problem vererben? Jedenfalls wenn es um “Atommüll” geht. Durch Windparks zerstörte Landschaften und Vogelpopulationen, Berge von Sondermüll-Sonnenkollektoren oder mit Rückständen aus der Biogas-Produktion verseuchte Bäche und Seen sind natürlich etwas ganz anderes. Der Glaube versetzt Berge, sagt man. Um es klar zu sagen, es gibt keine Energieversorgung ohne Abfälle und Schadstoffe. Wer das Gegenteil behauptet, ist ein Schlangenölverkäufer, der sein Gegenüber für ziemlich dämlich hält.

Was uns Tschernobyl wirklich lehrt

Große Katastrophen sind immer Eckpunkte in der Technikgeschichte. Man kann meist klare Lehrsätze aus ihnen ableiten. So auch aus der Katastrophe von Tschernobyl. Dies macht die Opfer zwar nicht wieder lebendig, aber spendet vielleicht ein wenig Trost, daß ihr Tod nicht so sinnlos war, wie es manchem erscheint.

•   Die militärische und die zivile Nutzung der Kerntechnik sind strikt auseinander zu halten. Dringt das Militär mit seiner Geheimhaltung in die “doppelt genutzten” Bereiche ein, sind die “Missverständnisse” vorprogrammiert.

•   Fukushima und Tschernobyl haben eines gemeinsam: Die Ignoranz gegenüber ausgewiesenen Fachleuten (Fachleute sind nicht zu verwechseln mit “Atomexperten”, die von Interessengruppen ernannt werden). In Tschernobyl war es das Reaktivitätsverhalten, in Fukushima die bekannte Fluthöhe von Tsunamis. Probleme müssen offen diskutiert und erforderlichenfalls gelöst werden. Ein wird-schon-gut-gehen darf es in der Kerntechnik nicht geben.

•   Kerntechnik kann man nur richtig betreiben oder man läßt es besser bleiben. Unabdingbare Voraussetzung ist Transparenz, Verantwortung und Qualifikation aller Beteiligten. Wenn Halbwissende anfangen mit einem Reaktor zu spielen, ist alles verloren. Dies sei allen gesagt, die den Zubau von Kernkraftwerken in Diktaturen vorbehaltlos bejubeln.

•   Es gibt keine absolut sichere Technik. Deshalb sollte man auch gar nicht den Anschein erwecken. Es werden immer Schiffe untergehen, Flugzeuge abstürzen, Windmühlen umfallen, Dächer durch Sonnenkollektoren abbrennen. Nach Tschernobyl – völlige Zerstörung und Freisetzung – ist aber die Obergrenze durch ein trauriges Experiment vorgeführt worden. Lassen wir nun auch bitte den Blödsinn, von Millionen “virtuellen Toten” zu schwafeln. 30 Jahre sind eine verdammt lange Latenzzeit. An welchem Tag soll denn das Massensterben einsetzen?

•   Wir kannten und kennen das Risiko (Schaden mal Eintrittswahrscheinlichkeit) sehr gut. Noch wichtiger: Es hat sich weder in Harrisburg, Tschernobyl oder Fukushima unvorhersehbares oder unbekanntes ereignet. Eher im Gegenteil! Es liegt nicht an der Technik als solches – wie immer gern von Grünen behauptet – sondern viel mehr an Handhabung und Aufsicht. Den Umgang gerade mit dieser Technik, kann man aber sehr wohl in den Griff bekommen, wie z. B. die US-Navy eindrucksvoll unter Beweis gestellt hat. Man muß nur den festen Willen dazu haben.

•   Man muß offensiv mit dem vorhandenen Risiko umgehen. Es darf kein Tabu geben. Schon bei der laufenden Ausbildung sollten Ereignisse durchgespielt werden, die über die “Auslegungsstörfälle” hinausgehen. Die Einrichtung von überregionalen “Katastrophenzentren” geht in die richtige Richtung. Schließlich ist die Antwort auf (unvermeidbare) Brände – trotz vorbeugendem Brandschutz – auch die Einrichtung von Feuerwachen.

•   Die Bevölkerung in der Nähe von Kernkraftwerken muß aufgeklärt werden und aktiv in den Katastrophenschutz einbezogen werden. Nur wer die Gefahren versteht und Schutzmaßnahmen kennt, kann im Ernstfall auch vernünftig handeln. Ganz besonders Fukushima hat gezeigt, daß (irrationale) Angst tötet.

•   Nur Übung macht den Meister. Dies gilt auch beim Katastrophenschutz. Die guten, alten ABC-Schutzübungen sind aktueller denn je. Deutschland kann sich nicht durch ein paar Windmühlen und Sonnenkollektoren aus der realen Welt wegzaubern. Wir sind von Kernkraftwerken und bald auch von Endlagern umgeben. Entweder sind die Gefahren durch Fessenheim, Bure etc. real, dann helfen keine Klagen dagegen, sondern nur Schutzmaßnahmen oder es geht einfach nur um politisches Theater. Terrorismus findet bereits vor der Tür statt. Deutschland zieht mit seiner anerzogenen “Atomangst” und seiner Weltabgewandtheit “Nuklearterroristen” geradezu magisch an.

Übernommen von Nukeklaus hier 




Warum es für die globale Erwärmung nach „Das war’s dann!“ aussieht

Auch andere Agenturen, die die Temperaturen in der Atmosphäre und nicht an der Erdoberfläche gemessen hatten, kamen zu dem Ergebnis, dass 2015 ein warmes Jahr war, wenngleich auch keines, das einen Rekord gebrochen hätte. Wie auch immer, den Ergebnissen vieler Wissenschaftler zufolge könnte das Jahr 2015 historische Bedeutung haben. Es könnte das Jahr sein, von dem an die globalen Temperaturen ihren Abwärtstrend begonnen haben und die Erde in eine längere Periode der Abkühlung bringen.

Wie auch das Jahr 1998, auf das sich die NASA bezog, war auch das vorige Jahr ein El-Niño-Jahr – ein Jahr also, in dem warmes Wasser aus dem Pazifik auf dem ganzen Planeten die Temperatur in die Höhe getrieben hat. El Niño-Ereignisse, auf die erstmals Fischer vor der Küste Südamerikas im 17. Jahrhundert aufmerksam geworden waren, gab es schon immer und treten unregelmäßig alle paar Jahre auf, jeweils gefolgt von einer Temperaturspitze von 6 bis 18 Monaten. Die El Niños der Jahre 1998 und 2015 waren besonders bemerkenswert, weil es Monster waren – jeder einzelne ließ die Temperatur im zentralen und östlichen Pazifik um 2,3°C steigen. Dies sagt das Climate Prediction Center der NOAA, und es macht beide zu den stärksten El Niños seit dem Beginn regelmäßiger Aufzeichnungen im Jahre 1950.

Anders gesagt, ohne den El Niño hätte man vermutlich schon 2015 einen substantiellen Temperaturrückgang gesehen relativ zum Jahr 2014, und nicht einen Anstieg um 0,23°C. Inzwischen bricht der El Niño immer mehr zusammen, und daher dürfte es in der zweiten Hälfte dieses Jahres und im nächsten Jahr kälter werden, möglicherweise sogar ziemlich stark, vor allem, da starken El Niños typischerweise ein La Niña folgt, die kalte Phase der Temperatur-Fluktuationen im Pazifik, in der die Temperaturen unter den Mittelwert absinken.

Aber nach Ende der La Niñas dürften die Temperaturen noch weiter zurückgehen. Seit den siebziger Jahren haben uns die Wissenschaftler gesagt, dass aufgrund der natürlichen glazialen Zyklen der Erde eine längere globale Abkühlung fällig ist, vielleicht sogar schon überfällig. Die sichtbaren, von der Sonne gelieferten Beweise zeigen eine unmittelbarere Warnung: Die Sonnenflecken sind weitgehend verschwunden. Das letzte Mal war dies während der Jahrhunderte langen Kleinen Eiszeit im 15. Jahrhundert der Fall. Damals hatten Astronomen mittels der gerade erfundenen Teleskope nur etwa 50 Sonnenflecken in einem 30-jährigen Zeitraum gesehen anstatt der vielen Tausend, die man normalerweise erwarten würde. Dieser Zeitraum, in dem die Themse zufror und in vielen gebieten Europas schwere Hungersnöte ausgebrochen waren, ist bekannt unter der Bezeichnung Maunder-Minimum, benannt nach dem englischen Astronom Edward Maunder. Während der letzten Jahre gab es zunehmend Hinweise von Astronomen, die annehmen, dass wir in ein neues Maunder-Minimum eintreten.

„Ich war 30 Jahre lang Sonnenphysiker. Ich habe niemals so etwas wie jetzt erlebt“, sagte Richard Harrison vor zwei Jahren der BBC. Er ist Leiter der Abteilung Weltraumphysik am Rutherford-Appleton Laboratory in Oxfordshire. Harrison stellt fest, dass die Rate, mit der die Sonnenaktivität zurückgeht, ein Spiegelbild des Maunder-Minimums ist, mit „wirklich kalten Wintern auf der Nordhemisphäre“. Prof. Mike Lockwood von der University of Reading zufolge gab es jüngst den raschesten Rückgang der Sonnenaktivität seit 10.000 Jahren. In einem Interview mit dem Wissenschaftsleiter der BBC stellte er fest, dass er eine Chance von 25 bis 30% für ein neues Maunder-Minimum sieht. Nur wenige Jahre zuvor sah er nur 10% Wahrscheinlichkeit.

Lockwoods Schätzung wurde im vorigen Jahr durch ein Team europäischer Forscher untermauert, und zwar auf einem Vortrag vor 500 Astronomen und Weltraumwissenschaftlern beim National Astronomy Meeting der Royal Astronomical Society in Wales. Ihr positiv aufgenommenes wissenschaftliches Modell zeigt, dass eine reduzierte Sonnenaktivität zu einer Mini-Eiszeit im Zeitraum 2030 bis 2040 führen wird. Eine weitere Studie zu Sonnenflecken aus dem vorigen Jahr von indischen, chinesischen und japanischen Astronomen, die im Journal of Geophysical Research veröffentlicht worden war, zeigt, dass eine neue Eiszeit bereits 2020 beginnen und 2030 bis 2040 ihren Höhepunkt erreichen könnte.

Daneben zeigen weitere Studien, dass die nächste Eiszeit schon begonnen haben könnte, deren Beginn vorübergehend maskiert wird durch El Niño. Habibullo Abdussamatov zufolge, dem Leiter des Pulkovo-Obersvatoriums der russischen Akademie der Wissenschaften, begann der Abstieg in eine weitere kleine Eiszeit Ende 2014. Das wäre dann die 19. Kleine Eiszeit, die die Erde während der letzten 7500 Jahre durchlaufen würde. Seine Analyse zeigt, dass diese Eiszeit besorgliche Tiefen erreichen wird. Bis zum Jahr 2060 erwartet er eine „starke Abkühlung“, was die Energiesicherheit des Planeten gefährden dürfte.

Im Gegensatz zu dieser düsteren Prognose für eine kalte Zukunft könnte Mancher Trost finden in der Arbeit von Wissenschaftlern am PIK in Potsdam. Die Menschen verbrennen Öl, Kohle und Gas und haben bereits so viel CO2 emittiert, dass es „ausreicht, um die nächste Eiszeit für weitere 50.000 Jahre zu verschieben“. [Fragt sich nur, ob da wirklich „Wissenschaftler“ arbeiten! Anm. d. Übers.] „Unter dem Strich lassen wir einen ganzen glazialen Zyklus aus“, ein Ergebnis, dass sie als unwillkommen betrachten.

Obwohl die letzte Kleine Eiszeit ihre Auswirkungen gezeitigt hatte (die Bevölkerung Finnlands sank um ein Drittel, die von Island um die Hälfte), hatte sie auch Vorteile. PIK-Direktor Schellnhuber erklärt: „Wir verdanken unsere fruchtbare Erde der letzten Eiszeit, die auch die heutige Landschaft geprägt hatte. Gletscher und Flüsse, Fjorde, Moränen und Seen sind deren Hinterlassenschaften“. Das sollte Trost für Einige sein, sollten wir uns in Kürze frierend in der nächsten Eiszeit wiederfinden.

Lawrence Solomon is executive director of Energy Probe, a Toronto-based environmental group. LawrenceSolomon@nextcity.com.

Link: http://business.financialpost.com/fp-comment/lawrence-solomon-why-it-looks-like-game-over-for-global-warming

Übersetzt von Chris Frey EIKE

[Ich weiß nicht … gibt es nicht auch in diesem Beitrag viel zu viele Konjunktive? Anm. d. Übers.]