1

Svensmarks kosmischer Jackpot: “Beweis der Beeinflussung irdischen Lebens durch nahe Supernovae”

Bild rechts: Dem bloßen Auge sichtbar als die „sieben Schwestern“ sind die Plejaden der bekannteste aller Sternenhaufen, deren Sterne sich alle zur gleichen Zeit gebildet haben. Die Plejaden entstanden während der Zeit der Dinosaurier, und die massivsten der Schwestern sind im einen Zeitraum von 40 Millionen Jahren explodiert. Die Überreste ihrer Supernovae verursachten kosmische Strahlen. Aus dem Katalog bekannter Sternenhaufen hat Henrik Svensmark die Variation der kosmischen Strahlung der letzten 500 Millionen Jahre berechnet, ohne die Notwendigkeit, die genaue Form der Galaxie* zu kennen. Mit Hilfe dieser astronomischen Historie grub er tief in die Historie des Klimas und des Lebens auf der Erde. Bild: ESA/NASA/Hubble.

[*Original: Milky Way Galaxy. Das ist doppelt gemoppelt: Griech. Galaxy = engl. Milky Way = dt. Milchstraße. A. d. Übers.]

Als ich über den Sieg der Pioniere der Plattentektonik in ihrem Kampf gegen die bedeutendsten Geophysiker jener Zeit berichtet habe, fühlte ich mich um 40 Jahre in diese Zeit zurückversetzt. Tuzo Wilson, Dan McKenzie und Jason Morgan zerschmetterten die Lehrbücher und erklärten fröhlich Erdbeben, Vulkane, Gebirgsbildungen und selbst veränderliche Tiefen der Ozeane einfach durch die Drift der Fragmente der Lithosphäre in verschiedene Richtungen rund um den Globus. [Alfred Wegener scheint dem Autor hier kein Begriff zu sein. Merkwürdig! A. d. Übers.]

In Svensmarks neuer Studie führt eine ähnlich prägnante Theorie, nämlich dass kosmische Strahlen von explodierten Sternen durch vermehrte Wolkenbildung die Erde abkühlen, zu erstaunlichen Erklärungen, nicht zuletzt dafür, warum die Evolution manchmal Sprünge machte und manchmal stagnierte. Im doppelten Wortsinn ist dies eine wahrhaft astronomische Revision der Geschichte des Lebens.

Hier folgen die wesentlichen Ergebnisse:

1) Die langzeitliche Biodiversität im Ozean hängt ab vom Meeresspiegel, bestimmt durch die Plattentektonik und der lokalen Rate von Supernovae durch die Astrophysik, und von fast nichts Anderem

2) Die langzeitliche primäre Produktivität des Lebens im Ozean – das Gesamtwachstum photosynthetischer Mikroben – hängt von der Rate der Supernovae ab, und von fast nichts Anderem.

3) Supernovae in außerordentlich geringer Entfernung stehen für kurzfristiges Absinken des Meeresspiegels während der letzten 500 Millionen Jahre, was Geophysikern zwar schon lange bekannt ist, bisher aber nicht schlüssig erklärt werden konnte.

4) Mit der Zusammenführung geologischer und astronomischer Erkenntnisse wird auch der Zusammenhang zwischen Klima und Raten von Supernovae besser und besser, wobei hohe Raten eisige Zeiten mit sich brachten.

Präsentiert mit der notwendigen Vorsicht ebenso wie mit Rücksicht auf die Gefühle von Experten in vielen Forschungsgebieten entfaltet sich eine Story, in der alles wie in einem gut funktionierenden Uhrwerk abläuft. Jeder, der an irgendeinem Teilaspekt davon mit den Worten „Korrelation bedeutet nicht zwingend Kausalität“ herum mäkelt, sollte irgendeine andere Mega-Theorie anbieten, die erklärt, warum viele sich gegenseitig stützende Zufälle zwischen Ereignissen in unserer galaktischen Nachbarschaft und der Lebensbedingungen auf der Erde auftauchen.

Ein amüsanter Aspekt ist, dass Svensmark die gegenwärtig populäre CO2-Geschichte auf den Kopf stellt. Einige Geowissenschaftler möchten für die drastischen Schwankungen von heißen und eisigen Bedingungen während der letzten 500 Millionen Jahre zunehmende bzw. abnehmende CO2-Konzentrationen verantwortlich machen, was sie in komplizierter Art und Weise erklären. Für Svensmark regieren die von den Sternen verursachten Veränderungen die Menge des Kohlendioxids in der Luft. Klima und Leben bestimmen über das CO2, nicht umgekehrt.

Als Begleiterscheinung bestimmen Supernovae auch über die verfügbare Menge des Sauerstoffs, den Tiere ebenso wie Sie und ich atmen. Folglich hat die inhärent einfache Hypothese kosmische Strahlen/Wolken weitreichende Konsequenzen, die ich im folgenden Diagramm darzustellen versucht habe.

Kosmische Strahlen bei der Arbeit. Die wesentlichen Ergebnisse in Svensmarks neuer Studie betreffen die oberste stellare Zone, die grüne Zone des Lebens und auf der rechten Seite die atmosphärische Chemie. Obwohl die solare Modulation galaktischer kosmischer Strahlen für uns in kürzeren Zeiträumen wichtig ist, sind deren Auswirkungen kleiner und kürzer als die wesentlichen langzeitlichen Änderungen, kontrolliert durch die Rate der Entstehung neuer Sterne in unserer Nachbarschaft sowie ihrer Selbstzerstörung durch Supernovae. Obwohl auf dieser Graphik ein Copyright liegt, darf sie mit dem Hinweis auf den Zusammenhang mit der Arbeit von Svensmark reproduziert werden.

Beigefügte Erklärungen [Original: By way of explanation]

Hier ist der Text zu dieser Studie verfügbar. Sie ist hoch wissenschaftlich, wie es sich für ein Profi-Journal gehört, so dass selbst die Abbildungen für Nicht-Experten etwas verwirrend sein können. Also habe ich die Hilfe von Liz Calder in Anspruch genommen, um zu erklären, wie eine der aussagekräftigsten Graphiken, Svensmarks Abbildung 20, zustande gekommen war. Die Graphik zeigt, wie die sich ändernde Rate der Supernovae relativ nahe der Erde während der letzten 440 Millionen Jahre stark die Biodiversität maritimer wirbelloser Tiere beeinflusst hat, von den Trilobiten in historischer Zeit bis zu den Hummern unserer Zeit. Svensmarks Bildunterschrift endet mit den Worten: „Offensichtlich erklärt sich die maritime Biodiversität durch eine Kombination der Aktivität des Meeresspiegels und der Astrophysik“. Um dieses Argument zu verstehen, muss man darauf schauen, wie die Abbildung 20 auf den Informationen aus Abbildung 19 hervorgeht. Diese zeigen hinsichtlich der totalen Diversität der Meereslebewesen in den fossilen Ablagerungen den Wechsel zwischen Zeiten rapider Evolution und Rezession.

Gezählt werden Gruppen ähnlicher Tiere. Das ist hier mit einer Freihandzeichnung von Liz Calder in Sketch A dargestellt. Sketch B stammt aus einem anderen Bereich von Abbildung 19, in dem beschrieben wird, wie sich langzeitlich der globale Meeresspiegel während der gleichen Periode geändert hat. Die deutliche Übereinstimmung kommt nicht überraschend, weil bei hohem Meeresspiegel die Kontinentalränder überflutet werden und den maritimen wirbellosen Tieren eine größere Auswahl von Habitaten bietet. Aber offensichtlich ist das nicht alles. Zunächst gibt es da eine verdächtige Spitze der Diversität vor etwa 270 Millionen Jahren, die dem sinkenden Meeresspiegel widerspricht. Svensmark wusste, dass es um diese Zeit eine starke Spitze von Supernovae gegeben hatte. Also untersuchte er, was mit den Lebensformen dieser 440 Millionen Jahre geschehen würde, wenn man den Einfluss der Höhe des Meeresspiegels herausrechnet. Diese einfache Operation wird in Sketch C gezeigt, in dem die 270-Millionen-Spitze breiter und größer wird. Sketch D zeigt Svensmarks Berechnung der sich ändernden Supernova-Rate in der Nachbarschaft der Erde während des gleichen Zeitraumes. Ich betone, dass dies alles Freihandzeichnungen sind, um die Berechnungen zu erklären, und nicht, um die Daten darzustellen. In der veröffentlichten Studie werden die Graphen C und D präzise gezogen und zu Vergleichszwecken übereinander gelegt.

Dies ist nun Abbildung 20 von Svensmark mit den einfacheren Beschreibungen der Presseerklärung der RAS. Die Biodiversität (die Anzahl maritimer wirbelloser Tiere) ist blau dargestellt, zusammen mit vertikalen Balken, die mögliche Fehler zeigen sollen. Die Supernova-Rate ist schwarz eingezeichnet.

Es gibt viele faszinierende Einzelheiten, mit denen ich die Signifikanz der Svensmark’schen Ergebnisse illustrieren kann. Dass ich die Geschichte der Gorgone ausgewählt habe, ist nicht ganz zufällig, weil hiermit ein weiteres der wichtigsten Ergebnisse ins Spiel kommt, und zwar über Supernovae und Bio-Produktivität.

Das große Sterben zum Ende des Perm

Außer Atem, arme Gorgone? Nach Supernovae japsen? Benannt nach den ängstigenden Kreaturen der griechischen Mythologie, enthielt die Bandbreite der Gorgonen im späten Perm auch diese fossile Spezies, Sauroctonus progressus, 3 Meter lang. Wie viele andere Therapoden, sowie naher Verwandter unserer eigenen Vorfahren, starb sie während des Perm-Trias-Ereignisses aus. Quelle: http://en.wikipedia.org/wiki/Gorgonopsia.

Am glücklichsten unter unseren Vorfahren war ein säugetierartiges Reptil, das sich durch das Perm-Trias-Ereignis gerettet hat, der größten Katastrophe in der Geschichte der Fauna. Der Höhepunkt ereignete sich vor 251 Millionen Jahren am Ende des Perm. Fast alle Spezies in den Ozeanen starben aus, zusammen mit den meisten Spezies an Land. Das Ereignis markierte das Ende des „alten Lebens“, dem Paläozän, und ging über in die Ära des Mesozän, wobei unsere Vorfahren zu kleinen Säugetieren wurden, die versucht haben, sich von den Dinosauriern fernzuhalten. Was also hat das große Aussterben des zuvor blühenden Lebens im späten Perm ausgelöst? Henrik Svensmark zufolge war die Galaxis der Auslöser.

Vergessen Sie die gängigen älteren Vorschläge (einschließlich meiner eigenen), dass es die Auswirkungen des Einschlags eines Kometen oder Asteroiden waren, ähnlich dem, der zum Aussterben der Dinosaurier am Ende des Mesozäns geführt hatte. Das größte Sterben fand nicht ganz so plötzlich statt. Ähnlich verhält es sich mit den eindrucksvollen Beweisen für eine Eruption vor 250 Millionen Jahren – eine Basaltflut, die Sibirien mit giftigen vulkanischen Gesteinen überzogen hatte, die eine Fläche halb so groß wie Australien überdeckten – die lediglich von einem verspäteten regionalen Gnadenstoß Zeugnis ablegte. Der geringe Vorrat an Sauerstoff bringt es mehr auf den Punkt – Geologen sprechen von einem „super-sauerstoffarmen Ozean“. Und damals war in der Luft viel mehr Kohlendioxid enthalten als heute.

„Da habt ihr es doch!” werden die Leute sagen, „wir haben euch doch erzählt, dass CO2 schlecht für euch ist!“ Dabei übersieht man natürlich die Tatsache, dass uns dieses berüchtigte Gas am Leben hält. Der in jüngster Zeit gestiegene CO2-Gehalt teilt sich mit dem Pflanzenwachstum den Dank für die Ernährung der wachsenden Bevölkerung. Pflanzen und Photosynthese durchführende Mikroben benötigen unabdingbar CO2, um zu wachsen. Folglich war dessen hohe Konzentration ein Symptom für einen einschneidenden Rückgang der Produktivität des Lebens infolge einiger Supernovae, eisfreier Bedingungen und dem Fehlen von Wettervorgängen, um die Nährstoffe zirkulieren zu lassen. Da die Photosynthese auch für die Umwandlung von Wasser in Sauerstoff unabdingbar ist, mussten die aussterbenden Tiere nach Sauerstoff schnappen. Damals gab es nur wenig mehr als halb so viel davon in der Luft als wie wir glücklicherweise heute zum atmen haben.

In seiner neuen Studie kommentiert Svensmark kurz das Perm-Trias-Ereignis in Zusammenhang mit dem Ergebnis, dass hohe Raten benachbarter Supernovae die Lebensproduktivität durch Abkühlung des Planeten begünstigen, was die Zirkulation der von den photosynthetischen Organismen benötigten Nährstoffe verbessert.

Obige Zeichnung stammt aus Abbildung 22 in der Studie, die zum besseren Verständnis vereinfacht worden ist. Schwerer Kohlenstoff, C13, ist ein Indikator für die Intensität der Photosynthese. In der Mitte ist eine abwärts weisende grüne Markierung eingezeichnet, die das Perm-Trias-Ereignis kennzeichnet. Und hinsichtlich der lokalen Supernova-Rate (schwarze Kurve) merkt Svensmark an, dass es im späten Perm den größten Rückgang der Supernova-Rate der letzten 500 Millionen Jahre gegeben hatte. Das geschah zu der Zeit, als das Sonnensystem den hyperaktiven Norma-Arm der Galaxis verlassen hatte und in das ruhige All dahinter eingetreten war. „Es hätte fatale Konsequenzen für das Leben im Meer“, schreibt Svensmark, „wenn eine rapide Erwärmung zur Verknappung von Nährstoffen führen würde… wenn dies zu schnell passiert und sich die Spezies nicht schnell genug anpassen können“.

Eine Sache passt nicht für alles, und eine umfangreichere Geschichte der Biodiversität im späten Perm wird subtiler und sogar noch überzeugender. Ungefähr 6 Millionen Jahre vor dem Massenaussterben vor 251 Millionen Jahren kam es zu einem weniger ausgeprägten Ereignis am Ende der Guadalupium-Phase [?]. Dieses frühere Aussterben war verbunden mit einem kurzen Wiederaufleben der Supernova-Rate und einer globalen Abkühlung, die die Erwärmung in der Mitte des Perm unterbrochen hatte. Die wesentlichen Opfer dieses Sterbens waren Lebewesen im Warmwasser einschließlich riesiger Muscheln und runzliger Korallen.

Warum wird es als „Astrobiologie” gekennzeichnet?

Nun können Sie sich fragen, was denn nun die günstigste Supernova-Rate für das Leben auf unserer Erde ist. Ohne wie Dr. Pangloss bei Voltaire klingen zu wollen, liegt sie möglicherweise nicht sehr weit entfernt von der mittleren Rate der letzten einhundert Millionen Jahre und ist ähnlich dem heutigen Wert. Sowohl Biodiversität als auch Bioproduktivität sind gegenwärtig in bestem Zustand.

Svensmark hat auf eine damit nahe verwandte Frage geantwortet (nicht in der Studie selbst) – wo ist in der Galaxie der beste Platz zum Leben?

Zu viele Supernovae können das Leben durch Aussterben bedrohen. Obwohl sie sich vor dem in dieser Studie behandelten Zeitraum abgespielt hatten, wurden für sehr ernste Ereignisse, Schneeball-Erde genannt, Ausbrüche rapider Sternenbildung verantwortlich gemacht. Ich habe die Studie als „Astrobiologie“ gekennzeichnet, weil wir derzeit eine sehr günstige Stelle in unserer Galaxie innehaben. Andere Regionen könnten für höhere Lebensformen unbewohnbar sein, weil es entweder zu viele oder zu wenige Supernovae gibt.“

Astronomen, die nach extraterrestrischem Leben suchen, sprechen von einer Goldilock-Zone [?] in planetarischen Systemen. Ein Planet, der Leben trägt, sollte weder zu dicht an seinem Zentralstern liegen noch zu weit davon entfernt. Innerhalb unseres Sonnensystems befinden wir uns sicherlich in einer solchen Position. Wir könnten in einer ähnlich günstigen Goldilock-Zone in unserer Galaxis liegen, und andere Galaxien mit zu vielen oder zu wenigen Supernovae könnten für Leben ungeeignet sein. Fügt man noch die gewaltige planetarische Kollision hinzu, die zur Entstehung des unverhältnismäßig großen Mondes führte, und die orbitale Stabilität und aktive Geologie, von der das Laben abhängt, kann man zu der Einschätzung kommen, dass zumindest astronomisch Dr. Pangloss recht hat: „Alles steht zum Besten in der besten aller möglichen Welten“.

Ärgern Sie sich nicht über die Betonköpfe

Falls dieser Blog einmal zu anmaßend hinsichtlich der Svensmark-Hypothese daher gekommen sein sollte, dann deshalb, weil ich wusste, was lange vor der Veröffentlichung an Theorien, Beobachtungen und Experimenten in der Pipeline stand. Seit 1996 brachte die Hypothese jedes Jahr neue Erfolge und hat zahlreiche Versuche überstanden, sie zu falsifizieren.

Neue Zusätze auf dem Niveau der Mikrophysik schließen eine zuvor nicht bekannte Reaktion auf Schwefelsäure ein, wie in einem kürzlichen Nachdruck beschrieben. In einem erheblich unterschiedlichen Maßstab vermittelt uns diese Supernova-Studie von Svensmark besseres Wissen über die Gestalt unserer Milchstraße.

Ein Kennzeichen einer guten Hypothese besteht darin, dass sie immer besser aussieht, je mehr Zeit verstreicht. Der Triumph der Plattentektonik hinterließ die Betonköpfe der Gegner tobend und mit rotem Gesicht. Im Jahre 1960 hätte man als Geologe in den USA keinen Arbeitsplatz bekommen, wenn man an die Kontinentalverschiebung glaubte, aber im Jahre 1970 hätte man keinen Job bekommen, wenn man nicht daran glaubte. Dies ist es, was eine Verschiebung eines Paradigmas in der Praxis bedeutet, und genauso wird es auch mit den kosmischen Strahlen in der Klimaphysik gehen.

Die Plattentektonik war niemals eine große politische Sache, außer im kommunistischen Block. Dort wurde die Unverrückbarkeit der Kontinente doktrinär von der sowjetischen Akademie der Wissenschaften festgelegt. Eine analoge Betonkopf-Doktrin breitete sich global vor zwei Jahrzehnten aus, als man sich das IPCC ausgedacht und erschaffen hat, um darauf zu bestehen, dass natürliche Gründe der Klimaänderung im Vergleich zu den menschlichen Einflüssen vernachlässigbar seien.

Ärgern Sie sich nicht über die Betonköpfe! [Leicht gesagt! Diese Betonkopf-Doktrin kommt uns alle schließlich äußerst teuer zu stehen! A. d. Übers]. Der Heiligenschein empirischer Wissenschaft sieht so aus: Es spielt keine Rolle, wie viele Jahre, Jahrzehnte und manchmal Jahrhunderte es dauert, aber am Ende wird jede Geschichte der Wahrheit gemäß herauskommen.

===============================================================

All jene, die unsere kosmische Abstammung bezweifeln, seien durch Svensmarks Arbeit und Calders Artikel an dieses gut bekannte Zitat erinnert:

Der Stickstoff in unserer DNA, das Kalzium in unseren Zähnen, das Eisen in unserem Blut, der Kohlenstoff in unseren Apfelpasteten entstanden als Folge kollabierender Sterne: Wir bestehen aus Sternen staub! – Carl Sagan

[Original: The nitrogen in our DNA, the calcium in our teeth, the iron in our blood, the carbon in our apple pies were made in the interiors of collapsing stars. We are made of starstuff. – Carl Sagan]

Nigel Calder

Link zum Original auf Calder’s Blog: http://calderup.wordpress.com/2012/04/24/a-stellar-revision-of-the-story-of-life/

Link zu diesem Abdruck bei WUWT: http://wattsupwiththat.com/2012/04/24/svensmarks-cosmic-jackpot-evidence-of-nearby-supernovae-affecting-life-on-earth/

Übersetzt von Chris Frey EIKE




Strom ist für viele Deutsche unbezahlbar geworden

Strom ist für viele Deutsche unbezahlbar geworden

Hunderttausende Haushalte in Deutschland können ihren Strom nicht mehr zahlen und sind deswegen vom Netz abgehängt. Die steigenden Preise durch die Energiewende haben die Lage verschlimmert.Von D. Siems und D. Wetzel

Kommentar der Redaktion: Wie die weiter steigenden Energiekosten von den Menschen bezahlt werden sollen, wenn die Arbeitsplätze wertschöpfender Industrien dank Energiewende aus Deutschland verschwinden ist bisher nur von Schildbürgern bedacht worden: Wie es wirklich kommen wird lesen Sie z.B. hier:

Merkels Energiekonzept schadet der Industrie!

über den kommenden Anstieg der EEG Umlage finden Sie hier Details

Energiewende immer teurer – EEG Umlage 2013 bei 4,8 bis 5,2 Cent

Auszug daraus: 

Die Bundeskanzlerin hatte im letzten Jahr noch vollmundig versprochen, dass die EEG-Umlage den aktuellen Wert von 3,6 Cent/kWh langfristig nicht überschreiten würde. Dabei sollte eigentlich  auch damals jedem klar gewesen sein, dass ein weiterer Ausbau der sogenannten Erneuerbaren Energien auch zu höheren Kosten und damit zu einem Anstieg der  Einspeisevergütung führen muss. Und ausgebaut wird weiter. Allein im 4. Quartal 2011 sind Photovoltaikanlagen mit einer Gesamtleistung von 4.150 Megawatt dazu gekommen. Und auch im ersten Quartal 2012 betrug der Zubau noch stolze 1.800 Megawatt.




NCSE: Wann ist angebliche Wissenschaft keine Wissenschaft mehr?

Mark ist wahrscheinlich verantwortlich für wissenschaftlich so unhaltbare Statements wie:

„Viele unabhängige Wege der Beweisführung zeigen, dass menschliche Aktivität für das meiste der Klimaänderung der letzten Jahre verantwortlich ist, im Besonderen die Erwärmung der Atmosphäre und der Ozeane während der letzten 150 Jahre, … dass wir ‚dramatische Änderungen’ bzgl. … Klima … und Ökosystemen sehen, einschließlich der Verteilung der Regenmenge, der Aktivität von Stürmen, dem Aussterben von Tier- und Pflanzenarten sowie jahreszeitliche Änderungen“.

Nicht zu erwähnen seine Verantwortung für sachlich unhaltbare Statements wie:

„Leugner des Klimawandels sind Leute und Organisationen, die den wissenschaftlichen Konsens zur Klimaänderung leugnen oder bezweifeln, um politische Maßnahmen zum Klima zum Stehen zu bringen, sie zu verzögern oder herabwürdigen, (und welche) danach trachten, den wissenschaftlichen Konsens hinsichtlich der Klimaänderung zu verunglimpfen oder zu verschleiern“.

Wie auch immer, Ausgabe 31(5) der NCSE-Berichte, dem Hausjournal des NCSE, stellte einen Artikel von Dr. David Morrison vor, und zwar mit der moderaten Schlagzeile: „Wissenschaftliche Leugnung: Evolution und Klimaänderung“. Ich war viele Jahre lang Mitglied des NCSE gewesen, und durch diese Ausgabe der NCSE-Berichte merkte ich zum ersten Mal, dass sie das süsse AGW-Gift* getrunken hatten. „Erschrocken und bestürzt“ beschreibt meine Gefühle nur unzureichend.

[*Kool-Aid: Ein Erfrischungsgetränk in den USA mit sehr viel Zucker. Obwohl alkoholfrei, werden  manche Leute süchtig danach. A. d. Übers.]

David Morrison ist Direktor des SETI-Institutes [SETI = Search for Extraterrestrial Intelligence] und ein sehr angesehener Astronom mit einer herausragenden Laufbahn. Nichtsdestotrotz schwappt sein 4,5 Seiten langer Artikel durch die Schwachstellen bzgl. des Klimas (mit ‚Spritzern’ wie „Die heutige Erwärmung geht viel schneller vonstatten als in jedwedem historischen Zyklus“ oder „wir brauchen keine (numerischen) Klimamodelle um zu sehen, dass sich die Welt rapide erwärmt“). Dann folgen weitere 4,5 Seiten knöcheltiefe Polemiken, in denen die AGW-Skeptiker gleichgesetzt werden mit den Kreationisten oder Lobbyisten der Tabakindustrie (wie z. B. „Das Marshall-Institut … ist das Gegenstück zum Discovery Institute“ (eine Organisation der Kreationisten. A. d. Autors) oder „Strategien, die von den Gegnern sowohl der Evolution als auch der globalen Erwärmung benutzt werden, basieren auf ausgestreuter Fehlinformation und Zweifel… oft als ‚Tabak-Strategie’ bezeichnet“. Im Artikel wimmelt es von Begriffen wie „Leugnern“ der globalen Erwärmung, „Leugnen“ und „Leugnung“. Dr. Morrison erzählt uns, dass „der einzige Weg (der Leugner der Erwärmung) darin besteht, den internationalen wissenschaftlichen Konsens hinsichtlich der Gründe des Klimawandels zu leugnen“. Ich wette, dass niemand auf WUWT das gewusst hat.

Nach der Lektüre von so viel Fehlinformationen und dem Austausch nichtssagender E-Mails mit Eugenie Scott (geschäftsführende Direktorin am NCSE) und Andrew Petto (Herausgeber der NCSE-Berichte) habe ich mich entschlossen, einen Brief an „NCSE Berichte“ zu senden als Reaktion auf David Morrisons Artikel. Abgeschickt habe ich ihn am 16. Januar 2012, und am 14. März wurde er zurückgewiesen. NCSE-Herausgeber Dr. Petto schrieb: „Wir haben entschieden, den Brief als Antwort auf Morrisons Artikel zurückzuweisen, da er wenig dazu beiträgt, Morrisons Hauptargument in diesem Falle zu stützen oder zu widerlegen, bei dem es ja darum ging, wie die Gegner der gegenwärtigen Modelle zur Klimaänderung ihre Informationen an Regierungen und Öffentlichkeit geben“.

Mit ausführlichen Zitaten, um meine Position zu stützen, wies ich darauf hin, dass „es beim Hauptargument in Dr. Morrisons Artikel um die Klimawissenschaft geht und erst in zweiter Linie auch um ‚Leugner’, von denen dann gesagt wird, dass sie darüber fehlinformieren, es ignorieren oder Lügen darüber verbreiten. Meine Einlassung beschäftigt sich mit dem ersten Teil – dem Hauptteil – der These von Dr. Morrison; welche eine wirkliche Verengung des Blickwinkels ist“. Und: „Falls Dr. Morrisons Wissenschaft falsch ist, ist seine These über die Kommunikation sinnlos und irrelevant“. Dr. Petto war davon nicht berührt.

Das ist der Hintergrund. Hier folgt gleich der (abgelehnte) Brief. Wirklich? Ich glaube, dass er unter einem Vorwand abgelehnt worden ist. Beurteilen Sie selbst, ob er „wenig dazu beiträgt, Morrisons Hauptargument zu stützen oder zu widerlegen“.

==============================================================

Wann ist angebliche Wissenschaft keine Wissenschaft?

Patrick Frank

In seinem exzellenten Buch „Galileo” (1) weist Stillman Drake auf Galileos sehr modernes Verständnis der wissenschaftlichen Praxis hin, wenn er schreibt: „In seinem Buch über Hydrostatik merkte Galileo an, dass die Autorität eines Archimedes nicht mehr wert war als die Autorität eines Aristoteles; Archimedes hatte recht, schreibt er, nur weil seine Ergebnisse zu [den Ergebnissen von] Experimenten passten“. Galileo hat das im Jahr 1612 geschrieben und drückte damit ein identisches Verständnis von Wissenschaft wie bei Albert Einstein aus, der sich dazu 300 Jahre später äußerte: „Falls die Rotverschiebung der Spektrallinien wegen des Potentials der Schwerkraft nicht existieren würde, wäre die Allgemeine Relativitätstheorie unhaltbar“.

Einsteins Feststellung zu Theorie und Beobachtung wird von Karl Popper aufgegriffen in seinem autobiographischen Werk „Unended Quest“ [etwa: unendliche Entdeckungsreise] (2). Popper fährt fort, dass Einsteins kritische Beobachtung eine Enthüllung war, und öffnete den Weg für sein eigenes, seine ganze Laufbahn durchziehendes Argument, dass Wissenschaft das Wechselspiel zwischen widerlegbaren Theorien und empirischen Ergebnissen sei (Vermutungen und Widerlegungen). Die Theorie muss zu einheitlichen und falsifizierbaren Vorhersagen mit Hilfe analytischer Ableitungen führen. Daten, die jederzeit und von jedermann überprüft werden können, sprechen das Urteil. Nur diese beiden Gegenpole machen echte Wissenschaft aus. Betrachtet man sie getrennt voneinander, ist das keine Wissenschaft.

Eine Folge dieser Beziehung ist, dass die Bedeutung empirischer Daten nur im Zusammenhang mit einer falsifizierbaren Theorie zu finden ist. Das stimmt, selbst wenn es bedeutet, dass die Daten der Vorhersage widersprechen und die Theorie widerlegen. Nur eine falsifizierbare physikalische Theorie grenzt die Bedeutung von Blitzen von der Hand Gottes ab. Nur die Kapazität der Falsifizierbarkeit erzeugt eine einheitliche Vorhersage und bietet eine eindeutige Bedeutung der Daten. (3)

In einer kürzlich erschienenen Ausgabe der NCSE-Berichte schrieb Dr. David Morrison einen Essay (4) über „Leugnung in der Wissenschaft“. Das war nichts weiter als ein sehr langer Versuch, Leugner der Evolution mit AGW-Skeptikern gleichzusetzen. Es gab kaum Wissenschaft in Dr. Morrisons Essay. Er lässt sich im Wesentlichen so zusammenfassen: „Klimamodelle sind wirklich komplex und stimmen auch nicht immer mit Details überein wie z. B. dem Timing der zukünftigen Erwärmung. Allerdings ist der Beweis für die Erwärmung empirisch, und deren zukünftige Trends sind in grundlegender Physik verankert, genauso wie der Treibhauseffekt und die Wärmekapazität der Ozeane“.

Dieses Bewusstsein der Bedeutung in der Wissenschaft zeigt sofort die Schwäche von Dr. Morrisons Position: Er schreibt der Klimaerwärmung kausale Bedeutung zu und räumt gleichzeitig das Fehlen einer Klimatheorie ein. Der Beweis für die Erwärmung ist feststellbar empirisch. Aber die Bedeutung dieser Erwärmung kann nur aus einer falsifizierbaren Theorie kommen, die einheitliche Aussagen über das Klima macht. Ist die Erwärmung Folge zusätzlichen CO2 in der Atmosphäre oder nicht? Keine Menge empirischer Daten kann diese Frage beantworten.

Dr. Morrison behauptet, dass der Treibhauseffekt (eine nicht korrekte Bezeichnung, aber lassen wir das jetzt) und die Wärmekapazität ausreichen um abzuschätzen, wie das Erdklima auf den steigenden Gehalt atmosphärischen CO2 reagieren wird. Aber der „Treibhauseffekt“ – im Wesentlichen Strahlungsphysik – und die Wärmekapazität bilden keine adäquate Klimatheorie. Sie machen keine Aussage darüber, wie sich die zusätzliche Energie in der Atmosphäre in den ganzen Klimaverhaltensweisen verteilt, wie z. B. ENSO-Zyklen, und vor allem dem globalen hydrologischen Zyklus von Schmelzen, Verdunstung, Wolkenbildung und Niederschlag.

Dr. Morrison machte den bemerkenswerten Einwand geltend, dass „wir keine numerischen Modelle brauchen, um uns zu sagen, dass (der höhere Gehalt von CO2) ein Vorbote noch deutlich schlimmerer Klimastörungen in Zukunft ist“. Aber natürlich brauchen wir Klimamodelle, die uns darüber Auskunft geben. Wie sonst können wir das wissen? Klimamodelle repräsentieren die physikalische Theorie des Klimas. Es ist ausschließlich deren Vorhersageaufschluss, die dem atmosphärischen CO2 eine kausale Bedeutung zukommen lässt. Das ist der felsenfeste Anker der Wissenschaft, und Dr. Morrison hat das nicht verstanden.

Werfen wir einen kurzen Blick auf die Klimamodelle. Sie tun viel weniger als lediglich „nicht immer mit den Details“ des zukünftigen Klimas überein zu stimmen. Sie stimmen nicht einmal mit der Wirklichkeit vergangener Klimaperioden überein. Zum Beispiel haben Demetris Koutsoyiannis et al. die erweiterten generellen Klimazirkulationsmodelle (GCMs) evaluiert, die für den Vierten Zustandsbericht des IPCC 2007 verwendet worden waren (5, 6). Das IPCC nutzte diese GCMs, um 100 Jahre des Klimas im 20. Jahrhundert „nachherzusagen“, und zwar an allen Gitterpunkten eines globalen Netzes. Die reproduzierte globale Temperatur sah großartig aus. Das sollte sie auch, weil die GCMs so angepasst worden sind, dass sie den bekannten globalen Temperaturverlauf reproduzieren (7).

Aber die Gruppe um Koutsoyiannis untersuchte das globale Klimamodell des IPCC im 20. Jahrhundert und rekonstruierte, was die Klimamodelle über die Temperaturaufzeichnungen im vorigen Jahrhundert in den kontinentalen USA gesagt haben. Die Klimamodelle lagen sehr daneben. Sie untersuchten auch die Nachhersage der GCMs hinsichtlich von Temperatur und Niederschlag an 58 Stationen rings um die Welt. Diese Rekonstruktion versagte kläglich im Vergleich mit den realen Daten. An die Durchführung eines solchen grundlegenden Tests der Verlässlichkeit der GCMs scheint während der letzten 20 Jahre des Klimaalarms niemand gedacht zu haben; ein Klimaalarm, der angeblich durch gerade diese GCMs glaubhaft gemacht worden ist. Klimamodelle können das bekannte Klima nicht reproduzieren. Warum sollte dann irgendjemand glauben, dass sie zuverlässig ein unbekanntes Klima vorhersagen können?

Dr. Morrison erwähnte, dass Klimamodelle die Wolken nicht richtig simulierten, qualifizierte dieses Problem aber gleich danach als irrelevant ab. Aber Wolken über den Tropen und Subtropen beeinflussen stark die in der Atmosphäre wirksame Energiemenge (8). Wolken haben insgesamt eine abkühlende Wirkung auf die Erde (9, 10). Ich habe den Wolkenfehler der GCMs evaluiert, wie er von den Wissenschaftlern am „Coupled Model Intercomparison Project“ beschrieben worden ist, und fand dabei, dass der Wolkenfehler der GCMs gemittelt über den ganzen Globus mindestens ±10.1 % betragen hatte (11).

Dieser Wolkenfehler bedeutete einen Fehler von mindestens ±2,8 W/m². Diese ±2,8 W/m² sind gleich der gesamten zusätzlichen Antriebskraft durch alle zusätzlichen, in die Atmosphäre gelangten Treibhausgase während des gesamten 20. Jahrhunderts. Das heißt, der Wolkenfehler der GCMs allein beläuft sich auf ±100% des zusätzlichen „Treibhauseffektes“. Es bedarf keines sehr klugen Menschen um zu erkennen, dass der Effekt unerkennbar ist, wenn der Fehler genauso groß ist wie der Effekt selbst.

Die Wissenschaftler, die mit den Projektionen der GCMs Vorhersagen über das zukünftige Klima machen, berücksichtigen den Wolkenfehler nicht. Kompetente Wissenschaftler würden diesen Fehler in ihre Vorhersagen einbeziehen. Aber die Klimamodellierer tun das nicht. Auch das IPCC tut das nicht. Eine Berücksichtigung des Wolkenfehlers würde zeigen, dass das Fehlerwachstum Klimavorhersagen sehr schnell nicht besser machen würde als zielloses Raten (11). GCMs können die globale Temperatur nicht einmal ein Jahr im Voraus vorhersagen, geschweige denn in 10 oder gar 100 Jahren. Aber Dr. Morrison sagt uns, dass das irrelevant ist, weil der zunehmende CO2-Anteil selbst ausreicht, um eine katastrophale Klimastörung auszulösen.

Erinnern Sie sich an das Kriterium der Wissenschaft? Nur aus falsifizierbaren Vorhersagen ergibt sich die Bedeutung von Beobachtungen. Klimamodelle liefern keine falsifizierbaren Vorhersagen, vor allem nicht hinsichtlich des Antriebs durch CO2. Daher können sie auch keine kausale Bedeutung hinsichtlich eines erhöhten CO2-Gehaltes in der Atmosphäre ergeben. Sie können das sich erwärmende Klima nicht erklären. Sie können nicht das zukünftige Klima vorhersagen. Die Beobachtung, dass der CO2-Gehalt der Atmosphäre zunimmt, reicht nicht aus, um irgendetwas anderes zu zeigen als einen zunehmenden CO2-Gehalt. Bekannte Kausalität und die Vorhersage von Ergebnissen erfordert eine falsifizierbare Theorie. Dr. Morrison hat keine, ebenso wie auch niemand sonst. Diejenigen, die eine verheerende Klimazukunft vorhersagen, wissen nicht, wovon sie reden. Aber das hindert sie nicht daran, überhaupt davon zu reden. Dr. Morrisons Haltung zum Klima ist nicht unterscheidbar von einem intuitiven Alarmruf, der auf subjektiven Gewissheiten beruht.

Wie der Lohn der Sünder unter den Gläubigen.

Eine Durchsicht der wissenschaftlichen Literatur zeigt viele Studien mit Aussagen über die Unzuverlässigkeit der GCMs. Aber diese Studien gerieren sich nicht alarmistisch. Ein verantwortungsbewusster Wissenschaftler würde die relevante Literatur studieren, bevor er öffentliche Verlautbarungen abgibt. Die AGW-Schlussfolgerungen täuschen Kausalität lediglich vor, weil es keine falsifizierbare, wissenschaftlich einheitliche Theorie zur Vorhersage des Klimas gibt.

Man könnte noch viel mehr schreiben. Aber die grundlegende Aussage ist klar, so dass ich hier aufhöre. Die Antwort auf die Frage in der Überschrift lautet übrigens: ‚Wenn die Wissenschaft tendenziös wird’. Genau das ist die AGW-Wissenschaft, und das schließt die Temperaturaufzeichnungen ein (12, 13), auf die sich Dr. Morrison so sehr stützt.

References:
1. Drake, S., Galileo: a very short introduction,  Oxford University,  Oxford 2001.
2. Popper, K.R., Unended Quest,  Open Court (pbk),  La Salle 1976.
3. Frank, P. and Ray, T.H., Science is not Philosophy, Free Inquiry, 2004, 24 (6), 40-42.
4. Morrison, D., Science Denialism: Evolution and Climate Change, NCSE Reports, 2011, 31 (5), 10.
5. Anagnostopoulos, G.G., Koutsoyiannis, D., Christofides, A., Efstratiadis, A. and Mamassis, N., A comparison of local and aggregated climate model outputs with observed data, Hydrolog. Sci. J., 2010, 55 (7), 1094–1110; see also http://www.itia.ntua.gr/en/docinfo/978/ Last accessed 13 March 2011.
6. Koutsoyiannis, D., Efstratiadis, A., Mamassis, N. and Christofides, A., On the credibility of climate predictions, Hydrolog. Sci. J., 2008, 53 (4), 671-684; doi: 10.1623/hysj.53.4.671.
7. Kiehl, J.T., Twentieth century climate model response and climate sensitivity, Geophys. Res. Lett., 2007, 34 (22), L22710,1-4; doi:10.1029/2007GL031383.
8. Hartmann, D.L., Tropical Surprises, Science, 2002, 295  811-812.
9. Chen, T., Rossow, W.B. and Zhang, Y., Radiative Effects of Cloud-Type Variations, J. Clim., 2000, 13 (1), 264-286.
10. Hartmann, D.L., Ockert-Bell, M.E. and Michelsen, M.L., The Effect of Cloud Type on Earth’s Energy Balance: Global Analysis, J. Climate, 1992, 5  1281-1304.
11. Frank, P., A Climate of Belief, Skeptic, 2008, 14 (1), 22-30; open access: http://www.skeptic.com/the_magazine/featured_articles/v14n01_climate_of_belief.html.
12. Frank, P., Uncertainty in the Global Average Surface Air Temperature Index: A  Representative Lower Limit, Energy & Environment, 2010, 21 (8), 969-989; open access: http://meteo.lcd.lu/globalwarming/Frank/uncertainty_in%20global_average_temperature_2010.pdf.
13. Frank, P., Imposed and Neglected Uncertainty in the Global Average Surface Air Temperature Index, Energy & Environment, 2011, 22 (4), 407-424; open access: http://multi-science.metapress.com/content/t8x847248t411126/fulltext.pdf (1 MB).

Link: http://wattsupwiththat.com/2012/03/27/ncse-when-is-purported-science-not-science/#more-60214

Übersetzt von Chris Frey EIKE




Die Grüne Agenda kollabiert weltweit… als Nächstes sind die USA an der Reihe

In Europa berichtet Public Service Europe:

Es ist fast unvermeidlich, dass wir die Evolution einer pragmatischeren und weniger enthusiastischen Vorgehensweise erleben werden, um der Klimaänderung und der Energiepolitik zu begegnen – behauptet eine Denkfabrik.

Wussten Sie, dass Polen neue Emissionsziele der Europäischen Union blockiert hat? Ist Ihnen bewusst, dass es unter den osteuropäischen Regierungen wachsende Zustimmung gibt, neue einseitige Klimaziele permanent zu blockieren? Der Grund für diese wachsende Rebellion gegen Brüssel ist einfach: Klimapolitik ist auf der EU-Agenda keine große Sache mehr, und der Klimairrsinn kommt nach fast 20 Jahren allmählich an sein Ende. In der Vergangenheit ist Polens hartnäckige Ablehnung der grünen Einseitigkeit in Hauptstädten von ganz Europa begrüßt worden. Heute wird davon in den Medien kaum Notiz genommen, während grüne Aktivisten älter und lahmer geworden sind. Andere und drückendere Probleme schieben sich in den Vordergrund und überfahren die grüne Agenda vollständig. Es sieht so aus, als wäre eine neue politische Eiszeit über Brüssel hereingebrochen.

Polen trachtet zusammen mit gleichgesinnten Ländern aus Süd- und Osteuropa danach, Bemühungen der Umweltminister und von Nichtregierungsorganisationen zu blockieren, neue, einseitige CO2-Ziele einzuführen.

In Australien musste die Labour Party in Queensland eine herbe Niederlage wegen ihrer von den Grünen angestrengten Kohlenstoffsteuer hinnehmen. Der Premierminister von Queensland, Campbell Newman hat Anna Blighs Ehemann aufgefordert, mit der Abwicklung grüner Energieprogramme zu beginnen, an deren Einführung er selbst mitgewirkt hatte. Die neue LNP-Regierung hatte Umweltausgaben drastisch gekürzt, um die Kohlenstoffsteuer auszugleichen.

Der Sunday Telegraph [Australien] hat berichtet:

Die Mitarbeiter im Department of Energy and Climate Change schämen sich zu sehr, als dass sie zugeben, wo sie arbeiten. Die Moral der Mitarbeiter ist so niedrig, dass die Regierung fast 175 000 [australische] Dollar für Berater ausgegeben hat, die die Lebensgeister der Mitarbeiter heben sollen.

Einem internen Bericht zufolge fühlen sie sich aufgrund des negativen öffentlichen Ansehens des Departments sowie einer veränderten Umweltpolitik und dem Fehlen interner Unterstützung elend und entmutigt. Der Bericht wurde durch das Beraterbüro Right Management im Juli 2010 erstellt, als das Department unter der Verantwortung der Finanz- und Deregulierungsministerin Penny Wong stand.

Wong ist die australische Version inkompetenter ideologischer Bürokraten wie Chris Huhne, der als Energieminister in UK zurückgetreten ist, Van Jones, der aus offiziellen Ämtern verdrängt worden war, aber immer noch im Hintergrund der Gemeinden die Fäden zieht mitsamt seiner grünen „gebt ihnen das Geld“-Agenda und Lisa Jackson von der EPA sowie Jane Lubchenko von der NOAA. Von all diesen Leuten würden sich die Amerikaner zurückziehen, wenn sie wüssten, für was sie stehen und was das Ergebnis ihrer jeweiligen Agenda ist.

Als der Kongress versuchte, bei NOAA mitzubestimmen, anstatt genau auf die Milliarden Dollar zur Beschaffung überflüssiger Satelliten zu schauen, und sich die Finanzierung einer Luxusyacht im Wert von 300 000 Dollar für NOAA-Funktionäre noch einmal überlegte, wovon das IG sagte, dass sie fehlgeleitet seien, verkündete die NOAA die Entlassung von 91 Mitarbeitern in örtlichen Büros, trotz der geplanten Aufwertung kommender neuer Technologien. Das Boot wurde auf Kosten von Fischern bezahlt, denen die Abteilung Ozean der NOAA eigentlich zu Diensten sein sollte.

Die Mitarbeiter der NOAA, die die wirkliche Arbeit machen, die der Öffentlichkeit  Vorhersagen und lebensrettende Warnungen zur Verfügung stellen, sind der Lebenssaft der Organisation und die wirklichen Dienstleister an der Öffentlichkeit. Dies schließt die Personen ein, die hinter den Kulissen beim NCDC arbeiten (allerdings nicht diejenigen, die im Management tätig sind und gerne wollen, dass die nationalen Akademien nur zum Wohlgefallen der Regierung arbeiten und die Informationen und faule Wissenschaft zur Unterstützung ihrer politischen Agenda bereit stellen).

Der Kongress und wir, das Volk, sollten die Entfernung von Lubchenko, Jackson, Chu verlangen, deren Politik auf dem besten Weg ist, den Wohlstand zu zerstören, den Amerika verdient. Lassen Sie uns nicht dem australischen Beispiel und der Führungsrolle der EU mit ihrem bösen grün angetriebenen Irrsinn folgen, selbst wenn diese Nationen inzwischen zur Besinnung kommen und allmählich das Scheitern dieser Ideologie bemerken. Amerika war immer ein Führer und nicht ein Mitläufer bis zu dieser Regierung. Die Änderungen dürfen nicht bis November warten.

Link: http://icecap.us/index.php/go/political-climate vom 29. März 2012

Übersetzt von Chris Frey EIKE




Über die Qualität der Software von Klimamodellen

Über die Qualität der Software von Klimamodellen: eine Analyse der Fehlergrenzen von drei Modellen

J. Pipitone und S. Easterbrook

Abstract: Ein Klimamodell ist eine Beschreibung der Theorie des Klimas; das Modell verwandelt klimatologische Theorien in Software, so dass die Theorien simuliert und ihre Implikationen untersucht werden können. Folglich muss man darauf vertrauen können, dass die Software, die das Klima beschreibt, das Klima korrekt abbildet. Unsere Studie erforscht die Natur der Software-Qualität im Zusammenhang mit der Modellierung des Klimas. Wir führten eine Analyse der Fehleranzeigen und fehlerhafter Festlegungen in vielen Versionen führender Klimamodelle durch, indem wir fehlerhafte Daten von Fehlersuchdateien und aus Fehlerprotokollen sammelten. Wir fanden heraus, dass die Klimamodelle alle sehr geringe Fehlergrenzen haben, jedenfalls im Vergleich mit gut bekannten Projekten ähnlicher Größenordnung mit offenen Quellen. Wir diskutieren unsere Ergebnisse, um Aussagen über die Vertrauensbasis der Modellsoftware zu machen.

Aus: Assessing climate model software quality: a defect density analysis of three models, by J. Pipitone and S. Easterbrook, Geosci. Model Dev. Discuss., 5, 347-382, 2012, www.geosci-model-dev-discuss.net/5/347/2012/, doi:10.5194/gmdd-5-347-2012

Kommentar von Judith Curry: Bei diesem Journal handelt es sich um ein Online-Diskussionsportal (von welchem ich ein großer Fan bin). Bis heute wurden zwei interaktive Kommentare gepostet (hier und hier). Beide diese Begutachtungen sind positiv. Die folgende Begutachtung habe ich per E-Mail erhalten, und zwar von jemandem, der anonym bleiben möchte (diese Begutachtung ist nicht positiv). Diese Person hat die Absicht, eine Begutachtung online an das Discussion Journal zu senden und möchte die Kommentare hier sorgfältig lesen, um die Begutachtung vor dem Absenden hieb- und stichfest zu machen. Einen Blogbeitrag von Easterbrook zu dieser Studie findet man hier, zusammen mit einem guten Kommentar von Nick Barnes.

Begutachtung der Studie von Pipitone und Easterbrook von Anonymus

Einführung

Folgende Punkte in der Studie von Pipitone und Easterbrook werden in diesem Kommentar angesprochen:

  1. Fehlende Eindeutigkeit bei der Entwicklung der Software der Globalen Klimamodelle (GCMs)
  2. Auswirkungen des Advanced Strategic Computing Initiative (ASCI)-Projektes auf die Entwicklung moderner Verifikations- und Bewertungsverfahren
  3. Fehlende Präzision einfacher Fehleraufzeichnungen als Indikator der Software-Qualität.
  4. Fehlende Überlegungen zur Eignung von Produktionsbeiträgen zur Software im Bereich der Unterstützung von Entscheidungen.

Wissenschaftliche Software-Entwicklung

Hinsichtlich der erforderlichen großen Erfahrung, der Komplexität der Phänomene, einer großen Anzahl von Systemfunktionen, die hier von Interesse sind und in jeder anderen Hinsicht sind die Globalen Klima-(Zirkulations-)Modelle alles andere als eindeutig.

Jede wissenschaftliche und Ingenieurs-Software in Zusammenhang mit Anwendungen in der realen Welt erfordert hohe Aufmerksamkeit durch Experten mit umfangreichen Kenntnissen der physikalischen Aspekte, und diese Experten müssen entscheidend im Prozess der Software-Entwicklung mitwirken. Das Klima der Erde und andere natürliche Phänomene und Prozesse sind hier keine Ausnahme. Einige Systeme und damit verbundene physikalische Prozesse sind mindestens ebenso inhärent komplex wie die Klimasysteme der Erde. Modelle und Software für derartige Systeme erfordern auch intensive Kenntnisse über eine Vielfalt verschiedener Phänomene und Prozesse, die für die Modellierung von Bedeutung sind. Sie sind auch für die Beschreibung der Prozesse und die Kopplung zwischen Komponenten zur Beschreibung dieser Prozesse wichtig. Aus den gleichen Gründen müssen die Anwender der Software auch über großes Wissen und Erfahrung über das physikalische Problem verfügen, das heißt auf dem Gebiet der Anwendung.

Wie in der Studie von Pipitone und Easterbrook erwähnt, nutzen die Entwickler der Modelle, Methoden und Software diese komplexen Systeme, um sowohl über die zugrunde liegende Physik als auch über die Software selbst Erfahrungen zu sammeln. Intensive iterative Wechselwirkungen zwischen Experten aus Physik, Mathematik und Softwareentwicklung sind die Regel. Die GCMs sind in dieser Hinsicht keine Ausnahme.

Das Problem der  Softwarequality in wissenschaftlicher Software

Easterbrook und Johns (2009) haben eine Übersicht über einige der Techniken präsentiert, die in einigen Laboren der GCM-Modellierung bei der Entwicklung der GCM-Software angewendet worden sind. Alle von den Autoren beschriebenen Techniken sind standardmäßige Operationsprozesse, die während der Ausarbeitung von Forschungsversionen aller wissenschaftlichen und technischen Software vor Veröffentlichung der Codes benutzt werden.

Die von Easterbrook und Johns beschriebenen Aktivitäten werden manchmal als entwicklungsbedingte Einschätzungen bezeichnet: Sie werden von Entwicklern während des Entwicklungsprozesses verwendet. Die von den Autoren beschriebenen Techniken sind jedoch als Nachweis, dass die Modelle, Methoden und Software korrekt erstellt worden sind, oder dafür, dass sie für Anwendungen geeignet sind, nicht ausreichend. Im Besonderen geben die von den Autoren beschriebenen Aktivitäten zur entwicklungsbedingten Einschätzung keinen Aufschluss über die Zusammenführung der verschiedenen numerischen Methoden und der Genauigkeit der berechneten Ergebnisse für alle reagierenden Funktionen des Systems, die hier von Interesse sind.

Stevenson (1999) sowie die ersten beiden, in Tevenson, Gustafson (1998) und Larzelere (1998) genannten Referenzen waren unter den ersten Studien, in denen man sich über die Konsequenzen der Advanced Strategic Computing Initiative (ASCI) des Stockpile Stewardship-Projektes zur Verifikation und Bewertung der Modelle, der Methoden und der Computersoftware Gedanken gemacht hatte. Dieses Projekt hat zum Ziel, experimentelle Tests in großem Umfang durch berechnete und im Rahmen kleinere Experimente zu ersetzen. Die Studien machten sich Gedanken über dieses Ziel unter all den anderen, jemals unternommenen Projekten, diese komplexen physikalischen Phänomene und Prozesse zu modellieren. Diese drei Studien stellten die Bandbreite der Wirksamkeit hinsichtlich Verifikation und Bewertung zu Recht in Frage. Die Autoren dieser Studien waren nicht allzu optimistisch, dass man die immensen Herausforderungen hinsichtlich Verifikation und Bewertung durch den ASCI erfolgreich beschreiben könnte.

Die Ziele standen im Zusammenhang mit Software-Entwicklungen innerhalb des National Laboratory Systems, für welches derartige Verifikations- und Bewertungsprozeduren formal nicht existierten. Allerdings haben alle in das ASCI-Projekt involvierten Laboratorien die Herausforderungen angenommen und wichtige Beiträge zur Entwicklung und erfolgreichen Anwendung moderner Verifikations- und Bewertungsverfahren geleistet.

Die von Patrick Roache initiierten Entwicklungen hinsichtlich Verifikation und Bewertung mit signifikanten zusätzlichen Entwicklungen von William Oberkampf und Kollegen am Sandia National Laboratory und anderen sowie mit Beiträgen von Industrie und Akademien haben alle Fragen beantwortet, die in jenen ersten Studien von Stevenson und anderen aufgeworfen worden waren.

Aus ASCI entwickelte Methoden zur Verifikation und Bewertung

Die modernen Methoden zur Verifikation und Bewertung mathematischer Modelle, numerischer Methoden und der damit verbundenen Computer-Software sind der einfachen Auflistung der Bandbreite von Fehlern als Mittel zur Bestimmung der Qualität von Software weit überlegen. Die Bücher von Patrik Roache (1998, 2009) sowie Oberkampf und Roy (2010) haben die Evolution der Methoden dokumentiert. Zusätzlich haben Oberkampf und seine Kollegen am Sandia National Laboratory eine große Anzahl technischer Berichte des Labors erstellt, besonders Oberkampf, Trucano und Hirsch (2003). Die Methoden wurden erfolgreich angewendet auf eine Vielfalt wissenschaftlicher  und Ingenieurssoftware. Und sie wurden von vielen wissenschaftlichen und professionellen Ingenieursgesellschaften übernommen als Maßgabe zur Veröffentlichung in begutachteten Journalen. Eine Eingabe in Suchmaschinen wie Google, Google Scholar oder www.osti.gov wird eine große Anzahl von Treffern ergeben.

Das Buch von Knupp und Salari (2002) über die Method of Manufactured Solutions (MMS), einer Methode, die zuerst von Roache eingeführt worden war, zeigt eine kraftvolle Methode zur Quantifizierung der Genauigkeit numerischer Methoden zur damit verbundenen theoretischen Effizienz und zur Entdeckung von Verschlüsselungsfehlern. Auch hier wird die Suche nach Literatur zu einer großen Zahl nützlicher Berichte und Studien mit zahlreichen Anwendungsbeispielen führen. Die MMS sind goldener Standard zur Verifikation numerischer Lösungen.

Das Zählen von Fehlern ist fehlerhaft

Die Daten, auf denen die Studie von Pipitone und Easterbrook basiert, wurden von Pipitone (2010) zusammengetragen und präsentiert. Diese These und die Diskussionsstudie selbst sprechen die nicht so idealen Charakteristika der Fehlerbestimmung relativ zur Bestimmung der Softwarequalität an. Das Buch von Oberkampf und Roy (2010) widmet der Fehlerbestimmung einen einzelnen, langen Absatz. Die Rohdaten der These zeigen diese große Anzahl von Fehlern in absoluten Zahlen, die in den begutachteten GCMs präsent waren.

Das Zählen der Fehler führt nicht zu brauchbaren Beiträgen in drei der wichtigsten Attribute der Softwarequalität, wie der heute benutzte Satz zeigt: Verifikation und Bewertung [Verification and Validation (V&V)] sowie die Bestimmung der Ungewissheit [uncertainty qualification (UQ)]. Bei der modernen Softwareentwicklung ist die Verifikation ein mathematisches und die Bewertung ein physikalisches Problem, einschließlich der Art und Weise von Bewertungstests.

Das Zählen der Fehler wäre sinnvoller, wenn die Daten als Funktion der Zeit nach Einführung der Software präsentiert werden würden, um eine stetige Verbesserung und eine genaue Klassifizierung des Fehlers zu gewährleisten. Das Zählen wäre auch nützlicher, wenn es nur mit neueren Versionen der Software verbunden wäre. Und die Anzahl der von den Anwendern abgedeckten verschiedenen Reaktionsfunktionen ist auch von Interesse: eine sehr grobe Annäherung an die Modelle. Im Allgemeinen werden die verschiedenen Reaktionsfunktionen eine grobe Proxy für die Konzentration auf wichtige Teile der mathematischen Modelle sein.

Das Zählen der Fehler wäre noch viel nützlicher, wenn man auch den Fehlertyp betrachten würde. Es gibt folgende vier Fehlerklassen: (1) Fehler des Anwenders, (2) Verschlüsselungsfehler, (3) Grenzen des Modells oder der Methode und (4) Defizite im Modell oder der Methode. Von diesen zählt nur die zweite Klasse Verschlüsselungsfehler. Die erste Klasse, ein Fehler des Anwenders, könnte ein Hinweis darauf sein, dass eine Verbesserung bei der Dokumentation der Codes erforderlich ist, und zwar für die theoretische Basis der Modelle und Methoden und/oder die Anwendungsprozeduren und/oder das Verstehen der grundlegenden Natur der berechneten Systemreaktionen. Die dritte Klasse, Grenzen des Modells oder der Methode bedeutet, dass ein gewisser Grad der Repräsentation zwar vorhanden ist, ein Anwender aber eine Grenze entdeckt hat, die das Entwicklungsteam nicht erwartet hatte. Die vierte Klasse bedeutet, dass ein Anwender eine neue Anwendung und/oder Reaktion entdeckt hat, die in der Originalentwicklung fehlte. Diese vier erfordern allgemein eine signifikante Vorbereitung des Modells, der Methode und der Software-Modifikationen relativ zur Korrektur des Fehlers.

Die Punkte (3) und (4) könnten ein wenig mehr Klarstellung brauchen. Eine Grenze des Modells oder der Methode kann mit einem turbulenten Fluss illustriert werden, für welchen das Personal, das das Originalmodell entwickelt hat, die Konstanten spezifiziert hat zu jenen, die mit parallelen Scherungsströmungen korrespondieren, und ein Anwender hat versucht, die Modellergebnisse mit experimentellen Daten zu vergleichen, deren Rückführung wichtig ist. Punkt (4) kann auch durch einen turbulenten Fluss illustriert werden. Man denke sich einen Fall, in welchem die Entwickler eine numerische Lösungsmethode verwendet haben, die nur für parabolische/fortlaufende physikalische Situationen möglich ist, obwohl der Anwender einem elliptischen Fluss gegenüberstand.

Die Studie von Pipitone und Easterbrook enthält nur wenige Informationen über die Art der Fehler, die man entdeckt hatte.

Eignung für Produktionsanwendungen

In der Studie von Pipitone und Easterbrook geht es nicht um die Aspekte der Anwendung der GCMs; stattdessen konzentriert sich die Studie auf die Lernaspekte des Modells. Wie in diesem Kommentar schon erwähnt, sind diese Aspekte allen Modellen gemeinsam, nämlich immer dann, wenn die Komplexität eine wichtige Komponente ist – Komplexität sowohl hinsichtlich der Physik als auch der Software.

Die Ziele der Modell- und Softwareentwicklung sind die Erzeugung von Tools und Anwendungsprozeduren, die für Vorhersagen ausreichender Genauigkeit in der realen Welt geeignet sind. Die Grundlage ausreichender Genauigkeit ist die Bewertung dieser Vorhersagen im Vergleich mit gemessenen Daten aus den Anwendungsregionen. Alle Funktionen der Systemreaktionen müssen durch Testbewertungen geprüft werden. Die Begutachtungsstudie von Easterbrook spricht keinerlei Aspekte der Bewertung an, da dieses Konzept in den Berichten und Studien definiert ist.

Die Bewertung ist für alle Modelle, Methoden, Software, Anwendungsprozeduren und die Anwender erforderlich, die die Basis politisch-öffentlicher Entscheidungen bilden. Die Bewertung muss nach der Verifikation erfolgen. Im Allgemeinen werden Verifikation und Bewertung dieser Arbeitsmittel und Prozeduren von Personen durchgeführt, die unabhängig von dem Team sind, das die Modelle und Prozeduren entwickelt hat. Die Auflistung von Fehlern, vor allem solcher, die während der Entwicklung zutage treten, hat in dieser Hinsicht nichts zu bieten.

Schlussfolgerung

Die Studie präsentiert ein sehr schwaches Argument für die Qualität der GCM-Software. Die weithin akzeptierten und erfolgreichen modernen Verifikations- und Bewertungsmethoden, welche in vielen wissenschaftlichen Softwareprojekten Verwendung finden, werden in der Studie nicht einmal erwähnt. Noch wichtiger, die Brauchbarkeit der GCMs für Anwendungen, die politische En tscheidungen beeinflussen, wird ebenfalls nicht erwähnt. Das einfache Aufzählen von Fehlern kann keine Informationen relativ zu Bewertung und Anwendung bei politischen Entscheidungen bieten.

References

Easterbrook, Steve M. and Johns, Timothy C., Engineering the Software for Understanding Climate, Computing in Science & Engineering, Vol. 11, No. 6, pp. 65 – 74, 2009.

Gustafson, John, Computational Verifiability and Feasibility of the ASCI Program, IEEE Computational Science & Engineering, Vol. 5, No. 1, pp. 36-45, 1998.

Knupp, Patrick and Salari, Kambiz, Verification of Computer Codes in Computational Science and Engineering, Chapman and Hall/CRC, Florida 2002.

Larzelere II, A. R., Creating Simulation Capabilities, IEEE Computational Science & Engineering, Vol. 5, No. 1, pp. 27-35, 1998.

Oberkampf, William F. and Roy, Christopher J., Verification and Validation in Scientific Computing, Cambridge University Press, Cambridge, 2010.

Oberkampf, William F., Trucano, T. G., and Hirsch, C., Verification, Validation, and Predictive Capability in Computational Engineering and Physics , Sandia National Laboratories Report SAND 2003-3769, 2003.

Pipitone, Jon, Software quality in climate modeling, Masters of Science thesis Graduate Department of Computer Science, University of Toronto, 2010.

Roache, Patrick J., Verification and Validation in Computational Science and Engineering, Hermosa Publishers, Socorro, New Mexico, 1998.

Roache, Patrick J., Fundamentals of Verification and Validation, Hermosa Publishers, Socorro, New Mexico, 2009.

Roache, Patrick J., Code Verification by the Method of Manufactured Solutions, Journal of Fluids Engineering, Vol. 114, No. 1, pp. 4-10, 2002.

Stevenson, D. E., A critical look at quality in large-scale simulations, IEEE Computational Science & Engineering, Vol. 1, No. 3, pp. 53–63, 1999.

Kommentar von Judith Curry: Zur Hintergrundinformation folgen hier einige Beiträge zur Klimamodellierung V&V:

Meine persönliche Ansicht hierzu liegt mehr auf der Linie dessen, was Anonymus hier präsentiert als auf dem, was von Pipitone und Easterbrook kommt.

Link: http://judithcurry.com/2012/04/15/assessing-climate-model-software-quality/

Übersetzt von Chris Frey EIKE




Kernenergie ist keine Risikotechnik (Teil 1)

Risiko durch Radioaktivität, die besondere Gefahr bei Kernkraftwerken?

Seit 500 Jahren weiß die Menschheit durch Theophrastus Bombastus von Hohenheim, bekannt unter dem Namen Paracelsus (1493 – 1541): „Was ist das nit gifft ist? alle ding sind gifft, und nichts ohn gifft. Allein die dosis macht das ein ding kein gifft ist“ [1]. Dieser Satz gilt auch für Radioaktivität.

Um eine mögliche Gefahr einordnen zu können muß man wissen, wo der gefährliche Dosisbereich ist: Die Strahlenwirkung auf Lebewesen misst man in Sievert (Sv), und gefährlich wird es bei einer hohen Dosis von einigen Sievert (Sv), sie führt in kurzer Zeit zur Strahlenkrankheit und evt. zum Tode. Bei etwas geringerer Dosis darunter bis herab zu 200 mSv hat man eine erhöhte Krebsrate festgestellt (Überlebende von Hiroshima und Nagasaki). Ein Schaden tritt immer nur dann ein, wenn die Dosis hoch ist und wenn diese in kurzer Zeit einwirkt (z.B. in einem Tage), wie bei den Bombenabwürfen geschehen.

Das wird durch einen Vergleich mit Alkohol verständlich: Eine Flasche Schnaps enthält die tödliche Dosis, in kurzer Zeit getrunken führt es zur Alkoholvergiftung und vielleicht zum Tode. Bei Verteilung der tödlichen Dosis auf ein Jahr schadet sie nicht.

Im Strahlenschutz wird als Lehrmeinung jeder noch so kleinen Dosis wird eine Wirkung zugeschrieben. Das ist die LNT-Hypothese (LNT = linear no threshold), wobei die Zeit in der Regel nicht beachtet wird. Es handelt sich um eine Annahme, die weder als richtig noch als falsch bewiesen werden kann, eben eine Hypothese. Aus der Annahme einer Wirkung noch bei der kleinsten Dosis folgt das Prinzip des Strahlenschutzes, jede noch so kleine Dosis zu vermeiden (ALARA-Prinzip = as low as reasonably achievable). Die Internationale Strahlenschutzkommission vertritt die LNT-Hypothese und das ALARA-Prinzip, die nationalen Regierungen folgen den Vorschlägen dieser Kommission und gestalten die Gesetze danach.

Es gibt gute Gründe, die LNT-Lehrmeinung abzulehnen:

·       In der belebten Natur reagiert ein lebendes Wesen auf jede Einwirkung von außen. Bei kleiner Dosis unterhalb einer Schwellendosis gibt es keine Schäden, der Organismus kann sich erfolgreich wehren, das wusste schon Paracelsus.

·       Es gibt die „adaptive Antwort“, das heißt, eine kleine Dosis trainiert die Abwehrkraft des Organismus und stärkt sein Immunsystem. Ein gutes Beispiel dafür ist die Tatsache, dass Kinder auf Bauerhöfen weniger an Allergien leiden, weil sie mehr mit alltäglichem „Schmutz“ in Berührung kommen [2]. „Zu viel Sauberkeit ist ungesund“, allerdings wird diese unpopuläre Wahrheit nicht gern verbreitet.

·       Es gibt in der MAK-Liste (Maximale Arbeitsplatz Konzentration) 280 Positionen mit kanzerogenem Potential. LNT wird nur bei denen angewandt, die in die politische Diskussion geraten sind, wie Radioaktivität, Feinstaub [3], Nichtraucherschutz [4]. Wenn die LNT-Hypothese glaubwürdig sein soll, müsste sie folgerichtig bei allen Positionen der MAK-Liste zur Anwendung kommen.

·       Es gibt bei Radioaktivität eine biopositive Wirkung von geringen Strahlungsdosen (Hormesis-Theorie). Die International Commission on radiological protection (ICRP) hat die biopositive Wirkung nie als existent anerkannt, darüber wird nicht geredet.

Die Folge der LNT-Hypothese ist die Strahlenangst vor jeder noch so kleinen Strahlendosis, diese Angst ist unbegründet, denn sie beruht auf einer Annahme.

Ein Zahlenbeispiel: Vergleich der Risiken von Radioaktivität im Vergleich mit Alkohol

Der Bürger kann mit den Zahlen zu Aktivität und Dosis bei Radioaktivität nichts anfangen, sie verwirren nur, man braucht sinnvolle Vergleiche. Der Bürger hat einen sehr guten Maßstab bei Ethanol (= Alkohol), da jedermann dieses mit Bier, Wein, Sekt, Schnapspralinen schon konsumiert hat. Alkohol ist ebenfalls kanzerogen, nur wird darüber selten berichtet. Damit wollen wir einen Vergleich machen.

·       Radioaktivität und Alkohol haben beide eine Giftwirkung, nämlich die Strahlenkrankheit und die Alkoholvergiftung.

·       Bei Radioaktivität und Alkohol sind die Dosisabhängigkeiten des Krebsrisikos bekannt. Zusätzlich hat Alkohol Suchtpotential, ist fruchtschädigend, erbgutverändernd, brennbar, explosiv.

·       Die überzogenen Grenzen für Radioaktivität werden bei Kernkraft kaum überschritten, die ebenso überzogene Grenze bei Alkohol lt. MAK-Liste wird täglich von einigen zig Millionen Menschen in Deutschland überschritten. Durch Radioaktivität kommt niemand zu Schaden, Alkohol fordert täglich Opfer.

Der quantitative Vergleich von Alkohol und Radioaktivität geschieht über das zusätzliche relative Krebsrisiko „excess relative risk“ = ERR, das in beiden Fällen gemessen wurde. Das hypothetische Risiko von 20mSv im Jahr – das Kriterium zur Evakuierung in Japan war – ist identisch mit dem hypothetischen Risiko von einer Likörpraline im Jahr, also gleich NULL [siehe Kasten unten].

Es gibt weitere Punkte beim Vergleich Radioaktivität und Alkohol zu beachten:

·       Die gefährliche bzw. tödliche Dosis Alkohol steht in jedem Supermarkt 1000-fach bereit. Die gefährliche bzw. tödliche Dosis von Radioaktivität befindet sich immer hinter dicken Mauern verborgen, für den Bürger unzugänglich, genauestens überwacht von 730 Mitarbeitern des Bundesamtes für Strahlenschutz.

·       Die Hormesis bei Alkohol, also positive Wirkung bei kleiner Dosis ist überall zu beobachten. Alkohol in kleiner Menge erzeugt eine positive Grundstimmung des Menschen, erweitert die Blutgefäße und begünstigt den Kreislauf.

·       Bei Anwendung LNT-Rechenprozedur, die bei Radioaktivität zu großen Zahlen hypothetischer Opfer führt, kann auch bei Alkohol angewandt werden. Es ergibt sich so für das Münchner Oktoberfest in 2011 die erstaunliche Zahl von berechneten zusätzlichen 2000 Krebstoten durch Biergenuß (Rekord von 7,5 Mill. Besuchern und 7,5 Mill. Liter getrunkenen Bieres), natürlich in der Statistik nicht nachweisbar.

Die vollkommen überzogene „Vorsichtsmaßnahme“ der Evakuierung in Japan bei zu erwartender Dosis von 20mSv im Jahr wird verdeutlicht durch weitere Zahlen:

·       Bei einer CT-Untersuchung werden dem Patienten 10 bis 20mSv in < 1 Stunde zugemutet.

·       Bei Herzkatheter-Untersuchungen ist die Dosis der Hautoberfläche 400mSv in < 1 Stunde [7].

·       Es gibt auf der Erde viele bewohnte Gebiete mit Bodenstrahlung  >100mSv im Jahr.

·       Das fliegende Personal ist erhöhter Strahlung aus dem Weltall bis zu 9mSv im Jahr ausgesetzt [8].

Wer gemäß der Rechenprozedur nach LNT hypothetische Tote berechnet, der sollte auch bereit sein, die hypothetischen Toten durch die hier aufgezählten Anwendungen im Vergleich zu nennen. Und wenn gegen die friedliche Nutzung der Kernkraft argumentiert wird, dann sollten die Folgen der konkurrierenden Verfahren wie Stromerzeugung durch Biomasse („Kornkraft statt Kernkraft“ nach Franz Alt) auch genannt werden [9].

Es gibt bedeutende Professoren aus dem Bereich Strahlenschutz, die eine ablehnende Haltung gegenüber der LNT-Hypothese haben, Namen wie Wachsmann, Becker, Feinendegen, Kellerer, Jaworowski sind zu nennen. Prof. Jaworowski nannte die Anwendung der LNT-Hypothese kriminell [10], dem kann zugestimmt werden.

In Japan waren die Evakuierungen aus radiologischen Gründen nicht erforderlich, für die Menschen waren sie verheerend. In Deutschland bietet das den Medien Gelegenheit zur Angstmache. Die hauptamtlichen Strahlenschützer kennen das Problem, aber diese Fachleute werden in den Medien nicht gefragt, sie werden als Lobbyisten verunglimpft [11].

Es ist eine erstaunliche Leistung der Demagogie: In einem medialen Trommelfeuer über Jahrzehnte wurde den Deutschen die Gefährlichkeit von Kernkraft und Radioaktivität eingebläut, obwohl die Zahlen das Gegenteil zeigen. Heute wird jeder diesbezügliche Unsinn geglaubt. Kernkraft ist keine Risikotechnologie. Es gibt dazu gute Argumente. Deutschland macht sich mit seiner Strahlenangst und Ausstiegsplänen weltweit lächerlich und richtet sich auf lange Sicht wirtschaftlich zugrunde.

[1] zitiert nach Römpp, Chemielexikon, Stichwort „Gift“

[2] Johannes Ring, „Allergien und Atemwegserkrankungen“, GSF, 26.10.2006, München

[3] GSF-Forschungszentrum, Broschüre „Aerosolforschung in der GSF“, Seite 62: berechnet wurden 70 000 Tote pro Jahr durch Feinstaub in Deutschland

[4] DKFZ; „Passivrauchen – ein unterschätztes Gesundheitsrisiko“, Heidelberg, 2005, Martina Pötschke-Langer et. al.: berechnet wurden 3301 Tote durch Lungenkrebs, Herz-Kreislauf, Schlaganfall, u.a.

[5] Strahlenschutz, Radioaktivität und Gesundheit, ISBN 3-910088-82-1, 4. Aufl. Dez. 1991

[6] Ulmer Symposium „Alkohol und Krebsrisiko“, FORUM DKG (13), 1998, S. 156 – 176.

[7] H. Kiefer, W. Koelzer, „Strahlen und Strahlenschutz“, 2. Aufl. 1987, ISBN 3-540-17679-9, Seite 72

[8] StrahlenschutzPRAXIS 1/09

[9] „Das grüne Paradoxon“, Prof. Hans-Werner Sinn, Kapitel zur Teller-Tank-Problematik

[10] Zbigniew Jaworowski, „Eine realistische Bewertung der Gesundheitsfolgen des Tschernobyl-Unfalls“, FUSION 19, 1998, Nr.3, S.10–20.

[11] Vorträge auf dem Fachsymposium „Strahlenschutz – Ein Jahr nach Fukushima“ des Deutsch-Schweizerischen Fachverbandes für Strahlenschutz e.V. (FS), 8. und 9.März 2012 in Mainz

Überlebende von Hiroshima und Nagasaki    Þ    1Sv in 3 Tagen ergibt   Þ   ERR ≈ 1                  [5]

Das Krebsrisiko von Alkohol wird beziffert     Þ     10 Liter in einem Jahr   Þ   ERR ≈ 2 bis 3         [6]

Berechnet wird das Krebsrisiko bei 20mSv pro Jahr, das laut Gesetz in Japan Evakuierung erforderte.

Wenn 1Sv in 3 Tagen Þ   ERR ≈ 1 ergibt, dann bedeutet    1Sv in einem Jahr      ERR ≈ 0,01

folglich bedeutet                                                                  20mSv in einem Jahr ERR ≈ 0,0002

Das Risiko ERR ≈ 0,0002 bedeutet bei Alkohol die Aufnahme von einem Milliliter reinen Alkohols im Jahr, also in etwa eine Likörpraline im Jahr.

Natürlich ist dieses eine Abschätzung mit Mängeln, dennoch wird die Überzogenheit der Strahlenschutzmaßnahmen deutlich. Nur darum und um die dadurch verursachte Strahlenangst geht es hier.

Dr. Lutz Niemann EIKE, April 2012




Obamas Öko-Lügen

Die Große Lüge ignoriert die Tatsache, dass es keine Beziehung zwischen dem CO2 und dem Klima gibt. CO2 reagiert auf Klimaänderungen. Es treibt sie nicht an. Die Große Lüge ignoriert die Tatsache, dass es sich auf der Erde seit vierzehn Jahren abgekühlt hat.

Die vergangenen dreieinhalb Jahre unter der Präsidentschaft Barack Obamas waren gekennzeichnet durch eine permanente Krise, von denen die Finanzkrise der Nation nicht die Geringste war, und von der er uns immer wieder sagte, dass er sie „geerbt“ habe. Allerdings hat er sie nicht mit erprobten Maßnahmen gelöst, Millionen wieder in Lohn und Brot zu bringen und eine stagnierende Wirtschaft zu beflügeln.

Stattdessen widmete er seine größten Anstrengungen der Übernahme von einem Sechstel der Wirtschaft der USA, der Gesundheitsindustrie. Seine Administration hat einen stetigen Krieg gegen den Zugang zu Energiereserven geführt, die für die Wirtschaft in den USA lebenswichtig sind. Das Ergebnis dieser Politik zeigt sich an der Tankstelle durch Preise, die in astronomische Höhen steigen, während Milliarden Barrel Öl in den USA im Boden verbleiben.

Seine Hingabe an all die Ökolügen zeigte sich in den Millionen, die für „grüne Jobs“ verschwendet worden sind, in seinem gescheiterten „Stimulans“ und in Anleihen an „grüne Industrien“, vor allem Wind und Solar. Andere Fälle enthielten die Finanzierung von Hochgeschwindigkeitszügen, wo sie nicht gebraucht oder erwünscht waren. Bis auf den heutigen Tag hat Amtrak niemals einen Gewinn erwirtschaftet. Und Elektroautos bleiben unpraktisch und unbezahlbar.

Vielleicht am deutlichsten trat seine Umweltüberzeugung auf einer Konferenz der UN in Kopenhagen im März 2010 zutage. Seine Rede vor den Delegierten und der Weltpresse enthielt alle Lügen in Zusammenhang mit der „Klimaänderung“ und der gescheiterten Politik, die er zwei Jahre zuvor und noch früher verfolgt hatte.

„Wir treffen uns hier in Kopenhagen, weil die Klimaänderung eine schwere und wachsende Gefahr für unsere Völker darstellt. Sie wären nicht hier, wenn Sie – wie ich selbst – nicht davon überzeugt wären, dass diese Gefahr real ist. Dies ist keine Fiktion, dies ist Wissenschaft“, führte Obama aus.

Unabhängig von der Tatsache, dass sich das Klima während der gesamten Erdgeschichte seit 4,5 Milliarden Jahren immer gewandelt hat, war die Wissenschaft damit beschäftigt, die Leute mit einer solchen Änderung zu ängstigen, die keinerlei Bezug zu echter Wissenschaft hat, welche unparteiisch auf Basis von Daten aus nachvollziehbaren Experimenten basiert.

Echte Wissenschaft hat keine politische Agenda. Die betrügerische Wissenschaft der globalen Erwärmung wurde im November 2009 enthüllt, als die Welt erfuhr, dass eine Handvoll „Wissenschaftler“ beim IPCC den wissenschaftlichen Prozess systematisch deformiert hat, und die falsche Computermodelle beschworen haben, die signifikante Elemente der Klimageschichte einfach ignorierten. Dieser Vorgang ist unter der Bezeichnung „Klimagate“ bekannt.

Obama erinnerte die Delegierten daran, dass Amerika „der zweitgrößte Emittent der Welt“ von Treibhausgasen sei, obwohl diese Gase gar nicht wie ein Treibhaus agieren, indem sie Wärme fangen und halten. Falls das doch der Fall wäre, wie könnte man sich dann die Tatsache erklären, dass die Erde seit etwa 1998 in einen natürlichen Abkühlungszyklus eingetreten ist?

Was ist das Kennzeichen einer sich entwickelnden oder erfolgreichen Wirtschaft? Es ist der Energieverbrauch!

Obama versprach, dass die USA daran arbeiten würden, „historische Investitionen im Bereich erneuerbare Energien“ vorzunehmen und dass es seine Absicht sei, die Amerikaner dazu zu bringen, „in ihren Häusern und Gebäuden energieeffizienter zu werden; und dass er umfassende Maßnahmen einführen wolle, um zu einer sauberen Energiewirtschaft zu kommen“.

Solch eine Transformation ist lächerlich. Amerika basiert auf Öl, auf Kohle, auf Erdgas, auf Wasser- und Kernkraft. Die Investitionen in Wind und im Besonderen in Sonnenkraft haben Millionen Steuergelder verschwendet. Zusammen stellen Wind- und Solarenergie weniger als zwei Prozent des Energieverbrauchs in den USA, Kohle dagegen fast die Hälfte. Es war die Umweltschutzorganisation EPA der Obama-Administration, die bestimmt hat, die Kohleverbrennung zu reduzieren, und zwar mit der falschen Behauptung, dass das CO2 ein „Verschmutzer“ sei.

Typischerweise sagt Obama, „wir dürfen keine Zeit verlieren!” In Wirklichkeit hat die Obama-Administration jede Gelegenheit verstreichen lassen, den USA Zugang zu den riesigen Energievorräten zu gewähren. Selbst bei einer Übertreibung der Angaben zur Ölförderung gibt Obama niemals zu, dass sich diese auf privatem Land abspielt. Seine Regierung hat den Zugang zu Förderung und Ausbeutung auf öffentlichem Land praktisch geschlossen.

Umweltaktivismus ist die Maske des Kommunismus, die Besitzergreifung allen Eigentums und der Produktivität seitens der Regierung. Selbst wenn es um die Notwendigkeit geht, Luft und Wasser sauber zu halten, wurde er als ein unverblümtes Machtinstrument gebraucht, um die wirtschaftliche Entwicklung zu begrenzen.

Das alles sind wohlbekannte Umweltlügen, und es sind Obamas Umweltlügen.

Die Konferenz in Kopenhagen ging hastig zu Ende, weil die Führer der Welt aus der Stadt flohen, um zu vermeiden, von einem massiven Blizzard festgesetzt zu werden. Die globale Erwärmung, vor der sie 2010 alle gewarnt hatten, fand nicht statt und findet nicht statt!

© Alan Caruba, 2012

Link: http://factsnotfantasy.blogspot.de/2012/04/obamas-eco-lies.html

Übersetzt von Chris Frey EIKE

Weiterführender Link mit aktuellen Zahlen zur Arbeitsmarktentwicklung im "Green Jobs" Bereich:

The Obama Green Jobs Initiative Has Been A Failure




Peak Oil – Ein alter Hut!

Klar, dass diese Vermutung große Auswirkung auf die Energie- und Sicherheitspolitik hat. Wenn sie wahr wäre, würde das heißen, dass wir groß in Öl-Ersatzstoffe investieren, oder alles in unserer Macht Stehende tun müssten, um die schwindende Restmenge der Ölvorräte für unsere Wirtschaften zu „sichern“, bis hin zur Gefährdung der Arktis oder gar bis zum Kriegführen.

Merkwürdigerweise aber herrscht innerhalb der Ölindustrie eine ganz andere Sichtweise vor. Seit einigen Jahren schon gab es Bedenken wegen des „Erdöl-Fördergipfels“, neuerdings aber scheint sich die Stimmung völlig gedreht zu haben.

So sagte beispielsweise Antonio Brufau, Vorstand der spanischen Ölfirma REPSOL, auf dem World Petroleum Congress in Doha im Dezember: „Die Debatte über den Erdöl-Fördergipfel hat in den vergangenen drei Jahren ein großes Stück an Bedeutung verloren.“ Diese Ansicht ist heute typisch für die Ölindustrie. Citigroup meinte, dass die „Vorstellung von einem Erdöl-Fördergipfel beerdigt werden müsste … . “

Wie Robin Mills in einem wichtigen Artikel in der EUROPEAN ENERGY REVIEW schreibt, ist der Hauptgrund für diesen Optimismus die technologische Innovation, die riesige neue Öllagerstätten zugänglich gemacht hat, ausbeutbar zu wettbewerbsfähigen Preisen. (Was offensichtlich viele Wissenschaftler verwirrt.) Es ist die „Schiefergas-Revolution“, welche die Gas-Industrie in den USA seit einigen Jahren aufgescheucht hat, und die sich nun beim Öl wiederholt – in den USA und in der übrigen Welt.

Die technische Entwicklung hat in der Tat mit ihrem raschen Entwicklungstempo selbst die Ölindustrie völlig unvorbereitet getroffen. Wie Brufau von REPSOL sagte: „Die Geschwindigkeit der technischen Veränderungen und die Konsequenzen haben uns sehr überrascht.“ Oder in den Worten der CITIGROUP: „Wir nehmen an, dass die Erwartungen der Industrie hinter der Wirklichkeit zurückbleiben, so wie es viele Jahre beim Schiefergas war.“

Nicht, dass Robin selbst überrascht worden wäre. In seinem Buch: „Der Mythos der Ölkrise“ (2008) hat er bereits die seiner Meinung nach auf einer verfehlten Vorstellung beruhende Idee des „Ölfördergipfels“ in Frage gestellt. In seinem neuen Artikel betrachtet er die Entwicklungen auf dem Welterdölmarkt während der vergangenen vier Jahre, die trotz der gegenwärtig hohen Preise ihn in seiner Überzeugung bestärkten, dass das Zeitalter des erschwinglichen Öls noch lange nicht vorüber ist.

Wenn die in der Ölindustrie vorherrschende neue optimistische Sicht stimmt, werden die Politiker, die Investoren und Anteilseigner ihre Energie-Strategie drastisch revidieren müssen. Deshalb sollte jeder, der mit Energie-Strategien zu tun hat, Robins bahnbrechenden Artikel zur Kenntnis nehmen. Hier ist er.

Mit freundlicher Genehmigung der © European Energy Review 2012.
Übersetzung: Helmut Jäger, EIKE




Die Umwelt-Terrorisierung von Kindern

Hinweis: Ein aktuelles Beispiel für diese gewissenlose Indoktrination ist die Story "Gibt es den Klimawandel doch nicht" im Jugendmagazin "Dein Spiegel" 04/12.

…Ich habe seit über fünfzig Jahren Bücher begutachtet, und mit der Veröffentlichung von Rachel Carsons „Silent Spring“ im Jahr 1962 sowie Büchern wie Paul Ehrlichs „Population Bomb“ waren Szenarien präsentiert worden, die Bevölkerung und Regierungen dazu bringen sollen, Maßnahmen zu ergreifen, die im Rückblick auf schlechter „Wissenschaft“ und absurden Untergangsprophezeihungen beruhen.

Wenn Sie sich durch die globale Erwärmung zum Narren machen, zählen sie darauf, dass Sie das noch einmal mit dem Begriff „Nachhaltigkeit“ machen; sie lassen Marx’ Kommunismus wieder aufleben in Gestalt eines grandiosen Systems, die gesamte Erde unter Kontrolle zu bringen. Im Juni wird es die Konferenz Rio+20 der UN geben, auf der man festschreiben wird, dass Regierungen dazu da sind, „nachhaltiges Wohlergehen und Glück“ sicherzustellen. Die Unabhängigkeitserklärung [der USA] bietet die Gelegenheit, Jagd auf das Glück zu machen. Weder garantiert sie Glück, noch sagt sie, dass die Regierung dazu da ist, Glück zu bringen.

Ein Schlüsselelement der endlosen Indoktrination der Grünen war es immer, Kinder zu erreichen, die verwundbarsten Mitglieder unserer Gesellschaft. Aus diesem Grunde wurden unsere Schulen in grüne Gefängnisse verwandelt, in denen ihre Version der Erde in die Gehirne der Kinder getrieben wird, und zwar sowohl hierzulande als auch rund um die Welt.

Ihr Hauptwerkzeug dabei ist Angst. Angst davor, dass die Ozeane steigen und ganze Städte auslöschen werden. Angst davor, dass die Regenwälder verschwinden. Angst davor, dass ganze Lebensformen durch menschlichen Einfluss zerstört werden. Angst davor, dass jeder Gebrauch von Treibstoff, Kohle, Erdgas und Öl den Planeten verderben wird.

Seit rund fünfzig Jahren habe ich hierzu Bücher begutachtet, und ich könnte nicht sagen, in wie vielen Büchern für Kinder diese und andere Themen in die Köpfe der Kinder gehauen werden. Eines davon landete vor Kurzem auf meinem Schreibtisch: „Our House is Round: A Kid’s Book About Why Protecting Our Earth Matters” [etwa: „Unser Haus ist rund: Ein Kinderbuch darüber, warum der Schutz unserer Erde wichtig ist“] von Yolanda Kondonassis mit Bildern von Joan Brush. Es wurde von Fred Krupp die „perfekte Einführung für Kinder zur Umweltproblematik“ genannt. Fred Krupp ist Präsident des Environmental Defense Fund.

Die Autorin ist weder Biologin noch Geologin, Meteorologin oder sonst irgendeine Wissenschaftlerin. Sie ist eine für den Grammy nominierte klassische Harfenistin. Eine Harfenistin!

“Unsere Erde ist verschmutzt worden. Was können wir tun?“ fragt sie ihre jungen Leser. Was meint sie mit „verschmutzt“? Ihre Antwort lautet, dass „Autos, Lastwagen und Fabriken Dreck machen, eine Art schmutzigen Gases oder schmutziger Flüssigkeit, die in die Luft sowie in unsere Flüsse, Seen und Meere gelangt“. Dieses Buch ist für Kinder von fünf bis neun Jahren geschrieben!

Man stelle sich vor, wie es für ein Kind in diesem Alter sein muss, wenn man ihm sagt, dass die Luft verschmutzt ist und das Wasser auch. Das grenzt an Kindesmissbrauch!

„Die Verschmutzung reicht in den Himmel und bildet eine Decke aus Gas, die die Wärme innerhalb der Erdatmosphäre festhält. Das macht unsere ganze Erde wärmer und führt zu unsauberer Luft zum Atmen sowie zu schmelzenden polaren Eiskappen, steigendem Meeresspiegel und Extremwetterereignissen. Wissenschaftler nennen diese Erwärmung der Erde KLIMAÄNDERUNG.“

Das ist eine LÜGE! Die Erde hat sich seit fünfzehn Jahren abgekühlt!

Kohlendioxid ist kein Verschmutzer. Es ist ein Gas, das für das gesamte Leben auf der Erde genauso wichtig ist wie Sauerstoff für die Fauna. Ohne dieses Gas würde kein einziges grünes Blatt von Gras oder Bäumen oder Vegetation existieren. Das, was wir „Ernte“ nennen, würde nicht wachsen. Unser ganzes Leben und die ganze Natur hängen von dieser Vegetation ab. Im Alter von fünf bis neun Jahren erkennt man das wahrscheinlich noch nicht so.

Dieses Buch sowie all die anderen, die diesen Lügen Vorschub leisten, sind eine Form von Psychoterror.

In der gleichen Woche, in der ich „Our House is Round“ erhielt, stolperte ich auch über die Bücher „The Big Green Book of the Big Blue Sea“ und „Earth-Friendly Buildings, Bridges, and More“. Wenn man alle Bücher zu Umweltthemen für Kinder, die ich gesehen habe, aufeinander legt, würde der Stapel mehrere Stockwerke hoch sein.

Sie sind eine Korruption von geophysikalischer und biologischer Wissenschaft. Sie haben nichts zu tun mit der „Rettung des Planeten“ und alles damit zu tun, das Verständnis der Kinder für die reale Welt zu deformieren.

Es spielt keine Rolle, dass die Miss Kondonassis glaubt, der Menschheit zu dienen. Die große Lüge des Kommunismus ist, dass er zu einem kollektiven Utopia führt. In Wirklichkeit war er immer auf Terror angewiesen, um sich selbst zu behaupten, und er ist gescheitert, was immer man auch versucht hat. Umweltaktivismus ist seine jüngste Permutation.

Es ist der gleiche Grund, aus dem der Kommunismus über die Religion und ihren Schwerpunkt auf Leben und Moral lacht.

Es ist der gleiche Grund, aus dem die Amerikaner Opfer der von der Regierung verfügten Begrenzungen hinsichtlich des Energieverbrauchs und –transports, erzwungener sozialer Änderungen sowie Veränderungen und Säkularisierung unserer Gesellschaft werden.

Ich habe mein Leben der Pressefreiheit, der Freiheit zu Veröffentlichungen, der freien Rede und dem Leben in der größten Nation der Erde gewidmet, aber einige Bücher wie „Our House is Round“ sind die schlimmste Form geistiger Verschmutzung.

Umweltaktivismus beginnt wie alle Tyranneien mit der Indoktrination von Kindern.

Anmerkung des Herausgebers: Alan Caruba war 1974 Gründungsmitglied des National Book Critics Circle.
© Alan Caruba, 2012

Link: http://www.anxietycenter.com/ vom 8. April 2012

Übersetzt von Chris Frey EIKE

Kommentar des Übersetzers: Ich bin seit Jahren und in immer größerem Umfang ehrenamtlich im Umgang mit Kindern von genau der Altersgruppe tätig, die Caruba hier anspricht. Es ist Labsal, so klare Worte von einem Fachmann zu hören! Wie sehr wünschte ich mir, dass seine Worte laut schallend in allen Kindergärten und Grundschulen verkündet werden! Ich werde sicher meinen Teil dazu beitragen!

C. F.




Kernkraft und Wasserkraft in China statt Wind und Sonne

Die Weisung der chinesischen Regierung gibt eine neue Richtung für die Entwicklung der neuen Energieversorgung in China vor, beginnend mit 2012. Analysten meinen, dass bei den Erneuerbaren die Entwicklung der Solar- und Windkraft-Industrien in China geradeaus gefahren werden wird, während der Wasserkraft oberste Priorität gegeben wird.

China setzt auf Wasserkraft

Hydroelektrik soll einen Anteil von zwei Dritteln an den Erneuerbaren erhalten.

Dreischluchten Staumauer – weltgrößtes Wasserkraftwerk

(Bild: Wikimedia Commons. Verbreitung gestattet unter Creative Commons License)

Dem chinesischen Entwicklungsplan für 2011 – 2015 zufolge möchte China bis 2015 den Anteil der Erneuerbaren am Gesamtenergieverbrauch auf 11,4 Prozent anheben.

Während das Tempo bei der Entwicklung der Solar-Energie und der Windkraft durch die Regierungsmaßnahmen womöglich verringert wird, um deren blindwütigen Ausbau zu stoppen, erwartet man von der Wasserkraft mit zwei Dritteln einen wichtigen Beitrag zur Erreichung des Energieverbrauchsziels.

Die National Energy Administration (NEA) plant die Installation von 20 GW Wasserkraftwerkskapazität, jedes Jahr soll sie um 57 Prozent zunehmen. Das ist der stärkste geplante Anstieg seit Jahren.

Neben dieser Entwicklungsrichtung betont die Regierung, dass die Mechanismen beschleunigt werden sollen, die den Einsatz neuer Primärenergiequellen voranbringen. Der Regierungsbericht betont auch die Notwendigkeit einer Gesamtplanung, der Förderung unterstützender Technik, der Stärkung der politischen Führung und der Ausdehnung des heimischen Bedarfs. Das bedeutet, dass China dem Einsatz neuer Primärenergiequellen erhöhte Aufmerksamkeit widmet. Daher verabschiedet man sich von der Windkraft und der Sonnenenergie, die nicht für einen zuverlässigen Einsatz taugten, wie Zhai Ruoyu betonte, ehemals Generaldirektor der chinesischen Firma Datang Corp., einer der fünf chinesischen Energieversorgungsriesen.

Auf der Grundlage der durchschnittlichen Kosten von 6,870 Yuan/kW von 2006-2010, erfordern die geplanten 20 GW Wasserkraftwerkskapazitäten eine Investition von 137,4 Mrd. Yuan (US$ 21.7 Milliarden).

Der Anteil des nicht-fossilen Primär-Energieeinsatzes fiel in China 2011

Der Anteil der nicht-fossilen Energien, einschließlich der Wasserkraft, der Kernkraft, der Wind- und Sonnen-Energie am gesamten Primärenergie-Verbrauch in China sah 2010 eine Abnahme von 0,3 Prozentpunkten – von 8,6 Prozent auf 8,3 Prozent – sagte Qian Zhimin, stellvertretender Direktor der NEA.

Nach einem Bericht des China Electricity Council über die Leistung der chinesischen Energieversorger 2011 sanken die durchschnittlichen Betriebsstunden 2011 der Wasserkraftwerke um 376 Stunden auf 3.028 Stunden ab wegen der schweren Dürren. Das ist der niedrigste Stand der letzten 20 Jahre.

Auch die Betriebsstunden der Windkraftanlagen fielen 2011 um 144 Stunden, trotz einer Zunahme von 48,16 Prozent bei der Netzeinspeisung.

Die Betriebsstunden der Solarenergieproduktion gingen ebenfalls zurück, trotz der Verdreifachung der installierten Leistung.

Mehr zu Chinas Kernkraftprogramm hier:
http://de.wikipedia.org/wiki/Liste_der_Kernkraftwerke#China

Quelle: Asia Pulse vom 12.03.2012
http://www.elp.com/index/from-the-wires/wire_news_display/1621584677.html

Übersetzung: Helmut Jäger, EIKE




In eigener Sache: EIKE wird Gemeinnützigkeit bescheinigt!

"Das zuständige Finanzamt hat unserem Institut bescheinigt, dass es ausschliesslich und unmittelbar gemeinnützigen Zwecken im Sinne der §§ 51 ff. der AO dient und zu den in § 5 Abs. 1 Nr. 9 KStG bezeichneten Körperschaften, Personenvereinigungen und Vermögensmassen gehört. Unser Institut ist daher berechtigt, für Spenden, die satzungsgemäß Wissenschaft, Forschung und Bildung zugute kommen, Zuwendungsbescheinigungen auszustellen, wodurch solche Zuwendungen in der Steuererklärung des Zuwendenden geltend gemacht werden können (steuerliche Abziehbarkeit)."

Wie der eine oder an andere Spender schon erkennen konnte, haben wir unsere Bank samt Kontonummer nur als etwas verknittertes Bild auf unserer Impressumseite hinterlegt. Der Grund dafür, sie nicht mehr als einfach per copy & paste übernehmbare Zeichen/Ziffernfolge anzugeben, lag in vielfachen, räuberischen Abbuchungsversuchen von Webkriminellen. Wir haben deshalb Anzeige gegen Unbekannt erstattet.  

Falls Sie also jetzt spenden möchten, tun Sie das wie bisher bitte über den PayPal Spendenknopf (oben rechts) oder per Überweisung auf diese Kontonummer. Spenden in jeder Höhe – auch ganz kleine- sind sehr willkommen.

Wir danken unseren bisherigen Spendern, dass sie uns bisher auch ohne diese steuerliche Erleichterung, Spenden haben zukommen lassen und freuen uns auf neue Spenden, diesmal mit steuerlicher Unterstützung.

Michael Limburg

Vizepräsident EIKE




Vorschaubilder gelöscht! Informationen in eigener Sache!

Wir vermuteten daher anfangs -ehrlich gesagt- auch nicht, dass diese Bildrechte in jedem Fall erforderlich wären, unabhängig davon, ob sie kostenlos oder kostenpflichtig zur Verfügung gestellt werden. Inzwischen sind wir durch Erfahrung schlauer geworden. Die Internet-Scan-Software hat sich weiter entwickelt und es ist ein lukratives Dienstleistungsgeschäft geworden, Webseiten auf nicht lizenzierte Inhalte abzuscannen und deren Betreiber aufzufordern 3 stellige Eurobeträge für die unlizenzierte Darstellung auf ihren Websites zu zahlen. Die Gerichte urteilen i.A. zugunsten dieser Rechteinhaber.

Wir haben also auch schon einige Rechnungen an diese Leute bezahlen müssen. In manchen Fällen wurde auch bei EIKE auf eine Zahlung verzichtet. Doch wir haben aber dieses Geld nicht (Big Oil und die Kohleindustrie unterstützen uns immer noch nicht), und wenn wir es hätten, dann würden wir es lieber direkt für unsere Arbeit ausgeben.  
Deswegen haben wir uns entschlossen den Stein des Anstoße zu beseitigen und haben von heute an sämtliche Vorschaubilder bis einschließlich 31.12.11 gelöscht. Also bitte bei Archivanfragen nicht wundern!

Michael Limburg

Vizepräsident EIKE




Das Ende der Angst vor der globalen Erwärmung könnte sehr gut so aussehen:

1. Schreiber auf Titelseiten werden herausstellen, wie die Regierungen die Politik abwickeln:

Dominic Lawson: Großbritannien hat endlich die verfälschte Ökonomie der Klimaänderung zurückgewiesen. In Deutschland (wo die Hälfte der weltweiten Sonnenenergie erzeugt wird) wird die Verfolgung des Ausbaus der Erneuerbaren abgewickelt, und acht osteuropäische Nationen sagen „Nein Danke!“ (legal) zum autoritären Diktat der EU hinsichtlich der Kohlenstoffemissionen, und kaum einer beklagt sich darüber…

Und welche Energiequelle ist ökologisch korrekt, wenn Deutschland sich derzeit schneller entwickelt als jeder andere? Braunkohle, die kohlenstoffintensivste Treibstoff der heutigen Zeit.

Dies macht die Länder an der Ostgrenze der EU (vor allem Polen, wo die heimische Kohle der Hauptenergieträger ist) sogar noch widerspenstiger, die von Brüssel vorgegebenen nationalen Ziele zu übernehmen. Acht dieser Länder reichten Klage beim Europäischen Gerichtshof ein und gewannen vor ein paar Tagen, als der Europäische Gerichtshof feststellte, dass Brüssel seine Kompetenzen bei der Einführung solcher Limits überschritten hätte. Der Gerichtshof wischte den Einwand der Europäischen Kommission beiseite, dass man anderenfalls nicht in der Lage wäre, „die Integrität des EU-weiten Kohlenstoffmarktes zu schützen“.

Am vielsagendsten war die Tatsache, dass über dieses Urteil fast nirgendwo berichtet worden ist. Laut Benny Peiser, Direktor der Global Warming Policy Foundation GWPF: „In der Vergangenheit ist gegen die hartnäckige Gegnerschaft Polens gegen den grünen Unilateralismus in den europäischen Hauptstädten demonstriert worden. Heutzutage wird davon in den Medien kaum Notiz genommen, während grüne Aktivisten schwach geworden sind. … Andere und dringendere Probleme schieben sich in den Vordergrund und überfahren komplett die grüne Agenda“.

2. Und wieder geht eine Solarfirma pleite:  German Solar Giant.

3. Und die Reporter werden uns sagen, wie die Skeptiker gewinnen:

Von Mark Landsbaum

Seit Jahren war S. Fred Singer eine der wenigen Stimmen, der die Behauptungen des drohenden Untergangs durch die vermeintlich vom Menschen verursachte globale Erwärmung in Frage stellte.

Wir haben ihn während seines kürzlichen Besuches an der Chapman University besucht. Es war eine günstige Gelegenheit. Nachdem er jahrelang die vermeintliche „settled science“ kritisiert hatte, erfreut sich Singers Seite der Debatte inzwischen neuer und weit verbreiteter Glaubwürdigkeit, und zwar dank vieler Entwicklungen, die alle in die gleiche Richtung laufen.

Erstens ist da das unbequeme Problem für die Warmisten, dass die kaum wahrnehmbare atmosphärische Erwärmung, die sie als Indiz des heraufdämmernden Untergangs anführten, vor etwa 15 Jahren komplett zum Stillstand gekommen ist. Es muss schlimm sein zu schreien, dass der Himmel herunter fällt, wenn jeder sehen kann, dass das nicht der Fall ist.

Dann gibt es da die Enthüllungen, wie vermeintliche Klimaexperten jahrelang Abweichler bedrängt haben, um gegensätzliche Ansichten aus den wissenschaftlich begutachteten Veröffentlichungen herauszuhalten sowie an den Daten herumzufummeln, bis sie der gewünschten Schlussfolgerung entsprachen und „den Fall“ am Leben hielten. Bei „dem Fall“ geht es darum, wie Insider das, was sie uns glauben machen wollten, als unparteiische Wissenschaft bezeichnet haben. Aber es war immer ein Fall, fast religiöser Natur. Wir wissen all das jetzt dank zweier massiver Lecks, aus denen die Machenschaften der Insider hervorgegangen waren.

Ebenfalls während der letzten Jahre gab es ein Erwachen unter angesehenen Wissenschaftlern, die bis dahin zufrieden waren, dem „Konsens“ der Bedrohung durch die anthropogene globale Erwärmung zu folgen. Einer von ihnen, David M. W. Evans, früher am australischen Greenhouse Office (jetzt Department of Climate Change) wurde skeptisch, als er entdeckte, dass das wesentliche Argument für die globale Erwärmung von 1998 bis 2006 in sich zusammengefallen war.

Evans’ Erleuchtung veranschaulicht eine andere der konvergenten Entwicklungen, die Fred Singers Seite geholfen haben. Evans und andere haben einfach die Untergangsvorhersagen der Warmisten mit dem verglichen, was wirklich geschehen war. Die Theorie kollabierte. Fakten sind stur. Erfundene Hypothesen nicht so sehr.

Im Jahr 1988 zum Beispiel hat James Hansen, der „Vater der globalen Erwärmung“, vorhergesagt, dass die globale Temperatur bis zum Jahr 2000 empor schnellen würde, selbst bei einer fehlenden Zunahme des CO2-Gehaltes. Aber die Temperatur hat das mitnichten getan, obwohl das CO2 während dieser Jahre empor geschnellt ist. Wenn die Warmisten recht hätten, hätte es einen korrespondierenden Temperaturanstieg geben müssen.

Die Warmisten haben vor Kurzem gejubelt, als sie dachten, sie hätten den Singer-Effekt, wie wir das nennen, beseitigt. Der Physikprofessor Richard Mueller, zuvor ein Klimaskeptiker* leitete die Berkeley Earth Surface Temperature Review und hat die IPCC-Behauptung zur Temperaturzunahme nahezu kopiert. Obwohl er fand, dass die „Qualität der Messstationen großenteils entsetzlich ist“, und obwohl er bemerkte, dass nur noch ein Drittel aller Stationen in den USA als vor 40 Jahren in Betrieb waren, hat er trotz allem gefolgert, dass „basierend auf über 1,6 Milliarden Messungen von mehr als 39 000 Stationen auf der ganzen Welt die globale Erwärmung real ist“.

Aber sagen wir es direkt: na und?

Das Klima erwärmt sich und kühlt sich ab, wie es das schon immer getan hat. Die Erde kam seit etwas mehr als einem Jahrhundert aus der Kleinen Eiszeit. Natürlich ist es dabei jetzt wärmer als damals. Enthusiasten der globalen Erwärmung sehen zu viel in Muellers Ergebnissen. Er benutzte im Wesentlichen die gleichen verfälschten Rohdaten wie die Warmisten vor ihm. Ist es da eine Überraschung, dass er auch zum gleichen Ergebnis hinsichtlich der Erwärmung gekommen ist?

Wir brauchen Muellers beste Messungen oder Messungen von Satelliten, Ozeanen, Ballonen oder Proxydaten nicht, um das zu beweisen. Die bevorzugten Quellen der Warmisten in GB für ihren Alarmismus, das Climate Research Center und das Met. Office, räumen jetzt grollend ein, dass es seit 1997 keine bedeutende Erwärmung mehr gegeben habe. Die Erde könnte sich sogar abkühlen, sagt das Met. Office.

Im Rennen zur Erklärung des Klimas sieht es so aus, als übernähmen die Skeptiker die Führung.

Lessen Sie den ganzen Artikel im  Orange County Register. Man genieße den Moment. (Ich bin sicher, dass Fred Singer das tut, nach all dem Dreck, den man seit 20 Jahren auf ihn geworfen hat).

Die armen, verzweifelten Fans einer sterbenden Religion werden höhnen, dass es sich dabei nur um das OC-Register handelt. Sicher! Es handelt sich nur um eine Viertelmillion Leser

*OK. Dies ist der einzige falsche Satz in einer sonst authentischen Geschichte. Mueller war niemals ein Skeptiker. [A. d. Autors]

Link: http://joannenova.com.au/2012/04/the-end-of-the-global-warming-scare-would-look-a-lot-like-this/

Übersetzt von Chris Frey EIKE




Climategate kommt vor Gericht!

Zunächst der wissenschaftliche Hintergrund:

Manns Besonderheit ergibt sich aus seinen Studien zum umstrittenen (und inzwischen gründlich diskreditierten) „Hockeyschläger“ (in den Zeitschriften Nature 1998 and Geophysical Research Letters 1999). Seine eigenwillige Analyse von Proxydaten (also keine Thermometerdaten) aus Datenquellen wie Baumringen, Eisbohrkernen, Sedimenten in den Ozeanen usw. beseitigte die gut dokumentierte Mittelalterliche Warmzeit MWP (900 bis 1200) sowie die Kleine Eiszeit LIA (1400 bis 1800) – dokumentiert von Prof. H. H. Lamb, dem Gründer der Climate Research Unit of East Anglia U (CRU-EAU) [siehe Bild rechts]. Mann erklärte dann das 20. Jahrhundert zum wärmsten seit 1000 Jahren. Sein Temperaturgraph in Form eines Hockeyschlägers wurde sofort zum Aushängeschild von Al Gore und dem IPCC, um deren Behauptung der anthropogenen globalen Erwärmung zu stützen.

Zwei kanadische Statistiker, Steven McIntyre und Ross McKitrick fanden schon bald ernste Fehler in Manns Analyse; sie konnten sogar zeigen, dass Manns Algorithmus immer zu einem „Hockeyschläger“ wird, selbst wenn man Zufalls-Werte eingibt. Was das Ganze noch schlimmer macht: Während im IPCC-Bericht 2001 Manns Ergebnisse noch als Bestätigung der AGW-Behauptungen aufgeführt worden waren, zeigt der jüngste Bericht aus dem Jahr 2007 nichts davon. Mann verteidigt seine Arbeit – in gewisser Weise – immer noch, ebenso wie einige seiner unkritischen Unterstützer. Von Al Gore gibt es dazu bisher keine Stellungnahme.

In seinem Buch verzerrt Mann die E-Mail-Aufzeichnungen des „Climategate“ Lecks; diese E-Mails wurden in keiner Weise verändert oder bearbeitet. Sie belegen eine Konspiration unter einer Clique britischer und amerikanischer Klimawissenschaftler zur Kontrolle dessen, was in den IPCC-Berichten erscheint und um die Veröffentlichung gegensätzlicher Ansichten durch Skeptiker in anerkannten wissenschaftlichen Journalen durch Manipulation des Begutachtungsprozesses zu verhindern.

Die vollständigste Diskussion der Climategate-E-Mails von Andrew W. Montford findet man hier. Eine mehr technische Behandlung gibt es auf dem Blog von McIntyre, www.climateaudit.org

Mike Mann versucht auch, Leser durch die Anführung von „Fakten“ in die Irre zu führen, und zwar durch die Verwechslung der Begriffe Temperaturniveau (gemessen in Grad Celsius) und Temteraturtrends gemessen in Grad Celsius pro Dekade, und hofft, dass niemand das bemerken würde. Während das gegenwärtige Niveau recht hoch ist (da sich das Klima immer noch von der Kleinen Eiszeit erholt), liegt der Trend seit einem Jahrzehnt bei Null – trotz der rasant steigenden CO2-Konzentrationen.

Bei der Lektüre von Manns Studien fand ich etwas sehr Seltsames: Seine Temperaturkurve (blaue Temperaturkurve im IPCC-Bericht) auf Basis von Proxydaten hört im Jahr 1978 abrupt auf und wird geglättet an die Thermometeraufzeichnungen angefügt (rote Kurve), die einen steilen Temperaturanstieg zeigen. Im Gegensatz dazu zeigen die von Satelliten gemessenen Temperaturwerte lediglich einen nicht signifikanten Anstieg zwischen 1978 und 1997 – ebenso wie unabhängige Daten von Wetterballonen aus der ganzen Welt.

Verwirrt durch dieses Missverhältnis habe ich Mann eine E-Mail geschrieben (damals war er noch an der University of Virginia) und ihn freundlich nach seinen Proxy-Daten nach 1978 gefragt. Alles, was ich darauf bekam, war eine harsche Antwort – was meinen Verdacht nur erhärtete, dass Mann die Daten zurückhielt, weil sie nicht mit den weithin akzeptierten Thermometerablesungen überein stimmten, die Hinweise auf die Existenz der globalen Erwärmung gaben. Ich glaube, dass dies die eigentliche Bedeutung der Bezeichnung „Mikes Nature Trick“ ist, die in den bekannt gewordenen Climategate-E-Mails aufgetaucht war – zusammen mit „hide the decline“. All das legt eine Manipulation grundlegender Daten nahe.

Natürlich war ich begierig zu erfahren, ob die von Mann zurück gehaltenen Daten nach 1978 eine Erwärmung zeigen. Falls sie das nicht tun, fällt der ganze IPCC-Fall AGW in sich zusammen – ebenso wie alle politischen Maßnahmen zur Kontrolle des Treibhausgases CO2. Diese Maßnahmen bestanden u. A. in der Einführung des Zertifikatehandels (Cap and Trade), der Kohlenstoffabscheidung in Kraftwerken sowie in zahlreichen kostspieligen Programmen zur Entwicklung alternativer „grüner“ Formen von Energie. Wir könnten bereits Hunderte Milliarden Dollar verschwendet haben – für nichts und wieder nichts. Falls das so sein sollte, müssten Mann und seine Unterstützer sehr viele Fragen beantworten.

Die Gerichtsphase

Im Jahre 1999 trat Mann der Fakultät an der U. of Virginia [UoV] als Assistenzprofessor bei und hatte Penn State sechs Jahre später nach dem Scheitern seines Versuchs, eine Anstellung zu erlangen, verlassen. Tatsächlich war er Mitglied meines Departements of Environmental Sciences, obwohl wir uns nicht begegnet sind.

Im Jahre 2010 hat der gerade gewählte Generalstaatsanwalt Kenneth Cucinelli aufgrund des Gesetzes FATA (Fraud Against Taxpayer Act, etwa: Gesetz gegen den Betrug des Steuerzahlers) im Rahmen einer zivilrechtliche Untersuchung die E-Mails von Mann angefordert, zusammen mit Arbeitsnotizen und anderen Dokumenten. Die Universität, eine vom Staat unterstützte Institution, hat dieser Forderung unter Hinweis auf die „Freiheit der Wissenschaft“ und ähnlichen Entschuldigungen abgelehnt. Sie haben dafür eine private Anwaltskanzlei beauftragt und bislang eine Million Dollar ausgegeben.

Ich bin ziemlich enttäuscht über die Weigerung meiner Universität, Manns E-Mails an den Generalstaatsanwalt (GA) von Virginia zu übergeben. Diese E-Mails könnten das Mysterium um „Mikes Nature Trick“ aufklären und zurück gehaltene Daten enthüllen. Mir wurde gesagt, dass es keine Probleme seitens der Univ. geben würde, wenn Greenpeace die E-Mails einer skeptischen Fakultät anfordern würde – einschließlich meiner eigenen – und zwar unter dem Gesetz zur freien Information (Freedom of Information Act FOIA). So viel zur „prinzipiellen Verteidigung“ der akademischen Freiheit seitens der Universität.

Der oberste Gerichtshof von Virginia hat AG Cucinellis Forderung inzwischen aufgrund einer technischen Auslegung in der Interpretation des Gesetzes in Virginia eine Absage erteilt. Aber das American Tradition Institute versucht, Manns E-Mails aus der Univ. unter dem FOIA zu extrahieren. Die Chancen dafür stehen gut – vor allem, seit die Universität nicht nur zugegeben hat, dass etwa 12 000 E-Mails existieren (von denen zuvor behauptet worden war, dass sie gelöscht worden seien) – sondern auch, dass sie diese E-Mails an Michael Mann übergeben hat, obwohl er nicht mehr Mitglied der Fakultät ist.

Wie Tom Jackman in der Wash Post am 21. März berichtet:

Der ATI-Fall begann im Stillen im Januar 2011 mit einer FOIA-Anfrage an die UoV nach den E-Mails an und von Mann sowie 39 anderen Personen, die in fünf staatlich geförderten Programmen tätig waren. Sieben Monate später gab die UoV fast 1800 E-Mails frei, sagte aber, dass sie weitere 12 000 E-Mails zurückhalte, die ihrer Ansicht nach nicht öffentlich oder vom FOIA-Gesetz 2.2-3705.4(4) gedeckt seien. Der Fall steht am 16. April zur Verhandlung an in Manassas (in Price William County, Virginia), einem Vorort von Washington Stadt. Von dort wird der Fall wahrscheinlich durch die Instanzen gehen und eindeutig festlegen, wie das FOIA-Gesetz dazu kommt, E-Mails vor einigen zu verstecken und vor anderen zu übergeben. Auch würde es einen internationalen Skandal hervorrufen– wenn Manns E-Mails zeigen, dass er die Daten zur Klimaänderung manipuliert hat, eine Anklage, von der er behauptet bereits freigesprochen zu sein.

Wie Jackman weiter berichtet, hat Mann gesagt, dass sein gemeinsames Interesse mit der UoV in seinen E-Mails bedeutet, dass die E-Mails an ihn übergeben werden können, aber nicht an Klimaskeptiker. Das American Tradition Institute, die konservative Gruppe, die hofft beweisen zu können, dass Klimawissenschaftler wie Mann ihre Daten manipuliert haben, sagt, dass die Universität die E-Mails nicht an eine Person übergeben kann und an eine andere nicht. Indem die Universität die E-Mails an Mann übergeben hat, hat sie alle Ausnahmen, die sie im Rahmen des FOIA anführte, selbst beiseite gewischt. Das sagt jedenfalls der Anwalt des ATI, David Schnare.

Schnare verwies dann auf die folgende Ansicht eines Generalstaatsanwaltes von Virginia aus dem Jahr 1983: "Wenn eine öffentliche Institution irgendeine Aufzeichnung verbreitet hat, „verlieren diese Aufzeichnungen ihren Ausnahmestatus im Rahmen“ des FOIA. Klarer scheint das Gesetz der USA zu sein, wonach die „selektive Auswahl … ein Angriff auf die dem FOIA zugrunde liegenden Ziele und als politische Maßnahme nicht tolerierbar ist“.

Inzwischen hat sich in diesem Fall ein anderer Weg aufgetan. Der kanadische Klimatologe Tim Ball schrieb witzelnd, „Mann sollte nicht bei Penn State, sondern bei einer staatlichen Besserungsanstalt“ sein*. Mann hat Ball daraufhin sofort verklagt. Aber das öffnete bei Mann eine Flanke im Vorspiel zu dem Prozess, einschließlich einer Aussage unter Eid.

Wir werden sehen, wie sich dieser Fall entwickelt. Tim Ball hat viele Möglichkeiten zu seiner Verteidigung. Ich hoffe, dass er sich auf die unterdrückten Daten nach 1978 konzentriert. Es würde passen, wenn Manns eigene Daten den IPCC-Antrieb für AGW zerstören würden.

*unübersetzbares Wortspiel! Original: „Mann should not be at Penn State but in a State Pen[itentiary]”

So oder so, die Wahrheit wird ans Licht kommen. Und wenn das geschieht, werden wir Zeuge eines gewaltigen Erdbebens sein, das die IPCC-Wissenschaftler, aber auch die Politiker in Amerika und Europa sowie die UN umfassen wird. Wollen wir hoffen, dass wir darauf nicht mehr zu lange warten müssen!

S. Fred Singer

S. Fred Singer is professor emeritus at the University of Virginia and director of the Science & Environmental Policy Project.  His specialty is atmospheric and space physics.   An expert in remote sensing and satellites, he served as the founding director of the US Weather Satellite Service and, more recently, as vice chair of the US National Advisory Committee on Oceans & Atmosphere.  He is a senior fellow of the Heartland Institute and the Independent Institute.  In 2007, he founded and chaired NIPCC (Nongovernmental International Panel on Climate Change).  For recent writings, see http://www.americanthinker.com/s_fred_singer/ and also Google Scholar.  With about 2,000 other scientists who participated in the Intergovernmental Panel on Climate Change, including Michael Mann, he jointly received the Nobel Peace Prize in 2007.

Link: http://www.americanthinker.com/2012/04/climategate_heads_to_court.html

Übersetzt von Chris Frey EIKE

Hinweis des Übersetzers: Am Ende folgt eine ausführliche Biographie von S. Fred Singer. Weil diese aber schon in früheren, für EIKE übersetzten Artikeln erschienen ist, wird sie hier aus Zeitgründen nicht mit übersetzt.




Nuklearer Abfall hat neue gute Freunde

Bild rechts: Dewan, Massie und Lester von Transatomic Power.

Hier ist das Lockmittel: Der Waste-Annihilating Molten Salt Reactor (WAMSR) kann hoch radioaktiven Abfall aus konventionellen Uranreaktoren in Elektrizität mit einem Wert von 7,1 Trillionen Dollar pro Jahr umwandeln. Hier folgt, wie sich das auszahlt: Unter voller Auslastung können die WAMSR-Reaktoren die bestehenden Lagerstätten nuklearen Abfalls nutzen, um den Strombedarf der Welt in ausreichender Menge bis zum Jahr 2083 zu gewährleisten.

Das WAMSR-Design ist ein kompakter modularer 200 MW-Reaktor mit geschmolzenem Salz, der ökonomisch an einer zentralen Stelle betrieben und der per Bahn zum Reaktorstandort transportiert werden kann.

WAMSR-Reaktor, schematisches Diagramm. Zur Vergrößerung ins Bild klicken.

Frau Dewan, die leitende Direktorin des Vorhabens, sprach vorige Woche mit Walter Frick bei BostInno. Zitat unter Hinweis darauf, dass die meisten Ingenieure an Akademien gehen oder für ein nationales Laboratorium arbeiten: „wir haben versucht, uns darüber klar zu werden, was wir nach unserer Promotion tun wollen. Wir wollten etwas Besonderes im Nuklearbereich machen, und uns wurde klar, dass der einzige Weg dorthin darin bestand, etwas ganz Neues zu beginnen.“

Das sind tapfere junge Ingenieure. Sich mit Kernreaktoren zu diesem Zeitpunkt zu befassen ist kein leuchtendes Feld von Kapital und Anforderung – eher das Gegenteil. Erwähnt man Three Mile Island, Tschernobyl und Fukushima während der letzten Jahrzehnte, und schaut man auf den Berg meist völlig falscher Berichterstattung in den Medien, ergibt sich eine sehr ärmliche Perspektive. Fügt man die zynische nationale Demütigung der Ernennung und der Aktivitäten des gegenwärtigen Vorsitzenden der Nuclear Regulatory Commission NRC hinzu sowie deren 7000 Arbeitsstunden, bevor die Vogtle-Reaktoren Nr. 3 und 4 der Southern Company genehmigt worden sind, zeichnen sich sehr düstere politische Aussichten in den USA ab. Und doch…

Die NRC bietet seit dem Jahr 1978 Lizenzen an. Außerdem ist es um die Umwelt außerhalb der USA in vielen Fällen besser bestellt.

Frau Dewan kann uns mit Perspektiven und Optimismus ermuntern. Sie erkennt, wie viel mehr Platz es für Innovationen in der Nuklearindustrie immer noch gibt. „Da gibt es noch so viel, was man aufbauen kann“, sagt sie. „Es ist, als ob wir unbekanntes Territorium betreten“.

Ein WAMSR kann durch nuklearen Abfall betrieben werden, weil eine radikal andere Technik angewendet wird als in konventionellen Kraftwerken. Anstelle fester, mit Pellets gefüllter Brennstäbe wird der nukleare Abfall in einem WAMSR in Flüssigsalz aufgelöst. Die Lösung des Treibstoffs in einer Flüssigkeit erlaubt es, sie länger im Reaktor zu halten und folglich mehr Energie zu erzeugen. Konventionelle Kernkraftwerke können lediglich etwa 3% der potentiellen Spaltungsenergie einer gegebenen Menge Uran erzeugen, bevor es aus dem Reaktor entfernt werden muss. Ein WAMSR verspricht, 98% der verbleibenden Energie zu nutzen.

Das WAMSR-Design ist ein kompakter modularer 200 MW-Reaktor mit geschmolzenem Salz, der ökonomisch an einer zentralen Stelle betrieben und per Bahn zum Reaktorstandort transportiert werden kann. Die Energieversorger können die Profite des ersten installierten Reaktors für den Bau zusätzlicher Einheiten nutzen.

Ein WAMSR-Design nutzt die Physik um sicherzustellen, dass der Reaktor immer passiv sicher ist – nicht wie bei einem konventionellen Reaktor, der von den Aktivitäten des Operators abhängig ist sowie von äußerer Elektrizität und aktiven Sicherheitssystemen, um Schäden bei Unfällen zu verhindern.

Und für Umweltaktivisten: Ein WAMSR-Reaktor reduziert die Halbwertszeit des radioaktiven Abfalls auf Hunderte von Jahren – von Hunderttausenden von Jahren. Daher ist auch die Notwendigkeit dauerhafter Endlagerstätten wie z. B. Yucca Mountain deutlich geringer.

Der Gebrauch existierenden Abfalls ist eine neue Plattform für Anhänger von Minireaktoren einschließlich jener von Babcock und Wilcox, Hyperion und General Fusion. Es sieht so aus, als ob dies dem von Gates/Myhrvold geführten TerraPower-Projekt ähnelt.

Die drei MIT-Studenten erscheinen viel stärker aus einer Physikalischen Perspektive. Die Frage, die sich jetzt erheben wird, lautet: können sie dem intellektuellen Eigentumsanspruch widerstehen, wenn sie von der Ex-Microsoft-Mannschaft bemerkt werden, die das TerraPower-Projekt steuert? Jawohl, die Leute, die mit Windows ME und Vista nach Ihrem Geld trachten, spielen mit der Kernkraft. Wir können sicher sein, dass sie nach Wegen suchen, dem neuen Team mit urheberrechtlichen Gründen Schwierigkeiten zu machen.

Frau Dewan glaubt, dass der Reaktormarkt reif ist für einen Umbruch. „Verglichen mit anderen Anfängen, besonders in der Computerbranche, erfordert dies definitiv mehr Infrastruktur“, gibt sie zu. „Fukushima hat das Sicherheitsproblem älterer konventioneller Kernkraftwerke viel stärker in den Mittelpunkt gerückt“, sagt sie. „Ich denke, dass Fukushima die Industrie in Richtung neuer, innovativer und sichererer Designs schieben wird“.

Jeder sollte sich überlegen, dass wir genau an dem Punkt stehen, jenseits dessen man den Abfall verwertet anstatt ihn zu verschwenden. Es ist Zeit, sich wieder an die Arbeit zu machen, und diese beiden haben ein Konzept, das sich lohnt weiter geführt zu werden.

Link: http://newenergyandfuel.com/http:/newenergyandfuel/com/2012/04/03/nuclear-waste-has-new-best-friends/

Übersetzt von Chris Frey EIKE

Hinweis: Im Original findet sich am Ende des Artikels ein Video, in dem die drei Autoren das hier Geschriebene erklären.