1

Wir bleiben am Leben, obwohl unsere Gene einiges aushalten müssen – Teil II

Bild rechts: Ist dies jetzt die Folge einer Schädigung durch Strahlung, oder…

Ich werde eure 200.000 Male sehen und es verzehnfachen!

Bei Menschen mit der seltenen Krankheit Bloom-Syndrom kommt es etwa zehnmal so häufig zu Brüchen des Doppelstrangs wie normal. Das ist so, als wäre die DNA dem 2-Millionenfachen der normalen Hintergrundstrahlung ausgesetzt.

Genetische Krankheiten gab es schon seit Urzeiten. Vor allem beim Bloom-Syndrom sieht es so aus, als ob es mindestens schon ein paar tausend Jahre existiert (hier). Einige Mutationen der BRCA1-Gene [?], von denen eines jüngst durch Angelina Jolie Berühmtheit erlangte, traten beispielsweise wahrscheinlich schon vor 1800 Jahren zum ersten Mal auf (hier). Eine Million Japaner tragen eine Mutation in sich, welche bei einem unglücklichen Kind das 10.000-fache Risiko von Hautkrebs in sich birgt. Dieses liebliche evolutionäre Geschenk ist ebenfalls schon tausende Jahre alt (hier). Mukoviszidose [cystic fibrosis] lässt sich mindestens bis zur Eisenzeit zurückverfolgen (hier). Menschen mit all diesen Mutationen ist es bislang gelungen, genug Kinder zu zeugen, um irgendwelche Tendenzen natürlicher Selektion auszusetzen, die sie vor dem Genpool bewahren.

Während diese Krankheiten und tausende ähnlich gelagerte Fälle Leben verkürzt und unsägliches Leid über sehr lange Zeit gebracht haben, ist doch keine davon durch einen Atomunfall oder einen Atomkrieg ausgelöst worden. Und es sollte jetzt offensichtlich sein, warum kein Atomunfall oder –krieg in der Lage ist, genauso viele Brüche in der Doppelhelix auszulösen wie es Menschen mit Erfahrung hinsichtlich des Bloom-Syndroms gibt.

Und jetzt gibt es einen neuen Mitspieler

Die wirklich bahnbrechende Nachricht zu genetischen Krankheiten, die während der letzten beiden Jahrzehnte bekannt geworden ist, lautet, dass Strahlungsunfälle nicht die alleinige Ursache tausender bekannter genetischer Krankheiten sind, sondern lediglich offensichtlich unschuldige Zuschauer. Und dass man nicht einmal Mutationen braucht, um eine genetische Krankheit auszulösen. Und wenn man keine Mutationen braucht, dann braucht man auch keine DNA-Schäden. Und was den Krebs betrifft, man braucht nicht einmal Karzinogene im normalen Sinne des Wortes.

Es ist irgendwie offensichtlich, wenn man darüber nachdenkt. Die Zellen sowohl im Gehirn als auch im Bizeps haben exakt die gleiche DNA, agieren jedoch sehr, sehr unterschiedlich. Es muss irgendeinen Mechanismus geben, der dafür sorgt, dass Gene abgeschaltet werden, die im Gehirn Muskel-Proteine bilden und umgekehrt im Bizeps. Es muss wirklich Wege geben, irgendwelche und alle Gene an- oder auszuschalten, in jeder Zelle im Körper. Und es gibt sie.

Massive DNA-Schäden, verursacht durch … Milch. Mehr zu diesem Bild siehe hier in einem weiteren Artikel von Geoff Russell.

Im Rahmen der molekularen Genetik wurden seit Langem bestimmende Mechanismen innerhalb der DNA untersucht, aber während der letzten 20 Jahre wurden zahlreiche neue Klassen von Mechanismen entdeckt, was zur Bildung eines Unterbereiches führte mit der Bezeichnung Epigenetik. In Teil III wird der Zusammenhang zwischen Epigenetik und Krebs erklärt,  aber schon vorab möchte ich sagen, dass die Wissenschaft jetzt die Gründe für Krebs und andere Krankheiten zu verstehen beginnt, und zwar über Mutationen hinaus, und einige sind unglaublich banal. Aber mehr dazu später.

Mutations-Mythen

Die Aussage, dass Atombomben besonders schrecklich sind im Vergleich zu konventionellen Bomben infolge ihrer Strahlung ist normalerweise gekoppelt mit einer Ignoranz gegenüber Geburtsfehlern. Greenpeace ist eine von vielen Organisationen, die zu denken scheinen, dass das Auftauchen der Begriffe „Geburtsschaden“ und „Kernkraft“ in einem einzelnen Satz ausreicht, einen kausalen Link herzustellen. Der ABC-Journalist Greg Hoy hat den gleichen Trick in einer vor kurzem veröffentlichten Story angewandt, in der es um die Technologie der Anreicherung von Uran ging. Er behauptete, dass ein starker Anstieg schrecklicher Geburtsschäden in Fallujah, Irak, die Folge von Bomben mit abgereichertem Uran seien (welches weniger radioaktiv ist als normales Uran … „abgereichert“ hier als Hinweis). Seine Beweise? Keine. Die davor aufgetretenen Geburtsschäden werden in Hoys Story mit keinem Wort erwähnt. Bomben aller Art töten, verkrüppeln, zerstören und verbrennen. Sie zerstören Leben, Eigentum und Hoffnungen. Aber Hoys Brennpunkt war etwas, das sie nicht tun … nämlich dass sie massive und ausgedehnte Serien von Geburtsschäden hervorrufen.

Die Tatsache, dass Hoy dachte, keine Beweise zu brauchen, zeigt einen intellektuellen Stammbaum, der bis zur anti-nuklearen Übertreibung zurückreicht, die kurz nach dem Zweiten Weltkrieg begann nach den Bombenabwürfen auf Hiroshima und Nagasaki. Später erlebte diese einen neuen Aufschwung durch die Tschernobyl-Mythologie.

Sie schulden es sich selbst, dieses Buch zu lesen, bevor sie darüber lamentieren, was Strahlung ist und was sie tut oder nicht tut. Quelle

Ein vor kurzem erschienenes Buch von Robert Gale und Eric Lax mit dem Titel [übersetzt] „Strahlung – was man wissen muss“ (hier bei Amazon) behandelt dieses Thema detailliert. Gale ist ein Professor, dessen Name über 823 Studien zu diesem Thema steht, das sind 823 mehr als Anti-nuklear Guru Helen Caldicott und auch 823 mehr als von Greg Hoy oder irgendeiner der Personen, die er für seine Studie befragt hat. Gale wurde für die Behandlung der Feuerwehrleute von Tschernobyl zu Hilfe gerufen und war bei vielen Strahlenunfällen aller Größenordnungen während der letzten Jahrzehnte zugegen. Hier folgt eine kurze Zusammenfassung seiner Einschätzung eines Zusammenhangs zwischen Strahlung und Geburtsschäden.

Von etwa 3000 schwangeren Frauen, die die Abwürfe von Hiroshima oder Nagasaki überlebt haben, bekamen 30 Kinder mit Mikrenzephalie (kleine Köpfe und leichte bis moderate Retardierung). Das ist alles. Die gegenwärtige Rate von Mikrenzephalie in Südaustralien liegt bei 2 bis 3 Kindern pro 3000 Geburten. Die Zahl 30 ist also sicher eine Tragödie, aber erheblich weniger tragisch als  die Opferzahl der konventionellen Bombardierung von Tokio, die weitaus mehr Menschen tötete und noch größeres Leid hervorgerufen hatte. Sie ist ebenfalls viel weniger tragisch als die Atombomben selbst. Es ist einfach nicht der Stoff für Horrorfilme über strahlenverseuchtes Land. Die am schlimmsten betroffenen Kinder dieser 30 Frauen wurden von Müttern geboren, die Strahlung mit einer Menge gleichbedeutend mit 400 Jahren Hintergrundstrahlung ausgesetzt waren. Kinder von Frauen, die lediglich eine Menge von 120 Jahren abbekommen hatten, hatten keine Probleme.

Die überlebenden Frauen, die zu jener Zeit nicht schwanger waren, haben später Familien gegründet, und die [Anzahl von] Geburtsschäden unter zehntausenden geborenen Kindern war normal. Die Kinder dieser Frauen sind sehr gründlich untersucht worden, und ihre Gesundheit ist ebenfalls normal.

Und in Tschernobyl?

Es gab in der Folge eine Flut von Fehlgeburten. Aber nicht durch Strahlung, sondern durch blinde Angst, Panik und Ignoranz.

Man stelle sich eine schwangere irakische Frau vor in irgendeinem Gebiet, das Schauplatz amerikanischer Bombardierung war, und wie sie die traurigen und grauenhaften Bilder in der Story von Greg Hoy sieht. Die einzige noch verbleibende Wahl wäre eine zwischen einem Kleiderbügel und Stricknadeln als Instrument der Termination.

Gale beziffert die Zahl unnötiger Abtreibungen nach Tschernobyl mit etwa 100.000. Diese sowie alle daraus folgenden psychologischen Traumata sind ein Erbe der Unkenntnis über Strahlung, die nach Kräften durch anti-nukleare Campaigners gefördert worden ist. Keine Frau in Tschernobyl hat auch nur ansatzweise eine Strahlendosis abbekommen, die den wachsenden Fötus geschädigt hätte. Nur die Feuerwehrleute an vorderster Front erhielten eine starke Dosis, aber von denen war keiner schwanger. Als Folge sind 30 Feuerwehrleute gestorben, aber nicht einfach durch Strahlung, sondern an den gleichen Verletzungen, die im gleichen Jahr 119 US-Feuerwehrleute das Leben gekostet hat (hier).

Einer der überlebenden Feuerwehrmänner war Andrej Tarmosian, zu jener Zeit 25 Jahre alt. Gale und sein Team haben sein Leben gerettet, und in der Folge blieben er und Gale in Kontakt. Aber populäre Mythen triumphierten über die Beurteilung eines der besten Strahlungsexperten der Welt. Tarmosian glaubte, dass ihn die Strahlung, der er ausgesetzt war, zum Krebstod verdammte. Er glaubte auch der russischen Legende, dass Wodka ein gutes Mittel zum Strahlenschutz war. Diese patente Mischung aus Angst und Unsinn würde ihn bis zum Jahr 2010 seiner Ansicht nach im Alter von 50 Jahren an Leberzirrhose sterben lassen. Er war ein Kollateralschaden des weit verbreiteten Unwissens über Strahlung wie all die abgetriebenen Föten und die Frauen, die diese Abtreibungen vorgenommen haben.

Diese Statue soll an die Bemühungen der Feuerwehrleute und der Liquidatoren nach dem Nuklearunfall in Tschernobyl erinnern.

Beweis durch schockierende Bilder

Es ist nicht schwierig, im Bereich einer mittelgroßen Population von Menschen oder Tieren eine Reihe von Geburtsschäden zu finden, um einen journalistischen Fotobeweis zu konstruieren. Alles, was man braucht, ist Ignoranz gekoppelt mit bösem Willen. Die Rate von Geburtsschäden in Südaustralien liegt derzeit bei 4,5 Prozent. In den USA werden 2 bis 3 Prozent  aller Geburten  als schwer missgebildet gelistet, zusammen mit weiteren 10 Prozent, die interne Anomalien und funktionelle Probleme aufweisen, die erst später im Leben durchbrechen. In jedem Jahr bedeuten die 4,5 Prozent in Südaustralien etwa 1000 Kinder. Es gibt viele seltene Bedingungen mit langen Namen und ernsten Konsequenzen zusätzlich zu allgemeineren Dingen wie Mikrenzephalie, Down-Syndrom und Chromosomen-Defekte. Etwa 200 Kinder kommen dort mit verschiedenen Herzproblemen zur Welt. Und nun überlege man: Wie viele Zehntausende Geburtsschäden kann man jährlich in einem Land wie der Ukraine erwarten, deren Einwohnerzahl Ende der achtziger Jahre 50 Millionen betragen hatte? Wie schwer wäre es gewesen, ein Dutzend oder einhundert Menschen für ein Foto-Shooting zu finden?

Dass man Kinder mit Geburtsschäden finden und fotografieren kann, heißt noch lange nicht, dass man die Ursache der Geburtsschäden kennt. Der Zusammenbruch des Gesundheitssystems mit dem Untergang der Sowjetunion sorgte dafür, dass alle Arten von Krankheiten zunahmen. Die Ignoranz, die die Ukrainer zu Wodka als Schutz vor Strahlung greifen ließ, ist genau das Gleiche wie die vermeintliche Ursache von Strahlung hinter bedauerlichen gesundheitlichen Beeinträchtigungen, vor allem Geburtsschäden.

Außer dass abergläubische Feuerwehrleute früh zu Tode kommen – was kann Wodka noch tun? Mikrozephalie zum Beispiel (hier). Außer dem Überleben einer Atombombe finden sich auf der Liste von Ursachen für Mikrozephalie nicht nur Alkohol, sondern auch zahlreiche Drogen und Viren. Unter den Viren sind Masern und Windpocken. Eine andere effektive Ursache ist unbehandelte Phenylketonuria [?], eine genetische Fehlanordnung.

Es ist deprimierend einfach, einen Geburtsschaden zu bekommen

Niemand weiß, wodurch die meisten Geburtsschäden zustande kommen, weil es so viele potentielle und banale Gründe gibt.

Niemand verursacht freiwillig Geburtsschäden bei Menschen, aber Tiere sind nicht so glücklich. Wissenschaftler haben nach den Arbeiten von Hermann Müller sicherlich nicht aufgehört, mit Fruchtfliegen zu arbeiten. Sie haben seit Jahrzehnten mutierte Tiere vieler Spezies erzeugt. Wie haben sie das gemacht? Eine umfassende Liste der Methoden wäre lang. Natürlich kann man es mit massiven Strahlendosen machen oder Wasserstoff-Peroxid oder Blei oder Quecksilber oder Vitamin A, aber wenn das Budget schmal ist und man einen Sinn für das Banale hat, macht es auch eine Heizlampe oder eine elektrische Decke. Alles ist möglich. Man erhöhe lediglich die innere Körpertemperatur eines ausgewählten Tieres um wenige Grad, und siehe da, schon kann man ganze Skala von Neuralrohrdefekten und noch viel mehr erzeugen (hier). Microphtalmia (kleine Augen), grauer Star, Coloboma (Loch im Auge), Schielen, Unterentwicklung von Zähnen und Klauen, Exomphalos (Därme oder andere Organe, die bei der Geburt außerhalb des Körpers liegen), Nierenagenesie (wenn eine oder beide Nieren fehlen), Klumpfüße, Muskelstörungen, Arthrogyposis (defekte Gelenke). Und natürlich kann man die gleiche Mikrenzephalie (kleiner Kopf bzw. Gehirn) mit der Strahlung der Atombomben auslösen, der die Kinder der 30 Überlebenden ausgesetzt waren.

Wie kann man die innere Körpertemperatur sonst noch zum Steigen bringen? Grippe oder andere Fieber erzeugende Krankheiten können dafür sorgen (hier), und die höhere Körpertemperatur ist in der Lage, fast die gesamte Palette der Geburtsschäden hervorzurufen. Hierzu erinnere man sich an die Schweinegrippe-Epidemie im Jahre 2009.  Sie war ein wenig unterschiedlich verglichen mit der normalen jahreszeitlichen Grippe, weil viel mehr junge Leute betroffen waren und ihr zum Opfer fielen. Insgesamt forderte die Epidemie global 284.000 Todesopfer (hier). Und gab es eine Zunahme der Geburtsschäden nach der Pandemie? Ja! Eine Studie in UK kam zu dem Ergebnis, dass sich angeborene Anomalien in etwa verdoppelt hatten (hier). Aber evolutionäre Mechanismen bevorzugen noch drakonischere Schritte zur Verminderung solcher Ereignisse. Die Anzahl der Toten vor, während und kurz nach dem Ereignis hat um einen Faktor zwischen drei und sechs zugenommen, je nach Art der medizinischen Kategorie. Andere Ergebnisse, die einst zu frühem Tod geführt haben, werden jetzt routinemäßig mit professioneller Hilfe gehandhabt: Sehr geringes Gewicht bei der Geburt, Frühgeburten, Verdoppelung von Kaiserschnitten. Dies war eine recht kleine Studie, begrenzt auf Frauen, die mit bestätigter Schweinegrippe ins Krankenhaus kamen. Der Tribut in Ländern ohne gute Gesundheitsfürsorge, um Frühgeburten zu behandeln, kann als deutlich höher eingeschätzt werden, und der gesamte globale Zoll würde schrecklich sein. Forscher fanden auch nach der Grippe-Pandemie im Jahre 1958 eine Zunahme von Geburtsschäden.

Und jetzt betrachte man die tägliche Höchsttemperatur in Irak während der Sommermonate und frage sich selbst, ob den Frauen in Irak die hohen Risiken von Geburtsschäden bewusst sind, die mit einer erhöhten inneren Körpertemperatur oder einer fiebrigen Krankheit während der Schwangerschaft einhergehen. Man frage sich, ob Stromunterbrechungen und Anstehen nach Wasser und anderem Grundbedarf des Lebens helfen würden.

Bemerkung: Ich stelle hier keine Verbindung her zwischen Geburtsschäden in Fallujah und den hohen Sommertemperaturen in Irak. Sondern ich versuche zu erklären, warum das Aufspüren kausaler Verbindungen bei Gegenwart zahlreicher wirklich brauchbarer Alternativen sehr schwierige Wissenschaft ist. Sie liegt deutlich jenseits der Aufgabenstellung von Dokumentarfilmern und fast allen Ärzten. Sehr wenige Ärzte haben die erforderlichen statistischen Fertigkeiten, und die meisten sind genauso anfällig für fragwürdige Einflüsse wie alle anderen auch.

Einige gute Nachrichten … umweltliche Teratogene [?] sind flüchtig

Natürlich hat man recht, wenn man sich um die Auswirkungen einer Pandemie und einer Zukunft mit viel höheren Temperaturen macht, aber sollte man sich auch Sorgen machen um deren Einflüsse auf unser wertvolles „Bakterien-Plasma“?

Fast mit Sicherheit nein! Warum?

Weil der gegenwärtige Wissensstand von Fachleuten, die diese Dinge untersuchen, folgender ist – trotz der Entdeckung zahlreicher umweltlicher Teratogene wie Wärme, Vitamin A, Contergan und zahlreicher anderer Substanzen:

Bis heute konnte nicht festgestellt werden, dass genetisch bedingte Fehlbildungen durch irgendwelche umweltlichen Dinge verursacht werden, selbst nicht durch jene Dinge, die sich als fähig herausgestellt haben, Schäden an genetischem Material in individuellen Zellen anzurichten.

Einfacher gesagt, umweltliche Teratogene (Dinge außerhalb des Körpers) können sicherlich einen sich entwickelnden Fötus schädigen oder töten, aber bis auf den heutigen Tag wurden keine gefunden, die neue Mutationen hervorrufen, die die Menschen noch lange Zeit in der Zukunft plagen werden; zum Beispiel das historische BRCA1 [?] oder jenes involvierte Bloom-Syndrom. Es können noch mehr solcher Schrecknisse auftauchen, aber sie sind wohl allein großem Pech und Mutter Natur geschuldet. Der erweiterte Zusammenhang des obigen Zitats stellt fest, dass Strahlung im Einzelnen genau das nicht verursacht hat, trotz der hohen Belastungen während der Atombomben-Abwürfe auf Japan.

Es ist an der Zeit, dass unsere Filmemacher die Strahlung als Ursache von Monster-Mutationen aufgeben. Wir haben viele Gründe, uns Sorgen zu machen; viele Gründe für Maßnahmen. Wir brauchen aber nicht zu übertreiben… besonders wenn diese fantastischen Übertreibungen die Art realer und effektiver Maßnahmen erschweren, die wir um einer besseren Zukunft willen durchführen müssen; nicht nur für uns selbst, sondern für alle Spezies, mit denen wir uns diesen Planeten teilen.

Der nukleare Beitrag zur menschlichen Gesundheit war seit vier Jahrzehnten überwältigend positiv. Er hat mindestens 1,8 Millionen Totgeburten verhindert durch die Erzeugung sauberer Energie, um die toxischen Abfallprodukte von auf fossilen Treibstoffen basierender Elektrizität zu ersetzen. Es hätten noch mehr sein können, wenn Science über Fiction die Oberhand behalten hätte. Hat es aber nicht. Die gute Nachricht lautet, dass der Kampf gegen die Leugnung des Klimawandels den Menschen klarmacht, wie viel sie mit der Anti-Kernkraft-Bewegung gemein haben. Aber Bildung ist ein langsamer Prozess, und wir haben nicht viel Zeit. Angesichts des deutschen Experiments mit erneuerbarer Energie, das von einem Scheitern zum nächsten taumelt, hat sich die Kernkraft nicht nur als die umweltfreundlichste Energietechnologie erwiesen, die wir haben, sondern auch als die einzige Technologie, mit der die Hoffnung besteht, eine weitere Destabilisierung des Klimas [?] zu verhindern (hier).

Ich möchte hier mit einem schnellen Quiz enden. Das Bild unten zeigt eine schrecklich entstellte Taube mit einer doppelt gebogenen Wirbelsäule, so dass ihr Kopf auf dem Rücken liegt. Dieser Vogel wurde von Wissenschaftlern während einer Forschungsstudie erzeugt, und die offensichtliche Frage lautet, warum dieser Vogel nicht bei der Geburt gestorben ist. Warum ließ man diese arme Kreatur am Leben?  Können Sie den Grund für diese Deformierung erraten? War es Chemie oder eine Art Strahlung mit welcher Dosis?

(Quelle)

Irgendwelche Vorschläge?

Nur wenige Leser werden die Antwort kennen und ich bezweifle, dass irgendein Vorschlag der Wahrheit auch nur nahe kommt. Ich habe deutlich daneben gelegen.

Ich muss bekennen, dass ich im Interesse der Illustrierung, wie leicht es ist, die Menschen mit schrecklichen Bildern in die Irre zu führen, gelogen und eine Story erfunden habe, die sie sofort glauben würden.

Der Vogel wurde mit keinerlei Schäden geboren, sondern völlig gesund. Dem armen Vogel wurde lediglich einige Wochen lang eine Diät mit weißem Reis verabreicht und bekam als Folge davon einen Vitamin-B-Mangel. Hier ist der gleiche Vogel wenige Stunden nach einer Injektion von Vitamin B:

(Quelle)

Geoff Russell ist Mathematiker, Programmierer, Veganer, Umwelt-Aktivist und ganz allgemein ein von Zahlen Besessener.

Link: http://bravenewclimate.com/2013/11/08/stayin-alive-gene-pool-p2/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Dieser Artikel ging bisweilen weit über die „Fachkenntnisse“ des Übersetzers hinaus, der auch kein Physikstudium absolviert hat. SACHLICHE Korrekturen sind willkommen. Außerdem wurden ALLE LINKS eingearbeitet und auf ihre Funktion überprüft.

C. F.




Mao lebt: Der große EE-Sprung nach vorn! Oder Spastik – die tödliche Erbkrankheit des EE-Stroms

An den „Großen Sprung nach vorn“ erinnert man sich in China noch heute mit Grauen. Es war der untaugliche Versuch fanatischer Ideologen, eine bäuerliche Nation innerhalb kürzester Zeit zu einer Industriegesellschaft umzukrempeln, mit „Volkshochöfen“ in den Dörfern sowie anderen technisch wie wirtschaftlich unsinnigen Maßnahmen. Den Ideologen, die dies durchzuziehen versuchten, war völlig egal, dass ein fast reines Agrarland mit einer mittelalterlich anmutenden Bauernkultur weder die technischen und logistischen noch die kulturellen Voraussetzungen hierfür bieten konnte. Das Resultat waren willkürliche Zwangsmaßnahmen, Missernten und unsägliches Elend. Letztlich endete alles in einer Katastrophe, die dem Land schwer schadete. China brauchte Jahre, um sich von diesem grausam missglückten Experiment zu erholen.

Ohne Speicherung keine Energiewende…

Die heute in Deutschland bei der Stromversorgung betriebene Energiepolitik erinnert in fataler Weise an diesen „Großen Sprung“, weil auch in diesem Fall aus ideologischen Gründen mit Macht ein lebenswichtiges System komplett umgekrempelt werden soll, ohne dass die grundlegenden Voraussetzungen für seine „Runderneuerung“ gegeben sind. Man will 80 % eines bestens funktionierenden Stromversorgungssystems (Bild 1) ersetzen, obwohl wesentliche technische Voraussetzungen hierfür nicht verfügbar sind.

 

Bild 1: Deutschland verfügte bisher über eines der weltweit stabilsten Stromversorgungssysteme

In erster Linie ist hier das Speicherproblem zu nennen. Unsere Stromversorgung wurde bisher von „klassischen“ Kraftwerken sichergestellt: Kohlekraftwerke, Kernkraftwerke, Gaskraftwerke und in geringerem Umfang auch Wasserkraftwerke. Alle diese Kraftwerkstypen sind dafür ausgelegt, den Strom zu exakt dem Zeitpunkt und in genau der Menge zu erzeugen, wie er benötigt wird. Im Gegensatz dazu liefern Windenergieanlagen und Solarpaneele ihren Strom nicht dann, wenn er gebraucht wird, sondern dann, wenn die Wetterlage es zulässt. Um Industrie und Bürger dennoch bedarfsgerecht mit Strom versorgen zu können, müsste man über große Speicher verfügen, in denen man den wetterbedingten Überschuss speichern könnte, um ihn bei Bedarf dann abrufen zu können.

 

Bild 2: Stromspeicherung mit Batterien bereitet schon im Kleinstmaßstab Probleme: Solargartenleuchten sind Schönwetter-Sommerkinder, im Winter sterben die Batterien

und das Speicherproblem ist unlösbar

Die zu speichernden Strommengen sind enorm, der künftige Bedarf dürfte eine Größenordnung von 1,5 bis 2 TWh für jeden Tag erreichen, an dem die „Erneuerbaren“ nicht liefern. Im Vergleich dazu beträgt die gesamte Pumpspeicherkapazität Deutschlands gerade einmal 0,04 TWh [DRRA]. Hinzu kommt, dass gerade im Winter, wenn die Solarproduktion über Monate hinweg nahezu bedeutungslos ist, manchmal wochenlange Flauten aufgrund der sogenannten Sibirienhochs auftreten. Wenn dann in Deutschland die Lichter nicht ausgehen sollen, müssten Speicher mit entsprechend hohen Kapazitäten einspringen. Es gibt jedoch zurzeit kein Speichersystem (Bild 2), das imstande wäre, diese Anforderungen zu erfüllen. Der Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung stellte im Zusammenhang mit der Energiewende bereits 2013 fest: „Vor etwas mehr als zwei Jahren wurde von der Regierungskoalition aus CDU/CSU und FDP die beschleunigte Energiewende ausgerufen. Dieses Großprojekt wird derzeit ohne ein schlüssiges Gesamtkonzept verfolgt“ [WIGU].

Auch Deutschlands Nachbarn können da nicht aushelfen. Die Kapazität der in ganz Europa vorhandenen Pumpspeicherwerke reicht nicht einmal ansatzweise für den künftig erforderlich werdenden Bedarf aus, und andere ins Feld geführte Alternativen wie Batterien, Druckluftspeicher, Wasserstoffproduktion oder die Erzeugung von Methan („Power-to-Gas“) haben so schlechte Wirkungsgrade bzw. so enorme Kosten, dass sie als Alternativen definitiv ausscheiden [DRRA]. Dies liegt an physikalischen Gesetzmäßigkeiten und kann auch durch noch soviel Forschung nicht behoben werden. Die häufig zu hörende Behauptung, man könne doch für die Zukunft entsprechende Entdeckungen nicht ausschließen, kommt meist von technischen Laien, während Naturwissenschaftler solche Aussagen in der Regel zusammen mit Laserschwert, Zeitsprüngen und Reisen in ferne Galaxien der Kategorie „Science Fiction/ Fantasy“ zurechnen.

 

Bild 3: Norwegens Bevölkerung zeigt bislang wenig Neigung, sich ihre wunderschönen Fjorde mit Staumauern zumörteln zu lassen

Konventionelle Kraftwerke bleiben unverzichtbar…

Da der zufallsbedingt auftretende Überschuss von Strom aus Wind- und Solarenergieanlagen nicht sinnvoll genutzt werden kann, müssen konventionelle Kraftwerke ständig in Bereitschaft gehalten werden, um die Netzversorgung trotz der schwankenden EE-Einspeisung stabil zu halten. Da zurzeit bereits rund 32000 MW Windkapazität und 35000 MW Solarkapazität am Netz sind, übersteigt ihr kumulierter Output an manchen Tagen bereits 40000 MW, während zu anderen Zeiten nur wenige 100 MW geliefert werden. Aufgrund des gesetzlichen Einspeisevorrangs der „Erneuerbaren“ müssen die konventionellen Kraftwerke die jeweilige Differenz zum Verbrauch in Höhe von bis zu 70000 – 80000 MW ausgleichen. Im Jahresdurchschnitt sichern diese konventionellen Kraftwerke zurzeit rund 75 % des Bedarfs. Doch aufgrund ihrer Funktionsweise haben sie damit bereits jetzt zunehmend Probleme, die mit dem fortschreitenden Ausbau der „Erneuerbaren“ ständig weiter zunehmen. Für ihren Einsatz sind nämlich technisch bedingte Grenzen zu beachten. Kohlekraftwerke kann man nicht einfach so wie ein Auto durch eine Umdrehung des Zündschlüssels starten und danach gleich Vollgas geben. Für einen Kaltstart brauchen sie etliche Stunden bis Tage. Je mehr sie durch den Ausbau von Wind- und Solarkraftwerken an den Rand gedrängt werden, desto geringer wird deshalb auch ihre Möglichkeit, im Notfall schnell einzuspringen. Und ein Ausweichen auf reine Gasturbinenkraftwerke wäre aufgrund des schlechten Wirkungsgrads sowie des teuren Brennstoffs Erdgas nicht vertretbar. Erschwerend kommen die aktuellen Unwägbarkeiten bezüglich der Versorgungsmöglichkeiten mit Erdgas hinzu.

 

Bild 4: Konventionelle Kraftwerke – hier das Kraftwerk Gersteinwerk – liefern Strom dann, wenn er auch wirklich gebraucht wird (Foto: kohlekraftwerke.de)

und werden überfordert

Wie bereits erwähnt, lassen sich große Kraftwerke nicht so ohne weiteres einschalten und hochfahren. Das gilt insbesondere für Kohlekraftwerke mit ihren riesigen Dampfkesseln, deren Gesamtmasse oft 10000 Tonnen übersteigt. Für einen völligen Kaltstart brauchen große Kohlekraftwerke mindestens einen Tag, manchmal sogar noch länger. Selbst aus einem sogenannten „hot Standby“ heraus, d.h. mit bereits angewärmtem Kessel und auf Sparflamme laufender Feuerung, benötigen sie je nach Größe und Bauart rund 40 Minuten, bevor sie überhaupt nennenswerte Mengen Strom erzeugen können, und bis zum Erreichen der Nennleistung kann es mehr als zwei Stunden dauern, Bild 5. Auch die vielgelobten Gas- und Dampfkraftwerke (GuD) sind keine wirklichen Sprinter und brauchen mindestens 10-15 Minuten Anlaufzeit, und bis zum Erreichen ihrer vollen Leistung vergeht zwischen einer halben und einer vollen Stunde. Lediglich reine Gasturbinen sind imstande, innerhalb von ca. 5 Minuten auf volle Leistung zu kommen.

Bild 5: Anfahrverhalten konventioneller Kraftwerke (GT=Gasturbine, GuD=Gas und Dampf-Kombikraftwerk) (Grafik: [VDE])

Hinzu kommt, dass sich alle diese Kraftwerke nicht beliebig über den ganzen Leistungsbereich betreiben lassen. Unterhalb einer gewissen Mindestauslastung ist ihr Betrieb aus einer Reihe von Gründen nicht vertretbar, Bild 6. Hierzu zählen Verschlechterungen der Emissionswerte bzw. geringere Effektivität der DENOX-Katalysatoren, die Unterschreitung der Taupunkttemperatur im Rauchgas, was zu Korrosion führen könnte, sowie diverse weitere, nur dem Fachmann bekannte Faktoren. Die direkte Folge dieser Beschränkungen bedeutet, dass man größere Schwankungen der Stromerzeugung aus Wind und Sonne nur dann ausgleichen kann, wenn ausreichende Kapazitäten an konventionellen Kraftwerken mit einem Mindestmaß an Auslastung aktiv betrieben werden. In dem Moment, wo diese Kraftwerke aufgrund der Priorität für EE-Strom vom Netz genommen werden müssen, verlieren sie ihre Fähigkeit, bei Leistungsschwankungen von Wind oder Sonne schnell einzugreifen. Dann wird das Netz instabil.

Bild 6: Mindestauslastungsgrad konventioneller Kraftwerke in % der Nennlast (Grafik: [VDE])

Was bringt die Zukunft?

Angesichts dieses Widerspruchs stellt sich die Frage, wie dieses Nebeneinander von „erneuerbarer“ und konventioneller Stromerzeugung mit zunehmendem Ausbau der Wind- und Solarkapazitäten in Zukunft entwickeln wird. Grundlage für eine solche Betrachtung ist im vorliegenden Fall eine Projektion der voraussichtlichen Erzeugung aus Wind- und Solarkraftwerken in den Jahren 2025 (min 40 % EE-Anteil laut aktueller Planung der Bundesregierung) und 2050 (80 %). Um die Betrachtung realistisch zu gestalten, wurde die reale Produktion beider EE-Quellen für den Monat Dezember 2013 zugrunde gelegt. Hieraus wurde zunächst der Gradient, d.h. die Geschwindigkeit, mit der sich die Erzeugung ändert, berechnet, Bild 7. Diese Werte wurden entsprechend der gestiegenen Anteile für 2025 bzw. 2050 für jeweils einen fiktiven Dezember 2025 bzw. 2050 hochgerechnet.

Bild 7: Gradient der Erzeugung von Wind- und Solarstrom im Dezember 2013 bei viertelstündlicher Auflösung in MW/ h (Daten: EEX)

Die zugrundeliegenden Annahmen für die Gesamtproduktion sowie die Anteile einzelner Kraftwerksarten wurden bereits in einer früheren Veröffentlichung dargelegt [FRED]. Hieraus ergeben sich folgende Zahlen zur Produktion aus Windenergie und Fotovoltaik:

Jahr 2025:                                                                   TWh

Wind Onshore (erforderl. Kapazität 86660 MW, Nutzungsgrad 17,4 %)    132,1

Wind Offshore (erforderl. Kapazität 6500 MW, Nutzungsgrad 34,8 %)      19,9

Solar (erforderl. Kapazität 52000 MW, Nutzungsgrad 8,3 %)   37,8

Jahr 2050:                                                 TWh

Wind Onshore (erforderl. Kapazität 272500 MW, Nutzungsgrad 17,4 %)  415,4

Wind Offshore (erforderl. Kapazität 27500 MW, Nutzungsgrad 34,8 %)    83,8

Solar (erforderl. Kapazität 52000 MW, Nutzungsgrad 8,3 %)                    37,8

Gradienten des Wind- und Solarstroms im Dezember 2025

Mit den aus obigen Annahmen errechneten Faktoren wurden dann die realen Verläufe der Wind- und Solarstromproduktion unseres Beispielmonats Dezember 2013 für einen fiktiven Dezember 2025 hochgerechnet. Die entsprechende Kurve zeigt Bild 8. Der wilde Zickzackverlauf zeigt, in welchem Ausmaß die Stromerzeugung aus diesen „erneuerbaren“ Quellen erratisch nach oben wie auch nach unten schwankt, weshalb sich hierfür zunehmend auch der Begriff „Zappelstrom“ durchzusetzen beginnt. Die Extremwerte liegen für unseren Mustermonat Dezember 2025 bei +5643 bzw. -2970 MW. Dies bedeutet eine Differenz von 8600 MW, die permanent von konventionellen Kraftwerken ausgeglichen werden muss. Für diesen Fall kann man auch ausrechnen, welche konventionelle Mindest-Kraftwerksleistung allein zu diesem Zweck ständig am Netz gehalten werden muss. Für diese Abschätzung wurde angenommen, dass im Jahre 2025 alle Kernkraftwerke stillstehen und deren Anteile zu 2/3 von Braunkohlekraftwerken und zu 1/3 von Steinkohlekraftwerken übernommen wurden. Der konventionelle Brennstoffmix würde sich bei dieser Annahme aus 49,5 % Braunkohle, 34,4 % Steinkohle, 14,7 % Gas und 1,4 % Öl zusammensetzen. Ausgehend von diesen Annahmen lässt sich errechnen, dass unter optimalen Bedingungen mindestens 14000 MW konventioneller Kraftwerkskapazität mit einem durchschnittlichen Nutzungsgrad von rund 60 % allein schon deshalb in Produktion sein müssen, um die zu erwartenden Lastschwankungen des EE-Stroms sowohl nach unten als auch nach oben abfangen zu können. Das Problem dürfte sein, noch europäische Nachbarn zu finden, denen man den überschüssigen EE-Strom bei Starkwind und blauem Himmel ins Netz drücken könnte.

Bild 8: Verlauf des Gradienten der Erzeugung von EE-Strom aus Sonne und Wind für einen fiktiven Monat Dezember 2025

und im Jahr 2050

Noch dramatischer stellt sich die Lage dar, wenn man die gleichen Berechnungen für das Jahr 2050 mit einem angenommenen EE-Stromanteil von 80 % anstellt. Die entsprechenden Gradienten des Stroms aus Wind und Fotovoltaik zeigt Bild 9. Sie schwanken in der Spitze zwischen +17180 MW und -10240 MW, mithin eine Gesamtspanne von 27400 MW, für deren Ausgleich konventionelle Kraftwerke ununterbrochen unter Dampf stehen müssen. Analog zur oben aufgeführten Betrachtung für das Jahr 2025 ergibt sich daraus eine Reserve-Gesamtkapazität von stolzen 42000 MW, die aufgrund des erforderlichen durchschnittlichen Nutzungsgrades von rund 60 % im Schnitt 25200 MW elektrischer Leistung abgeben. Wo man diesen Strom zusammen mit der bei guten Wetterlagen zu erwartenden Flut an EE-Strom unterbringen möchte, mögen die Götter wissen, die Technik hat darauf keine Antwort.

Bild 9: Die Gradienten des Stroms aus Wind und Fotovoltaik für einen fiktiven Dezember 2050 schwanken zwischen 17180 MW und -10240 MW

Dass dieses „Gezappel“ für EE-Strom nicht nur bei der gewählten Darstellungsweise über einen vollen Monat, sondern auch bei geringerer zeitlicher Auflösung typisch ist, zeigt die Darstellung in Bild 10, das den Verlauf des EE-Gradienten für einen 24-Stunden-Zeitraum am fiktiven 23. Dezember 2050 darstellt. Hier ist zu erkennen, wie der Gradient vor allem gegen 22.00 Uhr in kürzester Zeit wild zwischen -8000 MW und +17000 MW hin- und herpendelt. Eine Vorstellung, die bei jedem Fachmann der Stromerzeugung Alpträume hervorrufen dürfte.

Bild10: Verlauf des Gradienten der Stromerzeugung aus Wind- und Solarkraftwerken am fiktiven 23.12.2050

Fred F. Mueller

Quellen:

[DRRA] http://www.eike-klima-energie.eu/energie-anzeige/die-im-dunkeln-sieht-man-nicht-regelenergie-die-versteckten-zusatzkosten-des-eeg/

[EEX] http://www.transparency.eex.com/en/

[FRED] http://www.eike-klima-energie.eu/climategate-anzeige/die-im-dunkeln-sieht-man-nicht-regelenergie-die-versteckten-zusatzkosten-des-eeg/

[VDE] Brauner, Glaunsinger, John, Schwing, & Bofinger, Magin, Pyc, Schüler, Schulz, Seydel, Steinke. VDE-Studie: Erneuerbare Energie braucht flexible Kraftwerke – Szenarien bis 2020. 18.04.2012

[WIGU] Gegen eine rückwärtsgewandte Wirtschaftspolitik Jahresgutachten 2013/14 Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung Statistisches Bundesamt 65180 Wiesbaden November 2013




Der Rückgang der Schäden durch Tornados

Alles in allem jedoch lautet die gute Nachricht für die Bewohner der „Tornado-Allee“ im  mittleren Westen und anderswo, dass die USA während der letzten sechs Dekaden einen Rückgang sowohl der Schäden als auch der Verluste von Menschenleben erlebt hat. Dieses Ergebnis habe ich zusammen mit Kevin Simmons und Daniel Sutter, zwei der führenden Tornado-Experten der Nation, aus Beobachtungen von 58.000 Tornados seit 1950 abgeleitet.

Unter Verwendung von Schätzungen des Storm Prediction Centers der NOAA haben wir uns dem aus verschiedenen Richtungen genähert, einschließlich der Berücksichtigung der Inflation, um die historischen Verluste mit denen im Jahre 2014 zu „normalisieren“. Damit wollten wir abschätzen, wie groß die Schäden wären, wenn die Tornados der Vergangenheit auf die heutige Bevölkerung und die Entwicklung treffen würden.

Die folgende Graphik zeigt unsere zentralen Schätzungen. Woher wissen wir, dass sie verlässlich sind? Wir haben viele unabhängige Checks durchgeführt. Zum Beispiel wissen wir, in welchen Jahren es besonders hohe Schäden gegeben hatte: 1953, 1965, 1974 und 2011 – und diese vier Jahre tauchen auch eindeutig in unserem Datensatz auf. Eine etwas kompliziertere Untersuchung ist es, Trends der Tornadohäufigkeit mit Trends der Schäden zu vergleichen. Zählungen von Tornados unterschiedlicher Stärke können als unabhängige Basis zur Evaluierung unserer Verfahren dienen. Logischerweise müssen diese Trends zusammenpassen. Und wenn wir erst einmal den gesamten Datensatz in eine Reihe von kürzeren Perioden aufteilen, um den Unterschieden Rechnung zu tragen, mit denen die Meteorologen mit der Zeit Tornados verfolgt haben, passen die Trends zusammen, was unsere Vorgehensweise stützt.

Sicher ist das Potential für Tornadoschäden in den USA weiterhin hoch. Erst vor drei Jahren war die Nation Schauplatz einer Serie von besonders zerstörerischen Stürmen einschließlich eines Ausbruchs von Tornados Ende April 2011, der über 300 Todesopfer in sieben US-Bundestaaten gefordert hat, sowie einen im Mai, der die Stadt Joplin, Montana, heimgesucht hat. Jenes Jahr war aber lediglich eines von drei Jahren mit einer Schadenssumme über 25 Milliarden Dollar, und die 560 Todesopfer des Jahres 2011 war die höchste Opferzahl seit 1925 mit 794 Todesopfern.

Die mittleren jährlichen Schäden durch Tornados in den USA im Zeitraum 1950 bis 2013 betragen 5,9 Milliarden Dollar nach heutigem Dollarwert. Allerdings betrug der jährliche Schaden in der ersten Hälfte des Datensatzes (1950 bis 1981) 7,6 Milliarden Dollar pro Jahr, während er in der zweiten Hälfte (1982 bis 2013) auf 4,1 Milliarden Dollar zurückgegangen war – ein Rückgang um fast 50%.

Bedeutet der substantielle Rückgang des mittleren jährlichen Schadens, dass es auch weniger Tornados gab? Nicht notwendigerweise. Das IPCC kam jüngst zu dem Ergebnis, dass die Qualität der verfügbaren Daten hinsichtlich Tornado-Häufigkeit und –Stärke nur schwer Schlussfolgerungen hinsichtlich langzeitlicher Trends zulässt: „es gibt nur wenig Vertrauen in die beobachteten Trends kleinräumiger Phänomene wie Tornados und Hagel“.

In unserer Analyse kamen wir zu dem Ergebnis, dass die Daten eines tatsächlichen Rückgangs der Tornado-Häufigkeit „suggestiv“ sind, aber nichts über die zunehmende Stärke aussagen, so dass wir nach weiteren Forschungen rufen.

Was wir mit einiger Sicherheit sagen können ist, dass die Anzahl der Jahre mit sehr großen Verlusten durch Tornados tatsächlich abgenommen hat. Beleg dafür ist, dass es von 1950 bis 1970 15 Jahre mit Tornadoschäden über 5 Milliarden Dollar pro Jahr gegeben hatte, während es von 1993 bis 2013 nur vier solche Jahre gab und drei seit 2008.

Obwohl es in den USA jährlich zu hunderten von Tornados kommt, können wir aber auch sagen, dass sie nicht annähernd so viel Schaden anrichten wie die viel selteneren Hurrikane und Erdbeben. Seit 1950 sind insgesamt 153 Hurrikane auf das US-Festland übergetreten und haben doppelt so viel Schaden angerichtet (normalisiert in Dollar) als die fast 58.000 gezählten Tornados. Auch schätzen wir, dass eine Wiederholung des Erdbebens von San Francisco aus dem Jahr 1906 heute mehr Schaden anrichten würde als durch sämtliche Tornados seit 1950 zusammen.

Unsere Studie zeigt auch ein Portrait von Staat zu Staat hinsichtlich der Verwundbarkeit durch Tornados – aber es gibt mehr als nur eine Antwort auf die allgemeine Frage, in welchem Staat es die meisten Tornadoschäden gibt. Das hängt auch von der Zählweise ab. Zählt man die Gesamtschäden seit 1950, fällt Texas das traurige Schicksal zu, die Liste anzuführen, gefolgt von Indiana, Missouri und Oklahoma. Falls wir  die Schäden pro Quadratmeile betrachten, stehen an erster Stelle Massachusetts, Connecticut und Indiana, Texas hingegen an 29. Stelle. In den Neuengland-Staaten [im Nordosten der USA, A. d. Übers.] gibt es relativ gesehen weniger Tornados, doch stellen die große Bevölkerungsdichte und die wirtschaftliche Entwicklung dort ein viel höheres Risiko für größere Schäden dar. Der einzige Staat, in dem es seit 1950 überhaupt keine Verluste gegeben hatte, ist Alaska.

Während sich das ganze Jahr über Tornados entwickeln können, konzentriert sich ihre größte Zerstörungskraft auf die Monate April, Mai und Juni mit 66% aller Schäden insgesamt und 55% aller Tornados nur in diesen drei Monaten. Nach dem 1. Juli beträgt der Anteil am Gesamtschaden nur noch 20%.

Todesfälle durch Tornados gingen sehr stark zurück nach der Entwicklung von Wetterradars und Warnsystemen Mitte des 20. Jahrhunderts. Aber selbst wenn das Auftreten von Tornados rückläufig ist, können wir sicher sein, dass immer die Gefahr eines Monster-Sturms besteht. Deswegen müssen wir die Technologien der Wetter-Infrastruktur der Nation festigen, um sicherzustellen, dass es in den USA das bestmögliche Warnsystem gibt. Für die Bewohner der Tornado-Allee, die in diesem Jahr einen sehr ruhigen Beginn erlebt haben, ist konstante Wachsamkeit nach wie vor überlebenswichtig.

Mr. Pielke is a professor of environmental studies and a fellow of the Cooperative Institute for Research in Environmental Sciences at the University of Colorado-Boulder.

Link: http://tinyurl.com/mmqadcp  

Übersetzt von Chris Frey EIKE




Extreme Zeiten beim Wetter – wirklich?

Da ich ein kritischer Zeitgenosse bin, fragte ich mich, ob das stimmt. Gleich danach kam mir der Gedanke, ich weiß, dass dies eine wichtige Einsicht ist, falls sie stimmt … ich weiß nur nicht warum…

Danach brach ich in Lachen aus, als mir klar wurde, warum das wichtig wäre, falls es stimmt – aber ich wusste immer noch nicht, ob das der Fall ist. Also habe ich die entsprechende Mathematik betrieben.

Der einfachste Weg zum Austesten eines solchen Statements ist es, etwas zu tun, das unter der Bezeichnung „Monte Carlo“-Analyse bekannt ist. Man erzeugt eine große Anzahl von Datensätzen mit Pseudo-Randwerten, die eine Autokorrelations-Struktur aufweisen ähnlich irgendeinem autokorrelierten Datensatz in der Natur. Diese hoch autokorrelierten Pseudo-Randwerte werden oftmals „rotes Rauschen“ genannt. Weil ich ihn gerade zur Hand hatte, verwendete ich den Datensatz mit der globalen Temperatur von HadCRUT4 als meine Autokorrelations-Schablone. Abbildung 1 zeigt ein paar autokorrelierte Datensätze in Farbe mit „rotem Rauschen“, und zwar zusammen mit den HadCRUT4-Daten zum Vergleich.

Abbildung 1: Monatliche globale Temperaturanomalien von HadCRUT4 (Schwarz) nach der Eliminierung jahreszeitlicher Schwingungen. Blau und rot zeigen zwei Randwert-Datensätze mit „rotem Rauschen“ (autokorreliert).

Der HadCRUT3-Datensatz ist etwa 2000 Monate lang. Also erzeugte ich eine sehr lange Folge (zwei Millionen Datenpunkte) als einen einzelnen kontinuierlichen Datensatz mit „Pseudo-Temperaturen“ mit rotem Rauschen. Natürlich sind diese zwei Millionen Datenpunkte stationär, das heißt sie weisen keinen Trend mit der Zeit auf und die Standardabweichung ist mit der Zeit stabil.

Dann habe ich den Datensatz in Sequenzen mit je 2000 Datenpunkten unterteilt und habe jede Sequenz mit den 2000 Punkten betrachtet um zu sehen, wo die Maxima bzw. Minima in jedem 2000-Punkte-Datensatz selbst liegen. Falls das Minimum der dritte Datenpunkt war, habe ich ihn als „3“ markiert, und entsprechend, falls der vorletzte Datenpunkt das Maximum war, mit „1999“.

Dann erstellte ich ein Histogramm mit der gesamten Anzahl der Sequenzen und schaute, wie viele der Extremwerte sich unter den ersten 100 Datenpunkten befanden, unter den zweiten hundert Datenpunkten, und so weiter. Abbildung 2 zeigt das Ergebnis. Individuelle Läufe für 1000 variieren, aber die allgemeine Form ist immer die Gleiche:

Abbildung 2: Histogramm der Stelle (von 1 bis 2000), an der sich die Extremwerte in den 2000-Datenpunkt-Sequenzen des „roten Rauschens“ befanden.

Und siehe da, der unbekannte Autor hatte völlig recht. Falls man ein Randwert-Fenster in einen hoch autokorrelierten Datensatz mit „rotem Rauschen“ anbringt, befinden sich die Extremwerte (Minima und Maxima) zweimal so häufig am Anfang oder am Ende unseres Zeitfensters wie irgendwo in der Mitte.

Ich bin sicher, dass Sie erkennen, wohin das führt … Sie haben doch bestimmt all diese Behauptungen im Kopf bzgl. der letzten zehn Jahre, die extrem warm gewesen sind. Und über die extreme Anzahl von Stürmen und Extremwetter aller Art.

Darum musste ich so lachen. Falls man sagt „wir leben heute in extremen Zeiten ohne Beispiel“, hat man mathematisch wahrscheinlich recht, selbst wenn es überhaupt keinen Trend gibt, einzig weil die Daten autokorreliert sind und „heute“ am Ende unseres Zeitfensters liegt!

Wie urkomisch ist das denn? Wir leben tatsächlich in extremen Zeiten, und wir haben die Daten, die das beweisen!

Natürlich führt das genau in den AGW-Alarmismus, besonders weil jedwedes Extremereignis als Beweis angeführt wird, dass wir in prekären, außerordentlichen Zeiten leben, egal ob es warm oder kalt, nass oder trocken ist; ob es Dürren oder Überschwemmungen gibt…

Spaß beiseite, mir scheint, dass dies eine sehr wichtige Beobachtung ist. Typischerweise gehen wir davon aus, dass die extremen Zeiten gleichmäßig über das Zeitfenster verteilt sind. Aber wie Abbildung 2 zeigt, ist das nicht der Fall. Folge: Wir betrachten das Auftreten von Extremen in jüngster Zeit fälschlich als Beweis, dass die Grenzen der natürlichen Variabilität jetzt überschritten worden sind (z. B. „acht der zehn wärmsten Jahre“, usw.)

Dieses Ergebnis zeigt, dass wir unsere Ansichten dessen, was wir als „jüngste extreme Wetterereignisse“ betrachten, anheben müssen … weil wir selbst dann in extremen Zeiten leben, wenn es überhaupt keinen Trend gibt und wir dennoch extremes Wetter erwarten können.

Natürlich gilt dies für alle Arten von Datensätzen. Beispiel: gegenwärtig ist die Anzahl der Hurrikane extrem niedrig … aber ist diese kleine Zahl wirklich anomal, wenn die Mathematik uns sagt, dass wir in extremen Zeiten leben, so dass Extreme keine Überraschung sein sollten?

In jedem Falle schlage ich vor, dass wir dies den „Endzeiten-Effekt“ nennen, also die Tendenz der Häufung von Extremen in jüngster Zeit einfach deswegen, weil die Daten autokorreliert sind und „heute“ der Endzeitpunkt unseres Zeitfensters ist … und weil die korrespondierende Tendenz der Menschen, auf diese jüngsten Extreme zu schauen, zu der fälschlichen Annahme führt, dass wir in der Endzeit leben und alle dem Untergang geweiht sind.

Link: http://wattsupwiththat.com/2014/04/24/extreme-times/

Übersetzt von Chris Frey EIKE




Windstrom im April: Null x viel = Null, sehr wenig x viel = sehr wenig!

4,7 Promille können sehr viel oder sehr wenig sein. Beim Blutalkoholgehalt sind 4,7 Promille sehr viel, wie bei der 45 Jahre alten Autofahrerin, welche am 29.04.2014  auf der A5 bei Darmstadt wegen ihres auffälligen Fahrverhaltens auf Alkohol getestet wurde. Die spätere Blutanalyse ergab einen Blutalkoholwert von 4,7 Promille. Ihr Führerschein wurde eingezogen. 4,7 Promille Einspeisung von der Nennleistung bei Windstrom ist hingegen sehr, sehr wenig, oder fast Null. 

Siehe Abbildung 1 rechts

Nur diese geringe Leistung wurde sowohl an diesem, als auch an vielen anderen Tagen im April, von den rd. 23.000 Windkraftanlagen mit 34,5 GW installierter Leistung in das deutsche Stromnetz eingespeist.

Insgesamt wurden aber an diesen Tagen aber zwischen 43 bis 68 GW. (siehe Abbildung 3) gebraucht. Im Mittel waren es rd. 52 GW. Die Windenergie trug also an diesen Tagen häufig gerade mal mit 3,125 Promille zur Abdeckung des mittleren Leistungsbedarfes bei. An manchen Tagen sogar noch deutlich weniger, nämlich rd. 2 Promille.

Die Irrsinnsidee von der 100 % igen Versorgung durch NIE

Hätten wir bereits 100 % "Versorgung" mit den Nachhaltig Instabilen Energien (NIE*), wie es einige Studien  div. „wissenschaftlicher“ Wirrköpfe, z.B. die Experten des  FVEE, als wünschenswertes und machbares Ziel propagieren, und diese würden durch die, von der GroKo favorisierte, Windenergie zu liefern sein, dann müssten wir zur Sicherstellung der geforderten Leistung ca. 320 mal  so viele Windleistung installiert haben. Diese installierte Leistung betrüge dann 320 x 34,5 = 11.043 GW. Oder das 212 fache des mittleren Verbrauches.

Zur Abdeckung des Spitzenbedarfes benötigte man sogar 419 mal soviel Windleistung. Bei erforderlichen ca. 1.000 € pro installiertem kW Windleistung kostete die Investition zur Deckung der mittleren Leistung rd. 11 Billionen € (1). Spitzenleistung müsste zugekauft oder durch Zwangsabschaltung vermieden werden.

Auch der Flächenbedarf überstiege jedes Maß an Vorstellung: Bei angenommener Deckung dieses Bedarfes durch Windräder mit 150 m Nabenhöhe und 130 m Rotordurchmesser, wie sie heute vielfach gebaut werden, würde wg. des Mindestabstandes zur Vermeidung von Abschattung eine Fläche des ca. 2,6 fachen der Fläche der Bundesrepublik erforderlich sein. Auch bei noch soviel "Repowering" stünde diese Fläche sicher nicht zur Verfügung.

Da dieselben heutigen Windräder im selben Monat aber auch gelegentlich 23,9 GW ablieferten, würde die dann erzeugte Leistung, nach Aufstockung um den Faktor 320,  23,9 x 320 = 7.648 GW betragen. Das ist rd. die 147 fache Menge des mittleren Eigenbedarfes. Es gehört kaum Phantasie dazu sich vorzustellen, dass keiner unserer Nachbarn, auch mit dem Versprechen astronomischer Zuzahlungen nicht, diese Leistung aufnehmen wollte, denn der sofortige Zusammenbruch des gesamten europäischen Stromnetzes wäre die Folge. Eine massenhafte Abschaltung der überflüssigen Wind-Stromlieferanten wäre die zwingende Konsequenz. Dank EEG Irrsinn aber trotzdem vom Verbraucher zu bezahlen.

Und um gleich den unbelehrbaren Jüngern der „Erneuerbaren“ den Wind aus den Segeln zu nehmen. Auch die „Pufferung“ durch per Photovoltaik erzeugten Stromes  verändert das Bild kaum.

 

Abbildung 2: Solar + Windeinspeiseleistung im April mit installierter Leistung; Datenquelle EEX, Grafik R. Schuster 

Abbildung 3: Solar + Windeinspeiseleistung im April mit benötigter Gesamt-Leistung; Datenquelle EEX, Grafik R. Schuster 


Denn trotz einer ebenso gewaltigen installierten PVA Leistung von rd. 35 GW schien auch im sonnenreichen April die Sonne nur zur Mittagszeit in voller Stärke und nicht dann, wenn die größte Leistung gebraucht wurde. Abbildung 3 zeigt das selbstverschuldete Dilemma nochmals deutlich.

Die Minimalmenge von rd. 140 bis 160 MW wurde auch durch die eingespeiste PVA Leistung nicht angehoben, sondern verharrte im dunklen Keller. Nur hätte man beim versuchten Ausgleich der fehlenden Leistung mittels Vervielfachung der installierten PVA Leistung, statt der Windkraft, noch größere Investitionssummen aufzuwenden, die allerdings, das wäre ihr einziger Vorzug, die programmierte Überschussproduktion an sonnen- und windreichen Tagen ein klein wenig vermindert hätten.  Doch die benötigte Mindestmenge wäre nicht erreichbar gewesen. Dafür hätten sich die Taschen der EEG Gewinnler umso voller gefüllt. 

Bliebe als Ausweg für die Unbelehrbaren nur die massenhafte Einführung (und Bezahlung) von Speichern. Dabei wird zurzeit das System "Power to Gas" favorisiert. Doch wie im Energiepolitischen Manifest überzeugend nachgewiesen, ist der dort benutzte Prozess eher eine Energievernichtung, denn ein Energiespeicher. Mit Restwirkungsgraden zwischen 15 bis max 25 % wird diese Form der Energiespeicherung allein dadurch die Kosten pro kWh um den Faktor 4 bis 6 anheben. Von Installations. Betriebs- und Wartungskosten noch nicht geredet. Auch die erforderliche Leitungssanbindung lassen wir hier mal außen vor.

(1) Anmerkung:

Bei der Durchrechnung dieses Gedankenmodells, dass den ganzen Irrsinn der Energiewende wieder einmal aufzeigt, habe ich mehrmals die Zahlen auf Fehler in der Größenordnung kontrolliert. Ich konnte und wollte sie einfach nicht glauben. Doch trotz sorgfältiger mehrfacher Überprüfung ist mir kein Fehler aufgefallen. Das muss nicht heißen, dass ich mich nicht trotzdem verrechnet hätte bei diesen Zahlen. Die Leser mögen es nachrechnen und ggf. kommentieren.

* Mit Dank für diese sinnvolle Namensgebung an Leser J. Ehlig




Wir bleiben am Leben, obwohl unsere Gene einiges aushalten müssen – Teil I

Die folgende Karikatur stammt aus dem Jahr 1953 (siehe Bild rechts!). Das war das Jahr, in dem die molekulare Struktur der DNA endgültig feststand. In den folgenden Jahrzehnten wurde klar, dass die Karikatur Fiktion und nicht Wissenschaft war. Wenn jemand dies 1953 noch nicht wusste, ist das zu entschuldigen. Im folgenden Jahr brachte Hollywood einen Film mit Strahlenmonstern heraus. Leicht möglich, dass dieser Film die damals 16 Jahre alte Helen Caldicott hypnotisierte, sie wurde eine der ganz großen Anti-Atom-Fanatikerinnen. Ihr schauderte vermutlich vor den sechs Meter großen Monsterameisen auf der Leinwand, angeblich erzeugt durch die Strahlung des Trinity-Kernwaffentests in New Mexico.

Nach nunmehr 6 Jahrzehnten würden alle Wissenschaftler sagen, solche Geschichten sind nicht einmal Science Fiction, sondern reine Phantasie. Aber die Erkenntnisse der letzten Jahrzehnte molekularbiologischer Forschung sind weitgehend verborgen in Fachzeitschriften und Fachbüchern und hinter einem Fachjargon, der an Kompliziertheit und Undurchschaubarkeit kaum zu übertreffen ist. So ist es nicht erstaunlich, dass viele Menschen glauben, solche Filme und Computerspiele mit grollenden und mörderischen Mutanten in einer strahlenverseuchten und verwüsteten Gegend enthielten doch ein wenig Wahrheit. Besonders Greenpeace und Friends of the Earth (Freunde der Erde) behaupten, Strahlung schädigt den Genbestand und zerreißt den Zusammenhalt des Lebens. Gibt es auch nur ein winziges Körnchen Wahrheit in solchen Behauptungen?

Es ist Zeit, dies Atomfantasie-Blabla frontal anzugreifen.

Diese Popkulturneurosen müssen wir mit dem modernen Stand der Wissenschaft vergleichen und diese unbestimmten und schädlichen Ängste sowie die dummen Slogans über Gene in den Mülleimer für erschreckend falsche Ansichten werfen. Wir müssen diesen Unsinn ersetzen durch konstruktive Furcht vor schlimmen Sachen, die wirklich passieren können.

Ohne den notwendigen Hintergrund wird das kein k.o. – Schlag gegen einen alten Mythos, sondern eine Debatte nach dem Muster: „Sie hat gesagt, er hat gesagt“. Daher müssen wir fast hundert Jahre zurückgehen und verfolgen, wie sich dieser Mythos der apokalyptischen Strahlenmutanten entwickelt hat.

Stellen Sie sich vor, Sie wären eine junge Frau und würden nur deshalb zwangsweise sterilisiert, weil Sie eine Röntgenuntersuchung hinter sich haben. So etwas hat im Jahr 1930 Eugen Fischer empfohlen, der Leiter einer der angesehensten deutschen wissenschaftlichen Einrichtungen, des Kaiser Wilhelm Instituts für Anthropologie. Fischer konnte die Zukunft nicht vorhersehen, vor allem nicht, was in den letzten 30 Jahren alles entdeckt wurde. Er dachte in alten Konzepten wie „Keimplasma“ und „Rassenreinheit“. Ihm war bekannt, dass massive Röntgendosen in den Nachkommen von Fruchtfliegen (Drosophila) Veränderungen hervorrufen, daher extrapolierte er von hohen Dosen zu ganz kleinen, von Fruchtfliegen zu Menschen, das wurde dann so falsch wie in der folgenden Karikatur.

 

Eugen Fischer und Hollywood

Die Denkweise von Fischer wirkt fort in den überall zu hörenden Befürchtungen, dass die bei kerntechnischen Unfällen oder Atomkriegen auftretende Strahlung die Erbsubstanz schädigt oder „das Netz des Lebens zerreißt.“ Das ist das Thema des oben erwähnten Hollywoodfilmes von 1954. Viele hundert derartig fantastische Atom-Horrorfilme wurden in den letzten 60 Jahren in mehreren Ländern gedreht. Man produziert weiter. Egal wie unwahrscheinlich das ist, Filme wirken. Die Zuschauer können Phantasien und Tatsachen nicht auseinanderhalten. Wir haben die fatale Neigung, das, was uns immer vorgeführt wird, für das Wahre zu halten.

Liegt den 6 m-Ameisen, entstanden aus zerstörter Erbsubstanz, auch nur ein Nano-Körnchen Wahrheit zugrunde?

Röntgenstrahlen wurden 1895 entdeckt. Man beobachtete bald, dass sie auf Pflanzen und Tiere wirken und diese verändern können. Ab 1915 wurde die winzige Drosophila, mit den deutschen Namen Frucht- oder Taufliege, massenhaft starker Röntgenstrahlung ausgesetzt. Die dabei entstandenen Mutationen dokumentierte man in allen Einzelheiten. Kein Mensch hatte damals eine Ahnung, was Gene auf der molekularen Ebene eigentlich sind. Man sprach von „Mutationen“, wenn die Nachkommen bestrahlter Fliegen anders aussahen als ihre Eltern.

Es dauerte noch Jahrzehnte, bis die Struktur der DNA aufgeklärt war. Man wusste um 1920 nur: Setzt man Fliegen innerhalb von 3,5 Minuten der 1.000-fachen Dosis einer Röntgen-Brustdurchleuchtung aus, dann entstehen mutierte Fliegen. 6 m-Monster? Nein. Die häufigsten Mutationen betrafen Form und Farbe der Augen wie die im folgenden Bild.

 

Ich glaube kaum, dass man über Fliegen mit ungewöhnlichen Augen Horrorfilme drehen kann. Hollywood wird das bestimmt nicht tun; Hollywood ist die Traumfabrik und weiß, was wirkt.

Bevor die Einzelheiten bekannt sind, ist der erste Schritt in vielen jungen Wissenschaften, Dosis-Effekt-Kurven zu ermitteln. Was bedeutet das? Einfach die Röntgendosis verändern und sehen, was geschieht. Wird die Dosis erhöht, gibt es mehr Mutanten. Wird die Dosis erniedrigt, gibt es weniger.

Diese Zahlen werden dann in ein Koordinatensystem eingetragen; die x-Achse entspricht den immer ganz massiven Dosiswerten und die y-Achse den Mutationsraten. Verbindet man die x, y-Werte, so entsteht eine einigermaßen gerade Linie. Wie geht aber die Linie unterhalb des kleinsten Wertes weiter? Gibt es eine Schwellendosis, unter der keine Mutationen auftreten?

Warum gibt es keine einfache Antwort auf diese Fragen? Kann man nicht einfach die Dosis immer weiter reduzieren und sehen, ab wann keine Mutationen mehr auftreten?

Weil Mutationen auch ohne Strahlung entstehen.

Man stellte bald fest: Strahlendosen im Bereich der natürlichen Umgebungsstrahlung könnten, wenn überhaupt, nur einen winzigen Bruchteil der Mutationen erzeugen, welche aus anderen natürlichen, aber bisher unbekannten Gründen, immer wieder auftreten. Nach einer damaligen Schätzung könnte etwa eine Mutation von 1.300 auf die natürliche Umgebungsstrahlung zurückzuführen sein. Während heute die Wissenschaftler eifrig bemüht sind, die Gründe für die Entstehung der anderen 1.299 Mutationen herauszufinden, sind viele Menschen über Kernenergie beunruhigt wegen der Phantasien, die von der einen abgeleitet werden.

Betrachtet man alle Gefahren für unsere DNA, dann ist Radioaktivität wie eine Kerze gegenüber einem Waldbrand. Für viele Menschen ist Radioaktivität aber die einzige Gefahr, von der sie je gehört haben, und so widmen sie ihr weit mehr Aufmerksamkeit als ihr zukommt. Was ist die Ursache für fast alle Mutationen, 1.299 von 1.300? Das Leben! Richtig, normale Tätigkeiten, wie atmen, essen, trinken (sogar Wasser), joggen, sich aufregen. Die Energieerzeugung in unseren Zellen lässt giftige Abfallprodukte zurück, diese können die DNA entweder direkt schädigen oder indirekt, indem sie in anderen Bereichen der Zelle chemische Reaktionen auslösen, deren Produkte dann die DNA angreifen. Ist der Schaden durch den Abfall zu groß, dann gibt es so etwas wie Beihilfe zum Selbstmord der Zellen.

Diese natürlichen Ursachen und ihre Häufigkeit wurden in den letzten Jahrzehnten mit immer größerer Genauigkeit ermittelt. Die Wissenschaftler können nun solche DNA-Schäden mit der sogenannten „Vergiftung der Gene“ durch Radioaktivität vergleichen.

Quantifizierung und Vergleich normaler Schädigung mit Strahlenschädigung

Jeder hat schon Bilder des spiralförmigen DNA-Doppelstrangs gesehen. Allgemein wird angenommen, dass der zutreffend als Doppelstrangbruch bezeichnete DNA-Schaden die wahrscheinlichste Ursache für schädliche Mutationen ist, wie altern oder an Krebs zu erkranken. Denkbar sind aber auch nützliche Mutationen, es wird behauptet, manche machen einen gegen einige HIV-Varianten immun.

Ist nur einer der DNA-Stränge gebrochen, haben die Reparaturmechanismen eine leichtere Aufgabe. Trotzdem kann die Sache schief gehen und aus einem Einzelstrangbruch ein Doppelstrangbruch werden.

Um wie viel müsste man die Dosis der Umgebungsstrahlung erhöhen, damit ebenso viele Doppelstrangbrüche entstehen wie täglich durch normale Einwirkungen erzeugt werden? 200.000 – 300.000-fach. Um sich einen Begriff davon zu machen, vergleichen wir mit der durchschnittlichen Strahlendosis, welcher die Überlebenden von Hiroshima ausgesetzt waren. Es ist so, als erhielte man die Bombendosis jeden einzelnen Tag 7 bis 10mal. Mit einer solchen Zahl von DNA-Schäden müssen unsere Körperzellen täglich fertig werden. Heute verbietet die japanische Regierung den Menschen in der Umgebung von Fukushima an Orten dauerhaft zu leben, an denen sie mehr als dem Achtfachen der natürlichen Umgebungsstrahlung ausgesetzt sein könnten.

Im letzten Jahr (2012) haben Wissenschaftler am MIT (USA) Mäuse 6 Monate lang einer Strahlendosis ausgesetzt, die 400mal höher war als die natürliche Umgebungsstrahlung. Auf 100.000 DNA-Schäden, nicht nur Doppelstrangbrüche, kamen nach ihrer Schätzung 12 durch Strahlung. Die Wissenschaftler stellten fest, dass offensichtlich all diese zusätzlichen Schäden vollständig repariert wurden. Aber Menschen sind nicht Mäuse. Speziell Krebs bekommen wir nicht wie Mäuse, sondern nur halb so häufig, obwohl wir 20mal länger leben. Aber, ich überhole mich selbst; das Kapitel III handelt vollständig von Krebs.

Tretmühlen im Vergleich zu Kernschmelzen

Der Mäuseversuch wurde nach der dreifachen Kernschmelze in Fukushima durchgeführt und die Strahlendosis mit dem 400-fachen der natürlichen Umgebungsstrahlung nicht zufällig gewählt. Im größten Teil der Evakuierungszone um die Kernreaktoren wurde ein derartiger Strahlenpegel nie erreicht; außerdem sinkt er schnell. Betrachten Sie den roten Bereich in der Landkarte auf der nächsten Seite.

Im roten Bereich beträgt der Strahlenpegel das 66-fache der natürlichen Strahlung, überall sonst ist er niedriger. Gibt es überhaupt irgendwo diesen 400-fachen Strahlenpegel? Vielleicht an einigen kleinen Stellen.

In dem ganzen evakuierten Gebiet liegt der Strahlenpegel unter dem, welcher bei Mäusen keinen erkennbaren DNA-Schaden auslöst, und Mäuse sind sehr viel empfindlicher bezüglich DNA-Schäden als Menschen.

Also vergleichen wir einmal das Leben in der Evakuierungszone mit dem Laufen in einem Tretrad. Im Jahr 2013 ließ man Sportler in einem Tretrad bis zur Erschöpfung laufen. Danach wurden sie verschiedensten medizinischen Tests unterzogen, einschließlich der Ermittlung von DNA-Schäden in ihren weißen Blutkörperchen. Solche Schäden wurden problemlos gefunden, sogar recht viele davon. Man sieht, schwere körperliche Anstrengung ist weit gefährlicher für die DNA als ein Aufenthalt in einem Strahlungsfeld mit 400mal so hoher Intensität wie die der durchschnittlichen Umgebungsstrahlung auf dieser Welt.

Woher kommen die Schäden? Wir werden im Teil II erfahren, dass in Zellen durch Strahleneinwirkung verschiedene Substanzen entstehen. Eine davon ist Wasserstoffperoxid. Körperliche Anstrengung produziert erhöhte Konzentrationen von Wasserstoffperoxid, und das ist jedenfalls eine Ursache für die DNA-Schäden.

In einem Ofen leben?

Zurück zu der 200.000-fachen Strahlendosis gegenüber der natürlichen Umgebungsstrahlung, welche die gleiche DNA-Schädigung bewirkt wie normale Einwirkungen ohne Strahlung. Könnte man in einem Strahlungsfeld 200.000mal stärker als normal leben? Keine Chance. Man wäre tot, lange bevor man sich über Krebs oder Erbschäden Sorgen machen könnte.

In der Evolution sind Reparaturmechanismen entstanden, welche DNA-Schäden reparieren können, auch wenn sie von Einwirkungen verursacht werden, welche vielfach wirkungsvoller als Strahlung sind. Für die übrigen Substanzen in den Körperzellen gilt das nicht in dem Maße. Daher können die Reparatursysteme mit DNA-Schäden durch Strahlung weit besser zurechtkommen als unser übriger Körper mit den unmittelbaren Zellschäden, welche solche Megadosen ebenfalls auslösen.

Es ist eher wie bei den Sonnenstrahlen. Sonnenschein schädigt DNA, einschließlich der gefürchteten Doppelstrangbrüche. Aber man stelle sich eine 200.000-fache Intensität vor. Bevor Hautkrebs auftreten kann, wäre man längst gebraten. Es gibt einen großen Unterschied zwischen normalem Sonnenschein und normaler radioaktiver Umgebungsstrahlung: Sonnenstrahlung ist wesentlich gefährlicher. Sie kann nicht nur Hautkrebs auslösen, Dehydrierung, Hitzschlag und Tod, sie ist auch ein Risiko für einen wachsenden Embryo. Mehr davon im Teil II.

Fazit: Kann massive radioaktive Strahlung uns umbringen? Selbstverständlich. Ist sie dadurch gefährlicher als Sonnenstrahlung? Nicht im geringsten.

Zum Schluss: Kann ein Atomkrieg oder ein Reaktorunfall eine solche Erhöhung der Strahlenpegel bewirken, dass das ein ernsthaftes weltweites Problem wird?

Auf keinen Fall.

Warum? Denken wir an den Kalten Krieg zurück, als verschiedene Staaten große Atombomben in der Atmosphäre explodieren ließen. Einige waren tausendfach größer als die Bombe auf Hiroshima im 2. Weltkrieg. Und um wieviel hat das die Umgebungsstrahlung erhöht? Es kam nicht einmal der Wert der natürlichen Strahlendosis dazu, gar nicht zu reden von dem 200.000-fachen, was nötig wäre, um die Zahl unserer Doppelstrangbrüche zu verdoppeln. Der globale Strahlenpegel wurde um weniger als ¼ % erhöht. Es ist leicht zu berechnen: Man könnte eine halbe Million Hiroshima-Bomben explodieren lassen und würde die Intensität der Umgebungsstrahlung nicht einmal verdoppeln. Finnland hat von Natur aus eine dreifach höhere Umgebungsstrahlung als die Welt im Durchschnitt, aber eine niedrigere Krebsrate als Großbritannien, Australien oder die USA.

Es gibt wirklich gute Gründe, einen Atomkrieg zu vermeiden, aber die Sorge über die Strahlung gehört nicht dazu.

Im Teil II werden wir uns mit Einwirkungen befassen, welche die DNA wirklich signifikant schädigen können. Das wird uns die Ergebnisse der letzten 3 Jahrzehnte wissenschaftlicher Forschung näherbringen, über Strahlung, DNA, krebserzeugende Stoffe und Krebs:  Die Strahlung radioaktiver Stoffe hat nur eine schwache Mutationswirkung, ist träge bei der Auslösung von Krebs und kann nur schwer Missbildungen erzeugen. Anders gesagt, Strahlung taugt nicht viel zur DNA-Schädigung und damit zur Erzeugung von Krebs und Geburtsfehlern. Zwar kann die Atomstrahlung, wie auch Sonnenlicht, all diese Schäden unter extremen Bedingungen hervorrufen, aber sich deswegen zu ängstigen, ist wie sich Gedanken zu machen, ob das Trinken von Wasser schädlich sein kann, oder ob eine geworfene Münze auf ihrem Rand landen könnte.

Technischer Anhang

Die Einheiten der Strahlung berücksichtigen Einzelheiten, welche wichtig sind für Betreiber von Einrichtungen zur Strahlentherapie. Für einen allgemeinen Überblick lässt sich die Sache aber vereinfachen. Hier die Grundlagen für Leser, welche gewohnt sind, mit Einheiten umzugehen: Wenn in 1 kg Materie, z.B. unserem Körper, ionisierende Strahlung absorbiert wird, welche der Energiemenge 1 Joule (1 Wattsekunde) entspricht, dann nennt man die Dosis 1 Gray (Gy). Geht es um die biologische Wirkung, dann verwendet man die Einheit Sievert (Sv). Es gibt verschiedene Formen der ionisierenden Strahlung. Einige haben eine stärkere biologische Wirkung als andere, so dass ein Joule absorbierter Energie eine größere Wirkung haben kann (Alphastrahlung bis zum 20-fachen). Für die meisten Fälle (Gamma- und Betastrahlung) ist jedoch 1 Sv = 1 Gy. Der tausendste Teil ist das Millisievert, mS.

  1. Die Anzahl von Natur aus auftretender Doppelstrangbrüche pro Zellzyklus ist gleich der Anzahl, welche von Strahlendosen im Bereich von 1,5 – 2,0 Gy erzeugt werden. Zellzyklen dauern etwa einen Tag, und die natürliche Umgebungsstrahlung bewirkt eine Dosis um 2,5 mSv pro Jahr. Somit entsprechen 1,5 Gy grob dem 219.000-fachen der Umgebungsstrahlung [1,5 : (0,0025 : 365) = 219.000] und 2,0 Gy entsprechen dem 292.000-fachen.
  2. Überlebende in der 2,5 km-Zone um die Atombombenexplosionen erhielten im Durchschnitt Dosen von 200 mSv. Würden also täglich an einem Ort 7 bis 10 Hiroshimabomben abgeworfen, und man befände sich in der 2,5 km-Zone, dann hätte man grob so viele zusätzliche DNA-Doppelstrangbrüche wie von Natur aus.
  3. Die japanische Regierung weigert sich, Personen die Rückkehr in Gebiete zu erlauben, in denen sie eine höhere Dosis als 20 mSv erhalten würden. Diese 20 mSv sind das achtfache des weltweiten Durchschnitts von 2,5 mSv pro Jahr.

Link: http://bravenewclimate.com/2013/11/01/stayin-alive-gene-pool-p1/

Übersetzung: Dr. Hermann Hinsch

Anmerkungen des Übersetzers:

Die Argumentation in dieser Arbeit stützt sich auf die Tatsache, dass in der DNA stets eine unvorstellbar große Zahl von Schäden entsteht, die nichts mit Strahlung zu tun haben. Diese Rate von Schäden, und wie man sich ihre biologische Reparatur vorstellt, ist heute Lehrbuchwissen [z.B. Jochen Graw, Genetik]. Der Vergleich, Kerze gegen Waldbrand, für strahlenbedingte gegen sonstige DNA-Veränderungen, trifft zu, hat aber eine Konsequenz: Positive Wirkungen (Hormesis) durch kleine Dosen sind ebenso unrealistisch wie Gesundheitsschäden.

So ziehen die Autoren positive Strahlenwirkungen überhaupt nicht in Erwägung.

Die zahlreichen Links aus dem Original sind hier nicht eingefügt worden.

Die Teile II und III handeln im Wesentlichen von anderen Einwirkungen als Strahlung, und den Mechanismen der Krebsentstehung. Sie werden von Chris Frey übersetzt.




Der schwer fassbare, etwa 60-jährige Zyklus des Meeresspiegel-Niveaus

Wie es so meine Gewohnheit ist, diese Behauptung zu überprüfen, habe ich mir die Daten besorgt. Also ging ich zum Permanent Service for the Mean Sea Level (PSMSL) und habe alle monatlichen Tidenmessungen von dort heruntergeladen, eine Gesamtzahl von 1413 individuellen Reihen. Nun sagten die Autoren der Studie zu der 60-jährigen Oszillation, sie hätten auf „langzeitliche Tidenaufzeichnungen“ geschaut. Falls wir wirklich nach einem 60-Jahre-Signal suchen, sagt mir meine Daumenregel, dass man einen dreimal längeren Zeitraum dafür braucht, also 180 Jahre, um die Ergebnisse einigermaßen abzusichern. Schlechte Nachrichten … wie sich herausstellt, gibt es nur an zwei der 1413 Zeitreihen, nämlich Brest und Swinemünde, 180 Jahre mit Daten. Also müssen wir uns kürzere Zeitreihen vornehmen, vielleicht die doppelte Zeitspanne von 60 Jahren, die wir untersuchen. Es ist oberflächlich, eine so kurze Zeitreihe zu verwenden, aber vielleicht reicht das ja schon. Es gibt 22 Tiden-Datensätze mit Daten aus 120 oder mehr Jahren. Abbildung 1a zeigt deren erste acht:

Abbildung 1a: Tidenmessungen über 1440 Monate (120 Jahre) oder mehr. Es handelt sich durchweg um relative Meeresspiegel, das heißt, sie alle beziehen sich auf eine willkürliche Grundlage. Einheiten sind Millimeter. Man beachte, dass die Skalen unterschiedlich und die Trends daher nicht so einheitlich sind wie sie aussehen.

Nun gibt es sicher keinen offensichtlichen 60-Jahres-Zyklus in diesen Tidenaufzeichnungen. Aber vielleicht sind ja die Feinheiten bei dieser Skalierung nicht erkennbar. Daher zeigt die nächste Abbildung die mittleren Gauss-Verteilungen der gleichen Datensätze. Um die darunter liegenden kleinen Änderungen der Mittelwerte zu enthüllen, habe ich zuerst jeden Datensatz trendbereinigt, indem ich jeden linearen Trend entfernt habe. Daher betont Abbildung 1b irgendwelche Zyklen ohne Rücksicht auf deren Größe, und beim Ergebnis muss man die sehr unterschiedlichen Skalierungen zwischen den Abbildungen 1a und 1b beachten.

Abbildung 1b: Gauss-Verteilung (14-jährige full-width half-maximum) der linear trendbereinigten acht Zeitreihen von Tidenmessungen aus Abbildung 1a. Man beachte, dass die individuelle Skalierung unterschiedlich zu Abbildung 1a sind.

Nun, sind die Daten erst einmal linear trendbereinigt, zeigen sich alle möglichen Schwingungen. Die dekadischen Schwingungen sind zumeist von der Größenordnung von 20 bis 30 mm von Spitze zu Spitze, obwohl einige etwa doppelt so stark sind. Das große Problem ist, dass die dekadischen Schwingungen unregelmäßig auftreten und völlig verschieden aussehen. Oder für unsere Frage relevant, in keinem dieser Datensätze zeigt sich ein offensichtlicher 60-Jahres-Trend.

Nun können wir noch genauer hinschauen, welche zugrunde liegenden Zyklen in jedem dieser Datensätze vorhanden sind, mit Hilfe einer Periodizitäts-Analyse. Das zeigt, wie stark die einzelnen Zyklus-Längen vertreten sind, in diesem Falle von zwei Monaten bis zu siebzig Jahren. Abbildung 1c zeigt die Periodizitäts-Analyse der gleichen acht langen Datensätze. In jedem Falle habe ich die jahreszeitlichen (jährlichen) Variationen des Meeresspiegels vor der Periodizitäts-Analyse entfernt.

Abbildung 1c: Periodizitäts-Analyse der ersten acht langzeitlichen Tiden-Zeitreihen.

Aber auch da sieht man nicht viel. Oben links in der Zeitreihe von Brest gibt es Hinweise auf einen 38-jährigen Zyklus. New York zeigt eine schwach ausgeprägte Spitze von etwa 48 Jahren. Anderswo zeigt sich durchweg kein Signal in den längerzeitlichen Zyklen, etwa von 30 bis 70 Jahren.

Schauen wir also auf die übrigen 22 Datensätze. Hier folgen die nächsten acht Zeitreihen mit Tidenmessungen in der gleichen Reihenfolge – erst die Rohdaten, dann das Gauss-Mittel und schließlich die Periodizitäts-Analyse.

Abbildungen 2a, 2b und 2c: Rohdaten, Gauss-Mittel und Periodizitäts-Analyse der nächsten acht, über 120 Jahre langen Zeitreihen

Und siehe da, es ist das gleiche Problem. Es zeigen sich alle möglichen Arten von Zyklen, aber keiner davon regelmäßig. Das größte Problem ist das Gleiche wie in den ersten acht Datensätzen – die Zyklen sind unregelmäßig und passen außerdem auch nicht zueinander. Mit Ausnahme einer kleinen Spitze bei etwa 45 Jahren in Vlissingen zeigen sich in keinem der längeren Zyklen ausgeprägte Wellen. Also weiter. Jetzt folgen die letzten sechs der 22 über 120 Jahre langen Datensätze:

Abbildungen 3a, 3b und 3c: Daten, Gauss-Mittel und Periodizitäts-Analyse wie oben für die letzten sechs der über 120 Jahre langen Tiden-Datensätze.

Da! Fallende relative Meeresspiegel in Abbildung 3a. Offensichtlich haben wir hier einige Tiden-Datensätze vor uns von Stellen mit einer nacheiszeitlichen Landhebung (PGR), das heißt, das Land hebt sich immer noch nach dem Verschwinden von Billionen Tonnen Eis aus der letzten Eiszeit. Folge: das Land hebt sich schneller als der Ozean…

Wie bizarr ist dass denn! Soeben bemerke ich, dass sich die Menschen um den Anstieg des Meeresspiegels als Folge der globalen Erwärmung Sorgen machen – dabei haben wir es hier mit der Hebung der Landmasse als Folge einer globalen Erwärmung zu tun… aber ich schweife ab. Das Gesamtergebnis der PGR in bestimmten Gebieten ist das relative Absinken des Meeresspiegels in vier der sechs Datensätze.

Wie auch in den anderen Datensätzen gibt es in diesen letzten sechs Datensätzen viele Zyklen unterschiedlicher Art, und wie zuvor sind sie nicht regelmäßig und passen auch nicht zueinander. Nur zwei von ihnen zeigen irgend eine Art stärkeres Signal in den längeren Zyklen. In Marseille zeigt sich so etwas mit einer Länge  von etwa 40 Jahren. Und da schau her, in Poti, dem Datensatz links oben, gibt es tatsächlich Hinweise auf einen 60-Jahres-Zyklus… nicht viel, aber von den 22 Datensätzen ist es der einzige, der auch nur einen vagen Hinweis auf ein Signal in der Größenordnung von 60 Jahren zeigt.

Und das ist alles. Das ist das Ergebnis aus allen Datensätzen, die mindestens zweimal so lang sind wie der 60-jährige Zyklus, nach dem wir suchen. Und wir haben grundsätzlich kein Anzeichen eines signifikanten 60-Jahres-Zyklus‘ entdecken können.

Nun nehme ich an, dass man noch weiter graben könnte. Allerdings sind alle verbleibenden Datensätze kürzer – und es tut mir leid, aber in einem Datensatz über 90 Jahre nach einem 60-jährigen Zyklus zu suchen entspricht nicht meiner Ansicht von Wissenschaft auf diesem Planeten. Man kann nicht behaupten, dass es einen Zyklus gibt, wenn man nur Daten der eineinhalbfachen Zykluslänge heranzieht. Das ist einfach Wunschdenken. Ich mag nicht einmal Daten über zwei Zykluslängen, sondern bevorzuge drei davon, aber in dieser Hinsicht gibt es eben nur zwei Datensätze.

Schließlich kann man fragen, ob es möglich ist, alle 22 Datensätze zu mitteln, um so den mysteriösen 66-Jahres-Zyklus zu entdecken? Vielleicht, aber wenn man sich das Durcheinander der oben gezeigten Aufzeichnungen ansieht – würde man es glauben, selbst wenn ich einen solchen Zyklus finden würde? Ich mag nicht einmal daran denken.

Aber als Wissenschaftler fühle ich mich immer durch unbeantwortete Fragen herausgefordert, also mache ich mich an die Arbeit. Ich plane, alle 22 langzeitlichen Datensätze heranzuziehen, diese linear trendbereinigen, sie zu mitteln und die drei Graphen zu zeigen (Rohdaten, Gauss-Mittel und Periodizitäts-Analyse. Das dauert nur einen Moment.

Zuerst kommt das Mittel aller trendbereinigten Aufzeichnungen, überlagert mit dem Gauss-Mittel.

Abbildung 4a: Mittel der trendbereinigten langzeitlichen Tiden-Aufzeichnungen. Die rote Linie zeigt ein full-width half-maximum [?] (FWHM) Gauss-Mittel der Daten, so wie es auch in den Abbildungen 1b, 2b und 3b der Fall war.

Ich sehe nichts, das wie eine Art 60-Jahres-Zyklus aussieht. Hier folgt die Periodizitäts-Analyse der gleichen 22 Stationsdaten:

Abbildung 4b: Periodizitäts-Analyse der Daten aus Abbildung 4a.

Wieder nichts! Eine sehr schwache Spitze zeigt sich bei etwa 45 Jahren, die wir auch in einer Einzel-Aufzeichnung gesehen haben. Das ist der einzige langzeitliche Zyklus, den ich erkennen kann.

Schlussfolgerungen? Nun, ich finde den 60-Jahres-Zyklus nicht, über den sie reden, weder in den individuellen noch in den mittleren Daten. Tatsächlich kann ich, wenn überhaupt, nur sehr geringe Anzeichen irgendwelcher langzeitlichen Zyklen erkennen. (Ich finde auch keine Zyklen um 11 Jahre, die in Einklang stehen könnten mit den Zyklen der Sonnenflecken, wie einige Leute behaupten, aber das ist eine andere Frage). Zur Erinnerung, die Autoren haben gesagt:

„Wir kommen zu dem Ergebnis, dass es eine signifikante Oszillation mit einer Periode von rund 60 Jahren bei der Mehrheit der im 20. Jahrhundert durchgeführten Tidenmessungen gibt…“

Tut mir leid, ich kann nichts dergleichen finden. Es gibt in den Einzel-Datensätzen dekadische Schwingungen von etwa 25 bis 50 mm. Ich glaube, man könnte dies „signifikante Oszillationen in der Mehrheit der Tidenmessungen“ nennen, obwohl das sehr weit hergeholt ist.

Aber die „signifikanten Oszillationen” sind nicht gleichmäßig. Man betrachte noch einmal die Gauss-Mittel in den ersten drei Gruppen von Abbildungen. Die „signifikanten Oszillationen“ zeigen sich überall. Selbst innerhalb jeder Einzelaufzeichnung variieren die Schwingungen erheblich hinsichtlich Zykluslänge und Amplitude. Also stimmen die Zyklen in jeder Einzelaufzeichnung nicht einmal mit sich selbst überein.

Auch untereinander stimmen sie nicht überein. Die Schwingungen in den verschiedenen Einzelaufzeichnungen passen weder zeitlich noch hinsichtlich der Größenordnung zusammen.

Und noch mehr auf den Punkt gebracht: keiner zeigt auch nur annähernd ein 60-Jahre-Signal. Nur einer der 22 Datensätze (Poti, oben links in den Abbildungen 3a, 3b und 3c) zeigt ein halbwegs erkennbares 60-Jahres-Signal bei der Periodizitäts-Analyse.

Also sage ich: Ich kann in den 22 langzeitlichen Tiden-Datensätzen keinerlei Anzeichen irgendeines 60-Jahres-Zyklus‘ erkennen. Man beachte, dies unterscheidet sich von der Aussage, dass ein solcher Zyklus in den Datensätzen nicht existiert. Ich sage, dass ich jeden einzelnen auseinander genommen und individuell nach bestem Wissen untersucht habe, und ich war nicht in der Lage, die behauptete „signifikante Oszillation mit einer Periode um 60 Jahre“ in irgendeiner dieser Aufzeichnungen zu finden.

Also gebe ich die Frage jetzt an Sie weiter. Ich habe alle relevanten Dinge verlinkt [siehe Original!] und gebe auch keine Empfehlung für eine bestimmte Analyse. Schauen Sie selbst, ob Sie die Existenz eines vermeintlichen 60-Jahres-Zyklus‘ in den 22 Aufzeichnungen finden.

Viel Glück bei der Suche!

[Es folgen die Hinweise und Links]

Aktualisierung: Ein aufmerksamer Kommentator schrieb dazu Folgendes:

Beim Googeln des Titels fand ich diesen frei zugänglich im Internet hier:
http://www.nc-20.com/pdf/2012GL052885.pdf.

Ich finde ihn überhaupt nicht überzeugend. Sie verwenden die kürzeren Zeitreihen in den PSMSL-Datensätzen und behaupten, 64-jährige Oszillationen zu erkennen, selbst wenn die Zeitreihen nur 110 Jahre lang sind.

Es gibt keinerlei Fourier- oder Periodizitäts-Analysen in dem Artikel.

Jan Kjetil Andersen

Vielen Dank, Jan, ich habe mir diese Studie mal angesehen. Sie verwenden jährlich gemittelte Daten … eine sehr eigenartige Auswahl. Warum sollte man jährliche Mittelwerte verwenden, wenn man bei PSMSL monatliche Datensätze findet?

In jedem Falle besteht das Problem in ihrer Analyse darin, dass man eine Sinus-Kurve an jede zeitliche Periode in den Tiden-Datensätzen anpassen kann und eine Nicht-Null-Antwort erhält. Als Ergebnis ist ihre Methode (Anpassen einer 55-jährigen Sinuswelle an die Daten) bedeutungslos ohne irgendetwas, mit dem man die Daten vergleichen kann.

Nach ein wenig Untersuchung erhält man beispielsweise das folgende Ergebnis. Ich habe ihre Methode verwendet und einen Sinus-Zyklus an die Daten angepasst. Hier folgen die Ergebnisse für Cascais, Aufzeichnung Nr. 43. In ihrer Studie geben sie die Amplitude (von Spitze zu Spitze, wie sich zeigt) der angepassten Sinuskurve mit 22,3 an. Ich erhalte eine ähnliche Antwort, was vermutlich einem etwas unterschiedlichen Optimierungs-Programm geschuldet ist.

Als Erstes möchte ich die von ihnen verwendeten Daten zeigen:

Falls irgendjemand glaubt, daraus einen „~60-Jahres-Zyklus” ableiten zu können, fürchte ich um seinen Geisteszustand…

Nicht nur das, aber nach all ihrem Geschwafel über einen „etwa 60-jährigen Zyklus“ analysieren sie in Wirklichkeit einen 55-jährigen Zyklus. Ist das nicht unlauterer Wettbewerb?

Als Nächstes folgen hier die Ergebnisse ihrer Analyse nach dem Typ einer Sinuswelle für die Perioden von 20 bis 80 Jahren. Die folgende Graphik zeigt die Amplitude von Spitze zu Spitze der angepassten Sinuskurve für jede Periode.

Und tatsächlich zeigt sich ein sinusartiger Zyklus von etwa der Größenordnung von 55 Jahren… aber das unterscheidet sich nicht von den Perioden auf beiden Seiten. Als solches ist das daher bedeutungslos.

Das wirkliche Problem ist: wenn die Zykluslänge im Vergleich zu den Daten so lang wird, ist die Antwort sehr, sehr vage… sie haben weniger als 100 Jahre mit Daten und suchen nach einem 55-jährigen Zyklus. Beklagenswert, um nicht zu sagen unmöglich.

In jedem Falle zeigt ihre Analyse, dass ihre Methode (Anpassen einer 55-jährigen Sinuskurve an die Daten) absolut unbrauchbar ist, weil uns dies nichts über die relative Stärke der Zyklen sagt.

Was natürlich erklärt, warum sie glauben, einen solchen Zyklus gefunden zu haben… ihre Methode ist einfach Unsinn. Wie sich zeigt, ist das Originaldokument noch schlimmer als ich gedacht habe.

Link: http://wattsupwiththat.com/2014/04/25/the-elusive-60-year-sea-level-cycle/

Übersetzt von Chris Frey EIKE

Update 2.5.14:

Autor Willis Eschenbach hat die Behauptung des Auffindens eines etwa 60 jährigen Zyklus nochmals mit einem schärferen Werkzeug ungtersucht: http://wattsupwiththat.com/2014/05/01/the-sea-level-cycles-get-more-elusive/

Er fand alle möglichen Zyklen, doch fast immer verschieden voneinander, nur nicht den behaupteten gemeinsamen 60 jährigen Zyklus