1

Symmetrie und Gleichgewicht

Fangen wir also am Anfang an, nämlich an der Obergrenze der Atmosphäre TOA. Die von der TOA nach unten strahlende Solarenergie für die nördliche und die südliche Hemisphäre sieht so aus:

Abbildung 1: Von der TOA nach unten strahlende Sonnenenergie, gemittelt über 24 Stunden an 7 Tagen der Woche [24/7] über die gesamte Erdoberfläche.
Allerdings kommt diese Energie nicht vollständig unten an. Vieles davon wird ins Weltall zurück reflektiert. Also nahm ich mir die CERES-Solardaten vor und subtrahierte die reflektierte Solarstrahlung. Die nach oben strahlende Solarenergie an der TOA wird reflektiert von Wolken, Aerosolen, Erde, Pflanzen, Eis und Ozeanen. Die von der TOA nach unten minus der von unten zur TOA reflektierten Solarenergie ist die zur Erwärmung des Planeten zur Verfügung stehende Energiemenge. Die Menge verfügbarer Solarenergie rund um die Welt sieht so aus:

Abbildung 2: Karte der globalen Verteilung der verfügbaren Solarenergie. Hierbei handelt es sich um verbleibende Solarenergie nach Abzug der Albedo-Reflektion des einfallenden Sonnenlichtes zurück ins Weltall.

Hatte ich erst einmal die verfügbare Energie, entfernte ich die jahreszeitlichen Variationen. Dabei handelt es sich um die Änderungen, welche sich Jahr für Jahr wiederholen. Die Eliminierung dieser wiederkehrenden Signale hinterlässt lediglich die geringen Variationen, die unregelmäßigen Änderung der reflektierten Strahlungsmenge geschuldet sind. (Es gibt auch eine sehr geringe, auf Sonnenflecken bezogene Variation der einfallenden Solarstrahlung von etwa einem Viertel eines W/m² auf der 24/7-Grundlage. Sie geht in die folgenden Berechnungen mit ein, macht aber praktisch keinen Unterschied).

Hier also ein erster Blick auf die Menge der verfügbaren Energie, welche die große planetenweite Wärmemaschine am Laufen hält, die wir Klima nennen, unterteilt für die beiden Hemisphären:

Abbildung 3: Solarenergie an der TOA und verfügbare Solarenergie nach [Entfernung der] Albedo-Reflektionen. Die Solarenergie macht etwa 340 W/m2 aus, wovon etwa 100 W/m2 wieder in den Weltraum reflektiert werden.
Dabei darf man nicht vergessen, dass die in das Klimasystem eintretende Energiemenge nach Albedo-Reflektionen eine Funktion hoch variabler Eis-, Schnee- und Wolkenverhältnisse ist … und trotzdem gibt es nur sehr geringe Variationen, sowohl räumlich als auch zeitlich. Jahr für Jahr gleichen sich Wolken, Eis und Schnee praktisch aus, auf beiden Hemisphären … warum?

Wie man oben erkennt, liegt die auf beiden Hemisphären verfügbare Solarenergie so nahe beieinander, dass ich die die Südhemisphäre repräsentierende Linie dünner zeichnen musste als die für die Nordhemisphäre, damit man beide erkennt. Um die beiden separat zu betrachten, müssen wir uns hinein zoomen, das Ergebnis davon zeigt Abbildung 4:

Abbildung 4: Verfügbare Solarenergie an der TOA ohne Albedo-Reflektionen, nördliche und südliche Hemisphäre.

Augenblicklich bemerkte ich einige Merkwürdigkeiten in dieser Graphik. Eine davon ist, dass trotz der großen Unterschiede zwischen der Nordhemisphäre (mehr Landfläche, viel Eis und Schnee in mittleren und hohen Breiten) und der Südhemisphäre (mehr Ozeanfläche, kaum Festland oder Eis/Schnee in mittleren Breiten) die Menge der mittleren einfallenden Energie innerhalb ½ W/m² liegt (NH = 240,6 W/m²; SH = 241,1 W/m², schwarze und rote gestrichelte horizontale Linie.

Zweitens, die Verhältnisse auf beiden Hemisphären sind allgemein parallel. Sie nahmen zu von 2003 bis 2004, blieben auf einem Niveau von 2013 bis 2014 und nahm dann wieder zu.

Drittens, es zeigt sich eine offensichtliche zeitliche Verschiebung zwischen den beiden Hemisphären. Zuerst dachte ich an die entgegen gesetzten Jahreszeiten … aber dann fiel mir ein, dass es in den Daten keine jährlichen Signale mehr gibt. Und ich vergewisserte mich, dass es auch kein Sechs-Monate-Signal mehr in den Daten gab. Nicht nur das, sondern auch – bis etwa 2011 lief die Südhemisphäre der Nordhemisphäre voran, aber danach lieft die Nordhemisphäre wieder voran. Warum?

Ich liebe die Freuden einer settled Wissenschaft …

In jedem Falle wollte ich jetzt die Variationen der verfügbaren Energie vergleichen mit den Variationen der Temperatur an der Erdoberfläche. Nun enthalten die CERES-Daten keine Oberflächen-Temperaturen. Allerdings gibt es darin einen Datensatz der von der Oberfläche nach oben gehenden Strahlung, welche manchmal „Strahlungstemperatur“ genannt wird, weil sie zur vierten Potenz der Temperatur variiert. Abbildung 5 zeigt die monatlichen Änderungen der von der TOA nach unten gehenden Solarstrahlung im Vergleich mit der von der Oberfläche nach oben gehenden Strahlung:

Abbildung 5: Scatterplot, Oberflächen-Strahlungstemperaturen (ausgehende langwellige Strahlung) im Vergleich mit der mittleren, an der TOA verfügbaren Solarenergie. Jeder Punkt steht für die Situation in einem 1° mal 1°-Gitternetz, welches den gesamten Planeten überspannt. Es befinden sich also 64.800 Punkte in der Graphik.

Was sagt uns dieser Scatterplot nun? Offensichtlich hängt das, was vor sich geht, von der Temperatur ab … und vielleicht weiteren Parametern. Um das verständlicher zu machen, möchte ich die gleichen Daten zeigen, aber getrennt nach Hemisphäre und getrennt zwischen Festland und Ozean. Hier zeige ich die vermutlich erhellendste Graphik bzgl. des Festlandes auf der Südhemisphäre:

Abbildung 6: Scatterplot, Strahlungstemperaturen der Südhemisphäre, nur Festland vs. mittlere verfügbare Solarenergie an der TOA

Rechts erkennt man die südlichen Gebiete von Afrika und Südamerika … und links die Antarktis. Man kann eindeutig die unterschiedlichen Reaktionen ausmachen, die auftreten bei Temperaturen im Minus-Bereich und im Plus-Bereich.

Als Nächstes kommt hier die gleiche Darstellung für die Nordhemisphäre:

Abbildung 7: Scatterplot, Strahlungstemperaturen der Nordhemisphäre, nur Festland vs. mittlere verfügbare Solarenergie an der TOA

Nirgendwo auf der Nordhemisphäre kühlt sich das Festland so stark ab wie in der Antarktis. Teilweise liegt das daran, dass sich der Südpol auf dem Festland und dort auf einem hoch gelegenen Plateau, der Nordpol dagegen in einem Meer befindet.

All dies zeigt, dass die Reaktion der Planetenoberfläche auf zunehmende Sonneneinstrahlung teilweise eine Funktion der Temperatur ist. Je niedriger die mittlere Temperatur, umso mehr reagiert das System auf zunehmende Sonneneinstrahlung.

Damit im Hinterkopf zog ich noch einmal Abbildung 5 heran und berechnete die Neigung in dem Teil der Welt, der im Mittel nicht gefroren ist. Das Ergebnis dieser Berechnung zeigt Abbildung 8:

Abbildung 8: Wie in Abbildung 5 einschließlich des Trends der nicht gefrorenen Gebiete des Globus‘.

Diese Graphik fand ich nun höchst eigenartig, und zwar aus folgendem Grund: Der Treibhauseffekt ist der Grund, dass die Oberfläche des Planeten wärmer ist als man aus der einfachen Berechnung auf der Grundlage der Menge Sonnenstrahlung, welche die Erde trifft, erwarten würde. Grund hierfür ist die Absorption der ausgehenden langwelligen Strahlung, und wenn sie strahlen, geht etwa die Hälfte der Strahlung in den Weltraum, die andere Hälfte zurück zur Erde. Als Folge davon ist die Erde wärmer als sie es anderenfalls wäre.

Falls der „Treibhauseffekt“ – eine schlechte Etikettierung – zu 100% perfekt wäre für jedes zusätzliche, in das System einfallende W/m² Sonnenlicht, würde die Oberfläche zwei W/m² abstrahlen – ein W/m² des Sonnenlichtes und ein W/m² der Einstrahlung aus der Atmosphäre. Auf der Grundlage des Verhältnisses der einfallenden Strahlung und der Strahlung von der Oberfläche können wir sagen, dass der Gesamt-Multiplikations-Faktor des perfekten Treibhauses 1,0 wäre (hier habe ich mehr dazu geschrieben).

Natürlich ist der Multiplikations-Faktor in der realen Welt geringer. Wir kennen den langzeitlichen mittleren Multiplikations-Faktor des Planeten. Wir können ihn berechnen, indem wir die mittlere ausgehende langwellige Strahlung von der Oberfläche durch die mittlere verfügbare Solarenergie dividieren. Die mittlere ausgehende langwelligen Strahlung macht 398 W/m² aus und die mittlere verfügbare Sonnenenergie 240 W/m². Daraus ergibt sich ein Treibhaus-Multiplikations-Faktor von 398/240 = 1,66.

Und da haben wir die Merkwürdigkeit: der mittlere Multiplikations-Faktor in Abbildung 8 beträgt 0,72, also deutlich weniger als 1,0. Weil dieser Multiplikator kleiner als eins ist, würde dies implizieren, dass es auf der Erde viel kälter ist als es in Wirklichkeit der Fall ist…

Wie können wir diesen offensichtlichen Widerspruch erklären? Für mich ist es ein Beweis für etwas, das ich schon viele Jahre lang gesagt habe, nämlich: Die Sensitivität der Temperatur an der Erdoberfläche auf die Menge der einfallenden Strahlung ist keine Konstante, wie es von Mainstream-Klimawissenschaftlern vertreten wird. Stattdessen ist es eine Funktion der Temperatur. Bei Temperaturen über dem Gefrierpunkt nimmt die ausgehende Strahlung um etwa drei Viertel eines W/m² zu für jedes zusätzlich einfallende W/m² der Sonnenstrahlung.

Aber wenn es ziemlich kalt ist, wie es in der Antarktis der Fall ist, reagiert die Oberflächen-Temperatur viel stärker auf Änderungen der einfallenden Strahlung. Die Situation in der Antarktis ist Folgende:

Abbildung 9: Wie in Abbildung 8, aber für die Verhältnisse in der Antarktis

Man beachte, dass diese Sensitivität nicht eine Folge des Abschmelzens von Festlands-Eis in der Antarktis und sich die damit ändernde Albedo ist. Fast die gesamte Antarktis ist das ganze Jahr über gefroren.

Wir können aber noch auf eine andere Art und Weise auf diese Situation schauen. Die Abbildungen 5 bis 9 zeigen die langfristigen Verhältnisse, im Grunde eine Steady-State-Situation, belegt durch die 68.400 Gitterzellen von 1° mal 1°, welche die Oberfläche des Planeten ausmachen. Anstatt dieses langfristige Mittel zu betrachten, können wir aber auch betrachten, wie sich die Dinge mit der Zeit ändern. Abbildung 10 zeigt die zeitliche Änderung der Temperaturanomalie über den Zeitraum der CERES-Satelliten-Beobachtungen im Vergleich zur Anomalie der mittleren Sonnenenergie an der TOA:

Abbildung 10: Monatliche langwellige Strahlung von der Oberfläche und mittlere Sonneneinstrahlung an der TOA.

Man erkennt, dass es abgesehen von Sprüngen der Oberflächenstrahlung während der warmen El Nino-Jahre von 2009/10 und 2016/17 eine enge Relation gibt mit dem verfügbaren Sonnenschein. Eine Kreuz-Korrelations-Analyse (hier nicht abgebildet) verifiziert, dass es keine zeitliche Verzögerung gibt zwischen Änderungen des solaren Eingangssignals und der Reaktion der Oberfläche.

Wir können auch die Natur der kurzfristigen Relation zwischen diesen beiden Variablen bestimmen mittels eines Scatterplots wie hier in Abbildung 11:

Abbildung 11: Scatterplot, monatliche Mittelwerte der an der TOA verfügbaren Sonnenstrahlung und der ausgehenden langwelligen Strahlung von der Oberfläche.

Wie zu erwarten war, ist der Trend in den monatlichen Änderungen der kurzfristigen Daten kleiner als das längerfristige Gitterzellen-Mittel in Abbildung 8 (0,58 vs. 0,72 W/m² Oberflächen-Änderung pro W/m²-Änderung der solaren Einstrahlung).

Schlussfolgerungen:

Alles in allem besteht die Reaktion der nicht gefrorenen Oberfläche auf zunehmende solare Einstrahlung in einer mittleren Zunahme der ausgehenden langwelligen Strahlung von etwa 0,7W/m² für jede Zunahme der verfügbaren Solarenergie um 1 W/m².

Unterhalb des Gefrierpunktes nimmt diese Reaktion mit abnehmender Temperatur zu, bis die Reaktion bei den typischen Antarktis-Temperaturen zwischen -20°C und -60°C etwa 5 W/m² für jede Zunahme der Solarenergie um 1 W/m² beträgt.

Mittels der Stefan-Boltzmann-Gleichung ergibt sich eine Änderung der Temperatur an der Oberfläche bei einer Änderung der langwelligen Ausstrahlung um 1 W/m² von etwa 0,2°C pro W/m² bei 0°C bis 0,16°C pro W/m² bei etwa 30°C.

Bei einer gegebenen Änderung der einfallenden Solarstrahlung von 0,7 W/m² würde dies zu einer Temperaturänderung im nicht gefrorenen Teil des Planeten von 0,11°C pro zusätzlichem W/m² bei 30°C und einer Erwärmung von 0,4°C bis 0,6°C pro zusätzlichem W/m² bei 0°C führen.

Die geschätzte Rückstrahlung bei einer Verdoppelung des CO2-Gehaltes beträgt 3,7 W/m². Dies würde zu einer Erwärmung von 0,4°C bis 0,6°C führen, falls die Sonneneinstrahlung um 3,7 W/m² zunehmen würde, abhängig von der Temperatur an der Oberfläche.

Und schließlich als Randbemerkung: die mittlere Änderung der von der TOA nach unten gehenden totalen Sonneneinstrahlung TSI infolge einer Änderung der Sonnenflecken-Aktivität ist von einer Größenordnung von 0,26 W/m² von Spitze zu Spitze. Allerdings stehen nur etwa 240/340 = 70% davon zur Verfügung, der Rest wird zurück ins Weltall reflektiert. Setzt man die Relation von 0,72 W/m² Änderung an der Oberfläche pro jedem zusätzlichen W/m² der an der TOA verfügbaren Sonnenenergie an sowie eine maximale Temperaturänderung pro Watt von 0,16°C pro W/m², würde dies eine maximale Auswirkung von 0,26 X 240/340 X 0,72 X 0,16 = 0,02°C aus jener Änderung der TOA-Strahlung ausmachen…

——————————————

DATA: This is all done with the CERES satellite TOA and Surface datasets, which are available here under the heading:

Energy Balanced and Filled (EBAF)

Climate Data Record (CDR) of monthly TOA fluxes and consistent computed surface fluxes and clouds suitable for analysis of variability at the intra-seasonal, inter-annual, and longer time scales.

Link: https://wattsupwiththat.com/2018/05/05/symmetry-and-balance/

Übersetzt von Chris Frey EIKE




Fangen wir mit dem Stefan-Boltzmann-Gesetz noch einmal ganz von vorne an

Das Gleichheitszeichen im S-B Gesetz stellt nun aber die physikalische Bedingung „gleichzeitig in einem thermischen Gleichgewicht“ dar und keineswegs eine mathematische Rechenanweisung, Zitat aus dem Handbook of Chemistry and Physics [1], 55thEdition 1974-1975, CRC Press 1974, Seite F-110:

Stefan-Boltzmann law of radiation – The energy radiated in unit time by a black body is given by, E=K(T4-T04), where T is the absolute temperature of the body, T0the absolute temperature of the surroundings, and K is a constant.

Das Stefan-Boltzmann-Gesetz bezieht sich also auf die Betrachtung eines einzelnen Schwarzen Körpers mit einer definierten Temperatur, aus der sich unmittelbar zum Betrachtungszeitpunkt dessen aktuelle Strahlungsleistung gegenüber der Umgebung ableitet. Das Stefan-Boltzmann-Gesetz ist also keine mathematische Rechenanweisung zur Umrechnung von räumlich und zeitlich beliebig ermittelter durchschnittlicher Temperaturwerte in durchschnittliche Strahlungswerte oder umgekehrt. Vielmehr verbindet es ausschließlich gleichzeitige Individualwerte von Strahlung und Temperatur eines ganz konkreten einheitlichen Schwarzen Körpers. Das Stefan-Boltzmann-Gesetz bildet also eine unmittelbar zeitgleiche physikalische Beziehung ab und darf mithin keinesfalls zur mathematischen Umrechnung von irgendwelchen zeitlich und/oder räumlich zusammengefassten Durchschnittswerten benutzt werden – wie das leider trotzdem immer wieder geschieht.

Wenn wir auf unserer Erde über Temperaturentwicklungen reden, dann beziehen wir uns aber gemeinhin genau auf solche Durchschnittswerte. Für die Zeit vor den ersten Thermometermessungen stehen uns nämlich nur sogenannte Temperaturproxys zur Verfügung, um die Paläotemperaturen unserer Erde für frühere Zeiträume abzuschätzen. Unter dem Begriff Temperaturproxy werden natürliche Abfolgen zusammengefasst, die über ihren jahreszyklischen Aufbau Informationen über diejenige Temperatur enthalten, bei der sie entstanden sind. Das bekannteste Beispiel sind Baumringe, es können aber auch Tropfsteine, Korallen, Sedimentabfolgen oder Eisbohrkerne sein.  All diesen Temperaturproxys ist gemeinsam, dass sich daraus meist nur durchschnittliche Jahreswerte ableiten lassen, die üblicherweise auch noch eine jahreszeitlich oder regional begrenzte Aussagekraft besitzen. Und es gibt Klimaphänomene, die sich dort ebenfalls abbilden, mit der Temperatur aber gar nichts zu tun haben und daher zu fehlerhaften Aussagen führen können, beispielsweise wirkt Trockenheit auf Baumringe ähnlich wie niedrige Temperatur.

Dem Paläoklima unserer Erde können wir uns also bestenfalls über Durchschnittswerte der Temperatur nähern, weil es für die geologische Vergangenheit eben nichts anderes gibt. Daher erhält auch die ominöse „gemessene“ globale Durchschnittstemperatur ein gewisses Gewicht. Diese Durchschnittstemperatur wird zwar an vielen Stellen erwähnt, aber wenn man dann versucht in die Tiefe zu gehen, werden üblicherweise irgendwelche Scheinbezüge hergestellt. Selbst wenn dort konkret zugrunde liegende Datensätze genannt werden, fehlt der eindeutige Hinweis auf das statistische „Kochrezept“, das auf diesen Datensatz angewendet worden sein soll, um zu dem genannten Ergebnis zu kommen. Die „gemessene“ globale Durchschnittstemperatur erweist sich damit als höchst spekulativ und wissenschaftlich nicht nachvollziehbar. Der Deutsche Wetterdienstbeschreibt die globale Durchschnittstemperatur folgendermaßen, Zitat:

Unter der globalen Durchschnittstemperatur versteht man die über die gesamte Erdoberfläche (Land/Wasser) gemittelte Temperatur in einem bestimmten Zeitraum. Da klimatologische Messungen über längere Zeiträume nur punktuell vorliegen, lassen sich Zeitreihen der globalen Mitteltemperatur nur annähernd bestimmen…

Die Angabe einer globalen Durchschnittstemperatur ist allerdings mit noch größeren Unsicherheiten behaftet als die Angabe von Abweichungen, da eigentlich kleinräumige Besonderheiten berücksichtigt werden müssten, während die Abweichungen räumlich einheitlicher sind. Daher werden bei den Zeitreihen meist nur die Abweichungen und nicht deren Absolutwerte angegeben.“

Diese Beschreibung geht nun also noch einen Schritt weiter, indem sie den Absolutbetrag der „gemessenen“ globalen Durchschnittstemperatur entwertet und irgendwelchen rechnerischen Differenzen eine geringere Unsicherheit zumisst. Das allerdings ist ganz große Zauberei, denn jede berechnete Differenz zu einem ungenauen Durchschnittswert ist natürlich vollautomatisch mit dessen Ungenauigkeit behaftet. Selbst bei der Beschränkung auf regionale Durchschnittswerte würde  bei kleinen Differenzen die relative Unsicherheit der Aussage ansteigen, beispielsweise ergibt sich allein bei einer Ungenauigkeit eines absoluten Messwertes von +/-0,5°C bereits eine Unsicherheit von +/-50% für einen auf dessen Basis ermittelten Differenzwert von 1,0°C.

Aber wie dem auch sei, es könnte tatsächlich eine gemessene globale Durchschnittstemperatur geben, wenn es ein ausreichendes globales Netz von ortsfesten primären Meßstationen geben würde, wenn von allen diesen Stationen eine ausreichend lange Zeitreihe vorliegen würde, wenn es ein wissenschaftlich abgestimmtes „Kochrezept“ für die statistische Berechnung gäbe, und wenn… wenn… wenn… Die Problematik solcher Temperaturmessreihen wird hierausführlich untersucht.

Und jetzt nehmen wir einfach einmal an, es gäbe eine solche gemessene globale Durchschnittstemperatur wirklich. Und daher lassen wir hier einfach einmal den vorgeblichen Wert von 14,8 °C für die gemessene globale Durchschnittstemperatur (NST) stehen, denn dieser Zahlenwert selbst hat auf die nachfolgende Betrachtung keinerlei Einfluss.

Schauen wir uns jetzt einmal an, was wir tatsächlich über den Klimamotor unserer Erde wissen:

  • Die Einstrahlung der Sonne erfolgt mit durchschnittlich 940 W/m² temperaturwirksamer Strahlung auf einer Kreisfläche mit dem Erdradius und beleuchtet die Tagseite der Erde.
  • Die Abstrahlung der Erdeerfolgt mit durchschnittlich 235 W/m² über ihre Gesamtfläche.
  • Die „gemessene Durchschnittstemperatur der Erde“(NST) soll im langjährigen Mittel 14,8 °C betragen.
  • Das Stefan-Boltzmann-Gesetzverknüpft Strahlung und Temperatur eines Schwarzen Strahlers im thermischen Gleichgewicht:
  • P / A = s*T4    mit  der Stefan-Boltzmann-Konstante  s= 5,670 10 -8[W m-2K-4]
  • und P = Strahlung [W], A = Fläche [m²], T = Temperatur [°K]

Anmerkung:Die hier dargestellte S-B Fassung repräsentiert den vereinfachten Fall (T0=0°K) des unter [1] beschriebenen vollständigen S-B Gesetzes, das in seiner ausführlichen Form auch als S-B Umgebungsgleichung bezeichnet wird.             

Und was fangen wir jetzt mit diesen Aussagen an?

Wir können die oben genannten Strahlungs-/ Temperaturwerte direkt miteinander in Beziehung setzen oder versuchen, ihnen mit dem Stefan-Boltzmann-Gesetz ihre jeweiligen S-B Äquivalente zuweisen:

  1. 940 W/m² @ Kreisfläche =  235 W/m² @ Kugelfläche      Globale Energiebilanz
  2. 235 W/m²~  -18 °C                          vorgeblich „natürliche“ S-B Temperatur der Erde (*)
  3. (940/2=)470 W/m² ~ +28,6 °C     rechnerische S-B Temperatur der Tagseite (*)
  4. 14,8 °C  ~  390 W/m²                       S-B Strahlungsäquivalent der Durchschnittstemperatur (*) 

Ergebnis: Alle mit (*) gekennzeichneten Aussagen verletzen das Stefan-Boltzmann-Gesetz!
Das S-B Gesetz beschreibt nämlich eine physikalisch eindeutige Verknüpfung von gleichzeitigen Werten von Strahlung und Temperatur für einen konkreten Schwarzen Körper. Wegen der diesem S-B Gesetz zugrunde liegenden T4-Beziehung lässt es keine mathematische Umrechnung von irgendwelchen durchschnittlichen Strahlungs- oder Temperaturwerten auf ein entsprechendes S-B Durchschnittsäquivalent zu. Daher muss beispielsweise eine Durchschnittstemperatur aus der Summe der beteiligten individuellen Ortstemperaturen ermittelt werden und nicht etwa aus dem Durchschnitt der individuellen örtlichen Strahlungswerte.

 (1) RICHTIG:Das wäre, unter der Voraussetzung einer langjährig konstanten gemessenen Durchschnittstemperatur, die durchschnittliche Energiebilanz unserer Erde. Der tatsächliche Ausgleich zwischen Ein- und Abstrahlung findet dabei über den gespeicherten Wärmeinhalt von Atmosphäre und Ozeanen statt. Dadurch ergibt sich bei der Abstrahlung eine permanente Zeitverzögerung über den Tages- und Jahresverlauf. Die aktuelle Sonneneinstrahlung wird also durch die Abstrahlung von Wärmeinhalten ausgeglichen, die teilweise schon längere Zeit von den globalen Zirkulationen verfrachtet worden waren. Aber insgesamt ist diese langjährige durchschnittliche Energiebilanz korrekt, solange die gemessene Durchschnittstemperatur tatsächlich konstant bleibt.

(2) FALSCH:Diese Berechnung ist falsch, weil sie die Gleichgewichtsbedingung des S-B Gesetzes missachtet und über eine Durchschnittsbildung mit der Nachseite der Erde die temperaturwirksame Sonneneinstrahlung willkürlich halbiert. Es wird üblicherweise versucht, diesen Ansatz dadurch zu retten, dass man dessen Differenz zur gemessenen Durchschnittstemperatur durch einen „natürlichen“ atmosphärischen Treibhauseffekt von 155 W/m² zu erklären sucht, für den es aber keinerlei wissenschaftlichen Nachweis gibt.

(3) FALSCH:Eine hemisphärische Betrachtung der globalen Temperaturgenese wäre eigentlich der richtige Ansatz. In dieser stark vereinfachten Form mit einer hemisphärischen Durchschnittsbildung widerspricht er jedoch dem Stefan-Boltzmann-Gesetz. Wenn man’s aber korrekt zu Ende denkt, landet man schließlich bei meinem hemisphärischen S-B Ansatz ohne Treibhauseffekt…

(4) FALSCH:Es gibt gar keine mittlere globale Abstrahlung von 390 W/m². Nur eine individuell gemessene Ortstemperatur von 14,8 °C hätte nach dem S-B Gesetz ein Strahlungsäquivalent von 390 W/m². Da sich die NST von 14,8 °C  aber aus der statistischen Bearbeitung von individuell gemessenen Ortstemperaturen zusammensetzt, müsste hier eine ebensolche statistische Mittelung über die jeweiligen örtlichen S-B Strahlungsäquivalente erfolgen. In der nachstehende Abbildung wird die globale Durchschnittstemperatur als ein Mittel aus +14,8°C +/- 35 °C betrachtet. Dabei stellen wir fest, dass sich die zugehörigen S-B Strahlungsäquivalente nicht proportional zu den Temperaturänderungen verhalten:

Wie bei einem T4-Gesetz zu erwarten ist, erhöht sich das individuelle S-B Strahlungsäquivalent mit ansteigenden Temperaturen überproportional. Wir erhalten für die ausgewählten Temperaturen damit folgende S-B Strahlungsäquivalente:

Eine beliebige symmetrische Temperaturverteilung um einen globalen Mittelwert von 14,8°C kann also niemals ein S-B Strahlungsäquivalent von 390 W/m² ergeben. Daher kann aus einem solchen falsch berechneten S-B Strahlungsäquivalent übrigens auch kein „natürlicher“ atmosphärischer Treibhauseffekt von 155 W/m² abgeleitet werden. Die hier vorgestellte einfache lineare Abschätzung aus 3 Einzelwerten liefert vielmehr rechnerisch einen „natürlichen“ Treibhauseffekt von

(413W/m²-235W/m²=) 178 W/m² anstelle der üblicherweise behaupteten 155 W/m²

und führt schon damit zu einem Widerspruch. Der „natürliche“ atmosphärische Treibhauseffekt resultiert also aus einer mangelhaften Kenntnis des Stefan-Boltzmann-Gesetzes, Zitat aus [1] zum ganz langsamen Mitdenken: „…energy radiated in unit time by a black bodywhere T is the absolute temperature of the body“. Das Stefan-Boltzmann-Gesetz ist demnach nur unmittelbar „just in time“ gültig, es dürfen damit also weder zeitlich noch räumlich zusammenfassende Durchschnittswerte verknüpft werden.
ABER:Die NST selbst stellt eine langjährige globale Durchschnittstemperatur dar, bei der im Idealfall alle Energieflüsse (IN and OUT) über den Tag- und Nachtverlauf sowie die Breitenverteilung und der Jahresverlauf aller benutzten Meßstationen bereits korrekt herausgemittelt worden sein sollten. Dieser quasi-konstante NST-Wert ist damit um die langjährige Ein-und Abstrahlung bereinigt worden und hat überhaupt nichts mehr mit der globalen Strahlungsbilanz zu tun.Ihr tatsächlicher Wert spielt bei dieser Betrachtung also keine Rolle, und sein S-B Strahlungsäquivalent ist irrelevant.

Für den Fall, dass wir alle wetterabhängigen sowie tages- und jahreszeitlich variablen Prozesse auf unserer Erde in einer langjährigen Betrachtung als durchschnittlich ausgeglichen voraussetzen können, wie das bei einer konstanten NST ja der Fall sein sollte, lässt sich aus der richtigen Beziehung (1) und dem „ABER“-Kommentar zu (4) schließlich eine konkrete Aussage herleiten.

Die Gleichung für die globale Energiebilanz unserer Erde heißt damit:

(IN =940 W/m² *pR2)  =  (OUT = 235 W/m² *4 pR2)  @  NST (= 14,8 °C)

Wir haben hier auf unserer Erde also eine ausgeglichene globale Strahlungsbilanz bei einer konstanten global gemessenen Durchschnittstemperatur, wie immer diese auch ermittelt worden sein mag oder vielleicht erst viel später einmal korrekt ermittelt werden wird. Diese global gemessene Durchschnittstemperatur repräsentiert damit den durchschnittlichen globalen Netto-Wärmeinhalt von Atmosphäre und Ozeanen auf unserer Erde, um den herum permanent die hemisphärische Einstrahlung und die globale Abstrahlung erfolgen.




Was sind „Reisewarnungen“ des Auswärtigen Amtes wert?

Wir haben das im Orient erlebt. Da noch nicht alle Orientalen hier sind, muss der Zustand dort als „gefährlich“ hingestellt werden.

Ein anderes Beispiel ist Fukushima. Es nun mal ein Ziel der Merkel-Regierung, bei den dummen Deutschen Angst vor Genen, Kohlendioxid und Atomen zu erzeugen.

Dosisleistungen wie im Flugzeug, nämlich 3 Mikrosievert pro Stunde, werden nur noch an einigen Punkten überschritten. Dort würde man sich nicht allzu lange aufhalten. Im Sperrgebiet Tschernobyl gibt es aktivere Stellen. Ich war mehrmals dort und habe immer eine geringere Gesamtdosis erhalten als auf dem sehr viel kürzeren Flug nach Kiew.

Vor dem ganzen Gebiet von Fukushima zu warnen, kann nur den Zweck haben, unbegründet Angst zu erzeugen.

 




„Staub des Todes“

„Staub des Todes“

Das ist ein beliebtes Prinzip in der Demagogie, denn der flüchtige Leser sieht in der Überschrift Tod und Verderben nach dem Motto „Bad News are good News“, im Text wird das ganze wieder zurückgenommen. Im vorliegenden Fall wird durch das Wort Uran die Botschaft verkündet: es geht um die Festigung der Strahlenangst, die ja letztlich die Triebkraft zu Deutschlands Ausstieg aus der besten Stromversorgung bildet.

 

Was ist mit „Staub des Todes“ gemeint?

Geschosse haben eine hohe Durchschlagskraft, wenn sie schwer sind und auf kleiner Fläche wirken. Daher sind in der Munition Elemente mit hohem spezifischem Gewicht sehr geeignet, also Blei. Einige Elemente haben aber noch etwa das doppelte spezifische Gewicht von Blei, das sind Wolfram, Rhenium, Osmium Iridium, Platin, Gold und auch Uran. Von diesen Stoffen ist gerade Uran verfügbar und zwar die abgereicherte Komponente aus den Anreicherungsanlagen, die nur noch eine Restmenge spaltbares U-235 enthält. Dieses ist zudem billig, daher hat man es in Munition eingebaut und diese in Kriegen auch benutzt. Es wird gesagt, daß Urangeschosse sich beim Aufprall pulverisieren und dieses Pulver in der Luft dann den tödlichen Staub ergibt. Der Bericht in DIE WELT sagt im Text klar und deutlich, daß bei der Verwendung uranhaltiger Munition in Kriegsgebieten noch nie eine Belastung der Luft oder gesundheitlicher Schaden bei den Soldaten festgestellt wurde.

 

Deutsche Fachleute haben Spurenanalytik des Urans betrieben und dazu berichtet [1].

Dieser exzellente Bericht der Fachleute vom GSF-Forschungszentrum (heute Helmholtz-Gesellschaft) enthält alle Meßdaten und gibt einen umfassenden Überblick zum Problem:

Uran ist als seltenes Element überall in der Umwelt vorhanden, in der Erdkruste kommt es mit einem mittleren Masseanteil von 3 bis 4 * 10-4% vor. Das bedeutet, in einem normalen Grundstück von 500 m² Fläche befinden sich in der obersten ein Meter dicken Bodenschicht 3 bis 4 kg Uran. Das allgegenwärtige Uran wird zu einem kleinen Anteil von Pflanzen aufgenommen, und wir finden es in unserem Speisen und Getränken. Im Mittel nimmt ein Mensch so täglich 1 Mikro-Gramm Uran in seinen Körper auf, und scheidet es auch wieder aus. Die Konzentrationen von Spurenelementen schwanken sehr stark in der Natur, daher können die hier genannten Werte für Uran im Einzelnen durchaus eine Größenordnung kleiner wie auch größer sein. Die Messungen in [1] belegen das.

 

Unsere Welt ist voller Radioaktivität.

Überall befinden sich radioaktive Nuklide. In der Luft ist es hauptsächlich das Edelgas Radon mit 20 Becquerel/m³ Luft im Freien und 50 Becquerel/m³ Luft in Innenräumen. Im Stollen des Heilbades Bad Kreuznach sind es 40 000 Becquerel/m³ im Stollen. Die alpha-Strahlung des Radons sorgt für die Heilwirkung.

Im Erdboden ist am meisten Radioaktivität enthalten, es sind ca. >2000 Becquerel/kg Erde.

Man kann berechnen, wie viel Radioaktivität der Mensch in einem Jahr von den wichtigsten Nukliden in seinen Körper aufnimmt:

durch Uran als Spurenelement in der Nahrung                     10 Becquerel

durch lebensnotwendiges Kalium-40 mit Nahrung    30 000 Becquerel

durch Kohlenstoff-14 mit Nahrung                             25 000 Becquerel

durch das Edelgas Radon in der Atemluft                 250 000 Becquerel

durch Radon-Zerfallsprodukte in der Atemluft                       350 000 Becquerel

Die Zahlen zeigen, daß die Strahlung des Urans neben den anderen Stoffen getrost vergessen werden kann.

In einem normalen Grundstück von 500 m² Fläche befinden sich in der oberen einen Meter dicken Bodenschicht 3 bis 4 kg Uran. Wenn man die Schwankungsbreite der Urankonzentration in der Erdkruste berücksichtigt, kann man auch von 0,3 kg bis 30 kg sprechen. Durch ein Urangeschoss auf dem Grundstück wird die gesamte Menge um etliche Gramm erhöht. Das ist angesichts des vorhandenen gesamten Urans meist im Bereich von kg belanglos.

Geschosse sind immer für Menschen extrem gefährlich, denn sie können davon getroffen werden. Das Material der Geschosse – Blei oder Uran – ist fast nebensächlich. Der „Staub des Todes“ ist eine konstruierte hypothetische Gefahr, die aus demagogischen Gründen erfunden wurde, um die Strahlenangst als treibende Kraft zum Ausstieg aus der Kernkraft zu erhalten.

In der Strahlenschutzverordnung [2] werden Grenzen die erlaubten Grenzwerte für die zulässige jährliche Aktivitätszufuhr durch Verspeisen angegeben, das sind 25gfür lösliche Uranverbindungen und 250gfür unlösliche Uranverbindungen (z.B. der Kernbrennstoff UO2). — Niemand wird jemals so viel Uran verspeisen, und Staub in der Luft im Bereich von Millionstel Gramm ist bedeutungslos.

 

Auch abgereichertes Uran ist ein Wertstoff

Im abgereicherten Uran ist nur noch eine kleine Restmenge von ca. 0,2% spaltbares Uran-235 enthalten, der Rest ist nicht spaltbares Uran-238. Häufig wird daher das abgereicherte Uran als Abfall bezeichnet. Diese Sichtweise ist falsch. Im Leichtwasserreaktor – wie er in Deutschland betrieben wird – wird aus dem U-238 durch Neutroneneinfang Plutonium erbrütet, und das ist auch spaltbar. Daher ist auch der Leichtwasserreaktor zu einem geringen Anteil ein Brüter, etwa ein Drittel der Energie wird im normalen Betrieb aus der Spaltung von Plutonium gewonnen.

Beim Schnellen Brüter und mit vollständigem Brennstoffkreislauf kann auch das abgereicherte Uran nach Überführung in Plutonium gespalten werden und die Reichweite des Urans auf über das 100-fache erhöht werden. In Deutschland sollte diese Technik entwickelt und benutzt werden, allerdings wurde das Programm von der Politik gestoppt (Kalkar, Wackersdorf).

Heute ist Rußland führend beim Brüterprogramm (Stichwort: BN-600 und BN-800), andere Staaten wie China und Indien folgen. In Rußland wird abgereichertes Uran aus westlichen Anreicherungsanlagen (z.B. in Gronau) gehortet und gelagert, bis es in ferner Zukunft im Brüter zum Einsatz kommen kann. Das ist eine kluge Wirtschaftspolitik, weil sie sehr weit voraus denkt.

 

Es ist klug, das abgereicherte Uran aufzuheben, und nicht durch Geschosse wieder in der Umwelt zu verteilen, aus der es ursprünglich durch Bergbau mit viel Aufwand entnommen worden ist.

 

Durch die direkte Endlagerung tief unter der Erdoberfläche von abgebrannten Brennelementen ohne Wiederaufarbeitung – wie es in Deutschland durch Gesetz festgelegt ist – wird in der Tiefe ein Rohstofflager für Energie geschaffen, das in ferner Zukunft wieder an die Oberfläche geholt werden muß, denn diese Energie ist zum Leben dringend notwendig. Der in Deutschland von der Politik favorisierte „Der Übergang vom atomaren und fossilen Zeitalter ins Solarzeitalter“ hat keine Aussicht, jemals gelingen zu können.

 

Literatur

[1] P. Roth, E. Werner, H.G. Paretzke; “Untersuchungen zur Uranausscheidung im Urin“, Deutsches Heereskontingent KFOR, Januar 2001, GSF-Bericht 3/01

[2] Strahlenschutzverordnung1989, wird demnächst durch ein Strahlenschutzgesetzabgelöst, mit vermutlich strengeren Bestimmungen

 




Gibt es Strahlengefahr durch Röntgen der Hand?

Das Gesetz verlangt, Menschen nicht unnötig ionisierenden Strahlen auszusetzen. Jede unnötige Strahlenexposition ist auch unterhalb der gesetzlichen Grenzen zu vermeiden (§ 28 der Strahlenschutzverordnung). Beim Röntgen wird die Hand der Strahlung ausgesetzt. Gibt es dadurch ein Risiko für die Gesundheit des jungen Menschen?

Bei dieser Maßnahme wird die Hand mit einer Strahlendosis von ca. 0,1 Milli-Sievert beaufschlagt — ist das nun viel oder ist das wenig? Hier drei Vergleiche, um diese Strahlendosis einordnen zu können:

  1. Bei einem Flug von Deutschland in die westlichen Regionen der USA oder nach Japan über die Polarregion hinweg werden die Menschen im Flugzeug ebenfalls einer Strahlendosis von 0,1mSv ausgesetzt, und zwar mit dem GANZEN Körper, und nicht nur mit einem Teilbereich wie z.B. der Hand [1].
    Jedermann darf sich nach Belieben ins Flugzeug setzen, niemals wird dabei von einem Risiko für die körperliche Unversehrtheit durch Strahlung gesprochen!!!
  2. Bei einer Radonkur bekommt der Patient eine Strahlendosis im Bereich von 1 bis 10 Milli-Sievert, also 10 bis 100-fach mehr als bei der Handdurchleuchtung. Diese Dosis bewirkt die gewünschte Heilung. Allein in Deutschland gibt es 8 Radonheilbäder, und in der EU profitieren pro Jahr etwa 80 000 Patienten von der nützlichen Wirkung der Strahlung durch die Radioaktivität des Radon.
    Bei der Radonkur wirkt die Strahlung ebenfalls nicht nur lokal wie beim Röntgen, sondern je nach Art der Kur auf den GANZEN Körper. Das ist kein RISIKO, sondern das ist nützlich für die Patienten. Also kann der 10-te Teil dieser Strahlung kein Risiko darstellen!!!
  3. Nach einer Krebs-OP erfolgt in der Regel eine Chemotherapie und Strahlentherapie. Bei der Strahlentherapie werden im allgemeinen über 6 Wochen hinweg täglich Organdosen von 2 Sievert gegeben. In der Summe sind es meist rund 60 Sievert, also das 600 000-fache einer Handdurchleuchtung. Das Krebsgewebe im Inneren des Körpers wird bekämpft, dabei wird auch das umliegende gesunde Gewebe getroffen. Dazu heißt es im Deutschen Ärzteblatt: „Gesundes Gewebe kann subletale Schäden in den Bestrahlungspausen weitgehend reparieren“ [2].
    Jedes Jahr werden in Deutschland 200 000 Krebspatienten oder mehr auf diese Weise behandelt, das ist ein Teil der heilenden Therapie. Der 600 000-ste Teil davon kann kein Risiko sein!!!

Aus den hier genannten Angaben zur Dosis in den drei Punkten geht unzweideutig hervor, daß das Röntgen der Handwurzelknochen niemals eine Gefahr darstellen kann. Damit kann die Diskussion um die Strahlengefahr beim Röntgen abgeschlossen werden, denn es gibt KEINE Gefahr. Es ist aber noch auf die nützliche Strahlenwirkung wie z.B. bei den Radonkuren einzugehen.

 

Strahlenschützer contra Strahlenbiologen

Die Strahlenbiologen wissen seit langen Zeiten, daß ionisierende Strahlung im Bereich niedriger Dosis bei niedriger Dosisleistung die körperlichen Abwehrkräfte trainiert, und damit für die Gesundheit von Lebewesen nützlich ist. Die oben genannten Radonkuren sind ein starkes Argument dafür. Durch einseitige Berichterstattung in den öffentlichen Medien wurde hingegen die „StrahlenGEFAHR“ in den letzten etwa 80 Jahren weltweit in die Gehirne der Menschen eingebrannt. In Deutschland haben sich die Professoren Klaus Becker (†) und Ludwig E. Feinendegen immer wieder in Fachbeiträgen zu Wort gemeldet, ihre Berichte wurden in den Fachmedien atw (= Atomwirtschaft, die Fachzeitschrift der Kerntechnische Gesellschaft) und SSP (= StrahlenschutzPRAXIS, Fachzeitschrift vom Fachverband Strahlenschutz Deutschland – Schweiz) abgedruckt, mit NULL Resonanz in den Printmedien und elektronischen Medien.

Öffentliche Aufmerksamkeit erhielten dagegen oft die Strahlenschützer, zum Beispiel Professor Edmund Lengfelder vom Umweltinstitut München. Strahlenschützer werden dafür bezahlt, vor Strahlen zu schützen. Daher müssen Strahlen doch gefährlich sein??? Diese Schlußfolgerung ist zwar naheliegend, aber dennoch falsch, denn es muß immer die Strahlendosis dazu benannt werden (Paracelsus). Eine öffentliche Diskussion zwischen Strahlenschützern und Strahlenbiologen fand nie statt. Diese ist jedoch erforderlich, um RICHTIG und FALSCH unterscheiden zu können. Natürlich gibt es seltene Ausnahmen, zu nennen sind zum Beispiel zwei Berichte vom SPIEGEL [3].

 

Dosis und Dosisleistung ist zu beachten

Es ist wie beim Alkohol, eine hohe Dosis in kurzer Zeit ist schädlich, z.B. eine Flasche Schnaps – das ist eine letale Dosis – schnell hinunter gekippt. Täglich ein Mon Chéri über ein ganzes Jahr bedeutet auch die Inkorporation einer „letalen Dosis“, sie wirkt aber nicht schädlich, weil sie über die Zeit verteilt ist. Es gibt andererseits auch gesundheitlich positive Effekte durch Alkohol, hin und wieder ein Gläschen Rotwein oder ein Glas Bier ist der Gesundheit förderlich. Es gibt bei Alkohol in ähnlicher Weise wie bei Strahlung Bereiche, wo Gefahr zu befürchten ist oder wo Nutzen zu erwarten ist.

Aus den Arbeiten von Strahlenbiologen [4] wurde eine Übersicht zum Strahlenpegel zusammengestellt:

Darstellung der Strahlenpegel mit den Bereichen:

  1. Normale Umwelt ohne erkennbare Wirkung
  2. Nützliche Wirkung bei 1000-fach höherem Strahlenpegel, Empfehlung von Doss und Luckey (blaue Pfeile) und Sanders [5] 40 bis 800 Mikro-Sievert pro Stunde
  3. Gefahr bei 100-Millionen-fach höheren Strahlenpegel als normal

 

Die nützliche Strahlenwirkung wird nur dann erreicht, wenn sich die Menschen genügend lange an den Orten mit höherem Pegel aufhalten. Das ist im Flugzeug oder an den wenigen kleinen Stellen mit erhöhter Bodenstrahlung wie in Ramsar, Guarapari, Kerala nicht der Fall. Allein beim Kobalt-60-Ereignis in Taiwan [6] und im Weltraum war es durch langen Aufenthalt der Fall [7], dort wurden deutliche bzw. gigantische Effekte beobachtet: In Taiwan wurde das Krebsrisiko fast bis auf NULL reduziert.

 

Was ist zu tun?

Es ist dringend erforderlich, die Erkenntnisse der Strahlenbiologen zur Wirkung ionisierender Strahlung zum Wohle der Menschen zu beachten. Bei einem Strahlenpegel, der beim 1000-fachen des natürlichen Pegels liegt, sind erstaunliche positive Gesundheitseffekte zu erwarten. Den Strahlenbiologen ist dieses seit langem bekannt. In der Natur wird den Menschen nirgends ein 1000-fach höherer Strahlenpegel geboten, nur mit Hilfe der Technik gibt es Möglichkeiten, dieses zu erreichen. In Taiwan ist das in glücklicher Weise geschehen. Die Strahlenschutzgesetze verbieten den Menschen jede Zusatzdosis und damit wird ihnen das Recht auf eine beste Gesundheit (Art. 2 GG) verweigert. Luckey sagte das bereits vor etwa 30 Jahren, es ist aber nichts passiert. Es ist eine Änderung der Strahlenschutzprinzipien erforderlich, und das ist auch genau das, was 2015 in einer Petition von Carol S. Marcus, Mark L. Miller und Mohan Doss an die NRC (Nuclear Regulatory Commission in USA) vorgeschlagen wurde [7].

 

Beim Betrieb von Kernkraftwerken ist es oberstes Gebot, jede Einwirkung von Strahlung auf Menschen zu vermeiden. Dadurch wird den Menschen eine nützliche Zusatzdosis verweigert. Die positiven Gesundheitseffekte wurden in der Anfangszeit bis ca. 1970 auch beobachtet, man nannte es den „Healthy Workers Effect“. Die „Todeszonen“ von Tschernobyl und Fukushima sind Zonen einer besseren Gesundheit, wenn man es den Menschen erlauben würde, dort zu leben.

Gesetze können falsch sein, denn sie werden von Menschen gemacht und Menschen können irren. Das ist bei der Strahlenschutzgesetzgebung ganz sicher der Fall, und viele Fachleute der Strahlenbiologie protestieren gegen diese Gesetze [4]. Die Strahlenschützer sehen das anders, denn ihnen geben falsche Gesetze die Lebensgrundlage. Unsere Medien hätten die Macht zu einer Veränderung, aber bisher haben sie diese Macht nicht genutzt, das ist bedauerlich.

 

Literatur

[1] Flug von Europa nach Japan und zurück: Strahlendosis = 0,14 Milli-Sievert, Prof. Wernli, PSI, Schweiz

[2] Deutschen Ärzteblatt Heft 17, 26.4.2013 auf Seite 720

[3] „Legenden vom bösen Atom“, SPIEGEL, 47/2007 und „Schön verstrahlt”, SPIEGEL, 17/2016

[4] Feinendegen, Becker, Calabrese, Cuttler, Luckey, Cohen, Doss, Tubiana, Muckerheide, Allison, Jaworowski, Sanders, Marcus, Miller, Winsor, Chen, und viele andere

[5] Ch. L. Sanders „Radiation Hormesis and the Linear-No-Threshold Assumption“, Springer-Verlag 2010

[6] https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2477708/

[7] DIE WELT vom 2.2.2017 auf Seite 1, „Nasa entdeckt Jungbrunnen-Effekt bei Weltraumreisen“

[9] http://www.regulations.gov, dort suchen nach Docket ID NRC-2015-0057




Radioaktiver Abfall aus Kernkraftwerken?

In verschiedenen Industrien, in der Medizin und der Forschung werden radioaktive Substanzen verwendet, die dann irgendwann Abfall sind. Jedoch ist deren Menge klein gegenüber dem Abfall aus Kernkraftwerken, und nur dieser spielt in der öffentlichen Diskussion eine Rolle. Daher werde ich mich darauf beschränken.

Leute mit grüner Gesinnung regen sich über den radioaktiven Abfall aus Kernkraftwerken so sehr auf, dass sie meinen, dieser Abfall könnte das Ende der Menschheit herbeiführen. Solche Ansichten hört man z.B. in der kirchlichen Tagungsstätte Loccum, die nur noch teilweise der christlich-evangelischen, hauptsächlich aber der Ökoreligion dient.

So sagte dort der Landesbischof Ralf Meister:

„Allerdings können wir Aussagen machen zu einer hochgiftigen Strahlung, die noch über viele hunderttausend Jahre so giftig sein wird, dass sie das Menschleben und das Leben auf dieser Erde in ihrer Existenz bedroht.“

Und die atompolitische Sprecherin der Grünen im Bundestag, die Kunsthistorikerin Sylvia Kotting-Uhl:

„Er (der radioaktive Abfall) ist da und stellt für die heutige und zukünftige Gesellschaften eine existenzielle Bedrohung dar“ und weiter „Atommüll gehört zum Tödlichsten, was es auf der Erde gibt. Er tötet durch Strahlung und ist hochgiftig. Bis das Risiko aus diesen Stoffen halbwegs erträglich geworden ist, vergeht eine Million Jahre. Auch dann noch haben einzelne Nuklide eine hoch umweltgefährdende Aktivität. Den Müll über einen derart langen Zeitraum so aufzubewahren, dass er Mensch und Umwelt nicht gefährden kann, scheint schier unmöglich.“ (Loccumer Protokoll 25/11)

Solche Beurteilungen setzen die völlige Unkenntnis der Naturwissenschaften und Schwierigkeiten bereits bei den Grundrechenarten voraus. Sie sind auch auf anderen Gebieten üblich und Grundlagen der derzeitigen Politik. Wie ist das in unserer auf Naturwissenschaft, Mathematik und Technik beruhenden Zivilisation möglich?

Könnte ein alter Römer wieder zum Leben erweckt und in unsere Zeit versetzt werden, würde er staunen: Er kann mit Leuten in Rom von hier aus direkt sprechen, die Rückreise würde weniger Stunden dauern als zu seiner Zeit Wochen, Licht und Wärme schaltet man einfach ein, und vor allem: Es gibt hier nie einen Mangel an Lebensmitteln. Aber gänzlich verblüffen würde den alten Römer, dass, von wenigen Ausnahmen abgesehen, unsere Politiker nichts damit zu tun haben. Schon in der Schule wollten oder konnten sie das, was unserer Zivilisation zugrunde liegt, nicht lernen. Regierung und Bundestag sind etwa so zusammengesetzt wie der Senat in Rom vor mehr als 2.000 Jahren. Es dominieren die Juristen. Zählt man noch dazu, was uns als „Intellektuelle“ vorgestellt wird, ergibt sich folgende Situation (Vince Ebert):

„Die öffentliche Diskussion über Energieversorgung, Risikobewertung, Gentechnik, Klimawandel, Stammzellen und Digitalisierung wird zu 97 Prozent bestimmt von Geisteswissenschaftlern, Theologen, Schriftstellern, Juristen, Theaterleuten und Ökonomen.“

Als Angehöriger der MINT-Fächer (Mathematik, Informatik, Naturwissenschaft, Technik) gehöre ich (Physiker) da zu einer Randgruppe. Jedoch werde ich von diesem Standpunkt aus über radioaktive Abfälle berichten.

Was immer die Technik an radioaktivem Abfall erzeugt, die Aktivität wird winzig bleiben gegenüber der natürlichen Radioaktivität unserer Erde. Jedoch kann die spezifische Aktivität, Becquerel (Bq) pro kg, vieler technischer Abfälle unnatürlich hoch sein, und solche Abfälle müssen dann sorgfältig entsorgt werden. Es gibt auch Möglichkeiten, radioaktive Abfälle umzuwandeln (Transmutation), aber das wird bisher nirgends gemacht.

Ich gehe anhand einer Liste von Fragen vor, die mir Herr Dr. Peters, Deutscher Arbeitgeberverband, zugeschickt hat.

  1. Was ist Atommüll und in welcher Form wird er eingelagert?

„Atommüll“ ist eine Bezeichnung der Medien. Radioaktive Elemente entstehen in Kernkraftwerken auf zwei Arten. Uran- und Plutoniumkerne werden in zwei und manchmal auch drei Teile gespalten. Diese Bruchstücke sind Elemente mit zu viel Energie, die sie per Strahlung loswerden wollen. Der zweite Weg ist Aktivierung durch Neutronen. Nimmt Uran, oder auch z.B. Cobalt im Strukturmaterial ein zusätzliches Neutron in seinen Kern auf, dann ist ebenfalls ein Radionuklid entstanden.

Unvermeidlich gelangen solche radioaktiven Elemente, auch Nuklide genannt, ins Abwasser und in die Abluft. Dort werden sie so weit wie möglich herausgefiltert, und die Filtermaterialien stellen dann schwach aktiven Abfall dar. Insgesamt beträgt die Aktivität dieser Filtermaterialien etwa 1 % aller Kernkraftwerksabfälle. Fässer mit solchem Inhalt darf man anfassen. Internationale Bezeichnung: LLW (Low Level Waste).

Bei Aktionen wie der Demontage von Reaktorkernen fallen Abfälle mit höherer Aktivität an. Auch diese kommen in Fässer, die man aber nicht mehr anfassen sollte. Die Fässer werden in Abschirmungen transportiert. Obwohl sich jede Strahlung letzten Endes in Wärme umsetzt, werden solche Fässer aber kaum warm (unter 2 kW/m³). Insgesamt handelt es sich um etwa 4 % der Aktivität aller KKW-Abfälle. Internationale Bezeichnung: ILW (Intermediate Level Waste).

Der ganz überwiegende Teil der Aktivität besteht aus abgebrannten Brennelementen. In einigen Ländern werden Brennelemente wieder aufgearbeitet, d.h. man holt die Wertstoffe Uran und Plutonium heraus. Der Rest wird zu einer Art Glas verarbeitet (vitrified) und ist hochaktiver Abfall, obwohl, wie das Bild aus Frankreich zeigt, die ursprüngliche Aktivität zügig abklingt. Bezeichnung: HLW (High Level Waste), auch HAW.

Bis heute wird solcher Abfall nirgends endgelagert. Es gibt 2 Konzepte: Einlagerung in Granit oder ähnlichem. Das ist aber kein Einschluss, es kommt zu Kontakt mit Wasser. Finnland und Schweden gehen so vor, da sie nichts Besseres haben. Einen Einschluss würde Salz oder Ton bewirken, dies Konzept wird in der Schweiz, Belgien und Frankreich verfolgt. Die Tabelle zeigt den Stand der Planungen.

Land Abfallart Tatsächlicher oder geplanter Beginn des Baus Geplanter Beginn der Einlagerung
Belgien aufgearbeitet, Brennelemente 2035
Kanada Brennelemente 2035
China aufgearbeitet 2050
Finnland Brennelemente 2004 2023
Frankreich aufgearbeitet 2020
Deutschland aufgearbeitet, Brennelemente 2085
Japan aufgearbeitet 2035
Russland aufgearbeitet 2024
Schweden Brennelemente 2028
Schweiz aufgearbeitet, Brennelemente 2060

In Deutschland wird allein die Suche nach einem Standort offiziell bis 2031 dauern, Insider nehmen aber an, dass es vor 2060 nichts werden kann.

Sollte es kein grundsätzliches Umdenken geben, wird Deutschland niemals ein HLW-Endlager fertigstellen.

Schwach- und mittelaktive Abfälle werden überall auf der Welt oberflächennah deponiert.

Lager für schwachaktiven Abfall in Frankreich

In Deutschland steht schwach- und mittelaktiver Abfall vorwiegend in oberirdischen Lagern. Einiges wurde jedoch schon in die Grube Morsleben gebracht und darf dort auch bleiben. Anders ist es in der „Asse“. Alles soll gegen den Rat aller, auch „grüner“ Fachleute, aber nach dem einstimmigen Willen des Bundestages (mittlerweile ist es ein Gesetz) wieder herausgeholt werden, was Milliarden kosten wird.

Worum geht es? Das Bundesamt für Strahlenschutz schreibt selbst: Die gesamte Aktivität der über 100.000 Abfallfässer, eingelagert in mehr als einem halben Kilometer Tiefe, beträgt 0,5 % der Aktivität eines einzigen Castor-Behälters. Von diesen stehen (November 2011) in Gorleben 113 Stück über der Erdoberfläche.

Ein Denken in Größenordnungen darf man von unseren MdB’s nicht erwarten.

  1. Wie definiert man die Anforderungen an ein Endlager?

Auch unter ungünstigsten Annahmen darf nicht irgendwann, irgendwo, irgendwer einer höheren Strahlendosis als 0,1 Millisievert pro Jahr (mSv/a) aus dem Endlager ausgesetzt sein. Das ist 1/20 der natürlichen Strahlenexposition im Flachland von 2 mSv/a. Anderswo leben große Bevölkerungsgruppen bei 10 mSv/a und mehr, ohne dass ein Einfluss auf deren Gesundheitszustand erkennbar wäre.

In der Endlagerkommission sind auch einige wenige Fachleute, und ich hatte Gelegenheit, mit einem davon zu sprechen. Ich fragte ihn, ob es die Endlagersuche nicht erleichtern würde, wenn man höhere Grenzwerte als die 0,1 mSv/a zuließe. Nein, sagte er. Für jeden einigermaßen geeigneten Standort würden die Sicherheitsanalysen zu dem Ergebnis kommen, dass diese 0,1 mSv/a eingehalten werden können.

  1. Sollte Atommüll rückholbar gelagert werden? 

Hierbei wird an die Sicherheit gedacht; vielleicht wird es in Zukunft Möglichkeiten geben, den Abfall unschädlicher zu machen? Er schadet schon heute niemandem.

Oder sollte man die Möglichkeiten offenhalten, einmal Wertstoffe aus dem Abfall herauszuholen? Aufarbeitung lohnt sich heute nicht, warum soll das einmal anders werden?

Rückholbarkeit macht die Sache nur unnötig schwierig.

  1. Wie verändert sich Atommüll über die Jahrtausende? 

Wer Leute erschrecken will, kann durchaus zutreffend sagen: Die Zahl radioaktiver Atome nimmt auch in Jahrtausenden nur langsam ab. Ein Behälter mit hochaktivem Abfall, Kokille genannt, aus einer Wiederaufarbeitungsanlage enthält nach 30 Jahren typischerweise 4,11 ∙ 1025 radioaktive Atome, und 1.000 Jahre später sind es noch 3,44 ∙ 1025 Atome, also 84 %.

Aber: Die Aktivität, d.h. Strahlenteilchen pro Sekunde (Bq), wird dann von 4,1 ∙ 1015 Bq auf 2,0 ∙ 1013 zurückgegangen sein, auf etwa 0,5 %. Ursprünglich enthält eine solche Kokille 44 Arten von Radionukliden, nach 1.000 Jahren sind die 10 aktivsten aufgrund ihrer Halbwertszeiten unter 100 Jahren ausgeschieden. Viel Masse hatten sie nicht, denn hochaktiv bedeutet hohe spezifische Aktivität (Bq/kg).

Es bleiben schwachaktive Radionuklide. Ob diese von Bedeutung sind, hängt von ihrer Löslichkeit und ihrer Adsorption auf einem möglichen Weg nach oben ab.

Da spielt das gefürchtete Plutonium gar keine Rolle. Ausbreitungsrechnungen zeigen, dass andere Elemente, wie das recht unbekannte Selen 79, eine viel größere Chance haben, durchzukommen.

Nun sagen die Geologen: Wir blicken viele Millionen Jahre in die Vergangenheit, also können wir auch sagen, was in der nächsten Million von Jahren passiert. Aber wenn sich jemand ins Endlager hinab begibt, um etwa aus Unkenntnis ein Bergwerk anzulegen, und über die heute üblichen Explorationsmethoden nicht verfügt?

Bereits nach 100.000 Jahren muss man 4 kg vom Kokilleninhalt essen, um die tödliche Dosis zu erhalten (W. Rüegg, „Radioaktive Abfälle, lösbares oder unlösbares Problem?“ 2014). Das kann nicht mehr als Giftstoff bezeichnet werden.

  1. Was passiert bei Austreten von radioaktiven Substanzen in die Umwelt?

In den ersten Jahrhunderten nach der Einlagerung wäre das unangenehm. Man hat da Erfahrungen: In Tschernobyl und in geringerem Maße in Fukushima befinden sich künstliche radioaktive Stoffe an der Erdoberfläche. Caesium 137 wäre das bei weitem gefährlichste Radionuklid. Von Plutonium ist nichts zu befürchten. Nur als eingeatmeter Staub ist es ungewöhnlich gefährlich. In Tschernobyl kommen durch Plutonium kontaminierte Flächen vor, aber es gilt, was das Chemielexikon von Römpp schreibt:

Da Pu-Verbindungen unter natürlichen Bedingungen stets in das unlösliche 4-wertige Oxid übergehen, das im Boden komplex fixiert wird, ist die Gefahr eines Transportes in die Nahrungskette oder in das Trinkwasser gering.

Finnland und Schweden werden bald ein Endlager haben, in Frankreich geht es auch voran. In USA hat die Obama-Regierung erst einmal alles gestoppt. Über die Einstellung von Trump ist mir nichts bekannt.

In Deutschland wird es mit der Endlagerung nichts werden, solange die zu Anfang erwähnten Leute zu entscheiden haben.

 




Strahlenaberglauben schlimmster Art

Da verbreitet ein „Internationaler Hintergrundinformationsdienst für Politik, Wirtschaft und Militär“ (inter info) in Linz/Österreich die Erkenntnisse eines „Kernphysikers“ Mehran Keshe. Ein Japaner? Nein, Perser, der die Keshe-Stiftung gegründet hat, Sitz in Belgien. Diese befasst sich mit den Weltproblemen: Globale Erwärmung, Knappe Energie, Wasserprobleme, Nahrungsprobleme und behauptet, für alles bereits Lösungen gefunden zu haben.

Also, schlimmer als unsere Politiker mit deren Ziel, eine carbon-, gen- und atomfreie Welt zu schaffen, ist dieser Verein auch nicht. Um diese Politik zu rechtfertigen, muss Angst erzeugt werden, ganz besonders vor Plutonium. Das sieht Herr Keshe ebenso. Seine Behauptung, der Fukushima-Reaktor hätte der Herstellung von waffenfähigem Plutonium gedient, ist völlig aus der Luft gegriffen. Einiges Plutonium entsteht allerdings in jedem Reaktor.

Der „gefährlichste Stoff der Welt“ ist Plutonium jedoch nicht. Außerhalb des menschlichen Körpers stellt es gar keine Gefahr dar. Wenn man es verschluckt, ist es ein Giftstoff, nicht harmloser, aber auch nicht schlimmer als andere Gifte oder radioaktive Elemente. Herausragend ist allerdings die Gefährlichkeit beim Einatmen von Plutoniumstaub. Hat dieser die „richtige“ Teilchengröße, dann sind wenige Milligramm tödlich. Nur kommt so ein Staub, falls er irgendwo entstehen sollte, nicht weit, denn Plutonium ist sehr schwer (1,75-mal schwerer als Blei).

Eine Kettenreaktion erfordert eine kompakte Plutoniummasse von über 10 kg. Die gibt es nicht, schon gar nicht nach einer Kernschmelze. Auch steigen die Strahlungswerte nicht an, sondern gehen beim Abschalten des Reaktors auf wenige Prozent zurück und nehmen weiter ab.

„Die entlegensten Orte des Pazifischen Ozeans werden mit größeren Mengen radioaktiver Stoffe verseucht sein“? Die Freisetzung radioaktiver Stoffe aus dem Reaktor ist bekannt, sie ist übrigens wesentlich geringer als die in Tschernobyl freigesetzte Menge.

Ebenso bekannt sind die Wassermenge des Pazifiks und dessen natürliche Radioaktivität, etwa 12 Bq pro l. Wer die Grundrechenarten beherrscht und auch noch einen Taschenrechner hat, kann ausrechnen, dass die zusätzliche Aktivität durch Fukushima kaum 0,00002 Bq/l beträgt. Der Pazifik enthält also zunächst 12,00002 Bq/l. Die natürliche Aktivität bleibt, die ganz überwiegend auf Caesium 137 beruhende künstliche nimmt aber mit einer Halbwertszeit von 30 Jahren ab.

Der menschliche Körper enthält etwa 100 Bq pro l, pro kg ist es ungefähr das gleiche. Lutz Niemann weist darauf hin, dass sich die Herren Gabriel und Altmaier aufgrund ihres Übergewichtes größeren zusätzlichen Strahlendosen aussetzen als für Menschen nach der neuen Endlagerplanung zugelassen sind. Schon deshalb sollte man sie aus der Öffentlichkeit entfernen.

(1) Aus WIKIPEDIA: Stefan Wenzel besuchte die Grundschule in Resse bei Hannover und machte sein Abitur am Gymnasium Mellendorf; zwei Jahre lang betätigte er sich als Waldarbeiter und in der Landwirtschaft. Dann studierte er Agrarökonomie an der Georg-August-Universität Göttingen; in seiner Diplomarbeit stellte er einen Vergleich der Pacht- und Bodenpreise in der Europäischen Gemeinschaft an. Ein Jahr lang arbeitete er in Südamerika, unter anderem in einem SOS-Kinderdorf und in einem genossenschaftlichen Existenzgründungsprojekt. Wenzel wurde anschließend Grünen-Fraktionsgeschäftsführer im Landkreis Göttingen und lebte nebenbei einige Jahre von Subsistenzwirtschaft. Daneben war Wenzel zehn Jahre lang bis 1998 als Gesellschafter an einem Groß- und Einzelhandelsgeschäft für Wein aus ökologischem Anbau beteiligt.[2]




Mediziner gegen LNT

Unerwartete Hilfe für Strahlenschützer kommt nun von Medizinern. Neu, ist weniger die Kritik an der LNT-Hypothese, als die Abwägung der Nachteile durch ihre Anwendung.

Was ist noch mal LNT und ALARA?

Die LNTH (linear no-threshold hypothesis) geht von einem rein linearen Zusammenhang zwischen Strahlungsdosis und Krebsfällen aus. Die Gerade soll von einer Dosis Null bis unendlich verlaufen. Es gibt ausdrücklich keinen Schwellwert, unterhalb dessen kein Krebs auftritt. Wegen dieser Annahme, hat man für den Strahlenschutz das ALARA-Prinzip (as low as reasonably achievable) erschaffen.

Selbst Kritiker des linearen Ansatzes ohne Schwellwert, sind oft Anhänger des Prinzips: “So wenig Strahlung, als vernünftig erreichbar”. Das Wort “vernünftig” wird – wegen der angeblichen Krebsgefahr – als “so gering wie möglich” überinterpretiert. Das gut gemeinte Vorsorgeprinzip, wird dadurch leider in einen Nachteil verkehrt. Genau da, setzt die Kritik der Mediziner ein. Vorab aber noch ein paar deutliche Worte zur Erklärung.

Wieso linear?

Durch den Bombenabwurf auf Hiroshima und Nagasaki hat man einen gigantischen Menschenversuch gestartet, dessen Untersuchungen bis heute anhalten. Die Bedingungen entsprachen geradezu einem klinischen Versuch: Hunderttausende (große Zahl im Sinne der Statistik) Menschen wurden einer unterschiedlichen Strahlendosis ausgesetzt. Es handelte sich um eine “normale” Bevölkerung (unterschiedliche Altersgruppen, unterschiedliche Vorbelastungen usw.), die man problemlos in Relation zur sonstigen japanischen Bevölkerung setzen konnte. Es war somit eine relativ einfache Aufgabe, das mehr an Krebserkrankungen quantitativ zu erfassen. In der Tat, ergab sich in dem meßbaren Bereich ein linearer Zusammenhang zwischen Dosis und Krebsfällen. Dabei muß man sich immer vor Augen führen, daß die Meßbarkeit sowohl unten wie oben begrenzt war: Menschen, die hohen Strahlendosen ausgesetzt waren – also sich nahe dem Abwurfpunkt befunden hatten – hatten meist auch schwerste Brand- und Explosionsverletzungen und sind lange vorher verstorben, bis sich überhaupt Krebs hätte bilden können. Bei sehr kleinen Dosen, bildeten die Krebsfälle die übliche Wolke, wie sie in jeder Bevölkerung auftritt. Das hindurch legen einer Geraden – treffend als Ausgleichsgerade bezeichnet –, ist eine ziemlich willkürliche Angelegenheit.

Man einigte sich auf eine Gerade mit einer Steigung von 5% tödlichen Krebserkrankungen pro 1 Gy (entsprechend 1 J/kg oder nach alter Maßeinheit 100 Rad) Dosis.

Warum kein Schwellwert?

Will man es positiv betrachten, wollte man die Unsicherheit in dem Bereich sehr kleiner Dosen, durch eine Extrapolation ersetzen. Besonders unsicher war man sich über die (lange) Zeit, die es erfordern könnte, bis ein Krebs ausbricht. Heute kann man mit Sicherheit sagen, daß der Ansatz falsch ist.

In der Wissenschaft ist es üblich, Hypothesen (Modelle) aufzustellen. Anders als z. B. in der Mathematik, kann man deren Richtigkeit nicht beweisen. Man überprüft sie dadurch, daß man sich Experimente überlegt und dann deren Ergebnisse mit der Hypothese vergleicht. Genau diese Vorgehensweise, führt bei kleinen Dosen immer zu frappierenden Differenzen zwischen Modell-Vorhersage und Auswertung. Die Hypothese ist damit eigentlich als falsch zu den Akten zu legen.

Weshalb additiv übers ganze Leben?

Der größte Blödsinn, ist jedoch die Außerkraftsetzung des Grundsatzes : “Die Dosis macht’s”. Schon entgegen jeder Alltagserfahrung, daß ein Schnaps täglich, die gleiche Wirkung, wie eine Flasche “auf ex” haben soll. Bestenfalls ist dieser Irrglaube auf ein “physikalisches” Weltbild in der aufkommenden Molekularbiologie zurückzuführen. Man konnte Messen, daß durch Strahlung DNA und sogar ganze Gene geschädigt werden konnten. Legendär, ist der Versuch des späteren Nobelpreisträgers Müller mit Fruchtfliegen. Allerdings wurde damals mit Dosen von mehr als 4 Gy (400 Rad) gearbeitet. Bei diesen hohen Dosen, gab es ohne Zweifel, eine lineare Abhängigkeit der genetischen Schäden. Eine Extrapolation über mehrere Größenordnungen hinweg, in den Milli-Rad-Bereich, war schon damals eigentlich aberwitzig, aber man hatte eine physikalische und keine biologische Vorstellung von Leben. In der Welt der Molekularbiologie, war ein einmal zerstörter DNA-Strang, halt ein auf ewig kaputtes Molekül. Insofern mußten sich in dieser einfältigen Welt, alle einmal aufgetretenen Schäden, addieren.

Heute weiß man, es gibt Reparaturmechanismen auf der Ebene der DNA-Stränge, angeregte Produktion von Antioxidantien, programmierten Zelltod, Beistandseffekte auf Gewebeebene und zu guter letzt das Immunsystems auf Körperebene. Ganz nebenbei, all diese biologischen Vorgänge sind im höchsten Maße nichtlinear. Wie man daraus eine LNT-Hypothese basteln kann, ist schon recht seltsam. Bisher sind mindestens sechs Mechanismen zur Reduktion von Krebs, angeregt durch geringe Strahlung, nachgewiesen worden. Diese Erkenntnisse machen moderne Krebstherapien erst möglich, wenngleich auch sehr schwierig.

Gerade aus der Strahlentherapie gegen Krebs, kommen täglich die Argumente gegen eine kumulierende Wirkung einzelner Dosen: Man teilt eine Behandlung in mehrere Dosen auf, damit sich das gesunde Gewebe besser wieder regenerieren kann. Mutationen sind zwar eine notwendige Bedingung, aber noch lange keine hinreichende Bedingung für Krebs. Der Grundsatz “eine Mutation = ein Krebs” ist schlichtweg Unsinn.

Warum immer noch LNT?

Aus der Wissenschaftsgeschichte ist bekannt, daß sich falsche Theorien sehr lange halten können, bis sie endlich verschwinden. Dies um so länger, wenn Macht oder Geld im Spiel sind. Beim ALARA-Prinzip dürfte es schlicht Geld sein. Der “Strahlenschutz” ist weltweit ein Milliardenmarkt. Hinzu kommen tausende von Angestellte, und Wissen schaffende, die damit ihren Lebensunterhalt bestreiten und ihre Karrieren aufbauen – alles potentielle Gegner anderer Erkenntnisse.

Ein Meinungsumschwung ist erst dann zu erzielen, wenn breite Bevölkerungsschichten nicht mehr bereit sind, einfach nur zu glauben, sondern ihren gesunden Menschenverstand einsetzen und kritische Fragen stellen. In diesem Sinne, dürfte Fukushima als Meilenstein in die Wissenschaftsgeschichte eingehen. Alle Vorhersagen der Angst-Industrie über verseuchte Lebensmittel, unbewohnbar gewordene Landstriche, Millionen von zusätzlichen Krebserkrankungen etc. haben sich als primitive Propaganda enttarnt. Die Glaubwürdigkeit der “Walschützer” ist verspielt. Händeringend suchen diese Organisationen nach neuen Katastrophen (Klima, Gentechnik, Wasser, ?), um die Spendengelder weiter strömen zu lassen. Die Wahl eines Präsidenten in den USA, der sich in seinem Wahlkampf bewußt gegen “Klimaschutz” und andere Machenschaften der “Ökoindustrie” ausgesprochen hat, sind lediglich das erste Wetterleuchten. Der Schulterschluss zwischen Politik, Presse und Geschäftemachern neigt sich dem Ende zu.

Was ist das Neue an der Kritik der Mediziner?

Die Fakten zu LNT und ALARA sind allen Fachleuten längst bekannt. In der Fachwelt gibt es schon lange keine ernsthafte Verteidigung der LNT-Hypothese mehr. Überlebt hat bisher nur das ALARA-Prinzip. Mit der nötigen Eindimensionalität im Denken, ließ es sich als Vorsorge verkaufen. Kritik gab es allenfalls von der Betriebswirtschaft: Sind die überproportional zunehmenden Kosten noch vertretbar? Könnte man mit dem Geld nicht anderswo mehr Arbeitsschutz erreichen? Diese – zwar inhaltlich richtige – Kritik, war eher ein gefundenes Fressen für alle “Gutmenschen” mit linker Grundhaltung.

Nun dreht langsam der Wind, da plötzlich “harte moralische Fakten” von immer zahlreicheren Bevölkerungsschichten wahrgenommen werden. Es begann weltweit mit Fukushima. Auch der Speerspitze der Angstindustrie gelang es nicht, einen einzigen Strahlentoten oder (bisher) eine zusätzliche Krebserkrankung nachzuweisen. Andererseits äußerten sich immer mehr Mediziner kritisch zu den Umständen der Evakuierung. Überhastete Evakuierungen von ganzen Krankenhäusern und Pflegeheimen. Man spricht inzwischen von etwa 1600 Toten. Plötzlich wird deutlich, Strahlenphobie tötet. Darüberhinaus führt Strahlenphobie zu dauerhafter psychischer Erkrankung. Die sozialen Folgen der Zwangsumsiedlung haben sogar zu Selbsttötungen geführt. Ein Phänomen, das schon von dem Unglück von Tschernobyl bekannt ist.

Nun melden sich mit diesem Artikel auch die Diagnostiker öffentlich zu Wort. Schon seit Jahren sind sie mit verängstigten Patienten konfrontiert, die notwendige Untersuchungen aus “Angst vor Strahlung” verweigern. Inzwischen ist das ALARA-Prinzip so weit auf die Spitze getrieben worden, daß die Diagnostik als solche gefährdet scheint. Clevere Gerätehersteller haben die “Strahlung” so weit gesenkt, daß die damit gewonnenen Ergebnisse (teilweise) unbrauchbar sind. Mehrfachuntersuchungen sind nötig, falsche Diagnosen nicht ausgeschlossen. Auch hier gilt es, rein medizinische Vor- und Nachteile gegeneinander abzuwägen. Eigentlich reicht auch hier schon, der gesunde Menschenverstand.

Röntgenärzte waren übrigens – lange vor der Kerntechnik – die ersten betroffenen von “Strahlenkrankheiten”. Sie waren auch die ersten, die Grenzwerte für die Strahlenbelastung einführten. Ganz pragmatisch gingen sie von der Hautrötung als erkennbares Anzeichen einer Schädigung aus. Sicherheitshalber setzten sie 1/10 davon, als Schwellwert für eine Unbedenklichkeit an. Dieser Grenzwert war lange der Standard. Bis im “kalten Krieg” die Strahlenphobie zur politischen Waffe wurde.

Zusammenfassung

Es gibt in Natur und Technik kein “gut” und kein “schlecht”, allenfalls ein Optimum. Jede Sache hat ihre Vor- und Nachteile, die immer untrennbar miteinander verbunden sind. Erkenntnisse, die so alt wie die Menschheit sind. Fast jede Giftpflanze ist – in der richtigen Dosierung – gleichzeitig auch Heilkraut. Die Erkenntnis “die Dosis macht’s”, ist schon seit Jahrhunderten die Grundlage einer jeden Apotheke – unabhängig vom Kulturkreis. Der “Angstmensch” als Massenerscheinung, wurde erst vor wenigen Jahrzehnten in saturierten, westlichen Gesellschaften kultiviert.

Es wird von den Ärzten zu recht kritisiert, daß den (fachgerechten) Untersuchungen zur Behandlung und Diagnose (Röntgen, CT, Radionuklide) von Krebs ein innewohnendes (zu hohes) Krebsrisiko unterstellt wird. Dieser Fehlschluss beruht einzig auf der falschen LNT-Hypothese. Unterhalb einer Dosis von 100 mGy (10 Rad) konnte kein einziger Krebsfall nachgewiesen werden. Angebliche Fälle, werden nur aus dem (bekannt falschen) LNT-Modell hergeleitet. Ähnlichkeiten zu den “Klimawissenschaften”, bei denen “Welt-Temperaturen” mit (bekannt fehlerhaften) “Weltmodellen” berechnet werden, sind auffällig, aber beileibe nicht zufällig. Es sind lediglich Spielarten des gleichen Lyssenkoismus.

Der Beitrag erschien zuerst bei NUKEKLAUS hierhttp://nukeklaus.de/home/mediziner-gegen-lnt/