1

Rezepte zur Irreführung, mit Beispielen aus der Energiepolitik

Danach sollen auch die Kohlekraftwerke weg, weil man das Klima schützen will. Nun ist allbekannt: die Sonne geht abends unter und der Wind hat zumeist Flaute – und dennoch macht Deutschland mit seiner Energiewende unbeirrt weiter, und zwar ganz freiwillig.

Wie kann das sein?

Ein riesiges Land von 83 Millionen Menschen mit klugen und fleißigen Menschen – die zum Beispiel als Meisterleistung den Ressourcen sparenden Dieselmotor für Pkw’s entwickelt haben – will mehrheitlich ganz freiwillig zurück in die vorindustrielle Zeit ohne Stromversorgung!?!?

Mit Vernunft ist das nicht erklärbar, es ist ein Meisterstück der Demagogie.

 

Die Versuche von Solomon Asch und Stanley Milgram

Der Mensch verhält sich wie ein Herdentier: er folgt der Herde und er gehorcht dem Leittier. Das Herdenverhalten des Menschen wurde von Solomon Asch untersucht und in einem beeindruckenden Versuch bewiesen. Der Mensch glaubt, was ihm in ständiger Wiederholung immer und immer wieder vorgebetet wird. Wer zu Beginn noch zweifelt, folgt schließlich doch der Herde. Frau Prof. Elisabeth Noelle-Neumann begründete auf diesen Versuch ihre Untersuchungen zur „Schweigespirale“ [1]. Sie hat ein Buch dazu geschrieben, dessen Lektüre ist sehr zu empfehlen.

Die Gehorsamkeit des Menschen gegenüber der Obrigkeit wurde von Stanley Milgram in seinem Experiment untersucht und nachgewiesen. Das Erschreckende daran ist, daß auch gehorcht wird, wenn damit anderen Menschen geschadet oder sogar wehgetan wird.

Auf die Einzelheiten beider Versuche kann hier nicht eingegangen werden, sie wurden oft beschrieben, zum Beispiel (hier), (hier), (hier).

Jeder einzelne Mensch ist ein Individuum in der großen Herde eines Volkes oder der Menschheit. Die Medien vermitteln den Kontakt zwischen den einzelnen Individuen der riesengroßen Herde, sie sind das Bindeglied. Ohne die Medien gäbe es keinen Kontakt zwischen den einzelnen Menschen, anders als bei einer Herde von Tieren. Die Medien sind daher ungeheuer wichtig, damit sich ein Herdenverhalten unter Menschen ausbildet.

Das Trommelfeuer der Medien, immer wieder in allen Kanälen die gleiche Botschaft, steuert das Herdenverhalten der Menschen. So gehorcht der Einzelne der Herde. Und die Medien werden von der Obrigkeit gesteuert, sie bestimmt deren Überleben durch Zuckerbrot und Peitsche.

Die Lehren aus beiden Experimenten werden in der Politik angewandt um Wahlen zu gewinnen. Die Lehren aus beiden Experimenten wurden benutzt, um die Deutschen zum freiwilligen Ausstieg der lebensnotwendigen Stromversorgung zu bringen: zurück zum Mittelalter, und das inzwischen freiwillig mit Freude.

 

Beispiel 1

Die Energiewende begann, als in 1998 die Regierung Schröder – Fischer an die Macht kam und Minister Trittin die Energiewende startete. In einer Vereinbarung vom 14. Juni 2000 [2] hatte die Regierung mit den Stromversorgern den Ausstieg besiegelt. Man wollte für die Zukunft „eine umweltverträgliche und im europäischen Markt wettbewerbsfähige Energieversorgung weiter entwickeln“. Das bedeutete den Ersatz der Kernkraft durch die sogenannten „Erneuerbaren“, im wesentlichen Sonne und Wind. Natürlich wusste man, daß eine sichere Stromversorgung so nicht möglich ist, weil ja die Sonne abends unter geht und der Wind meist Flaute hat. Dennoch hatten die CEO’s der Stromversorger die Vereinbarung unterschrieben. Angesichts der vorherigen jahrelangen Kampagnen gegen die Kernkraft haben sie der Obrigkeit gehorcht, womit das Schicksal mit Deutschlands Ausstieg aus der Kernenergie seinen Lauf nahm. Zur Ehrenrettung der CEO’s muß allerdings gesagt werden:

  • Sie sahen in der Zustimmung zu der „Erpressung“ durch Trittin die Möglichkeit, zukünftig ohne ständige Behinderungen den Betrieb der KKW’s weiter führen zu können.
  • Es ist wohl so, daß die Herren durch das jahrelange Arbeiten unter der strengen Strahlenschutzverordnung an die Strahlengefahr geglaubt haben, die virtuelle Strahlengefahr wurde für sie zur Realität.

Den Gesetzen muß nun einmal gehorcht werden, wir wissen das. Aber wir wissen auch aus der Geschichte von Galileo bis zur Neuzeit, das es immer wieder falsche Gesetze gab und die Menschen unter Zwang zum Gehorchen gebracht wurden.

 

Beispiel 2

Beim Fukushima-Unfall (eine gute Zusammenfassung der Ereignisse finden Sie hier) am 15.3.2011 bestimmte die Kanzlerin Angela Merkel eine 180-Grad-Wende in der Kernenergiepolitik unseres Landes. Nachdem gerade ein halbes Jahr zuvor eine 10-jährige Laufzeitverlängerung der Kernkraftwerke beschlossen worden war, kehrte sie zurück zum Programm der Regierung Schröder – Fischer. Die gesamte CDU/CSU gehorchte und folgte dieser 180-Grad-Wende der Kanzlerin, Widerworte gegen diese Entscheidung von Frau Merkel wurden nicht oder kaum bekannt. Ich bin wenige Monate nach dieser 180-Grad-Wende aus der CSU ausgetreten, meine Mitgliedschaft in dieser Partei hatte etwa 5 Jahre betragen.

Die Ursache für dieses Gehorchen in diesem Beispiel ist eine tief verwurzelte Angst bei den Deutschen vor Strahlung von radioaktiven Stoffen. Eine gute Zusammenfassung zu den radiologischen Folgen des Unfalls in Japan finden Sie hier. Die Angst vor Strahlung hat eine Tradition seit dem Beginn der friedlichen Anwendung der Kernkraft und wurde mit den Medien im Volk verbreitet. Bei den Parlamentariern ist es hingegen die Angst vor dem Verlust eines gut bezahlten Postens, die sie zum Gehorchen ihrer Parteioberen getrieben hat.

Die Mitarbeiter in den Kernkraftwerken wurden ausgebildet und dabei haben sie die gesetzlichen Bestimmungen gelernt. Mit einer einfachen Modellvorstellung zum Zusammenhang von Strahlung und Krebsentstehung „Jedes Becquerel kann Krebs erzeugen“ wird die Lehrmeinung plausibel gemacht. Diese Modellvorstellung sollte im Experiment geprüft werden. Das machen die Strahlenbiologen, die sich mit der Wirkung von Strahlung auf einen lebenden Organismus befassen. In Fachzeitschriften wie der StrahlenschutzPRAXIS wird darüber berichtet. Der Gesetzgeber – das sind die Parlamentarier im Bundestag – gehorcht der Führung seiner Partei und kennt sich in der Sache nicht aus und die genannte Fachzeitschrift wird ignoriert.

 

Beispiel 3

In Fukushima hatte die Tsunami-Welle das Kraftwerksgelände überflutet. Die Kraftwerke waren etwa 45 Minuten zuvor beim Erdbeben schon automatisch abgeschaltet worden. Das Wasser der Flutwelle brachte die Stromversorgung zum Erliegen, die Reaktoren konnten nicht mehr gekühlt werden. Es kam zu Kernschmelzen und der entstehende Wasserstoff mußte irgendwann abgelassen werden. Der Wasserstoff explodierte und zerstörte die Gebäude. Dabei wurde auch Radioaktivität frei gesetzt, das war verboten. Durch die automatischen Strahlungsmessungen auf dem Kraftwerksgelände und der weltweiten Verbreitung der Meßwerte war zu sehen, daß niemand durch die Zusatzradioaktivität geschädigt werden konnte.

Dennoch, eine zusätzliche Strahlendosis ist laut Gesetz verboten. Die Menschen glauben, daß mit dem Grenzwert für Strahlung eine Gefahr verbunden ist und es entsteht Angst vor der Strahlung. Es wurden ca. 100 000 Personen im Umkreis aus ihren Häusern evakuiert, desgleichen die Menschen aus Krankenhäusern und Altenheimen abtransportiert. Und nach anfänglichem Zögern wurden sogar die Patienten aus den Intensivbereichen abtransportiert. Jedermann weiß, für Intensiv-Patienten ist die Versorgung durch die vielfältigen Gerätschaften lebensnotwendig. Dennoch wurde dem Befehl zur Evakuierung gehorcht, ca. 50 Intensivpatienten starben unmittelbar danach. Diese traurige Folge der Evakuierung wird oft verschwiegen, wie zum Beispiel in folgendem Bericht. Es war per Gesetz angeordneter Tod von Unschuldigen, durchgeführt von gehorsamen Untertanen und ist ein tragisches Paradebeispiel für die Lehre vom Stanley Milgram-Versuch. Und es gab weitere Todesopfer infolge der Evakuierungen der Altenheime: Der SPIEGEL sprach von 150 bis 600 Opfern, die Fachzeitschrift StrahlenschutzPRAXIS nannte >1000 Opfer und in japanischen Quellen stand 1600 Opfer geschrieben. Das Gehorchen hatte tödliche Folgen.

 

Beispiel 4

In der Folge der Ereignisse von Fukushima wurde in Deutschland die Strahlenschutzgesetzgebung verschärft. Es wurde ein Strahlenschutzgesetz geschaffen, wo zuvor eine Strahlenschutzverordnung galt. Das ist eine juristische Höherstufung. Und es wurden die Sicherheitszonen rund um die Standorte der Kernkraftwerke von 2/10/25km auf 5/20/100km erweitert. Der Anstoß für diese Erweiterung kam von der Politik, die Strahlenschutzkommission gehorchte der Politik und schrieb dazu eine Begründung, nachzulesen in Diskussionsbeiträgen in der StrahlenschutzPRAXIS 3/2014 (nur in ausgedruckter Form beim Autor erhältlich). Der Präsident der Strahlenschutzkommission war damals Prof. Dr. Wolfgang-Ulrich Müller, er kennt sich exzellent aus in der Problematik von biologischer Strahlenwirkung, das belegen seine Arbeiten zu dem Thema. Dennoch gehorchten die Fachleute der Kommission den unwissenden Politikern.

 

Beispiel 5

Aus dem Auspuff eines Autos kommen die Verbrennungsgase: hauptsächlich H2O und CO2. Elektromotoren haben keine Abgase, daher will die Politik Autos zukünftig mit Elektromotoren antreiben. Und die großen Autokonzerne gehorchen diesem Ansinnen, obwohl (fast) jedermann um die Unsinnigkeit dieser Idee weiß. Verkehr auf der Straße geht am besten mit Benzin oder Diesel. Woher sollte der Strom für e-Mobilität kommen, wenn aus der Stromerzeugung ausgestiegen wird???

Die Autohersteller hätten die Macht, durch Anzeigen in den großen Zeitungen auf den Unsinn der e-Mobilität hinzuweisen. Leider machen sie das nicht, sie gehorchen der Politik und werben stattdessen für e-Mobilität.

 

Beispiel 6: Ein Paradebeispiel für die Demagogie in den Medien durch ZDF Nachrichten am 26.4.2016 um 19:00 Uhr mit Frau Petra Gerster

Es werden zunächst Emotionen erzeugt durch Angst erzeugende Worte. Dann wird schließlich der entscheidende Satz gesagt: „Innerhalb von 25 Jahren sind ungefähr eine Million Menschen gestorben“. Dieser Satz ist derart in den ZDF-Bericht eingeschoben, daß der Zuhörer die Todesopfer dem Unfall zuordnet, was aber nicht gesagt wurde und was auch nicht geschehen ist. Daher ist der Satz richtig und nicht angreifbar. Was Petra Gerster vorgelesen hat, stammt von ausgebildeten Fachleuten in Agitation und Propaganda.

Hier der Wortlaut aus den ZDF-Nachrichten:

Petra Gerster: Tschernobyl, der Name steht für die bislang schwerste Atomkatastrophe weltweit. Heute vor 30 Jahren explodierte in dem ukrainischen Kernkraftwerk ein Reaktor. Eine radioaktive Wolke breitete sich bis nach Westeuropa aus, insgesamt 200 000 km² wurden verstrahlt, vor allem nahe des Unglücksortes mit schweren Folgen für Mensch und Natur bis heute. Der Reaktorblock 4 wurde damals zwar mit Beton versiegelt, mittlerweile aber ist die Hülle brüchig geworden. Strahlung entweicht. Nun wird vor dem Reaktorkomplex ein neuer Schutzmantel gebaut, eine bogenförmige Stahlkonstruktion, 160 m lang und knapp 110 m hoch. Dieser tonnenschwere Sarkophag soll 2017 über die Kraftwerksruine geschoben werden.

Wienand Wernicke berichtet.

Wienand Wernicke:     Besuch in der alten Heimat. Alexander lebte in Pritjat, einer Stadt mit etwa 50 000 Einwohnern ganz nahe am Kernkraftwerk. Heute eine Geisterstadt, verlassen und verstrahlt. 1986 war Alexander 10 Jahre alt, gemeinsam mit seiner Mutter bewohnte er eine 1-Zimmer-Wohnung. Hier schliefen sie, als in der Nacht das Unglück passierte. Heute erzählen viele, man hätte eine Explosion gehört. Wir nicht, wir haben geschlafen. Am Morgen bin ich wie viele meiner Klassenkameraden dann ganz normal zur Schule gegangen. Es gab keine Warnung, erst später wurde evakuiert. Das Ausmaß der Katastrophe, lange verschwiegen von der Sowjetunion. 26. April 1986 ein Reaktortest gerät außer Kontrolle. Es gibt eine Explosion und einen anschließenden einen Brand. Radioaktives Material wird frei gesetzt. Die Ersthelfer, kaum geschützt und mit bloßen Händen im strahlenden Schutt ohne daß ihnen gesagt wurde wie gefährlich, wie tödlich die Arbeit war, ganze Landstriche werden verstrahlt.

Alexej Jablokow untersucht seit Jahren die Folgen des Reaktorunfalles. Sein Fazit: Die Langzeitwirkung der Strahlung ist verheerend.Innerhalb von 25 Jahren sind ungefähr eine Million Menschen gestorben und es gab durch die Strahlung etwa 2 Millionen Fehlgeburten.

Der ukrainische Präsident erinnert am Jahrestag der Katastrophe an die Opfer und zeichnet Helfer aus und erklärt, daß die Ukraine an der zivilen Nutzung der Atomkraft festhalten wolle. Ein Abschalten der noch vorhandenen Kraftwerke im Land sei vorerst nicht möglich. Zur Zeit wird ein sogenannter Sarkophag gebaut. Er soll 2017 über die Trümmer geschoben werden. Unter ihm geschützt soll dann die Reaktorruine abgerissen werden. Was danach mit dem hoch verstrahlten Areal geschieht ist noch unklar.

Petra Gerster: Frage an Wienand Wernicke vor der Kraftwerksruine in Tschernobyl: Wie gefährlich ist denn nun heute die Strahlung noch?

Wienand Wernecke:    Die Strahlung hier in dem Gebiet ist relativ hoch und insofern ist es nur immer stundenweise möglich in diesem Gebiet zu sein. Das gilt auch für die Arbeiter, die an dieser Schutzhülle, diesem sogenannten Sarkophag arbeiten. Und wie stark die Strahlung ist erkennt man auch an der Tatsache, daß dieser Schutz, diese Hülle, nicht direkt über dem alten Reaktorblock gebaut wird, sondern das sind 100 oder 120 Meter Entfernung, wo das gebaut wird und dann nach Fertigstellung wird es erst darüber geschoben. Direkt an dem alten Reaktorblock wäre die Strahlung zu hoch, also insofern kann man schon ablesen, hier ist schon noch eine ganz schöne Gefahr.

Petra Gerster: Besorgnis erregende Informationen. Vielen Dank Wienand Wernecke nach Tschernobyl.

 

Dem geneigten Leser wird empfohlen, die aktuellen Ereignisse zu Corona unter dem Gesichtspunkt von Gehorchen und Herdenverhalten zu betrachten.

 

 

[1] „Die Schweigespirale, Öffentliche Meinung – unsere soziale Haut“ von Elisabeth Noelle-Neumann

[2] „Vereinbarung zwischen der Bundesregierung und den Energieversorgungsunternehmen vom 14. Juni 2000“. Es wurden die Restlaufzeiten der KKW’s in Deutschland festgelegt, die Erforschung von Gorleben beendet und das Recycling von abgebrannten Brennelementen verboten.

 

 




Seit 10 Jahren Fukushima

Wäre da nicht das ZDF hinter dem Busch hervorgekrochen mit seiner Sendung „Der ewige Gau? 10 Jahre Fukushima“. Gäbe es einen Karl-Eduard Richard Arthur von Schnitzler – auch Sudel Ede genannt – Preis, das ZDF hätte ihn mit Sicherheit in der Tasche. In bester Tradition schneidet man alte Aufnahmen des West-Fernsehens neu zusammen und läßt sie von den einschlägig Verdächtigen: Green Peace, Partei Bündnis 90/Die Grünen usw. kommentieren. Selbst der alte Lehrer Arnie Gunderson mit seiner Verschwörungstheorie von dem explodierten Brennelemente-Lagerbecken darf nicht fehlen. Die Verknüpfung „Atombombe“ gleich „Atomkraftwerk“ ist einfach zu verlockend. Als Staatsfunker braucht man nicht einmal elementare handwerkliche Fähigkeiten zu beachten: Eine simple Google-Abfrage und man hätte Aufnahmen des besenreinen Lagerbeckens von Block 4 senden können. Ausgewogenheit – also die Berücksichtigung von Pro und Kontra – ist mit der Einführung der Wohnungssteuer „Rundfunkgebühr“ sowieso nicht mehr nötig. Man dient nur seinem Herrn, der die nächste Gebührenerhöhung festsetzt. Sollen die Zuschauer doch abschalten, wenn sie soviel Propaganda nicht ertragen.

Was geschah am 11. März 2011?

Um 14:46 (Japan Standard Time) erschütterte das “Tohoku Earthquake” den Osten Japans mit einer Magnitude von 9.0 auf der Richterskala. Das Epizentrum lag etwa 130 km östlich der Oshika Halbinsel in 24 km Tiefe. Quelle war ein Sprung der ineinander verhakten nordamerikanischen und pazifischen Platte. Dieser Sprung löste einen Tsunami aus, der über die japanische Küste hereinbrach. Er zerstörte mehr als eine Million Gebäude, tötete 19 729 Menschen, weitere 2 559 Opfer blieben bis heute vermißt und verletzte 6 233 Menschen zum Teil schwer. Ganze Landstriche waren innerhalb von Minuten dem Erdboden gleich gemacht. Für uns Mitteleuropäer eine unvorstellbare Naturkatastrophe von apokalyptischem Ausmaß.

Im Zusammenhang mit dem Reaktorunglück ist nur von Bedeutung, daß solche Tsunamis in Japan nicht unwahrscheinlich sind. Mit anderen (deutlichen) Worten: Dieses Kraftwerk hätte so nie an diesem Ort gebaut werden dürfen. Dies war unter Fachleuten – bitte nicht verwechseln mit „Atomexperten“ – bekannt. Es gab sogar einige wenige, die unter Inkaufnahme erheblicher beruflich Konsequenzen dabei nicht mitgespielt haben.

Die Ereignisse im Kernkraftwerk

Im Kernkraftwerk Fukushima waren drei der sechs Blöcke in Betrieb. Block 4 war bereits vollständig entladen für einen Brennstoffwechsel mit Wartungsarbeiten. Die Blöcke 5 und 6 waren in Vorbereitung zum Wiederanfahren nach erfolgtem Brennelementewechsel. Durch das Erdbeben wurden alle sechs Hochspannungstrassen unterbrochen. Die Notstromdiesel zur Eigenversorgung im Inselbetrieb starteten.

Für das Verständnis der Abläufe ist wichtig, daß zuerst alles nach Plan verlief: Durch die Erdbebensensoren wurde eine Schnellabschaltung ausgelöst und auch in Fukushima startete die Notversorgung – wie in fast allen japanischen Kernkraftwerken. Es wäre nichts passiert, wenn die Flutwelle nicht gekommen wäre oder man das Kraftwerk „wasserdicht“ gebaut hätte. Der Vorgang einer Schnellabschaltung infolge eines Erdbebens ist in Japan Routine. Die Betriebsmannschaft war allerdings bezüglich des Tsunami so ahnungslos, daß sie sogar die Abkühlung des Blocks 1 noch verzögerte, um – wie erwartet – möglichst schnell wieder ans Netz zu kommen. Dies war leider eine fatale Fehlentscheidung, wie sich bald herausstellen sollte. Es verstrich fast eine wertvolle Stunde in Ahnungslosigkeit. Hier zeigt sich, wie wichtig ein Kommunikationssystem ist, das auch bei schweren Naturkatastrophen intakt bleibt: Wäre die Betriebsmannschaft über die Gefahr eines schweren Tsunami informiert worden, hätte sie mit Sicherheit ganz anders reagiert. Bei den Reaktoren 2 und 3 wurde die Isolation der Reaktoren von dem konventionellen Teil des Kraftwerks automatisch durchgeführt und die notwendigen Notkühlsysteme ausgelöst. Bis zu diesem Zeitpunkt waren alle drei Reaktoren in einem sicheren Zustand und auch die Notkühlung funktionierte wie geplant.

Etwa 50 Minuten nach dem Erdbeben (das hätte die „goldene Stunde“ sein können) brach eine Wasserwand auf das Kraftwerk ein und schlug alle Außeneinrichtungen der Blöcke 1 bis 4 kurz und klein. Dies war die Folge des bekannten Konstruktionsfehlers: Die Lage des Kraftwerks über dem Meeresspiegel war viel zu niedrig. Bereits in den etwas abgelegenen (neueren) Blöcke 5 und 6 waren die Zerstörungen wesentlich geringer. Sämtliche Kühlwasserpumpen der Blöcke 1 bis 4 sind abgesoffen und damit war keine Außenkühlung mehr möglich. Die Notstromdiesel, die Schaltanlagen und alle Batterien im Keller des Turbinengebäudes wurden durch das hereinbrechende Meerwasser zerstört. Zunächst überlebten die Diesel von Block 2 und 4, bis sie durch die zerstörten Schaltanlagen außer Gefecht gesetzt wurden. Die Batterien von Block 3 hielten noch durch, bis sie erschöpft waren. Es gab sogar einen zusätzlichen luftgekühlten Generator für den Block 6 – wenn man nur den Strom hätte nutzen können. Durch den totalen Stromausfall (station blackout) war die Mannschaft blind und kraftlos. Man hatte bald keine Informationen durch die Messgeräte mehr und konnte auch keine elektrischen Stellglieder mehr betätigen. So ließ sich das Ventil, welches man im Block 1 geschlossen hatte, um die Abkühlung zu verringern, nun nicht mehr öffnen. Hilfe von außen ließ auf sich warten, weil die Feuerwehr erstmal die zerstörten und verschütteten Straßen räumen mußte um sich zum Kraftwerk vorkämpfen zu können. Die Kernschmelze setzte etwa 5 Stunden später in Block 1 ein. Unter den hohen Temperaturen zersetzten sich die Brennstabhüllen durch eine chemische Reaktion zwischen Wasserdampf und Zirconium. Der Kern des Reaktors – eine Konstruktion mit Toleranzen von weniger als einem Millimeter – fällt nun unkontrolliert in sich zusammen. Da die Nachzerfallswärme immer noch weiter wirkt, schmelzen Teile sogar auf. Es entsteht ein „Corium“, eine Legierung aus allen Bauteilen des Kerns, die nach dem Erkalten eine lavaähnliche Schlacke bildet. Deren Beseitigung ist die zentrale Herausforderung des Rückbaus. Man hat nicht mehr eine verfahrenstechnische Anlage vor sich, sondern einen Stahlbehälter mit einer harten, widerborstigen Masse, die man zerkleinern und bergen muß. Sinnvollerweise wird dies erst in Jahrzehnten mit noch zu entwickelnden Robotern erfolgen.

Durch den ansteigenden Druck wurde der Deckel im Reaktor 1 undicht und es entwich Wasserstoff in das obere Stockwerk. Eine ganz normale Industriehalle und kein „Betonbunker“, wie er in modernen Kraftwerken üblich ist. Etwa nach 24 Stunden explodierte das gebildete Knallgas und lieferte die spektakulären und immer wieder gern gezeigten Bilder. Nur hat dies nichts mit Kerntechnik zu tun, sondern ist eher ein Vorgeschmack auf die viel gepriesene „Wasserstoffwirtschaft“.

Im Block 2 funktionierte die Notkühlung noch drei Tage. Allerdings stieg auch dort Druck und Temperatur an, weil durch den Ausfall der Kühlwasserpumpen die Wärme nicht mehr an die Umwelt abgegeben werden konnte. Der Versuch einer Druckentlastung damit die Feuerwehr Wasser einleiten konnte, scheiterte und es kam ebenfalls zu einer Teilschmelze. Allerdings weniger schlimm als in Block 1. Es gab auch keine Knallgasexplosion, da der „Schuppen“ über dem Reaktordruckbehälter schon durch die Explosion in Block 1 soweit zerstört war, daß der Wasserstoff abziehen konnte.

In Block 3 konnte man mittels Strom aus Batterien die Notkühlung noch etwas steuern. Da aber die Wärmesenke Meerwasser nicht mehr zur Verfügung stand, kam es auch dort zu einer Kernschmelze. Hier strömte das gebildete Knallgas nicht nur in den „Schuppen“ oberhalb des Blocks 3, sondern auch über die gemeinsamen Lüftungskanäle in den „Schuppen“ des gar nicht in Betrieb befindlichen Block 4. Wieder zwei spektakuläre Explosionen von Knallgas. Nun waren alle „Schuppen“ zerstört wie nach einem Bombenangriff und der Schutt in alle Brennelemente-Lagerbecken gefallen. Um die Brennelemente bergen zu können, muß erstmal der Schutt beräumt werden. Davor wiederum mußten erstmal neue Gebäude gebaut werden um etwaige Verseuchungen bei den Bergungsarbeiten zu verhindern. Das alles brauchte und braucht Zeit.

Der Irrsinn der Evakuierung

Völlig überhastet und von „Strahlungsangst“ getrieben, ordnete man großräumige Evakuierungen an. Infolge dieser Evakuierungen kam es zu zahlreichen Todesfällen, weil man Schwerkranke von Intensivstationen und hochbetagte Pflegefälle einem Transport und Notunterkünften aussetzte. Nachweislich ist aber kein Mensch durch Strahlung gestorben. Die Strahlungsdosen sind so gering, daß man nicht einmal mit einer erhöhten Rate von Krebsfällen rechnen kann. Anfangs lagen die Strahlendosen im Sperrgebiet bei 50 bis 100mSv/year. Durch Dekontaminierung wurden die Werte auf 1 bis 20 mSv/year gesenkt. Ein wahnsinniger Aufwand, der eher an „Buße“ als an Strahlenschutz erinnert.

So ist es halt, wenn man den Weg der Wissenschaft verläßt und sich dem Populismus hingibt. Geht man den Agitatoren von Green Peace und Co auf den Leim, wird es einem nicht vergönnt, sondern die Berge von abgetragenem – und sorgfältig in Säcke verpacktem – Mutterboden (!) werden als tödliche Strahlenquellen genüßlich vorgeführt. Man hinterfragt keine Sekunde die Prognosen über „Strahlentote“ und „Krebsopfer“ unmittelbar nach dem Unglück. Nein, die gleichen Angstmacher dürfen von der „Beinahe-Katastrophe“ in Tokio schwadronieren. Man sollte das tunlichst nicht einfach als Spinnereien ewig Unbelehrbarer abtun. Ganz im Gegenteil, es ist die Vorbereitung für z. B. den Kampf gegen den Bau von Kernkraftwerken nahe Danzig. Die Antifanten müssen rechtzeitig aufgestachelt werden. Mit Angst läßt sich nicht nur hervorragend regieren, sondern auch Spannungen mit (nicht folgsamen) Nachbarländern schüren. Die „Energiewende“ ist längst zu einem politisch-wirtschaftlichen Geschwür geworden, neben dem jede „Masken-Affäre“ wie Tauschgeschäfte unter Kindern auf dem Schulhof anmuten. Gerade dieses Filmchen und die darin auftretenden Darsteller sind ein Beispiel dafür, wie inzwischen eine ganze Generation „Angstmacher“ sich lukrative Posten ergattert hat, die diese wahrscheinlich nie mit ihren studierten Berufen hätten erreichen können.

Die Moritat vom Atommüll

Unsere Filmschaffenden vom ZDF-Kollektiv „schneide und sende“ haben beharrlich alte Wochenschauberichte von Arbeitsmännern, die durch Ruinen kraxeln, endlosen Tanklagern, Berge von Plastiksäcken etc. zusammengeschnitten. Man kennt diesen Arbeitsstil noch von der Berichterstattung über Trump: Immer wurde nur Material anderer (gleichgesinnter) Sender „nachgesendet“, niemals jedoch eine Rede von Trump im Original gesendet. Ist das einfach nur Faulheit oder hat Betreutes-Denken-TV Angst, die Zuschauer könnten zu viel von der tatsächlichen Welt erfahren? Wo sind die Aufnahmen vom Kraftwerksgelände heute, wo man sich längst ohne jede Schutzkleidung bewegen kann? Wo sind die Aufnahmen von den Ingenieuren vor Ort in ihren Computer Räumen (von denen manche deutsche Universität nur träumen kann), die die Arbeiten steuern und überwachen? Es wird doch sonst so gern von künstlicher Intelligenz, Robotertechnik, Simulationstechnik etc. geschwätzt. All das hätte man im Einsatz in der Ruine von Fukushima filmen können. Dazu hätte man sich vor Ort noch mit den führenden internationalen Fachleuten auf diesen Gebieten unterhalten können. Paßt natürlich alles nicht in das ideologisch gewünschte Bild einer sterbenden Technik. Ahnungslose Rentner (die Zielgruppe des ZDF) hätten sonst noch glauben können, sie hätten einen Bericht von der Hannover Messe gesehen.

Stattdessen Luftbilder von einem Tanklager. Eigentlich ein Beweis, wie umsichtig man vorgeht. Man hat nicht einfach das radioaktive Wasser ins Meer gekippt – was nebenbei gesagt, kein großer Schaden gewesen wäre – sondern hat es aufwendig zur Aufbereitung zwischengelagert. Hat man so etwas schon mal bei einem Unfall in einem Chemiewerk gesehen? Wie wäre es gewesen, wenn man mal die Reinigungsanlagen gefilmt hätte und die betreuenden Wissenschaftler z. B. aus Russland und Frankreich befragt hätte, wieviel Gehirnschmalz dafür notwendig war, Konzentrationen in Trinkwasserqualität zu erzielen? Stattdessen minutenlanges Gejammer über Tritium. Aber Vorsicht, das Narrativ vom unbeherrschbaren Atommüll hätte bei manch einem Zuschauer hinterfragt werden können.

Die Konsequenzen

Die Welt hat nach Fukushima erstmal den Atem angehalten. Man ist wie nie zuvor in der Technikgeschichte zusammengerückt und hat die tragischen Ereignisse analysiert. Heute gehen selbstverständlich russische, chinesische und amerikanische Fachleute gegenseitig in ihren Kernkraftwerken ein und aus. Suchen Schwachstellen und beraten sich gegenseitig. Dies geschieht über alle politischen Gegensätze und Spannungen hinweg. Fukushima war ein Ereignis für die Kerntechnik, wie der Untergang der Titanic für die Seefahrt. Schrecklich, aber nicht zerstörend. Nur unsere Führerin hat den „Mantel der Geschichte wehen gespürt“. Sie, die als so bedächtig dargestellte, hat sofort fest zugegriffen. Man könnte auch sagen, wie ein Skorpion tödlich zugestochen, um ihre öko-sozialistischen Träume zu beschleunigen. Milliardenwerte mit einem Federstrich vernichtet und Deutschland international ins Abseits gespielt. Chapeau Frau Merkel, sie werden ihren Platz in der Geschichte einnehmen.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Oberflächen­bilanz und Kirchhoff’sche Knotenpunkt­regel

Abbildung: Ergebnisse der CMIP5-Klimamodelle im Vergleich mit Messungen von Wetterballonen (grün). Einzelheiten dazu, warum die Modelle statistisch so falsch sind, können in einer Studie von McKitrick und Christy (2018) nachgelesen werden.

Die neueren CMIP6-Klimamodelle sind demzufolge eher noch schlechter. Gleichzeitig sind Land-Temperaturdaten durch verfälschende Wärmeinseleffekte z.B. in den USA zu 100% übertrieben (tatsächlich 0,13 statt 0,26 Grad/Dekade Temperaturanstieg), wie Roy Spencer und Anthony Watts nachweisen. Für Deutschland zeigen die Ergebnisse von Kowatsch und Kämpfe Ähnliches. Viele weitere Beispiele ließen sich aufführen.

Auf einer derart fragwürdigen Basis gründet der Klima-Alarm. Ganz im Gegensatz dazu die Wahrnehmung in der Öffentlichkeit: Der menschengemachte Klimawandel scheint inzwischen überall verinnerlicht, wobei unsere in der Mehrzahl rotgrünen Medien nach Kräften mithelfen. Selbst Artikel in TE sind inzwischen so abgefasst, als gäbe es an dieser „grundlegenden Erkenntnis“ nichts mehr zu rütteln. Und Grüne, die den Kindesmissbrauch vor nicht allzu langer Zeit noch schön geredet haben, setzen heute auf grüne Klima-Indoktrination von Kindern.

Beim Kinderspiegel, gefunden bei Kalte Sonne, liest es sich dann soKurz: Am gegenwärtigen Klimawandel sind wir Menschen schuld, wir ganz allein.“ Man wird unwillkürlich an Goebbels erinnert: Man muss etwas nur oft genug wiederholen, dann wird es als Wahrheit geglaubt. Und die Medien, die Religionen und die Schulen helfen dabei wieder nach Kräften mit.

Der IPCC gibt für die CO2-Klimasensitivität seit neuestem eine Spanne von 1,6 bis 5,6 Grad C (zuvor 1,5 bis 4,5 Grad C) an je nach angenommener Verstärkung, aber nur mit einer Wahrscheinlichkeit von 66%. Man kann sich natürlich fragen, warum beharrt der IPCC bei der Berechnung der globalen CO2-Klimasensitivität seit Jahrzehnten auf seinen zwar rechenintensiven, aber großenteils unverstandenen Klimamodellen samt der zugehörigen großen Unsicherheiten. Es drängt sich der Verdacht auf, die Alarmforschung bewahrt sich mit Hilfe der großen Unsicherheitsspannen ganz bewusst den Spielraum für Klima-Alarm – wofür die Alarmforschung von der Politik schließlich gegründet wurde.

Nach dem Motto, was nicht mit letzter Sicherheit auszuschließen ist, kann weiterhin als Bedrohung verwendet werden. Wie z.B. die phantasievoll erfundenen Kipppunkte des Potsdamer Klimainstituts PIK. Man stelle sich vor, ein plötzlich Klima-realistischer IPCC käme zu dem Ergebnis, dass es keine ernsthafte Klima-Bedrohung durch den Menschen gibt – die Folgen wären schlichtweg undenkbar und in höchstem Maß unerwünscht!

Der Versuch, sich der Klima-Problematik mit einem alternativen Ansatz zu nähern, wurde kürzlich bei EIKE in nachfolgendem Beitrag veröffentlicht. Einige wichtige Punkte werden hier nochmals aufgegriffen – nicht zuletzt infolge der stattgefundenen Diskussion:

Anthropo­gener Treibhaus­effekt: nach wie vor zu schwach für die Klima­katastrophe! – EIKE – Europäisches Institut für Klima & Energie (eike-klima-energie.eu)

Dort wird der Gesamtantrieb, der weiter unten noch genauer beschrieben wird, aus der Energiebilanz an der Erdoberfläche berechnet. An der Erdoberfläche, wo wir leben, wird das wärmende Sonnenlicht absorbiert, deutlich weniger hingegen in der überwiegend dünnen und kalten  Atmosphäre weiter oben. Von der Erdoberfläche wird auch wieder Energie abgeben, die über die Atmosphäre, die Wolken und letztlich durch Infrarot(IR)-Strahlung den Weg zurück ins Weltall findet. Dazu siehe auch die Strahlungsgrafik von Trenberth & Kiel weiter unten.

Kirchhoff’sche Knotenpunktregel gegen IPCC-Klimamodelle

Die vielen verschiedenen positiven (und auch negativen) Antriebe in einer komplizierten Atmosphäre samt ihrer Verstärkungs- oder Abschwächungsmechanismen kann kein Mensch korrekt berechnen. Im Oberflächenmodell lassen sie sich als Antriebssumme aus der Oberflächenbilanz ermitteln.

Weshalb ist das möglich? Ganz einfach, die Antwort gibt die Kirchhoff’sche Knotenpunktregel. Nachfolgend wird eine Grafik von Wikipedia verwendet. Zu beachten ist dabei, dass der Knotenpunkt keine zusätzliche Strom- bzw. Energiequelle enthält. Die Pfeilrichtungen sind unbedeutend, sie geben nur die Zählrichtung vor. Flussrichtungen entgegen der vorgegebenen Pfeilrichtungen sind gleichbedeutend mit negativen Vorzeichen. Auch kommt man im Oberflächenmodell mit nur vier „Pfeilen“ aus.

Was ist jetzt der Trick bei der Knotenpunktregel? Wenn man gemäß der Grafik Größe und Vorzeichen von vier Pfeilen kennt oder sie anderweitig bestimmen kann, dann kann man den fünften (I1 in diesem Beispiel) aus der Summenbilanz ausrechnen, egal wie groß, komplex und unberechenbar das Netzwerk ist, das den Pfeil I1 letztlich verursacht und bestimmt. So kann man auch im Oberflächenmodell den Gesamtantrieb aus den anderen Energieflüssen berechnen, egal, wie kompliziert, komplex und unverstanden die Auswirkungen der zugehörigen Atmosphäre auf den Gesamtantrieb sind. Der Knotenpunkt steht dabei für die Erdoberfläche.

Der Mythos von der „Gegenstrahlung“

Die häufigen Diskussionen bei EIKE um die ominöse „Gegenstrahlung“ kommen nicht von ungefähr. Hierzu nochmals das Strahlungsdiagramm von Trenberth & Kiel:

Ohne „Gegenstrahlung“ wäre in diesem Strahlungsdiagramm die IR-Ausstrahlung von der Erdoberfläche in Höhe von 396 Watt/m², die mit dem Stefan-Boltzmann’schen T4-Strahlungsgesetz errechnet wird, um enorme 333 Watt/m² zu hoch. Mehr als doppelt so hoch, wie an erwärmender Sonnenenergie auf der Erdoberfläche überhaupt eintrifft, was weder von der TK-Strahlungsbilanz noch von der Energiebilanz unterstützt wird – dazu siehe auch die Grafik unten. Diese ominöse „Gegenstrahlung“, die nach T&K den größten Teil der Stefan-Boltzmann’schen Oberflächen-Ausstrahlung von 396 Watt/m² kompensieren soll, hat eine einfache Erklärung:

In der dichteren, unteren Atmosphäre und am Übergang zum Boden herrscht überwiegend ein ungerichtetes Strahlungs- und Stoßgleichgewicht ohne irgendeine Vorzugsrichtung, wobei ein Netto-Energietransport in Richtung der Temperaturgradienten stattfindet – was der klassischen Definition der Wärmeleitung in Gasen bzw. hier in Luft entspricht.

Ein Gleichgewicht, das bei T&K irreführend in die beiden gegenläufigen, großen vertikalen Strahlungskomponenten „Ausstrahlung“ und „Gegenstrahlung“ aufgesplittet wird. Obwohl diese beiden fiktiven Strahlungsflüsse in Wirklichkeit eine untrennbare Einheit bilden, die auf mikroskopischer und molekularer Ebene nicht nur in vertikale, sondern in alle Richtungen strahlen – verursacht durch unzählige Absorptions- und Emissionsprozesse.

Was dann dazu führt, dass man aus allen Richtungen eine solche „Gegenstrahlung“ empfangen und messen kann. Die direkt nach oben durchgehende IR-Strahlung, die nicht mit den Klimagasen wechselwirkt, weil die Frequenzen im durchlässigen IR-Strahlungsfenster liegen, werden bei Bewölkung von der Wolkendecke absorbiert und teilweise zurückgestrahlt. Deshalb misst man bei Bewölkung eine erhöhte „Gegenstrahlung“ aus Richtung der Wolkendecke.

Die Wärmeleitung in Luft ist aber um Größenordnungen zu niedrig (was man mit Hilfe der bekannten Wärmeleitwerte für Luft leicht nachprüfen kann), um zur Strahlungsbilanz im T&K-Diagramm und somit zu der Energiebilanz nennenswert beizutragen. Deshalb fehlt korrekterweise genau dieser Teil bei der letztlich ausgestrahlten Energie. In einer Atmosphäre, die nicht strahlungsaktiv ist, würde auch dieser Teil ungehindert ausgestrahlt und gemäß Stefan-Boltzmann’schem T4-Strahlungsgesetz die Wärmeausstrahlung um ein Vielfaches erhöhen. In Wirklichkeit ist die Atmosphäre in großen Teilen des IR-Spektrums strahlungsaktiv und somit „wärmeisolierend“- hauptsächlich dank Wasserdampf und dem Spurengas CO2.

Die verbleibende, kühlungswirksame (Netto-)Ausstrahlung von 63 Watt/m² nach T&K, die nurmehr ca. 15% einer „ungebremsten“ Stefan-Boltzmann-Ausstrahlung ausmacht, wird bei fehlender Bewölkung teilweise direkt in den Weltraum ausgestrahlt (40 Watt/m² bei T&K), weil die zugehörigen Frequenzen im atmosphärischen Fenster liegen und nicht mit den Klimagas-Molekülen wechselwirken. Der Rest (23 Watt/m² bei T&K) wird von den Klimagas-Molekülen der höheren und dünneren Atmosphäre ausgestrahlt. Letzteres zusammen mit der aufgestiegenen Konvektions- und Verdunstungswärme – die Wärmeabgabe an den Weltraum erfolgt dann letztlich durch Infrarot-Strahlung. Die relativ geringe Wärmeleitung der Luft trägt aber mit dazu bei, dass sich das Temperaturgefälle zwischen Erdoberfläche und Weltraum einstellt.

Nachfolgende realistische Darstellung der Energiebilanz der Erde ist bereits in einem Lehrbuch „Physics of Climate“ aus dem Jahr 1992 zu finden und wurde vor einigen Jahren von der US-NOAA wieder übernommen. Trotz einiger Abweichungen bei den Zahlenangaben ist diese Darstellung insgesamt klarer, kommt ohne die ominöse „Gegenstrahlung“ aus und wird deshalb hier nochmals gezeigt:

Die „geheimnisvollen“ Antriebe

Es gibt unterschiedliche Wirkmechanismen, die die Temperaturen erhöhen oder auch absenken können. Für die rechnerische Beschreibung hat sich der sog. „Antrieb“ (engl. „forcing“) als praktikabel erwiesen, der rechnerisch einer Heiz- oder Kühlleistung in Watt/m2 gleicht. Dabei handelt es sich meist um keine zusätzliche Energiequelle, sondern vielmehr um erhöhte oder verringerte Wärmeisolation, wie es auch beim anthropogenen CO2 oftmals angenommen wird.

Der Theorie nach wird die spektroskopische Erwärmung durch CO2 mittels ungerichteter IR-Emissionen und Absorptionen bei den CO2-Resonanzfrequenzen bewirkt, was eine Verringerung des Wärmetransports zur Folge hat. Verschiedentlich wird auch das Bild der rückgestrahlten IR-Energie benutzt, um die die Abstrahlung in den Weltraum verringert wird.

Beim Antriebskonzept wird jetzt so gerechnet, als würde eine Erwärmung durch entgegen gerichtete Energiezufuhr („Antrieb“) bewirkt. Obwohl diese zusätzliche Energiezufuhr oder Heizquelle in vielen Fällen nur fiktiv ist. Dies wirkt etwas irritierend, ist aber üblich und bewährt, was am Beispiel des CO2 nachfolgend gezeigt wird.

Bei CO2 errechnet man einen Strahlungsantrieb von 3,7 Watt//m2, der bei CO2-Verdoppelung wirksam wird und die Temperaturen um 1,1 Grad C (bei einigen Autoren etwas mehr) erhöht. Diesen Temperaturanstieg nennt man dann CO2-Klimasensitivität. Tatsächlich handelt es sich um einen verringerten IR-Strahlungstransport, wie folgende Grafik der in den Weltraum emittierten Infrarotstrahlung in Abhängigkeit von der Frequenz zeigt (nach Prof. Happer et al.):

Es gelangt bei den Frequenzen, bei denen das Spurengas CO2 IR-Strahlung absorbiert und emittiert, weniger IR-Strahlung in den Weltraum. Happer et al. haben diese Grafik errechnet, sie stimmt aber sehr gut mit den IR-Spektren überein, die aus dem Weltraum gemessen werden – allerdings nur über Wüsten und bei trockener Luft. Andernorts werden diese Spektren durch Aerosole und Bewölkung stark deformiert. Über der Südpolregion verkehren sich die CO2-Vertiefungen in Ausstülpungen – dort erhöht das atmosphärische CO2 die IR-Abstrahlung und wirkt somit kühlend. Was den starken Einfluss der jeweiligen atmosphärischen Bedingungen auf das Abstrahlverhalten der Klimagase deutlich macht. Und eine Ahnung davon gibt, wie schwierig es ist, die Wirkung der jeweiligen Klimagase samt etwaiger Rückkopplungen in einer realen Atmosphäre mit IPCC-Klimamodellen korrekt zu ermitteln.

Ein weiterer wichtiger Punkt wird in dieser Grafik sehr gut sichtbar, nämlich, dass eine weitere CO2-Verdoppelung, wie hier von 400 (schwarz) auf 800 ppm (rot), wegen der spektroskopischen Sättigung nur mehr sehr wenig bewirkt. Hinzu kommt der Einfluss der komplizierten Atmosphäre, der in dieser errechneten Grafik nicht sichtbar wird. Deshalb sind auch die großen Unsicherheitsspannen bei den IPCC-Klimamodellen nicht überraschend.

Oberflächenbilanz und Verdunstungswärme

Sofern durch anthropogene Klimagase, variierende Sonneneinstrahlung (So) und andere natürliche Einflüsse Änderungen in der Oberflächenbilanz auftreten, sind sie im Gesamtantrieb X enthalten – siehe nachfolgende Ergebnistabelle, die aus der eingangs zitierten Arbeit übernommen wurde:

Die ausgehende IR-Strahlung Erad dürfte nach den vorausgegangenen Abschnitten näherungsweise richtig berechnet sein. Auch trägt sie nur maximal 1 Watt/m² zum Gesamtantrieb in Höhe von ca. 7 Watt/m² bei, bezogen auf 1 Grad C Temperaturerhöhung.

Als der mit Abstand wirkungsvollste Kühlmechanismus erweist sich an der Erdoberfläche demnach die abgeführte Verdunstungswärme Evap, die laut einer vorausgegangenen EIKE-Veröffentlichung (hier) global um 7,5% je 1 Grad C Temperaturanstieg zunimmt. Dieser Wert scheint naheliegend, denn auch der Dampfdruck wächst in gleicher Weise mit der Temperatur. Und somit auch der Wasserdampfgehalt in der Atmosphäre und der Wärmeeintrag durch Verdunstung. Gefunden wurde dazu eine Pool-Tabelle, die diesen Zusammenhang tendenziell und größenordnungsmäßig bestätigt. Auch spielen die Feuchtigkeit des Untergrunds (z.B. Land oder Ozeane), der Luft und die Windverhältnisse eine große Rolle.

Über einen interessanten, neu erforschter und publizierter Kühleffekt wird in der Klimaschau von Dr. Lüning (Ausgabe 16, ab etwa 5. Minute) berichtet: In den Tropen zieht aufsteigender Wasserdampf kalte, wasserdampfhaltige Luft mit nach oben. Dieser Kühleffekt wächst exponentiell mit der Temperatur und stellt damit einen zusätzlichen, bedeutenden Klimastabilisator dar und ist eine weitere Verstärkung der Verdunstungskühlung.

Eine weitere Möglichkeit zur Überprüfung bietet die Niederschlagsbilanz. Sämtlicher Wasserdampf, der durch Verdunstung in die Atmosphäre gelangt, kehrt als Niederschlag zur Erdoberfläche zurück. Wenn bei 1 Grad C Temperaturerhöhung die Verdunstung samt mitgeführter Verdunstungswärme um 7,5% zunimmt, dann müssten die Niederschläge ebenfalls um 7,5% zunehmen.

Ganz allgemein schreibt z.B. das österreichische ZAMG (Zentralanstalt für Meteorologie und Geodynamik): „Der Gesamtniederschlag wird auf der Erde im wärmeren Klima tendenziell zunehmen.“ Und das deutsche Umweltbundesamt: „Seit 1881 hat die mittlere jährliche Niederschlagsmenge in Deutschland um rund 10% zugenommen … insbesondere sind die Winter deutlich nasser geworden.“ Das ist jetzt nur Deutschland.

Der Berliner Senat, Ressort Umwelt, führt dazu aus: „Die Niederschlagsentwicklung abzuschätzen ist mit großen Unsicherheiten behaftet. Der globale Niederschlag hat eine sehr große räumliche und zeitliche Variabilität. Über Europa haben die Niederschläge im letzten Jahrhundert um 6 bis 8 % zugenommen, wobei die Zunahme mehrheitlich (10 bis 40 %) über Nordeuropa erfolgte und im Mittelmeerraum und Südeuropa ein Rückgang um bis zu 20 % zu verzeichnen war.“

In einer Fundstelle findet man die Arbeit von L. Jäger „Die globale Niederschlagsverteilung und ihre Veränderung im 20. Jahrhundert“. Dort werden tabellarisch verschiedene Autoren und die von ihnen ermittelten globalen Niederschlagswerte zu den jeweiligen Jahren angegeben. Mittels linearer Regression erhält man aus diesen Daten einen Anstieg von 34%. Sehr wahrscheinlich ein zu hoher Wert, was Folge von vielen möglichen Fehlerquellen sein dürfte.

Vermutlich realitätsnäher sind die Anomaliewerte für die globalen Niederschläge, die von der US-Umweltbehörde EPA gemäß nachfolgender Grafik veröffentlicht wurden. Die globalen Niederschläge stiegen den EPA-Angaben zufolge mit 0,08 inches/Dekade, während sie über Festland-USA (48 Staaten) um 0,17 inches/Dekade zunahmen. Nimmt man in Anlehnung an Jäger den globalen Mittelwert mit 40 inches an, dann sind laut EPA die globalen Niederschläge, bezogen auf 40 inches, sei 1900 nur um 2,4% angestiegen.

Vergleich Oberflächenmodell und Klimamodelle

Geht man von den EPA-Daten aus, dann stellt sich die Frage, warum bei den erwarteten globalen Niederschlägen, die um 7,5% je 1 Grad Temperaturerhöhung zunehmen sollten, nur eine mittlere Zunahme von 2,4% gemessen wurde. Obwohl die globalen Temperaturen gleichzeitig um etwa 1 Grad C gestiegen sind. War der globale Temperaturanstieg nur halb so groß wie bei den publizierten Temperaturen? Dies wäre angesichts der zahlreichen Adjustierungen nicht völlig auszuschließen. Oder sind die Niederschlagsmessungen nicht zuverlässig genug? Die ungleich größere Zunahme der globalen Niederschläge bei Jäger deutet in diese Richtung.

Wenn man, wie nachfolgend, von der größeren Verlässlichkeit der EPA-Daten ausgeht, käme als Erklärung auch infrage, dass es in dem betrachteten Zeitraum einen geringeren Zuwachs bei den Niederschlägen infolge natürlicher Klimavariationen, z.B. durch Überlagerung eines negativen Niederschlag-Trends, gegeben hat. Dass solche Effekte eine Rolle spielen können, dafür gibt die erkennbare Periodizität in der EPA-Grafik erste Hinweise. Und wie bei den Temperaturen könnten auch die Niederschläge natürlichen Einflüssen mit längerer Periodendauer unterworfen sein.

Zum Vergleich wurden oben die Grafen der EPA-Niederschlagsdaten und der globalen HadCRUT4-Temperaturen in gleichem Zeitmaßstab übereinander gestellt. Dabei zeigt sich eine interessante Übereinstimmung: Wenn die globalen Niederschläge höher sind, stagnieren die globalen Temperaturen oder nehmen sogar ab und umgekehrt. Dies kann mit aller gebotenen Vorsicht als Bestätigung für das Oberflächenmodell gewertet werden.

Dies lässt den Schluss zu: Hätte es eine „normale“ Niederschlagsentwicklung mit einer größeren, 7,5%-igen Zunahme der globalen Niederschläge gegeben, wäre der Kühleffekt entsprechen größer ausgefallen und die globalen Temperaturen wären nur um die Hälfte gestiegen. Hinzu kommt als verstärkender Effekt, dass mehr Niederschläge mit mehr Bewölkung einhergehen, wodurch die Sonneneinstrahlung reduziert wird, was aber im Gesamtantrieb enthalten ist.

Träfe der Fall zu, dass die Verdunstung einschließlich der abgeführten Verdunstungswärme und somit auch die Niederschläge im Mittel nur um 2,4% (anstelle von 7,5%) ansteigen, dann würde es keine großen quantitativen Unterschiede zwischen Oberflächenmodell und den IPCC-Modellen mehr geben. Allerdings besteht weiterhin ein wichtiger qualitativer Unterschied: In den IPCC-Modellen wird vorausgesetzt, dass das anthropogene CO2 incl. Verstärkung de facto alleiniger Temperaturtreiber ist. Im Oberflächenmodell bleibt hingegen offen, wie sich der Gesamtantrieb im Einzelnen zusammensetzt.

Es spricht vieles dafür, dass andere, zumeist natürliche Erwärmungsursachen, wie schon in den voraus gegangenen Warmperioden, auch bei der neuzeitlichen Klimaerwärmung maßgeblich beteiligt sind. Das Oberflächenmodell lässt Raum für weitere Antriebe, die dann ganz oder teilweise an die Stelle des CO2-Antriebs in den IPCC-Klimamodellen treten, um den neuzeitlichen globalen Temperaturanstieg zu erklären. Und dafür gibt es viele Hinweise wie Wärmeinseleffekte, ozeanischen Oszillationen, Nord-Süd-Klimaschaukel (derzeit fehlende Erwärmung im Südpolarbereich bei zugleich stärkerer Erwärmung im Nordpolarbereich) – obwohl die CO2-Zunahme praktisch überall die gleiche ist.

Nicht wenige der natürlichen periodischen Antriebe, zu denen auch die Sonnenaktivität samt Verstärkung gehören, erreichen aktuell ihre Minima oder wechseln ihre Vorzeichen. Was die spannende Frage aufwirft, wieweit jetzt eine Phase des langsameren Temperaturanstiegs oder gar Abkühlung folgt – wie schon bei vorausgegangenen Warmperioden. Wobei man die globale Niederschlagsentwicklung nicht außer Acht lassen sollte. Wohingegen es beim IPCC nur eine Richtung gibt, nämlich aufwärts, getrieben durch die CO2-Emissionen.

Somit erleben wir in den nächsten Jahren ein spannendes Live-Experiment und gleichzeitig die Nagelprobe, was das Spurengas CO2 tatsächlich bewirkt. Wobei das CO2 in der Atmosphäre aufgrund der zunehmenden Emissionen derzeit noch ansteigt. Allerdings mit ersten Anzeichen für eine Verlangsamung, was in dem zitierten EIKE-Artikel die gepunktet eingezeichnete CO2-Anstiegskurve von Roy Spencer nahelegt – offensichtlich infolge der wachsenden CO2-Absorption durch Pflanzen und Ozeane. Was auch in der zunehmenden Begrünung der Erde und den gestiegenen Ernteerträgen sichtbar wird und Folge des höheren CO2-Partialdrucks in der Atmosphäre ist. Hinzu kommt, dass die fossilen Vorräte endlich sind – voraussichtlich wird es keine CO2-Verdoppelung mehr geben.

Ausblick

Die großen Unsicherheiten in den IPCC-Klimamodellen sowie jetzt auch das unterschätzte Potential der Verdunstungskühlung unterstreichen die Fragwürdigkeiten eines Dekarbonisierungs-Programms, das auf viele Jahrzehnte oder sogar ein ganzes Jahrhundert angelegt ist. Denn abgesehen von der Frage, wer überhaupt mitmacht, ist es genauso fraglich, was ein solches Programm bei den Temperaturen und dem Erdklima letztlich bewirken kann. Absehbar ist hingegen eine nachhaltige Beschädigung des Industriestandorts Deutschland. Auch besteht die Gefahr bei einer (Gott sei Dank eher unwahrscheinlichen) CO2-Minderung, dass der wichtige CO2-Pflanzendünger dann nicht mehr ausreicht, um die gewachsene Weltbevölkerung zu ernähren.

Für Klima-Ängstliche wäre stattdessen Geoengineering die bessere Option, wobei bereits der Eintrag von wenigen Milligramm geeigneter Aerosole in die untere Stratosphäre, pro Quadratmeter und Jahr, die Temperaturen spürbar senken würde. Und, besonders wichtig, diese Methode wäre sofort wirksam und nicht erst, wenn überhaupt, in Hundert Jahren. Und kann auch genauso schnell wieder rückgängig gemacht werden.

Auch sollte man nicht vergessen, dass mittel- bis längerfristig das Ende der Zwischeneiszeit und die Rückkehr der Eiszeit droht, was die Menschheit vor ungleich größere Probleme stellen wird. Hinzu kommen vorhersehbare, ernstere Probleme und Krisen, gegen die sich die Menschheit wappnen sollte. Während Deutschland und Europa alle Kräfte samt Billionen auf ein Klima-Phantom konzentrieren.

Aber was ist zu erwarten? Eine Kanzlerin und frühere Umweltministerin hat ein Billionen-Programm initiiert und wird zu Lebzeiten ihren historischen Fehler niemals eingestehen. Auch steht sie Al Gore, Obama und den Demokraten näher – Trump war ihr so fremd wie ein Alien. Und eine EU-von der Leyen, bisher nicht durch Können aufgefallen, setzt bei der Dekarbonisierung noch eins drauf – man kommt aus dem Staunen nicht heraus. Kein Zweifel, wir werden von Klima-hysterischen Frauen regiert – ist es höchste Zeit, die Quote nochmals zu überdenken?

Ebenfalls ganz auf Dekarbonisierung ausgerichtet wird eine staatlich geplante grüne Energiewende durchgezogen, die unlängst im Wallstreet Journal als die „dümmste Energiewende weltweit“ beschrieben wurde. Belege dafür gibt es zuhauf. Und die beiden Klima-hysterischen Frauen an der Spitze folgen den Grünen und den FfFs und setzen sich an die Spitze der Klima-Aktivisten.

Bei Corona regte sich Widerstand gegen das Maskentragen und manche Übertreibungen beim Lockdown. Weshalb hält man ausgerechnet beim Dekarbonisierungs-Wahnsinn still? Obgleich Autofahrer und Heizungsbesitzer immer dreister abkassiert werden? Und dies trotz Corona-Rezesssion? Von den weltmeisterlich steigenden Strompreisen ganz zu schweigen?

Alle Weichen sind so gestellt, dass sich das Land, so ist zu befürchten, zum dritten Mal ruiniert. Trotzdem wünscht man, schon der Nachkommen wegen, dass Deutschland weiterhin lebenswert bleibt. Dafür ist die Rückkehr von ein wenig Resthirn unerlässlich – weniger Stimmen für die Grünen wäre ein erster Indikator. Aber aus heutiger „Klima-Weltretter“ und „Vorreiter“-Sicht gleicht dieser Wunsch dem Hoffen auf ein großes Wunder!

 




Anmerkungen zum Gegen­strahlungs-Paradoxon aus einem hemisphä­rischen Blick­winkel

Einen Abgleich meines hemisphärischen S-B-Modells mit allen wesentlichen THE-Thesen hatte ich hier auf EIKE bereits als Trilogie (Darstellung, Diskussion, Ergebnis) vorgelegt. Allerdings soll dieser THE nach „neuesten Erkenntnissen“ jetzt nur noch (32°) betragen, und damit gibt es dann wiederum mehr Spielraum für den Klimaeinfluss des Menschen oberhalb von (14°C). Andererseits ist es völlig unmöglich zu beweisen, dass es irgendein Phantasieprodukt gar nicht gibt, eben weil dieses Etwas gar nicht existiert. Dazu ein Beispiel aus einer Reportage von RSH (Radio Schleswig-Holstein), gesendet am 23. Dezember 2011: Auf einem Weihnachtsmarkt wurden Besucher gefragt, ob sie denn beweisen könnten, dass es den Weihnachtsmann gar nicht gibt. Natürlich konnte keiner der Befragten einen schlüssigen Beweis erbringen. Nähern wir uns mit diesem Wissen jetzt einmal dieser sogenannten „atmosphärischen Gegenstrahlung“, die sich angeblich folgendermaßen herleitet:

1. Hochfrequente (HF) Sonneneinstrahlung (@PIR²) => Erwärmung von Materie auf der Tagseite der Erde (2PIR²)

=> 2.Erwärmte Materie strahlt über die gesamte Erdoberfläche (4PIR²) Infrarot(IR)-Strahlung ab

=> 3. Diese IR-Strahlung animiert sogenannte „Klimagase“ zu einer IR-„Gegenstrahlung“ (@4PIR²)

=> 4. Diese IR-„Gegenstrahlung“ soll wiederum vorgeblich die Erdoberfläche (@4PIR²) erwärmen beziehungsweise deren „Abkühlung verlangsamen“ =>

Jetzt wird’s schwierig, denn nun geht es gleichzeitig mit 1. (@2PIR²) und 2. (@4PIR²) weiter.

WIDERSPRUCH 1: Die Erde soll sich durch die Rückstrahlung ihrer eigenen Abstrahlung (= Gegenstrahlung) noch weiter erwärmen; eine solche „Selbstaufheizung“ widerspricht aber dem 2. HS der Thermodynamik. Denn wenn ein solcher Vorgang funktionieren würde, könnten Sie Ihren Kaminofen zum Glühen bringen, indem Sie ein paar Kästen Mineralwasser davorstellen…

Und jetzt schauen wir uns nachfolgend einmal beim Deutschen Wetterdienst (DWD) die vorgeblich gemessene atmosphärische Gegenstrahlung an:

Abbildung 1: Originalbeschreibung, „Globale (rot), direkte (magenta) und diffuse (gelb) Sonnenstrahlung sowie langwellige Gegenstrahlung der Atmosphäre (blau) an einem wolkenlosen (links) und an einem bedeckten (rechts) Oktobertag in Lindenberg“ (Quelle: DWD Deutscher Wetterdienst)

Wir gehen jetzt einfach einmal davon aus, dass die beiden Beispiele einigermaßen vergleichbare Situationen darstellen. Daher halten wir an dieser Stelle fest:

  • An einem wolkenlosen Oktobertag schwankt die vom DWD gemessene Gegenstrahlung zwischen 0:00 und 24:00 Uhr von ca. 220 bis 250 W/m².
  • An einem bedeckten Oktobertag schwankt die vom DWD gemessene Gegenstrahlung zwischen 0:00 und 24:00 Uhr von ca. 330 bis 350 W/m².
  • Es gibt nur bei wolkenlosem Himmel eine schwache optische Korrelation zwischen einem tentativen tageszeitlichen Temperaturverlauf und der sogenannten „Gegenstrahlung“, aber eine Differenz von etwa 100W/m² zugunsten einer Wolkenbedeckung.
  • Die Unterschiede in der absoluten Bestrahlungsstärke der sogenannten „Gegenstrahlung“ liegen also weniger im Ablauf von Tag und Nacht, als vielmehr im Bedeckungsgrad.

WIDERSPRUCH 2: Hier treffen also eine über Nacht unverminderte „atmosphärische Gegenstrahlung“ und die Sonneneinstrahlung des neuen Tages unvermittelt aufeinander. Die sogenannte „atmosphärische Gegenstrahlung“ und die Sonneneinstrahlung des neuen Tages müssten daher zusammen eine Resonanzkatastrophe (=Selbstverbrennung der Erde) durch einen von Tag zu Tag ungebremst fortlaufenden Temperaturanstieg verursachen.

Schauen wir weiter, in Nr. 178 der „Berichte des Deutschen Wetterdienstes“ wird auf Seite 11, oben links, eine Formel zur Berechnung der Gegenstrahlung als Leistungsfluss „A“ in W/m^2 für die 1989 in der Station Hartheim am Rhein verwendete Messapparatur angegeben:

Die „gemessene“ Gegenstrahlung „A“ wird hier im Wesentlichen als Funktion der gemessenen langwelligen IR-Strahlung und der Instrumententemperatur dargestellt. Ohne die Kenntnis der ursprünglichen Messwerte „U“ und der beiden Eichkonstanten ist es schwer, eine direkt Aussage aus dieser Formel abzuleiten. Also müssen wir uns auf anderem Wege einem Verständnis nähern. Wie Abbildung 1 beweist, ist der gemessene langwellige (IR-) Anteil tagsüber wie auch nachts über 24h vorhanden, die direkte kurzwellige Sonneneinstrahlung ist dagegen nachts nicht wirksam. Wir überführen daher die Gleichung 1 in Gleichung 2 unter der Annahme, dass der Term für die Globalstrahlung bei der Messung der „Gegenstrahlung“ nachts keine Wirkung entfaltet, also:

Wenn wir nun auf die Abbildung 1 zurückgehen und den geringen Unterschied zwischen Tag und Nacht auf die Gegenstrahlung betrachten, dann ergibt sich für eine solche Messung das folgende Bild:

  • Der Einfluss der direkten Sonneneinstrahlung auf die „Gegenstrahlung“ ist bei einem sehr geringen Temperaturgang am wolkenlosen Tag offenbar recht gut kompensiert worden und bei Nacht gar nicht vorhanden.
  • Der Einfluss von langwelliger IR-Strahlung ist Tag und Nacht über die Thermospannung „U“ messbar.
  • Der Term „SIGMA T4“, also der Einfluss der Instrumententemperatur, spiegelt sich dauerhaft Tag und Nacht im Messergebnis wider.

In der DWD-Abbildung 1 fehlt der Temperaturverlauf über die beiden dort dargestellten 24h-Tage. Da aber die Eigentemperatur „T“ des Messinstruments als ein wesentlicher Faktor in der Gleichung 1 erscheint, ergeben sich daraus erhebliche Unterschiede für die „gemessene“ Gegenstrahlung, je nachdem, ob es sich um ein beheiztes, gekühltes oder ein Instrument bei normal variabler Umgebungstemperatur handelt. In Tabelle 1 wurde der Messwert „U/el = A –  T4“ für unterschiedliche Instrumententemperaturen „T“ aus der in Abbildung 1 dargestellten „gemessenen“ Gegenstrahlung „A“ hergeleitet:

Tabelle 1 gilt im Wesentlichen auch für Tagmessungen, soweit die jeweiligen DWD-Messergebnisse korrekt um den Einfluss der Globalstrahlung korrigiert wurden. Die Analyse aus dieser Tabelle ergibt nun eindeutig, dass es sich nicht um ein beheiztes Instrument handeln kann, weil dessen Messfähigkeit zu höheren Temperaturen stark eingeschränkt wäre; denn dieses Gerät kann nur eine Einstrahlung messen, deren S-B-Temperaturäquivalent höher als die eigene Temperatur ist. Selbst ein gekühltes Instrument würde nur eingeschränkt funktionieren und müsste zur Messung einer „Gegenstrahlung“ von 220W/m² unter -23,5°C gekühlt werden. Es wäre zu erwarten gewesen, dass insbesondere der wesentliche Term „U/el“, also die Geräte-Ausgangsspannung mit dem Ergebnis des langwelligen (IR-)Strahlungsanteils, einen primären und eindeutig definierten Beitrag zum Messergebnis liefern würde. Das ist offensichtlich nicht der Fall, denn das Ergebnis der Analyse aus Tabelle 1 legt nahe, dass das Messergebnis für die sogenannte „atmosphärische Gegenstrahlung“ in allen hier aufgezeigten Temperaturbereichen von der Instrumententemperatur (T=-18°C bis +15°C) majorisiert wird. So, und jetzt stellen Sie Sich als „Messinstrument“ einfach mal die Ordowski’sche Glasplatte vor, wo eine ca. 1 m über dem Boden angebrachte Glasplatte über den Tagesverlauf immer die gleiche Temperatur wie die umgebende Luft aufweist und sich nur dann noch weiter erhitzt, wenn sie nahe an den Erdboden abgesenkt wird…

WIDERSPRUCH 3: Wir stehen hier vor dem physikalischen Paradoxon, dass eine Messapparatur, die darauf ausgelegt ist, etwas WÄRMERES zu messen als ihre Eigentemperatur, tatsächlich auch etwas KÄLTERES gemessen haben will. Die Tabelle 1 beweist aber eindeutig, dass dieses Messinstrument nicht in der Lage ist, eine niedrigere Temperatur zu messen als die Instrumententemperatur „T“ selbst, denn solche Werte wären negativ.

Wie kommen wir nun aus dieser Nummer wieder heraus?

Schauen wir also einmal weiter. In Nr. 178 der „Berichte des Deutschen Wetterdienstes“ ist auf Seite 40 eine Isoplethendarstellung der über alle Wetterlagen gemittelten Bestrahlungsstärke der Gegenstrahlung abgebildet. Diese Darstellung bildet die Tageskurven der Gegenstrahlung im Verlauf des Jahres (hier in 10-Tages-Schritten) ab.

Abbildung 2: Isoplethendarstellung der über alle Wetterlagen gemittelten Gegenstrahlung (Quelle: DWD)

Dazu heißt es dort auf Seite 37 letzter Absatz rechts, Zitat: „Obgleich die Anwesenheit von Wolken verstärkend auf die Gegenstrahlung wirkt, kann daraus nicht geschlossen werden, dass bei bewölktem Wetter generell höhere Gegenstrahlungswerte auftreten. Ganz im Gegenteil liegen die absoluten (mittleren) Maxima mit 437 W /m2 Mitte Juli um 14 Uhr im Schönwettertyp und nahezu gleich beim Windtyp. Je stärker die Bewölkung eines Wettertyps wird, desto geringer wird tendenziell dieses Maximum. Lediglich bei Nebel wird diese Regel zugunsten etwas höherer Strahlung gebrochen. Zeitlich ist die Lage des jeweiligen Maximums bei allen Wetterlagen konstant am oben genannten Zeitpunkt, mit Ausnahme des Stratusschichttyps, wo der höchste Wert erst im August um 17 Uhr erreicht wird.“

Halten wir an dieser Stelle fest:

  • Die über alle Wetterlagen gemittelte Bestrahlungsstärke der Gegenstrahlung an der Messstelle Hartheim liegt zwischen MIN= 280W/m² (nachts im Februar) und MAX=400W/m² (nachmittags in den Sommermonaten).
  • Die absoluten (mittleren) Maxima der Gegenstrahlung liegen mit 437 W/m2 Mitte Juli um 14 Uhr im Schönwettertyp und entsprechen einem S-B-Temperatur-Äquivalent von 23,2°C.

Die Messstelle Hartheim besteht heute als forstmeteorologische Meßstelle Hartheim der Albert-Ludwigs-Universität Freiburg fort. Auf der Internetseite meteo.uni-freiburg.de wird  das Jahresmittel der Lufttemperatur (1978 -2018) für diese Messstelle mit 10,6°C angegeben:

Abbildung 3: Bildunterschrift „Die Entwicklung der Jahresmitteltemperatur an der forstmeteorologischen Messstelle Hartheim von 1978 bis 2018 relativ zum 41-jährigen Mittel 1978 – 2018. Rote Jahre waren überdurchschnittlich warm, blaue Jahre kühl.“ (Quelle: Forstmeteorologische Messstelle Hartheim – meteo.uni-freiburg.de)

An dieser Stelle halten wir also fest:

  • Die Jahresmitteltemperatur an der Meßstelle Hartheim von 10,6°C entspricht einem S-B-Strahlungsäquivalent von 368W/m².

ANALYSE: Da hier nur gemittelte Werte zur Verfügung stehen, kann die nachfolgende Analyse nur eine grobe Annäherung an die tatsächlichen Gegebenheiten darstellen. Das S-B-Strahlungsäquivalent von 368W/m² für die Jahresmitteltemperatur von 10,6°C an der Meßstelle Hartheim entspricht der Bestrahlungsstärke der Gegenstrahlung im Sommerhalbjahr am Vormittag und am Abend, also im Anstieg und Abfall des Nachmittagsmaximums in Abbildung 2. Gleichzeitig liegt dieses S-B-Strahlungsäquivalent von 368W/m² ziemlich nahe an dem Mittelwert von 340W/m² zwischen MIN=280W/m² und MAX=400W/m² über den Jahresverlauf der Bestrahlungsstärke der Gegenstrahlung. Damit aber spielt die „gemessene“ Gegenstrahlung vom Betrag her in derselben Liga wie die Sonneneinstrahlung, allerdings anders als diese über den gesamten 24h-Tag. Die übertragene Wärmemenge wäre damit im groben Tagesdurchschnitt pro 24h:

Gegenstrahlung: 340W/m² * 24h = 29.376.000 Joule/m²

Sonneneinstrahlung: 368W/m² * 12h* = 15.897.600 Joule/m²

*) Tentativer Durchschnittswert über das Jahr

WIDERSPRUCH 4: Wir stellen also in grober Näherung fest, dass die Wärmezufuhr durch die sogenannte Gegenstrahlung an der Meßstelle Hartheim den Einfluss der Sonne um nahezu das Doppelte übertreffen soll. Dieses Ergebnis ist insofern eigenartig, als ja nach der vorherrschenden Klimatheorie die sogenannte Gegenstrahlung selbst erst durch die Wärmewirkung der Sonneneinstrahlung erzeugt werden soll.

  • Wir halten an dieser Stelle weiterhin fest, dass die wichtigsten Treibhausgase in der Reihenfolge ihrer Wirksamkeit der Wasserdampf, Kohlendioxid, Ozon, Methan und Distickstoffoxid sind.

Daraus folgt mein finaler Lösungsansatz für das Phänomen „atmosphärische Gegenstrahlung“:

Die sogenannten „Treibhausgase“ sind Gase, und auch noch durchsichtig, ihre Moleküle bewegen sich in großem Abstand voneinander und füllen den verfügbaren Raum gleichmäßig aus. Deren Klimawirkung soll auf der Aufnahme der terrestrischen IR-Abstrahlung beruhen, mit der wiederum die atmosphärische Gegenstrahlung befeuert werden soll. Der wesentliche Unterschied in der Gegenstrahlung an beiden Tagen der DWD-Abbildung 1 liegt aber zwischen einem wolkenlosen und einem bedeckten Himmel, also zwischen dem gasförmigen und dem flüssigen Aggregatzustand von Wasser. Und im flüssigen Aggregatzustand hat Wasser gegenüber gesättigtem Wasserdampf eine doppelt so hohe Wärmekapazität, also eine erhöhte Speicherfähigkeit für Wärme; gegenüber trockener Luft erhöht sich dieses Verhältnis sogar auf einen Faktor von etwa vier. Abbildung 1 beweist also, dass die sogenannten Treibhausgase bei der Bestrahlungsstärke der atmosphärischen „Gegenstrahlung“ bestenfalls eine untergeordnete Rolle spielen. Denn die Zusammensetzung der gut durchmischten gasförmigen Bestandteile der umliegenden Atmosphäre an der Meßstelle Hartheim dürfte sich zwischen den beiden DWD-Tagesgängen „wolkenlos“ und „bedeckt“ bis auf Menge und Aggregatzustand des Wassers nicht wesentlich verändert haben.

WIDERSPRUCH 5: Wenn dort beim DWD also überhaupt etwas gemessen worden sein sollte, dann war es wohl nicht die „atmosphärische Gegenstrahlung“ von IR-aktiven „Klimagasen“, sondern eher der Wärmeinhalt einer Zusammenballung von Wassertröpfchen, die man gemeinhin als „Wolken“ zu bezeichnen pflegt und die der Meßstelle Hartheim durch Advektion und Kondensation offenbar zusätzliche Wärme zugeführt hatten.

Im Ergebnis hat es den Anschein, als dass die an der Meßstelle Hartheim gemessene „Bestrahlungsstärke der Gegenstrahlung“ den jahreszeitlichen Beitrag von Advektion und Kondensation auf die Ortstemperatur spiegeln würde. Im Umkehrschluss dürften also die dort dargestellten Werte sehr viel eher die Temperatur von Messgerät und unmittelbarer Umgebung wiedergeben als einen unabhängigen Wert für die sogenannte Gegenstrahlung.

Wolken treten in meinem hemisphärischen S-B-Modell unter den Stichworten „Advektion“ als „fliegende Wärmflaschen“ auf, aber auch die „Kondensation“ erzeugt Wärme vor Ort, was ein befreundeter Segelflieger folgendermaßen beschrieben hatte, Zitat:

„… nachts ist die Luft oft sehr ruhig. Dadurch ist lokale Wolkenbildung möglich, an den Grenzschichten unterschiedlicher Luftzusammensetzung, die sich nur ungern vermischen. Die Dicke bzw. Dichte dieser Wolken nimmt in der Regel gegen Morgen hin zu, sodass die Masse an ‚Materie‘ zunehmend ist. Dass dem so ist beweisen manchmal auftretende lokale morgendliche Regenfälle, wenn diese Ruhewolken das ‚Wasser nicht mehr halten‘ können. Sobald durch Sonneneinstrahlung etwas Bewegung in die Atmosphäre kommt verschwinden diese Wolken genauso lokal wie sie entstanden sind und man hat die Chance auf einen herrlichen Tag…“

ERGO: Wir haben heute keine Angst mehr, von der „Erdscheibe“ herunterzufallen. Wir glauben heute nicht mehr, die Erde stünde im Mittelpunkt des Universums. Aber wir glauben, die spezifische Strahlungsleistung einer „atmosphärischen Gegenstrahlung“ zu messen und damit ein unzureichendes 2-dimensionales Klimamodell für unsere Erde zu bestätigen. Man könnte also sagen, dass die sogenannte „atmosphärische Gegenstrahlung“ die Rache der Mathematik für eine fehlerhafte physikalische Faktor4-Stefan-Boltzmann-Inversion ist, BEWEIS:

ERGEBNIS: Es gibt im streng „gleichzeitigen“ Stefan-Boltzmann-Gesetz keine Flächen (B), die nicht zur Strahlungsleistung (P) des Schwarzkörpers beitragen. Daher sind auch keine unbeleuchteten Flächen (B) in einer „gleichzeitigen“ S-B-Inversion erlaubt. Physikalisch „gleichzeitig“ bedeutet übrigens auch nicht, dass unterschiedliche „Gleichzeitigkeiten“ in einer einzigen S-B-Berechnung aufaddiert und gemittelt werden dürften. Damit ist eine globale Faktor4-Tag=Nacht-THE-Flacherde-Inversion der Solarkonstanten physikalisch nicht statthaft.

Versuchen Sie einfach mal den Gegenbeweis: Wenn Sie die Oberfläche eines Fußballs vollständig* mit einer Taschenlampe beleuchten können, dann wäre der Faktor4-Ansatz bewiesen.

*) Hinweis für die Sophisten unter den geschätzten Kommentatoren: Dieses Beispiel unterstellt Gleichzeitigkeit mit einer einzigen Taschenlampe ohne weitere Hilfsmittel, wie Sie das beispielsweise mit der Sonne als „Taschenlampe“ im Wechsel von Tag und Nacht auf der Erde beobachten können; aber vielleicht versuchen Sie’s einfach mal mit einer Rotationsgeschwindigkeit größer 300.000 km/s…

 




Anthropo­gener Treibhaus­effekt: nach wie vor zu schwach für die Klima­katastrophe!

Der Verfasser stellt dort eine einfache Energiebilanz an der Erdoberfläche auf und umgeht damit die komplizierten und großenteils unverstandenen Vorgänge in der Atmosphäre und in den Ozeanen. Dabei ist hervorzuheben, dass sich das irdische Leben in einer extrem dünnen Grenzschicht an der Erdoberfläche abspielt, während die Atmosphäre mit der Höhe rasch lebensfeindlicher, dünner und kälter wird. Gleichzeitig hat die Erdoberfläche eine deutlich größere Wärmespeicherkapazität als die umgebende Atmosphäre. Wobei sich die Atmosphäre in der Grenzschicht im ständigen Wärmeaustausch und Temperaturausgleich mit der Erdoberfläche befindet. Ein Ansatz, dem hier in etwas geänderter und verallgemeinerter Form gefolgt wird.

Das nachfolgende Strahlungsdiagramm nach Trenberth-Kiehl beinhaltet zwar ein physikalisch merkwürdiges Phänomen, nämlich die Generierung einer starken Gegenstrahlung in der Atmosphäre, die ausschließlich nach unten strahlt. Doch findet man in der Grafik recht detaillierte Zahlenangaben:

Gemäß obiger Grafik besteht an der Erdoberfläche ein Gleichgewicht aus eingestrahlter Sonnenenergie (So) und wieder abgegebener Energie in Form von Verdunstung (Evap), Infrarotstrahlung (Erad) und Konvektion (Kon).

Dieses Gleichgewicht wird um einen zunächst unbekannten Antrieb („forcing“) X erweitert:

So + Evap + Erad + Konv + X = 0

Der Antrieb X kann dabei unterschiedliche Ursachen haben – am geläufigsten ist der zusätzliche Strahlenantrieb durch vermehrtes CO2. Der Sonnenanteil So bleibt in dieser Bilanz konstant – Änderungen bei der Einstrahlung, z.B. durch veränderte globale Bewölkung, sind im Antrieb X enthalten. Ist der Antrieb X von Null verschieden und die Kühlterme Erad, Evap und Konv ändern sich monoton mit der Temperatur, dann stellen sich Gleichgewicht und Temperatur neu ein. Aus der neuen Gleichgewichtsbilanz erhält man dann die Temperaturänderung ΔT = T – T0, abhängig vom Antrieb X. To ist dabei die global gemittelte Ausgangstemperatur mit 15 ºC bzw. 288 K. Für den Startwert T = T0 gilt X = 0.

Zu der Erwärmung der Erdoberfläche tragen bei:

Sonne:

Gemäß obiger Grafik beträgt die an der Erdoberfläche im Mittel absorbierte Sonneneinstrahlung (So), abzüglich 0,9 Watt/m2 Nettoabsorption:

So = 160 Watt/m2

Zusätzlicher Antrieb X:

Wenn man den Antrieb X ausschließlich einem CO2-Anstieg zuschreibt, dann gilt:

X = 5,35 ⋅ ln (C/Co) [Watt/m²] mit der atmosphärischen CO2-Dichte C

Dieser „Strahlungsantrieb“ entsteht der Theorie zufolge durch spektroskopische Absorption und Emission bei den Resonanzlinien des Spurengases CO2, was in diesem Wellenlängenbereich den Energietransport verlangsamt und was vorwiegend in der dichteren, unteren Atmosphäre geschieht. Die logarithmische Abhängigkeit in der Formelbeziehung für X ist Folge der spektroskopischen Sättigung des CO2 in der Atmosphäre. Der Strahlungsantrieb wächst dabei mit zunehmendem CO2 immer langsamer. Wobei die Verdoppelung der CO2-Dichte C einen zusätzlichen Strahlungsantrieb von X= 3,7 Watt/m2 generiert. Was einer Temperaturerhöhung von 1,1 Grad (einige Autoren nennen etwas höhere Werte) entspricht und als CO2-Klimasensitivität definiert ist.

Zusätzlich gibt es positive Rückkopplung oder Verstärkung, z.B. durch vermehrten Wasserdampf, das bedeutendste Klimagas. Aber auch negative Rückkopplung oder Abschwächung des Strahlungsantriebs, z.B. durch Überdeckung der Absorptionsfenster von CO2 und Wasserdampf, Abkühlung durch vermehrte Wolkenbildung und Aerosole sowie weitere Wechselwirkungseffekte in einer komplizierten, großenteils unverstandenen Atmosphäre spielen eine Rolle.

Man kann sich den Temperaturanstieg der letzten 150 Jahre auch mit natürlicher (Rück-)Erwärmung seit der Kleinen Eiszeit erklären, wie es schon bei früheren Kalt- und Warmzeiten der Fall war – ganz ohne anthropogenes CO2. Wobei allerdings die Ursachen für die damaligen Temperaturänderungen nicht bekannt sind. Auch urbane Wärmeinseleffekte, Landnutzungsänderungen, Energiefreisetzung durch die Menschen, wahrscheinlich auch der Flugverkehr und natürliche periodische Einflüsse (z.B. ozeanische Oszillationen und variierende Sonneneinstrahlung, verstärkt durch den Svensmark-Effekt) tragen bei.

Die Behauptung von Alarmforschern ist falsch, man könne sich den neuzeitlichen Temperaturanstieg nur mit anthropogenem CO2 erklären.

Die Bezeichnung „X“ wird deshalb gewählt, weil der Antrieb X einer black box ähnelt, deren Inhalte man nicht genau kennt.

Wasserdampf-Rückkopplung:

Die Rückkopplung durch zusätzlichen Wasserdampf wird in der Bezugsveröffentlichung aus nachfolgender Grafik für die spektroskopische Transmission in der Atmosphäre ermittelt:

Folgt man der zitierten Arbeit, trägt der Wasserdampf etwa 8 Watt/m2 zum Strahlungsantrieb bei – offensichtlich geschätzt anhand des atmosphärischen Fensters und der Reduktion der durchgehenden Strahlung (nach Trenberth-Kiel 40, in der Bezugsarbeit 45 Watt/m²) durch Wasserdampfabsorption und -streuung. Aufgrund von 7,5 Prozent mehr Wasserdampf pro 1 Grad Temperaturerhöhung wird demnach das Infrarot-Fenster um jeweils 0,6 Watt/m² weiter verkleinert. Was in diesem Modell der (positiven) Wasserdampf-Rückkopplung ΔR entspricht:

ΔR = 8 . (1,075 ΔT – 1) Watt/m2 mit ΔT = T – T0

Die Genauigkeit des Ansatzes soll hier nicht weiter hinterfragt werden. Von der Größenordnung her gehört ΔR zu den kleineren Beiträgen der Oberflächenbilanz. Außerdem ist die positive Wasserdampfrückkopplung ΔR ein Antrieb und in der eingangs aufgestellten Bilanz im Antrieb X mit enthalten. In den üblichen Klimamodellen verstärkt ΔR den Infrarot-Strahlungsantrieb der Klimagase und trägt dort zur Erhöhung der Klimasensitivität bei.

Kühlung der Erdoberfläche:

Verdampfung/Verdunstung:

Die in dem Strahlungsdiagramm (ganz oben) aufgeführte, relativ große Verdunstungswärme von 80 Watt/m2 lässt sich aus Niederschlagsmenge und spezifischer Verdunstungswärme offenbar recht gut ermitteln – weil sämtlicher Wasserdampf als Niederschlag und Tau zur Erde zurückkehrt.

Die Verdunstung von Wasser entzieht der Erdoberfläche Energie und transportiert diese in die höheren Atmosphärenschichten. Dort wird die Energie durch Kondensation (Wolkenbildung) wieder abgegeben und ins Weltall abgestrahlt. Durch das Abregnen der Wolken wird der Wasserkreislauf geschlossen. Für die Stabilität des Klimas ist von großer Bedeutung, dass die Verdunstungswärme stark abhängig von der Oberflächen-Temperatur der Erde ist. Diese Tatsache lässt sich an den Niederschlägen ablesen. Wir wissen, dass die Niederschläge dort am höchsten sind, wo die meiste Wärme von der Erdoberfläche abgeführt werden muss – am Äquator. Wir wissen auch, dass die Niederschläge auf der Erde mit der Erwärmung der letzten 100 Jahre zugenommen haben. Mit durchschnittlich 80 Watt/m² liefert die Verdunstung etwa 50 Prozent des Wärmetransports von der Erdoberfläche Richtung äußere Atmosphäre. Eine höhere Oberflächentemperatur führt zwangsläufig zu einer stärkeren Verdunstung weil Dampfdruck und Aufnahmefähigkeit der Luft für Wasserdampf ansteigen. Bereits ein Grad Erwärmung erhöht die Verdunstung und damit den Wärmetransport um 7,5 %. Bezogen auf den gesamten Wärmetransport von 80 Watt/m² sind das immerhin 6,0 Watt/m² zusätzlicher Kühleffekt an der Erdoberfläche. Die Verdunstung stellt also ein starkes Dämpfungsglied gegen Änderungen des Klimas dar.

Der Wärmetransport durch Verdunstung und dessen Zunahme mit der Temperatur bestimmen das Ergebnis maßgeblich. Für den Dampfdruck von Wasser lässt sich die Zunahme von etwa 7,5 % bei einem Grad Erwärmung verifizieren – z.B. hier. Bei der engl. Wikipedia heißt es: The rate of evaporation in an open system is related to the vapor pressure found in a closed system.“ Aber was bedeutet „related to“? Lassen sich die Angaben in der Bezugsveröffentlichung bestätigen?

Hilfreiche Zahlen bietet nachfolgende Pool-Tabelle, vermutlich durch Messungen ermittelt. Man sieht dort gut, wie die verdunsteten Wassermengen mit der Temperatur zunehmen, in der Regel sogar um etwas mehr als 7,5%. Dabei ist RH die Relative Luftfeuchtigkeit und DEW PT der Taupunkt, Temperaturen in Fahrenheit.

Die Temperaturschritte von 2 ºF entsprechen jeweils 1,112 ºC. 68 ºF entsprechen 20 ºC und 86 ºF 30 ºC.

Dabei ist zu beachten, dass in den Tropen und in den Regenwäldern das meiste Wasser verdunstet. Auch steigt durch Wellengang und Wind die Verdunstung deutlich an – nach folgender Tabelle bis zu einem Faktor zwei.

Hingegen dürfte über den 29% Landfläche die Verdunstung niedriger sein, regional abhängig von Bodenfeuchte und Bewaldung. Eine mittlere Zunahme von Verdunstung und Wärmetransport um 7,5% je 1 ºC Temperaturerhöhung, wie in der Bezugsarbeit angenommenen, scheinen realistisch.

Als Formelbeziehung erhält man damit:

Evap = 80 ⋅ 1,075 ΔT Watt/m2

Evap ist dabei die Verdunstungswärme, ΔT = T – T0.

In der Bezugsveröffentlichung wird der Spezialfall ΔT = 1ºC behandelt.

Strahlung:

Folgt man der Strahlungsbilanz in der ersten Grafik oben, dann werden netto 63 Watt/m2 vom Boden abgestrahlt und davon etwa 40 Watt/m2 direkt in den Weltraum (in der Bezugsarbeit 45 Watt/m2). Die restlichen 23 Watt/m2 nehmen den „Umweg“ über die Atmosphäre. Entscheidend ist aber für die Betrachtung hier, wie viel Strahlung die Erdoberfläche verlässt.

Durch einen veränderten Antrieb X ändert sich die Temperatur T = T0 + ΔT und somit auch die Wärmeabstrahlung Erad mit der 4. Potenz von T:

Erad = 63 · (T/T0)4 Watt/m²

Konvektion:

Konvektion ist der Transport thermischer Energie durch fühlbare Wärme der Luftmassen. Der Antrieb sind Dichteunterschiede. Wird die Erdoberfläche wärmer, verstärkt sich die Thermik und transportiert mehr Energie in Richtung höhere Atmosphäre. Der Anteil der Konvektion am Wärmetransport ist mit knapp 11 Prozent (gemäß TK-Grafik) gering und dürfte gemäß folgender Beziehung mit der Temperatur zunehmen:

Konv = 17 · (1 + ΔT/T0) Watt/m2 mit ΔT = T – T0 und T0 = 288 K

Naheliegend wäre jetzt, in die Oberflächenbilanz die oben aufgeführten Formelbeziehungen einzusetzen, um so die Beziehung zwischen X und ΔT auszurechnen. Einfacher und anschaulicher geht es, wenn man in nachfolgender Tabelle zeilenweise die Änderungen von X und ΔT vergleicht.

Bilanz

Eine Änderung des Antriebs X führt zu einer Temperaturänderung ΔT = T – T0 in der ersten Spalte. Mit der sich ändernden Temperatur T ändern sich auch die Kühleffekte. Es stellt sich ein neues Gleichgewicht ein, die Bilanz ist wieder ausgeglichen. Dabei kommen für den Antrieb X neben Klimagasen auch andere, z.T. natürliche Erwärmungsursachen in Betracht. Berechnet wird X aus der (negativen) Summe von So, Evap, Erad und Konv in der jeweiligen Tabellenzeile. Grundsätzlich sind auch negative Antriebe X möglich mit Temperaturrückgängen wie in der ersten Tabellenzeile, wie sie z.B. infolge bevorstehender solarer Minima eintreten könnten.

In der Bezugsarbeit wurde eine niedrige Klimasensitivität von 0,58 ºC ermittelt.

Was folgt daraus?

1) Man sieht in der Tabelle, dass der Antrieb X um ca. 7 Watt/m2 wächst für jeweils 1 Grad Temperaturerhöhung. Dabei erkennt man: Mit steigender Temperatur T = T0 + ΔT wachsen die verursachenden Antriebe X schneller als die zugehörigen Temperaturanstiege. Ein runaway-Effekt bei den Temperaturen ist deshalb nicht zu befürchten.

Bei spektroskopischer Erwärmung nur durch CO2 beträgt bei CO2-Verdoppelung der CO2-Antrieb 3,7 Watt/m2. Was in den bisherigen Klimamodellen einer Temperaturerhöhung bzw. CO2-Klimasensitivität von 1,1 Grad entspricht. Im Oberflächenmodell steigen bei einem gleichgroßen Antrieb die Temperaturen nur um 0,53 Grad – hauptsächlich als Folge der Verdunstungskühlung.

Was recht gut mit der Bezugsarbeit übereinstimmt. Berücksichtigt man ferner, dass X alle natürlichen und anthropogenen Antriebe mit enthält, dann ist eine Klimasensitivität von 0,53ºC sehr niedrig und zu vernachlässigen. Umgekehrt gilt genauso: Eine (utopische) Dekarbonisierung wird die Temperaturen kaum beeinflussen. In der Bezugsarbeit wird auf weitere Arbeiten verwiesen, die ähnlich niedrige Ergebnisse für die Klimasensitivität ermitteln.

Zur Erinnerung: Der IPCC gibt für die CO2-Klimasensitivität eine Spanne von 1,6 bis 5,6 Grad C an, aber nur mit einer Wahrscheinlichkeit von 66%. Was um eine Größenordnung höher ist.

In den letzten 150 Jahren sind die globalen Temperaturen offenbar um 1 Grad gestiegen. Das CO2 in der Atmosphäre dabei um knapp 50%, was einem CO2-Antrieb von 2,17 Watt/m2 entspräche. Dazu eine Vergleichstabelle für diesen Antrieb und den Auswirkungen auf die Temperaturen:

Bei der Rechnung gemäß Oberflächenbilanz ist noch viel Raum für weitere Antriebe wie z.B. Wasserdampf-Rückkopplung oder andere, nicht-anthropogene Antriebe. Das anthropogene CO2 alleine reicht für 1 Grad Temperaturerhöhung hier bei weitem nicht. Während der IPCC mit positiver Wasserdampf-Rückkopplung rechnet und diesen Wasserdampf-Zusatzantrieb der CO2-Klimasensitivität zuschlägt – nur das anthropogene CO2 ist alleiniger Übeltäter! Und mit seinen Computer-Klimamodellen viel zu hohe Temperaturen errechnet. Halbwegs passend wird es nur, wenn der IPCC die niedrigeren Klima-Sensitivitäten am unteren Rand seines Unsicherheitsbereichs verwendet. Auch gibt es kaum Platz für natürliche Antriebe, deren Existenz der IPCC im Wesentlichen bestreitet.

So spricht für das Oberflächenmodell unter anderem, dass die Temperaturprognosen des IPCC meist zu hoch liegen. Auch die höheren Landtemperaturen stimmen mit dem Oberflächenmodell überein, weil es an Land meist weniger Verdunstung gibt. Allerdings tragen dazu auch Wärmeinseleffekte, Landnutzungsänderungen und die Temperaturträgheit der Ozeane bei. Für das Oberflächenmodell spricht ferner, dass alle beteiligten Größen gut verstanden sind – im Gegensatz zu den Klimamodellen des IPCC.

2) Die Wasserdampf-Rückkopplung ΔR wurde in der Bezugsarbeit näherungsweise aus der Grafik oben für die spektrale Transmission in der Atmosphäre abgeleitet. Interessant ist die Größenordnung: Als Effekt zweiter Ordnung ist die (zusätzliche) Wasserdampf-Rückkopplung deutlich kleiner als der auslösende Antrieb – was plausibel ist.

3) Ein weiterer Aspekt ist bemerkenswert: Es wird der große Einfluss der Verdunstungswärme auf das Temperaturgeschehen deutlich. Mehr Verdunstung, wie es bei höherer Bodenfeuchte der Fall ist, wirkt kühlend, senkt dadurch die Temperaturen und umgekehrt.

Wenn die Herren Kowatsch und Kämpfe in Deutschland eine zunehmende Trockenheit aufgrund menschlicher Eingriffe in den Wasserhaushalt aufzeigen, dann führt die verringerte Verdunstungskühlung zu zusätzlicher Erwärmung.

Autor: Dr. Roland Ullrich ist Physiker und promovierte an der TU München über Plasmaphysik.Sein Berufsweg führte ihn von der Plasmaphysik, einem kurzen Ausflug in die Welt der Metallhydridspeicher zu einer überwiegend gutachterlichen Tätigkeit in der technisch-wissenschaftlichen Analyseabteilung einer Bundesbehörde.




NACHRUF AUF PHILIPPSBURG

Ist Strahlung gefährlich?

Es ist keine Frage, dass radioaktive / ionisierende Strahlung auf die menschliche Gesundheit folgenschwere Auswirkungen haben kann. (sieh auch https://think-again.org/die-angst-vor-dem-atom/). Diese unbestreitbare Tatsache wird mit großem Erfolg als Totschlagargument gegen die Kernenergie eingesetzt.

Es gibt aber auch noch andere unbestreitbare Tatsache: Seit seiner Entstehung wird das irdische Leben auf natürliche Weise radioaktiv bestrahlt. Offensichtlich haben unsere Vorfahren und die meisten von uns selbst das doch gut überlebt.

Also was ist los: Ist Strahlung jetzt gefährlich oder nicht? Ja oder Nein?

 

Nicht unumstritten

In der Erde lagern seit ihrer Erschaffung radioaktive Materialien, zwar in winziger Konzentration, so doch in riesigen Massen. Die geben genug Strahlung und Hitze ab, um das Innere unseres Planeten flüssig zu halten. Da kocht also ein permanenter, nuklearer „Meltdown“.

In Artikeln zu dem Thema werden Sie vielleicht den Hinweis finden, diese Behauptung sei „umstritten“. Lassen Sie uns das genauer betrachten. Umstritten ist kein Begriff aus der Wissenschaft sondern aus der Politik. Eine Behauptung ist umstritten, wenn sie einerseits nicht ins Narrativ passt und andererseits nicht widerlegt werden kann. Deren Klassifizierung beginnt dann mit „wenig hilfreich“, dann kommt „nicht unumstritten“, dann „umstritten“, schließlich wird der Autor der Aussage selbst als „umstritten“ hingestellt.

Ein umstrittener Experte kann immer noch in Talkshows eingeladen werden, aber eben mit offiziellem Label „umstritten“. Dadurch wird dem Publikum im Studio signalisiert, nicht zu klatschen, wenn der Betreffende etwas sagt. Und die Zuschauer zu Hause wissen, dass der Mann in der Garderobe noch einen Aluhut hängen hat. Falls Sie in letzter Zeit Sendungen zum Thema Corona gesehen haben, dann wissen Sie, was gemeint ist.

 

Der ewige Meltdown

Fakt ist jedenfalls, dass die Erde fortlaufend 47 Terawatt an Wärme aus eigener Produktion in den Weltraum abstrahlt; das entspricht übrigens 0,1% der Leistung, die sie von der Sonne empfängt. Von diesen 47 TW stammen ein bis zwei Drittel aus radioaktivem Zerfall von Thorium 232, Uran 238 und Kalium 40. Diese radioaktive Hölle im Erdinneren soll aber möglichst unerwähnt bleiben, damit die Einmaligkeit der Gefahr durch Atomkraft nicht geschmälert wird. Deswegen ist das ein „umstrittenes“ Thema.

Der Rest der 47 TW Wärme kommt aus Deformationen der Erde. Die Anziehungskraft des Mondes, kombiniert mit der Erddrehung, erzeugt nämlich nicht nur Gezeiten auf den Ozeanen, sondern sie verformt die gesamte Erdkugel ein kleines bisschen. Das erzeugt Reibungswärme, ähnlich wie ein schwach aufgepumpter Autoreifen beim Rollen heiß wird.

Dazu kommt noch, dass Glut aus den Tagen der Schöpfung unseres Planeten übrig geblieben ist, als es damals sehr heiß zuging. Der Löwenanteil der Hitze aber stammt von der natürlichen Radioaktivität.

 

Radioaktivität

Entdeckt wurde Radioaktivität vor 120 Jahren, von französischen Forschern. Vielleicht ein Grund, warum unsere charmanten Nachbarn jenseits des Rheins eine entspanntere Haltung zur Kernkraft haben.

Um zu beurteilen, ob Strahlung aus Atomkraft eine realistische Gefahr darstellt, ja oder nein, muss man das Ganze quantitativ betrachten. Manchmal ist da von Becquerel (Bq) die Rede – benannt nach dem anderen Entdecker der Radioaktivität, neben Marie Curie. Bq ist die Einheit, mit der die Anzahl radioaktiver Zerfälle pro Sekunde gemessen wird; das ist allerdings kein geeignetes Maß, um eventuelle Gefährdung für Lebewesen zu beschreiben.

Die Wirkung ionisierender Strahlung auf unseren Körper wird „Dosis“ genannt und sie wird in der Einheit mSv (Milli-Sievert) gemessen. Es wäre nun wichtig zu wissen, ab wieviel mSv die Sache gefährlich wird.

Eines ist schon mal sicher: Die natürliche Dosis, die wir permanent abbekommen, kann nicht gefährlich sein. Wieviel ist das? In Deutschland sind das 2,0 mSv pro Jahr, der Durchschnitt weltweit liegt bei 2,4 mSv. Es gibt auch Gegenden mit wesentlich höheren Werten. Champion ist Ramsar im Iran mit 250 mSv jährlich, also hundert-mal mehr! Und all das kommt von Mutter Natur. Und nur zum Vergleich: Neben dem „neuen sicheren Einschluss“ der Reaktorruine in Tschernobyl werden jetzt 8,0 mSv gemessen. Das kommt allerdings nicht nur von Mutter Natur.

 

Was ist das Limit?

Gesetzliche Limits zum Schutz der Bevölkerung vor ionisierender Strahlung sind extrem konservativ. Über die natürliche Dosis von ca. 2 mSv  hinaus soll man nicht mehr als ein weiteres mSv pro Jahr abbekommen. Personen, die aus beruflichen Gründen ionisierender Strahlung ausgesetzt sind, wird aber bis zu 100 mSv zusätzlich zugemutet. Ist das nicht menschenverachtend?

Wir hatten ja gesehen, dass in Ramsar – aber nicht nur dort – die Menschen bei dreistelligen Dosiswerten ein glückliches und langes Leben führen. Angeblich soll an dem Ort, seit Langem als Heilbad beliebt, die Häufigkeit von Lungenkrebs unter dem globalen Durchschnitt liegen.

Ein Thema soll aber nicht unerwähnt bleiben: Uran verbirgt sich nicht immer tief im Inneren der Erde, sondern lagert manchmal nah an der Erdoberfläche. Der Stoff wäre an sich harmlos, würde er nicht zu Radium zerfallen, welches wiederum ein radioaktives Gas von sich gibt, genannt Radon. Es liefert den Hauptanteil an natürlicher Radioaktivität, der wir ausgesetzt sind. Das Zeug ist harmlos, solange es nicht seinen Weg durch Erdspalten in die Keller von Häusern findet und in die Atemluft.

Häuslebauer können sich diesbezüglich beraten lassen, oder aber dafür sorgen, dass Schlaf- und Wohnzimmer immer gut gelüftet sind – auch ohne Radon eine gute Idee.

 

Zahnarzt und Röntgen

Der Segen kommt aber nicht nur von unten, auch von oben werden wir bestrahlt. Aus dem All kommt die kosmische Strahlung, vor der uns zwar die Atmosphäre schützt, aber 0,3 mSv jährlich kommen noch durch. Diese Dosis steigt mit der Höhe rapide an, auf Jet-Niveau ist sie 30 mal so hoch; das ist ein Thema für Airline-Crews und, noch mehr, für Astronauten. All das beschert uns die Natur, ohne Atombombe und ohne Tschernobyl.

Welche Dosis bekommen wir aber von Menschenhand verpasst? Die altmodischen Röntgenapparate und die Computertomographie tragen zur Dosis bei. Ein volles Körper-CT bringt uns ca. 10 mSv ein, das wäre wie 14 Tage Urlaub in Ramsar, ein Brustbild bringt 0,1 mSv, und was der Zahnarzt macht, das können wir total vergessen.  Die Kernspintomographie – auch MRT genannt – trägt übrigens nichts zur Dosis bei, trotz des gefährlichen Namens. Das war mal eine vernünftige Erfindung der alten weißen Männer.

Und noch eine gute Nachricht: Strahlungen von Mikrowelle, TV oder Smartphone ionisieren nicht. Sie sind harmlos. Und auch das KKW nebenan liefert uns keine Dosis.

 

Die Welt, in der wir leben

Das also ist die Welt, in der wir leben:

Einerseits ist da die konstante, natürliche Radioaktivität im Hintergrund und andererseits gibt es lokale Quellen menschengemachter Strahlung, welcher die meisten von uns nur beim „Röntgen“ ausgesetzt sind.

Einerseits quillt da seit Äonen kontinuierlich das radioaktive Radon aus der Erde, andererseits wird behauptet, man könne Kindern und Kindeskindern keinen Planeten hinterlassen, wo in alten Salzstöcken radioaktiver Müll vergraben ist. Hallo, aufwachen! Man müsste unendlich viele Endlager mit radioaktivem Abfall füllen, wollte man dem natürlichen Radon Konkurrenz machen!

Kernkraft ist sicher und es ist die umweltfreundlichste Form der Stromerzeugung. Es gibt derzeit weltweit 440 KKWs, die Elektrizität ins Netz speisen, 55 weitere sind im Bau, 329 sind geplant. Es sieht nicht so aus, als hätte Deutschlands Kindergarten-Motto „Einer muss ja mal anfangen“ den Rest der Welt vom Atomausstieg überzeugt.

Es lohnt sich durch diese Liste zu scrollen; Sie werden sich vorkommen, wie einer der Insassen, die durch das vergitterte Fenster der Anstalt schauen und die sich gegenseitig bestätigen, dass da draußen alle verrückt sind.

Die Gefahr geht nicht vom Atom aus, sondern von einer Ideologie, die sich jeglicher Logik verschließt. Diese Ideologie beschallt uns mit dem idiotischen Schlachtruf „Jedes Becquerel mehr ist eine Becquerel zu viel“. Tatsächlich? In Oberbayern haben Sie ein paar Tausend Becquerel mehr als an der Nordsee. Warum hat man Tegernsee nicht längst evakuiert und die Bewohner in Bremen untergebracht?

 

Ideologie statt Logik

In was für eine Lage ist das Land manövriert worden! Die Tragödie ist nicht, dass es Aktivisten gibt, die mit griffigen Sprüchen die Bevölkerung ködern. Die Tragödie ist, dass Wissenschaft und Industrie kampflos zusahen, als besagte Aktivisten die totale ideologische Lufthoheit über Deutschland eroberten, und dass in der Folge dieses ideologischen Sieges das Land seither von einer Politik beherrscht wird, welche ihre Bürger mit Sprache und Logik auf Kindergarten-Niveau ruhig stellt, um im Hintergrund Entscheidungen zu treffen, die dem Land und damit allen Bürgern, großen Schaden zufügen.

Am 14. Mai 2020 wurden die Kühltürme des Atomkraftwerks Philippsburg gesprengt . In Sekunden waren damit die Quelle eines Drittels des Baden-Württembergischen Strombedarfs für immer zerstört und industrielle Werte in Milliardenhöhe vernichtet.Und so manch einer, der die Rechnung durch überhöhte Strompreise und extreme Steuern demnächst bezahlen muss, hat dabei laut oder im Stillen gejubelt.

Dieser Artikel erschien zuerst bei www.think-again.orgund im Buch „Grün und Dumm“




Verbesserungs­würdig: Über fehler­hafte Ansätze für eine breitenab­hängige Global­temperatur

Zitat:

Here’s how the incident solar flux changes with time-of-day and latitude. This should not be controversial, since it is just based upon geometry. Even though I only do model calculations at latitudes of 5, 15, 25, 35, 45, 55, 65, 75, and 85 deg. (north and south), the global, 24-hr average incident solar flux is very close to simply 1,370 divided by 4, which is the ratio of the surface areas of a circle and a sphere having the same radius…”

Der neutrale GOOGLE-Übersetzer sagt: Hier erfahren Sie, wie sich der einfallende Sonnenfluss mit der Tageszeit und dem Breitengrad ändert. Dies sollte nicht kontrovers sein, da es nur auf Geometrie basiert. Obwohl ich nur Modellberechnungen in Breiten von 5, 15, 25, 35, 45, 55, 65, 75 und 85 Grad mache. (Nord und Süd) liegt der globale, durchschnittlich einfallende Sonnenfluss von 24 Stunden sehr nahe bei 1.370 geteilt durch 4, was dem Verhältnis der Oberflächen eines Kreises und einer Kugel mit demselben Radius entspricht…

Die Ableitung einer breitenabhängigen Tagestemperatur wäre tatsächlich ein guter Anfang für ein hemisphärisches Tag&Nacht-Verständnis gewesen, aber der Rückfall auf einen speichergestützten 24h-Verlauf zerstört diesen Ansatz sofort wieder, wie die nachfolgenden Abbildungen von Dr. Spencer nachweisen:

Abbildungen aus “A Simple ‘No Greenhouse Effect’ Model of Day/Night Temperatures at Different Latitudes“ von Dr. Roy Spencer Links: Einfallende solare Strahlungsleistung von 5° bis 85° geographischer Breite Rechts: 24h-Temperaturverlauf: Im Tagesverlauf wird eingestrahlte Energie über einen speicherfähigen „surface layer responding to heating“ von 0.1 m Tiefe abgezweigt und dem nächtlichen Temperaturverlauf zugerechnet

Das von Dr. Spencer vorgestellte Modell stellt implizit den Temperaturverlauf einer breitenabhängigen Strahlungsbilanz gegen eine Umgebungstemperatur von 0 Kelvin dar, dessen pauschale „Mittelerde“-Anwendung im konventionellen Stefan-Boltzmann-Ansatz zu einer theoretischen Globaltemperatur von (-18°C) führt. Eine breitenabhängige Berechnung der solaren Strahlungsleistung und eine Vorratsspeicherung für die Nachtstunden führt in dem Modell von Dr. Spencer dann zu einer Spreizung der Temperaturen zwischen etwa 60°F (=15,55°C) und etwa -100°F (= -73,33°C). Insbesondere kann Dr. Spencer damit aber die Temperaturgenese auf unserer Erde nicht korrekt erklären, Zitat letzter Absatz aus diesem Artikel:

I hope this will help convince some who are still open-minded on this subject that even intense tropical sunshine cannot explain real-world tropical temperatures. The atmospheric greenhouse effect must also be included. The temperature (of anything) is not determined by the rate of energy input (say, the intensity of sunlight, or how fast your car engine burns gas); it is the result of a balance between energy gain and energy loss. The greenhouse effect reduces the rate of energy loss at the surface, thus causing higher temperatures then if it did not exist.”

Der neutrale GOOGLE-Übersetzer sagt: Ich hoffe, dies wird dazu beitragen, einige, die in diesem Bereich noch aufgeschlossen sind, davon zu überzeugen, dass selbst intensiver tropischer Sonnenschein die realen tropischen Temperaturen nicht erklären kann. Der atmosphärische Treibhauseffekt muss ebenfalls berücksichtigt werden. Die Temperatur (von irgendetwas) wird nicht durch die Energieeintragsrate bestimmt (z. B. die Intensität des Sonnenlichts oder wie schnell Ihr Automotor Gas verbrennt); Es ist das Ergebnis eines Gleichgewichts zwischen Energiegewinn und Energieverlust. Der Treibhauseffekt verringert die Energieverlustrate an der Oberfläche und verursacht somit höhere Temperaturen als wenn sie nicht vorhanden wären.

Schade, da hatte Dr. Roy Spencer die breitenabhängige spezifische solare Strahlungsleistung richtig berechnet. Aber anstatt daraus den gleichzeitigen Verlauf einer S-B-Gleichgewichtstemperatur abzuleiten und mit der Realität abzugleichen, negiert er diese zwingende Gleichzeitigkeit aus dem S-B-Gesetz und leitet aus seinem Speichermodell die Vermutung für einen „isolierenden“ atmosphärischen THE ab. Das Problem bei diesem THE ist nur, dass noch niemals irgendein Körper ohne zusätzliche Energiezufuhr allein durch eine Behinderung seines Energieverlustes WÄRMER geworden ist. Ein solcher Körper wird durch Isolation nämlich nicht WÄRMER, sondern kühlt nur entsprechend LANGSAMER aus. Und die spezifische solare Strahlungsleistung bei vertikalem Einfall, wie sie von Dr. Spencer richtig dargestellt worden war, beträgt zwischen den Wendekreisen ohne Albedo maximal (S0=1.367W/m²) und entspricht einer S-B-Gleichgewichtstemperatur von etwa 120°C – und kann daher sehr wohl die Temperatur in den Tropen erklären.

Dr. Spencer bleibt ausgerechnet die Erklärung schuldig, warum er in seinem Modell die zwingende Gleichzeitigkeit zwischen Temperatur und spezifischer Strahlungsleistung aus dem Stefan-Boltzmann-Gesetz aufhebt und einen wesentlichen Teil der tagseitigen hemisphärischen Strahlungsleistung willkürlich auf die Nachtstunden umleitet.

Die Berechnungen von Dr. Spencer wurden aus Vereinfachungsgründen im Äquinoktium durchgeführt. Aus der spezifischen solaren Strahlungsleistung werden aber hin und wieder auch breitenabhängige tagesdurchschnittliche „spezifische“ 24h-„Mittelerde“-Strahlungsleistungen für den gesamten Jahresverlauf abgeleitet:

Abbildung: 24h-gemittelte tägliche „spezifische“ Strahlungsleistung der Sonne in Abhängigkeit von der Jahreszeit und der geographischen Breite über ein Jahr Links: Abbildung 22b „solar radiation reaching the Earth’s surface“ aus Kramm et al. (2017) „Using Earth’s Moon as a Testbed for Quantifying the Effect of the Terrestrial Atmosphere” (Creative Commons License CC BY 4.0) Rechts: Abbildung 2.6 von Dennis L. Hartmann für die Außengrenze der Atmosphäre aus “Global Physical Climatology”, Chapter 2 Volume 56 in the INTERNATIONAL GEOPHYSICS SERIES, ACADEMIC PRESS 1994

Bis auf eine fehlende Darstellung der „0W/m²“-Linie auf den Polkappen bei Kramm et al. (2017) erscheinen beide Darstellungen zunächst einmal völlig gleich. Die unterschiedlichen Werte für die Maximaleinstrahlung am Pol der jeweiligen Sommerhemisphäre zeigen sogar, dass in beide Berechnungen die Elliptizität der Erdbahn eingegangen ist. In beiden Graphiken fallen am Nordpol über 500 W/m² und am Südpol über 550 W/m² an; denn der Südsommer fällt auf die sonnennahe Seite der Erdbahn (Perihel), während die Sonne im Nordsommer auf deren entfernter Seite (Abhel) steht. Die Übereinstimmung beider Abbildungen ist aber insofern höchst verwunderlich, weil Kramm et al. (2017) eindeutig von „solar radiation reaching the Earth’s surface“ sprechen, während Dennis L. Hartmann (1994) die „Mittlere tägliche Einstrahlung an der Außengrenze der Atmosphäre“ darstellt. Schließlich machen zwischen der Außengrenze der Atmosphäre und der Erdoberfläche die Wolken bereits etwa 70 Prozent der Erd-Albedo von etwa 0,3 aus, und eine dauerhafte Eisbedeckung dürfte sich eher positiv auf die örtliche Albedo auswirken. Ohne den verantwortlichen Lead-Autor unnötig in Aufregung versetzen zu wollen, sollten sich Kramm et al. ihre Abbildung 22b also unbedingt noch einmal genauer anschauen; denn hier wäre dringend ein wissenschaftliches Korrigendum anzuraten.

Tatsächlich ist in beiden oben abgebildeten Graphiken von Kramm et al. (2017) und Dennis L. Hartmann (1994) der Jahresverlauf für die beiden Pole auf +/-90° nördlicher und südlicher geographischer Breite richtig; denn hier kann die spezifische Strahlungsleistung über den 24h-Tag als konstant angesehen werden. Alle anderen Verläufe stellen über 24 Stunden gemittelte Strahlungswerte dar, die umso weniger mit einer originären spezifischen Strahlungsleistung der Sonne zu tun haben, je weiter sich die betreffende Ortslage von einem der geographischen Pole entfernt. Solche gemittelten Strahlungswerte stellen keine originäre spezifische Strahlungsleistung dar und dürfen daher auch nicht mit dem Stefan-Boltzmann-Gesetz in ein Temperaturäquivalent umgerechnet werden. Trotzdem wird manchmal ein solcher Durchschnitt fälschlich in eine S-B-Gleichgewichtstemperatur umgerechnet. In der Veröffentlichung „Using Earth’s Moon as a Testbed for Quantifying the Effect of the Terrestrial Atmosphere” von Gerhard Kramm et al. (2017) finden wir in Abbildung 22a eine solche Darstellung:

Abbildungen 22 a und b aus Kramm et al. (2017)

Beschreibung: “Daily mean values of (a) slab temperature; (b) solar radiation reaching the Earth’s surface; … as predicted for one year starting with TDB=2,455,197.5 (January 1, 2010, 00:00 UT1).”

(Creative Commons License CC BY 4.0)

Anmerkung: Die maximale spezifische Strahlungsleistung unter dem Zenitwinkel von 66,6° zur Sommersonnenwende am jeweiligen Pol der Sommerhemisphäre (abgeleitet von der Solarkonstanten S0=1.367W/m² ohne Erdbahn-Elliptizität) beträgt:

Maximale spez. Strahlungsleistung am Sommerpol ohne Albedo: 544 W/m², entsprechend einer S-B-Gleichgewichtstemperatur von 40°C oder 313K.

Maximale spez. Strahlungsleistung am Sommerpol bei mittlerer Albedo: 374 W/m², entsprechend einer S-B-Gleichgewichtstemperatur von 12°C oder 285K.

In der Abbildung 22a von Kramm et al. (2017) weist die rote Farbgebung nun eine Maximaltemperatur zwischen 280K und 300K für den jeweiligen Pol der Sommerhemisphäre aus. Diese Temperaturspanne entspricht jedoch nicht der entsprechenden spezifischen Strahlungsleistung aus Abbildung 22b mit mehr als 500W/m² (Nordpol) respektive mehr als 550W/m² (Südpol). Denn damit müssten die Ortstemperaturen an den Polen der Sommerhemisphäre in Abbildung 22a deutlich mehr als 300K betragen. Daher können die Temperaturen in Abbildung 22a eindeutig nicht aus den Strahlungswerten von Abbildung 22b hergeleitet worden sein. Sicherlich wird der verantwortliche Lead-Autor diesen Widerspruch mit dem ihm eigenen Charme durch eine plausible physikalische Erklärung auflösen können, die seinen hohen wissenschaftlichen Ansprüchen gerecht wird. Bis dahin bleibt nur der hinreichende Verdacht, dass beim Datensatz für die Strahlungsleistung in Abbildung 22b eine Verwechslung mit den Grunddaten @TOA vorliegen muss.

In Teil 2 meiner Analyse der Thesen und Antithesen für einen natürlichen atmosphärischen Treibhauseffekt hatte ich zu der Abbildung 22a von Kramm et al. (2017) angemerkt, Zitat:

Kramm et al. (2017) stellen in Abbildung 22 den breitenabhängigen 24-Stunden-Durchschnitt der solaren Einstrahlung und dessen S-B-Temperaturäquivalent dar. Die Problematik einer solchen 24-stundendurchschnittlichen solaren Strahlungsleistung hatte ich in meinem EIKE-Artikel „Noch ein paar Fragen zum ‚natürlichen‘ atmosphärischen Treibhauseffekt“ vom 23. Juni 2017 anhand einer vergleichbaren Abbildung von Dennis L. Hartmann ausführlich erläutert; insbesondere lässt ein solcher Strahlungsdurchschnitt keinesfalls die Berechnung eines S-B-Temperaturäquivalentes zu…“

Es handelt sich bei den dargestellten Werten also gar nicht um physikalisch korrekte spezifische Strahlungsleistungen, aus denen sich mittels Stefan-Boltzmann-Gesetz eine rechnerische Gleichgewichtstemperatur ermitteln ließe, sondern nur um mathematisch berechnete 24h-Mittelwerte. Zur Ermittlung eines globalen Jahresverlaufs des maximalen S-B-Temperaturäquivalentes müssen wir vielmehr das breitenabhängige Maximum der spezifischen solaren Strahlungsleistung betrachten:

Abbildung: Das örtliche Maximum der breitenabhängigen temperaturwirksamen spezifischen Strahlungsleistung der Sonne für die gesamte Erde über ein volles Jahr von Herbstäquinoktium zu Herbstäquinoktium

Spez. Strahlungsleistung: MAX (Si) @24h-Tag mit (Si = 1.367W/m² * (1-ALBEDO) * cos PHIi)
und (PHIi = örtlicher Zenitwinkel)

Farbdarstellung: 0 [W/m²] (schwarz) – 940 [W/m²] (rot)

Linke Skala: Grad geographische Breite (Süd = „-“)

Skala oben: Datum ab Herbstäquinoktium

Anmerkung: Ein vergleichbarer geographischer Verlauf ergibt sich ebenfalls für das daraus abgeleitete S-B-Temperaturäquivalent (SBT) zwischen (-273°C=schwarz) und (86°C=rot)

Dabei übertrifft das temperaturwirksame solare Sommermaximum am Nordpol (374 W/m² @ 90°N) sogar das solare Winterminimum in unseren Breiten (270 W/m² @ 50°N). Umgekehrt ist aber die maximale solare Sommereinstrahlung in unseren Breiten in etwa mit der Sonneneinstrahlung am nördlichen Wendekreis bei äquatorialem Sonnenstand vergleichbar.

Damit fällt der jeweilige Pol der Sommerhemisphäre als klimatischer „Hotspot“ schon mal aus, wie die nachstehende Abbildung beweist:

Abbildung: Vergleich der „Daily mean values of (a) slab temperature” von Kramm et al. (2017) – Creative Commons License CC BY 4.0 (links) mit dem Jahresverlauf des örtlichen Maximums der breitenabhängigen temperaturwirksamen spezifischen Strahlungsleistung der Sonne (rechts)

Deutlich wird aus dieser Abbildung, dass die Temperaturen von Kramm et al. (2017) niemals aus einer breitenabhängigen maximalen spezifischen Strahlungsleistung der Sonne abgeleitet worden sein können. Also ist der jeweilige Pol der Sommerhemisphäre mit einer maximalen temperaturwirksamen spezifischen Strahlungsleistung von 374 W/m² und einer S-B-Gleichgewichtstemperatur von 12°C auch kein klimatischer „Hotspot“. Vielmehr verläuft die maximale temperaturwirksame spezifische Strahlungsleistung von 940 W/m² mit einem S-B-Temperaturäquivalent von 86°C am Fußpunkt des jahreszeitlich veränderlichen vertikalen Sonnenstandes zwischen den geographischen Breitenkreisen, was die nachfolgende Abbildung nochmals verdeutlicht:

Abbildung: Tentative Gegenüberstellung der Beleuchtungsklimazonen mit dem Jahresverlauf der maximalen solaren Strahlungsleistung im Sommerhalbjahr (Südsommer linke Hälfte und Nordsommer rechte Hälfte) Overlays rechts und links: Die Beleuchtungsklimazonen der Erde: von oben/unten zur Mitte: Polarzonen, Mittelbreiten, Tropenzone (Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License) Darunter: Das örtliche Maximum der breitenabhängigen temperaturwirksamen spezifischen Strahlungsleistung der Sonne für die gesamte Erde über ein volles Jahr von Herbstäquinoktium zu Herbstäquinoktium

 

Aus der vorstehenden Abbildung ist klar ersichtlich, dass aus den Strahlungs-Hotspots auf der Polkalotte der jeweiligen Sommerhemisphäre nach Kramm et al. (2017) und Dennis L. Hartmann (1994) kein entsprechender Klima-Hotspot resultieren kann. Auch ein „Temperatur-Hotspot“ analog zu Kramm et al. (2017) ist aus dem Abgleich zwischen Beleuchtungsklimazonen und dem Jahresverlauf der maximalen solaren Strahlungsleistung im arktischen und antarktischen Hochsommer beim besten Willen nicht zu erkennen. Die Polkalotten werden vielmehr eindeutig der solaren Polarzone mit extremen jahreszeitlichen Schwankungen der Tageslänge und der Sonneneinstrahlung zugeordnet. Und das absolute Maximum der spezifischen solaren Strahlungsleistung liegt immer noch zwischen den geographischen Wendekreisen. Die polaren Strahlungs-Hotspots sind bei einem 24h-Durchschnitt vielmehr der örtlichen Tageslänge auf der jeweiligen Sommerhemisphäre und damit der längeren Einstrahlungsdauer geschuldet. Umgekehrt wird bei einem 24h-Durchschnitt das Maximum der breitenabhängigen temperaturwirksamen spezifischen solaren Strahlungsleistung in der Äquatorregion aufgrund der wesentlich kürzeren Tageslänge zwischen Sonnenauf- und -untergang auf weniger als die Hälfte reduziert, obwohl diese Region nachweislich den „Klimamotor“ unserer Erde antreibt.

Der Vollständigkeit halber sei abschließend noch darauf hingewiesen, dass die Sonnenscheindauer in höheren geographischen Breiten der Sommerhemisphäre aufgrund der Albedo-Rückkopplung eine wesentliche Rolle bei der langfristigen Klimaentwicklung spielt, wie das bereits Köppen und Wegener in ihrem Buch „Die Klimate der geologischen Vorzeit“ (Bornträger 1924) gezeigt hatten. Eine einfache Hypothese für eine solche Albedo-Rückkopplung wird hier beschrieben.

 




Die Pilze von Tschernobyl

Wer etwas nachdenkt, kann diesen Unsinn sofort erkennen: Wurden doch allein zig Tonnen Plutonium bei den Kernwaffentests in die Atmosphäre freigesetzt. Aber dieser Irrglaube hält bis heute an. So ist doch inzwischen das Hauptargument gegen die Kernenergie der böse „Atommüll“, vor dem die Menschheit für Millionen Jahre geschützt werden muß. Genau dieses Scheinargument wird aus der Halbwertszeit von Plutonium – ganz nebenbei, ein willkommener Energiespender, viel zu schade zum verbuddeln – hergeleitet.

Es gibt aber noch einen weiteren Einwand gegen eine übertriebene Strahlenangst. Wäre die Natur so empfindlich, gäbe es uns gar nicht. Radioaktiver Zerfall geht immer nur in eine Richtung. Mit jedem Zerfall, bei dem Strahlung ausgesendet wird, ist dieses Atom unwiederbringlich verschwunden. Deshalb war in grauer Vorzeit die Strahlenbelastung wesentlich höher als heute (z. B. der Anteil an U235 im Natururan und seine Zerfallsketten). Das Leben auf der Erde mußte deshalb von Anbeginn an „Selbstheilungsstrategien“ entwickeln, um sich überhaupt auf eine höhere Stufe entwickeln zu können. Erdgeschichtlich standen am Anfang die Pilze (sie sind weder Pflanzen noch Tiere), die das noch völlig karge Land vor Milliarden Jahren eroberten. Sie konnten lebenswichtige Mineralien gewinnen. Eine Eigenschaft, die sie bis heute auszeichnet. Allerdings wurden dadurch auch radioaktive Stoffe aufgenommen, mit denen sie umgehen mußten.

Pilze und Bakterien

Insofern ist es nicht verwunderlich, daß schon 2008 in dem Trümmerfeld des Reaktors von Tschernobyl Pilze gefunden wurden. Sie siedelten teilweise auf den mit Brennstoffresten verschmutzen Graphitblöcken. Wohlgemerkt, mitten im Atommüll. Man hat schon lange den Verdacht, daß Pilze enorm widerstandsfähig gegenüber ionisierender Strahlung sind. So findet man in den Schichten der frühen Kreidezeit viele melaninhaltige Pilzsporen. In einer erdgeschichtlichen Periode, in der viele Pflanzen- und Tierarten schlagartig verschwunden sind. Man führt dies auf starke kosmische Strahlung durch ein astronomisches Ereignis bzw. einen Nulldurchgang des Erdmagnetfeldes zurück. Es gab auch Überlegungen, Pilze zur Renaturierung stark verseuchter Gebiete einzusetzen, da sie auch radioaktive Stoffe begierig aufnehmen und aus ihrer Umgebung herauslösen.

In einer Studie von Dadachova und Casadevall ergibt sich noch ein ganz anderer Effekt: Alles deutet darauf hin, daß manche Pilze durch ihr Melanin ionisierende Strahlung zur Energieumwandlung nutzen können, analog dem Chlorophyll bei Pflanzen. Die Studien gehen auf Untersuchungen über den Pilz Aspergillus Niger aus dem ≫Evolution Canyon≪ in Israel zurück. Dort hat man auf der Südseite eine 200%-800% höhere Sonneneinstrahlung als auf dessen Nordseite. Folglich ist der Melaningehalt bei den Pilzen auf der Südseite entsprechend höher. Diese Pilze wuchsen bei intensiver UV-Bestrahlung wesentlich besser. Wenn man diese Pilze einer Strahlung aus einer Co60 – Quelle von bis zu 4000 Gy aussetzte, wuchsen sie ebenfalls schneller. Dies deutet daraufhin, daß sie nicht nur nicht geschädigt werden durch so hohe Strahlung, sondern viel mehr diese Strahlungsenergie nutzbringend über ihr Melanin umwandeln können. Inzwischen hat man nicht nur Bakterien und Pilze in der Reaktorruine in Tschernobyl gefunden, sondern auch im Kühlwasser von Reaktoren. Dort sind sie ebenfalls extremer Strahlung ausgesetzt. Bisheriger Spitzenreiter bei den Bakterien ist Deinococcus radiodurans mit einer Todesrate von 10% (letale Dosis, LD10) erst bei einer Dosis von 15000 Gy. Zum Glück ist dies bei Bakterien eine Ausnahme. Üblicherweise setzt man zur Haltbarmachung von Lebensmitteln γ-Strahlen mit einer Dosis von 1000 Gy ein. Escherichia coli Bakterien haben beispielsweise eine LD10 schon bei 700 Gy. Ganz anders sieht es bei melaninhaltigen Pilzen aus. Viele dieser Hefe- oder Schimmelpilze haben eine LD10 erst bei 5000 Gy.

Mit den „Tschernobyl-Pilzen“ wurden weitere, verblüffende Experimente durchgeführt. Sie wurden unterschiedlichen ionisierenden Strahlen durch Quellen aus P32 und Cd109ausgesetzt. Bei all diesen Experimenten konnte festgestellt werden, daß sie bei gerichteten Quellen zumeist bevorzugt in diese Richtungen wuchsen – ähnlich wie Pflanzen, die sich nach dem Licht ausrichten. Harte Strahler (Cs137) wirkten positiver als weiche (Sn121). Pilze, die aus einer stark strahlenden Umgebung stammen, reagierten stärker als Pilze aus unbelasteten Regionen. Man kann also von einer Gewöhnung an die Strahlung ausgehen (“radioadaptive response”).

In und auf der internationalen Raumstation (ISS) gibt es zahlreiche eingeschleppte Pilze. Die kosmische Strahlung ist dort natürlich sehr viel geringer (etwa 0,04 Gy pro Jahr), aber gleichwohl sind Pilze mit höherem Melaningehalt überproportional vertreten. Keinesfalls jedoch, sind sie durch die jahrelange kosmische Strahlung abgetötet worden.

Nutzung durch Melanin

Eine Hypothese geht davon aus, daß das Melanin selbst auf ionisierende Strahlung reagiert und sich anpaßt. Dies würde auch den „Lerneffekt“ durch längere Bestrahlung erklären. Es sind jedenfalls eindeutige Veränderungen nach der Bestrahlung in den ESR (electron spin resonance signal) und HPLC (high performance liquid chromatographie) Meßwerten feststellbar. Dies betrifft z. B. vierfach höhere Werte an NADH (Nicotinamid-Adenin-Dinukleotid-Hydrogen), einem besonders starken Antioxidationsmittel. Ohne hier weiter auf Details einzugehen, kann man festhalten, daß bei einer 500-fachen Strahlendosis gegenüber der Hintergrundstrahlung, bei verschiedenen Pilzen ein wesentlich schnelleres Wachstum mit mehr Kolonien und größerer Trockenmasse eintrat. Stark vereinfacht gesagt, scheint das Melanin ionisierende Strahlung zu nutzen, um CO2 in Biomasse zu verwandeln. Ferner schützt das Melanin die anderen Bauteile einer Zelle vor Strahlenschäden.

Der Kampf mit den Einheiten

Diese Untersuchungen und Erkenntnisse sind für einen Kerntechniker eher ein Randgebiet. Sie sind mit Sicherheit wichtiger für Biologen und Strahlenmediziner. Allerdings kann man sich damit eine gewisse Skepsis gegenüber dem Zahlenkrieg von „Atomkraftgegnern“ bezüglich „Atommüll“ etc. erhalten. Abschließend deshalb noch ein paar Worte zu den Einheiten und den Größenordnungen. Die Einheit Gray [Gy] beschreibt die pro Masse absorbierte Energie. 1 Gy entspricht einem Joule pro kg in SI-Einheiten. Früher verwendete man die Einheit [rad]. Wobei 100 rad einem Gy entsprechen. Eine sehr geringe Menge Energie. Sind doch rund 4200 J nötig, um 1kg Wasser um 1°C zu erwärmen. Will man die biologische Wirksamkeit unterschiedlicher Strahlung erfassen (z. B. Alphateilchen werden mit einem Strahlungs-Wichtungsfaktor von 20 multipliziert), geht man auf die Einheit Sievert [Sv] über. Die Energie von 1J/kg bleibt bei beiden Einheiten gleich. Nun zu einigen Eckwerten: Eine Ganzkörperdosis von 5 Sv führt bei 50% der Menschen innerhalb von 30 Tagen zum Tod (ohne medizinische Versorgung). Beruflich strahlenexponierte Menschen dürfen einer jährliche Dosis von 0,020 Sv ausgesetzt sein. Maximal in einem einzelnen Jahr von 0,050 Sv. Eine in Deutschland lebende Person erhält eine mittlere effektive Dosis von 0,0021 Sv pro Jahr.

In diesem Artikel wurden bewußt alle Ziffern einmal ausgeschrieben und auf die üblichen Dezimalvorsätze verzichtet. Damit soll die in der Natur vorkommende Bandbreite von „Strahlengefahr“ deutlich gemacht werden. Möge dies ein Hinweis sein, warum es in Tschernobyl nicht „Millionen Tote“, ausgestorbene Wälder und eine „Mutanten-Show“ gibt. Ganz im Gegenteil: Die Natur erobert sich bereits sogar die Reaktortrümmer zurück. Die reale Welt hat halt wenig mit der Phantasie – oder sollte man besser dem Wunschdenken sagen – von „Atomkraftgegnern“ gemein.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Kelvin allein zu Haus: Der Unter­schied zwischen zwei Watt ist deren Umgebungs­temperatur

 

Abbildung: Die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes       Rot: Verlauf der T4-Funktion des Stefan-Boltzmann-Gesetzes           Blau: Temperaturanstieg für einen zusätzlichen Strahlungsbeitrag von (Delta S = 235 W/m²) in Abhängigkeit von der jeweiligen Umgebungstemperatur T0

Je nach Umgebungstemperatur T0 ergibt eine spezifische Strahlung von (Delta S = 235 W/m²) also einen Temperaturanstieg von 255K oder von 46K oder von 32K oder…

Wenn wir uns jetzt einmal in der nachfolgenden Graphik genauer ansehen, welchen Temperaturanstieg eine zusätzliche Leistung von 1 [W/m²] nach dem Stefan-Boltzmann-Gesetz bewirken kann, dann reicht die Spanne von 64,8K bei 0 [W/m²] (entsprechend einer Umgebungstemperatur von 0K) bis zu 0,18K bei 399 [W/m²] (entsprechend einer Umgebungstemperatur von 289K):

Das große Diagramm ist für eine verbesserte Auflösung auf 3 Kelvin reduziert, die 64,8K bei 0 W/m² bestimmen den Maßstab der kleinen Graphik. Hier ist aufgetragen, um wieviel Kelvin sich die Temperatur erhöht, wenn die spezifische Strahlungsleistung um (Delta S = 1 W/m²) ansteigt, beispielsweise ergibt sich bei dem Schritt von 40 auf 41 W/m² ein Anstieg von 1 Kelvin. Das T4-Gesetz von Stefan und Boltzmann weist also jedem Delta S [W/m²] ein ganz konkretes Delta T [K] zu, je nachdem, wie groß die jeweilige spezifische Strahlungsleistung der Umgebung in [W/m²] respektive deren Temperaturäquivalent T0 [K] ist.

Umgekehrt erhöht sich nach dem Stefan-Boltzmann-Gesetz mit steigender Umgebungstemperatur T0 die erforderliche Strahlungsleistung Delta S [W/m²], um einen weiteren Temperaturanstieg von 1 Kelvin auf T1 zu bewirken:

Der lernhelfer.de erklärt die S-B-Umgebungsgleichung folgendermaßen (mit kleinen Anpassungen durch den Autor): Je nach dem Verhältnis der beiden Temperaturen T1 (Körper) und T0 (Umgebung >>Körper) sind drei Fälle zu unterscheiden:

Wenn T 1 > T 0 dann gibt der Körper mehr Strahlung an die Umgebung ab als er aufnimmt.
Er kühlt sich dabei ab.

Wenn T 1 = T 0 dann befindet sich der Körper mit seiner Umgebung im Strahlungsgleichgewicht. Die Temperatur des betreffenden Körpers bleibt gleich.

Wenn T 1 < T 0 dann nimmt der Körper mehr Strahlung aus der Umgebung auf als er an diese abgibt.
Er erwärmt sich dabei.

Versuchen wir einmal, diese Gesetzmäßigkeit analog zur Abbildung (Delta Strahlungsleistung pro 1 Kelvin) graphisch vereinfacht mit Dreiecken abzubilden:

In allen 3 Fällen hat der Körper am Ende also die gleiche Temperatur wie seine Umgebung. Die nachfolgende Abbildung mag diesen Vorgang auf Grundlage der vorherigen „Dreieckssymbolik“ verdeutlichen:

Vielleicht wird jetzt auch deutlich, warum man die hemisphärische solare Einstrahlung auf der Tagseite nicht über die gesamte Erdoberfläche mitteln darf. Die nachfolgende Mittelung von (S0*(1-ALPHA)=Seff=940 W/m²) auf die Hemisphäre der Tagseite mit (Smean = 470 W/m²) ist eigentlich falsch, denn korrekt folgt die örtliche Einstrahlung der Formel (Si = Seff * cos PHIi). Aber dann lässt sich die Situation wiederum graphisch nicht mehr so einfach darstellen. Die nachfolgende vereinfachte Graphik möge also lediglich den Fehler einer globalen Mittelung verdeutlichen:

Der Strahlungsdurchschnitt von 470 W/m² (korrekt: 940W/m²*cosPHIi) umfass einen Strahlungsbereich von 0-940W/m² für die tagseitige Hemisphäre mit einem maximalen S-B-Temperaturäquivalent von 85,7°C @ 940W/m². Bei der globalen Mittelung der tagseitigen solaren Einstrahlung fällt also genau derjenige Teil der spezifischen solaren Strahlungsleistung weg, der Temperaturen oberhalb von (-18°C) erzeugen kann. Mit dem sogenannten „natürlichen atmosphärischen Treibhauseffekt“ soll dann in einem thermodynamisch widersinnigen Prozess ein kälterer Körper einen wärmeren Körper um angeblich 33°C erwärmen, um schließlich wieder der „gemessenen“ Realität zu entsprechen. Aber dazu fehlt diesem kälteren Körper ganz offensichtlich die erforderliche spezifische Strahlungsleistung, denn die Leistungsdifferenz von [Delta S = 155 W/m²] liegt eindeutig „außerhalb“ der spezifischen Strahlungsleistung dieses kälteren Körpers.

Mit der globalen Mittelung der hemisphärischen Sonneneinstrahlung hatte man also deren S-B-Temperaturäquivalent soweit reduziert, dass zwischen dieser fehlerhaften theoretischen Ableitung und der „gemessenen“ Realität eine Lücke von 33 Grad klafft. Diese Lücke hatte man dann mit einem frei erfundenen Perpetuum-mobile-Prozess namens THE wieder zu schließen versucht. Aber „2x falsch“ ergibt nun mal nicht „richtig“, auch wenn das Ergebnis nun scheinbar wieder stimmt. Es ist vielmehr eine böse Ironie des Schicksals, das dieses antiphysikalische „Trojanische Pferd“ jetzt einer politisch gewollten Großen Transformation dazu dient, die Zerstörung des kohlenstoff-basierten Lebensstandards in den westlichen Industrienationen zu begründen, was unsere Kinder und Enkel schließlich in ein ökologisches und ökonomisches Mittelalter zurückwerfen wird. In das intellektuelle Mittelalter eines klimareligiösen Angstglaubens hatte uns ja bereits die politische Klimawissenschaft mit ihrem jahrzehntelangen medialen Trommelfeuer aus Schreckensmeldungen geführt…




Die fünfteilige Fernsehserie „Tschernobyl“; Eine Serie von SKY und HBO

Es ist ein Film, der zeigt, wie Menschen eine Katastrophe ausgelöst haben und dann damit umgegangen sind. War Tschernobyl das Schlimmste, was Menschen je angerichtet haben? Dazu zeigt der Film eine eindrucksvolle Szene. Eine alte Frau soll bei der Evakuierungsaktion ihr verstrahltes Anwesen verlassen, gerade, als sie ihre Kuh melkt. Sie sagt dem Soldaten, der sie nicht nur auffordert mitzukommen, sondern sie mit seiner Waffe bedroht: „Ich habe die Revolution überstanden, den anschließenden Bürgerkrieg, die Hungersnot nach der Zwangskollektivierung und die Kämpfe des 2. Weltkrieges. Wovor sollte ich noch Angst haben? Ich bleibe.“

Viele Leute, vorwiegend Alte, haben damals so entschieden. Es ist auch so: Alle die aufgeführten von Menschen absichtlich herbeigeführten Katastrophen waren schlimmer als Tschernobyl, selbst wenn man den übertriebensten Behauptungen glaubt.

Was im Film nicht gesagt wird: Wer sich der Evakuierung widersetzte, entschied meist richtig. In Weißrussland sollte niemand mehr als 40 Mikrosievert pro Stunde (µSv/h) ausgesetzt sein, wo höhere Werte gemessen wurden, holte man die Leute ab. 40 µSv/h ist zwar fast das Doppelte, was Astronauten u.a. in der Station „Mir“ aushalten mussten (27 µSv/h), aber das über Monate, während die Strahlung aus Tschernobyl schon nach 2 Wochen erheblich abgenommen hatte. Bewohnte Bereiche der Stadt Ramsar im Iran bekommen dauernd bis 28 µSv/h von Natur aus.

Ist nun aber Tschernobyl nur der schlimmste Unfall der Kerntechnik, oder die größte technische Katastrophe des 20. Jahrhunderts? Es war die größte Katastrophe der Technik überhaupt, liest man in einem Bericht der weißrussischen Regierung von 2016. Weißrussland hätte darunter am meister gelitten. Im selben Bericht wird aber auch geschrieben, die Zahl der Sterbefälle in Weißrussland pro 100.000 Personen und Jahr hätte keinen Anstieg gezeigt, nicht einmal unter den „Liquidatoren“. Das heißt, Opfer unter der nicht im Kraftwerk beschäftigten Bevölkerung gibt es nicht oder sie sind zu selten, um sich in der Sterbestatistik zu zeigen. Wie passt das zu der Aussage, es wäre die größte technische Katastrophe gewesen, mit „nur“ etwa 50 Toten?

Ich denke, das kann man schon sagen. Mehrere Zehntausend Menschen haben einige Jahrzehnte gearbeitet, um das größte Kraftwerkszentrum der Welt zu errichten, alles vergeblich. Eine Stadt mit 50.000 Einwohnern und dazu noch über 100 größere und kleine Orte wurden aufgegeben. Halb Europa wurde in Mitleidenschaft gezogen. Bei uns gilt: Niemand außerhalb des Geländes eines Kernkraftwerkes darf einer höheren Jahresdosis als 0,3 mSv ausgesetzt werden. Das ist wenig, 15 % der normalen Strahlenexposition im Flachland von 2 mSv. Unsere Kraftwerke haben diesen Grenzwert locker eingehalten, nicht einmal 0,1 mSv wurden jemals überschritten. Es hätte aber auch eine gewaltige Aufregung ausgelöst und wäre das Topthema in allen Medien gewesen, wären irgendwo ein paar Leute den 0,3 mSv nahegekommen oder sogar darüber hinaus.

Und da deckte das Unglück in einem Land, das gar nicht an Deutschland grenzt, uns von der Nordsee bis zu den Alpen mit radioaktiven Isotopen ein, was die meisten Menschen hier mit dem halben Grenzwert belastete, in großen Gebieten aber mit dem vollen Wert von 0,3 und hier und da auch mit mehr als 0,3 mSv/a.

Im Film konnten die Fachleute gar nicht begreifen, was passiert war, und hielten es für unmöglich. Uns an der „Asse“ ging es ebenso. Wir bestimmten die Aktivität von Regenwasser und konnten das Ergebnis nicht glauben. Das musste doch ein Messfehler sein!

Wir besorgten uns Daten, wie viel Aktivität in so einem Reaktor ist, und dividierten den Wert durch die Fläche von halb Europa. Das Ergebnis passte zu unseren Messwerten.

Die Beurteilung des Unglücks als größte technische Katastrophe ist schon berechtigt, und der Film darüber wirklich eindrucksvoll und sehenswert. Allerdings werden Strahlenwirkungen teilweise übertrieben dargestellt. Wer Strahlendosen über 7 Sievert abbekommt, stirbt nach qualvollem Leiden innerhalb von einigen Wochen. Ärzte können den Tod hinauszögern, aber nicht verhindern. Der Film zeigt da grässliche Bilder, aber so war es. Dass aber die Toten dann solche Strahlenquellen sind, dass man sie nicht anfassen darf, stimmt nicht.

Getötet wurden sie durch Gammastrahlen, die aber keine Radioaktivität im Körper erzeugen. Dazu kamen Neutronenstrahlen. Die sind tatsächlich in der Lage, aus normalen Atomen radioaktive zu machen. Wer aber wie ich einmal die Ausbeuten berechnet hat (nicht von Leichen), weiß, dass sehr wenig dabei herauskommt. Eine andere Möglichkeit ist, dass radioaktive Stoffe in die Körper der Leute eingedrungen sind. Trotz Schutzkleidung und teilweise Atemschutz mag das passiert sein, aber viel war es sicher nicht. Eine lebensgefährliche Strahlung aus den Körpern heraus ist nicht vorstellbar.

Im Film wird behauptet: Würde es zu einer Wasserstoffexplosion kommen, dann wäre das die eigentliche Katastrophe, auch die Stadt Kiew hätte aufgegeben werden müssen. Sicherlich nicht. In Fukushima hat es eine Wasserstoffexplosion gegeben. Dadurch wurde die Freisetzung erheblich erhöht, erreichte aber trotzdem bei weitem nicht den Grad von Tschernobyl. Eine Wasserstoffexplosion in Tschernobyl hätte zu einer erheblichen zusätzlichen Freisetzung von Radioaktivität geführt, so dass es gut war, dass man sie verhindern konnte. Aber mehr Radioaktivität als im Reaktor war, konnte nicht verstreut werden, und etwa ein Viertel war schon draußen.

In einem Film über Tschernobyl erwartet man, dass ein Anstieg der Krebsraten beobachtet wird. Wirklich? Im erwähnten Bericht der Weißrussischen Regierung wird das bestritten. Woher kommt überhaupt die Ansicht, mehr Krebs wäre zu erwarten?

Im Film wird einfach behauptet, es wäre so. Unabhängig vom Film möchte ich darlegen, woher diese Behauptungen kommen. Bei hohen Dosen, man hat das bei Hiroshima und Nagasaki beobachtet, gibt es wirklich einen Anstieg der Krebsraten. Aus den dortigen medizinischen Statistiken ließ sich ermitteln: Werden 100 Personen je einer Strahlendosis von einem Sievert (Sv) ausgesetzt, dann ist mit 5 zusätzlichen tödlichen Krebsfällen zu rechnen. Da es leider sowieso 25 Krebsfälle pro 100 Personen gibt, werden es also 30. Außerhalb des Reaktorgeländes von Tschernobyl hat niemand 1 Sv abbekommen. Aber für solche Fälle hat man die Kollektivdosis erfunden. Die 100 Leute, je 1 Sv, haben zusammen 100 Sv. Es gibt also pro 100 Sv 5 Tote. Die gesamte betroffene Bevölkerung um Tschernobyl hat zusammen etwa 80.000 Sv abbekommen. Für jeden waren es im Durchschnitt 16 mSv, also 5.000.000 x 0,016 = 80.000. 16 mSv sind nicht viel gegenüber der natürlichen Umgebungsstrahlung. Die bringt uns in 80 Jahren 2 x 80 = 160 mSv. Also bringen 16 mSv vermutlich keinen um, aber nun kommt die Kollektivdosis. Pro 100 Sv gibt es 5 Tote, also rechnet man: (80.000: 100) x 5 = 4.000 Tote.

Machen wir die Rechnung einmal für Schnaps. Jemand trinkt 2 l und stirbt an Alkoholvergiftung. Oder die Flasche wird an 100 Personen verteilt, jeder bekommt ein Schnäpschen von 20 ml. Aber zusammen sind es wieder 2 l, also muss genau einer von 100 sterben? Absurd? Aber so werden die Tschernobyl-Toten berechnet. 4.000 sind „Grünen“ jedoch zu wenig. Das lässt sich ändern. Der Ausgangswert von 5 zu 100 wird erhöht, die Kollektivdosis auch, so kommt man zu passenden Zahlen. Hat das aber etwas mit der Wirklichkeit zu tun?

 

Trotz dieser Übertreibungen: Der Film wird Anti-Atom-Aktivisten keine Freude machen. Das Fazit ist keineswegs: Diese Technik ist zu gefährlich, legt alle Kernkraftwerke still! In der fünften und letzten Folge wird die juristische Aufarbeitung gezeigt. Nur nebenbei wird erwähnt, dass auch die Konstrukteure eine Mitschuld trifft. Die Steuerstäbe hätten besser sein können.

 

Es geht um das Verhalten der Menschen. Vorgesetzte waren uneinsichtig, teilweise aber auch hilfreich, Untergebene waren zu gehorsam, Unangenehmes wurde unterdrückt. Aber Einige riskierten alles, um die Wahrheit ans Licht zu bringen. Nicht die Technik an sich, sondern das Verhalten der Menschen hat das Unglück herbeigeführt, durch Nachlässigkeit, Machtstreben und viele Lügen.

 

Das wird ganz allgemein gesagt: Die Wahrheit zu unterdrücken, kann immer nur schlimme Folgen haben.

 

Hannover, den 17.09.2019




Alarm, Angst, weglauf – hier ist alles verstrahlt!

Radioaktivität ist verboten

Der Gesetzgeber hat zusätzliche Radioaktivität verboten, denn das hätte eine zusätzliche Bestrahlungsdosis zur Folge, und das soll gefährlich sein. Aber was ist zusätzliche Radioaktivität? Der ganze Erdball ist radioaktiv, aber nicht gleichmäßig, sondern an allen Stellen verschieden hoch. Es sollen drei Beispiele beschrieben werden, wo es Strahlenalarm gegeben hat, weil unser Herrgott etwas zu schlampig bei der Erschaffung der Erde vorgegangen ist.

 

1) Die (Hals)kettenreaktion [1]

Vor etwas mehr als einem Jahr gab es Strahlenalarm am Frankfurter Flughafen durch eine Luftfrachtsendung aus China, die an eine Adressatin in der Schweiz geliefert werden sollte. Die Sendung enthielt 25kg von einem Gesteinspulver mit erhöhter Radioaktivität. Einige Jahre zuvor hatte die Adressatin schon einmal eine ähnliche Menge vom radioaktiven Gesteinspulver bestellt, welches ohne Strahlenalarm über den Seeweg die Empfängerin erreicht hatte. Die Kundin in der Schweiz hat mit dem Gesteinspulver Halsketten hergestellt, die nicht nur hübsch aussehen, sondern denen auch noch eine förderliche Wirkung für die Gesundheit zugeschrieben wird. Die erste Sendung war aufgebraucht, jetzt war weiteres Material notwendig.

Der Strahlenalarm am Frankfurter Flughafen hatte erhebliche Folgen: Die Polizei erschien bei der Adressatin, sie wurde verhört, alles radioaktive Material wurde sichergestellt. Alle früheren Kunden wurden benachrichtigt, auch deren Halsketten sollten entsorgt werden. Das Ganze wurde als Straftat bezeichnet. Es ist eine lange Geschichte [1], die hier im Einzelnen nicht ein zweites Mal beschrieben werden kann.

Ich habe eine Halskette dieser Art in den Händen gehalten und konnte mit einem verlässlichen Strahlenmeßgerät direkt auf der Kettenoberfläche einen Strahlenpegel von 5 Mikrosievert pro Stunde messen. Bei einem Flug auf Reiseflughöhe auf unserer Breite setzen sich ALLE Insassen des Fliegers STÄNDIG mit ihrem GANZEN Körper einem Strahlenpegel von etwa 5 Mikrosievert pro Stunde aus (noch variabel mit der Aktivität der Sonne). Unser Herrgott hat Himmel und Erde geschaffen, so steht es geschrieben. Warum ist dann die Strahlung in der Höhe erlaubt, die gleiche auf der Erde aber verboten?

 

2) Die Mineraliensammlung in Schulen im Salzburger Land [2]

Durch Zufall wurden durch den Anti-Atomaktivisten Thomas Neff in der Mineraliensammlung einer Salzburger Schule radioaktive Gesteinsproben entdeckt. Das ergab ein Medienecho, initiiert durch die Salzburger Plattform gegen Atomgefahren und hatte zur Folge, daß überall nach „brisantem Material“ gesucht wurde, denn schließlich hatte der Geiger-Zähler bis zum Anschlag ausgeschlagen. Man wurde an etlichen Schulen fündig und startete ein Meßprogramm mit den 44 gefundenen Gesteinsproben. In 10cm Entfernung von den Proben wurde ein Strahlenpegel im Bereich von <0,1 bis zu >10 Mikrosievert pro Stunde gemessen, Maximalwert war 29 Mikrosievert pro Stunde.

Die Gesteinsproben lagerten schon jahrzehntellang unbenutzt in den Schränken. Die meisten stammten vermutlich aus St. Joachimsthal in Tschechien, das auf Gestein liegt mit höherer Radioaktivität. Das wird dort das radioaktive Edelgas Radon aus dem Gestein freigesetzt, so daß der Ort zu einem Heilbad wurde.

Es wurde veranlasst, daß die Gesteinsproben nur in bruchsicheren verschlossenen Gefäßen aufzubewahren sind, und daß diese Gefäße wiederum in abgeschlossenen Schränken aufzubewahren sind. So sei sichergestellt, daß niemand weder ein Staubkörnchen von den Steinen einatmen könne, noch davon abbeißen könne. Zugang ist nur unterwiesenen Personen während möglichst kurzer Zeit erlaubt.

Wieder bietet sich der Vergleich mit dem Strahlenpegel beim Fliegen an: In der üblichen Höhe von 10 bis 12km sind es etwa 5 Mikrosievert pro Stunde, in der größeren Flughöhe der Concorde wurden die Fluggäste während der gesamten Flugzeit einem Strahlenpegel von 10 bis 15 Mikrosievert pro Stunde ausgesetzt. Ist es die Richtung, aus der die Strahlung kommt, die den Unterschied in der Bewertung macht: einmal vom Himmel, das andere Mal von der Erde??? Aber warum ist dann seit uralten Zeiten der Herkunftsort der Steine, St. Joachimsthal, ein Heilbad??? Sind die Strahlen von unten wirklich „Teufelszeug“, wie es Kardinal Reinhard Marx aus München mit einer Bemerkung anzudeuten schien???

 

3) Strahlung inmitten unserer Städte [3]

Überall, wo viele Menschen sind, wird inzwischen nach Strahlung gesucht. So hat man in den Zentren der Städte gesucht – und natürlich wurde man fündig. Es werden folgende Strahlenpegel angegeben:

Der natürliche Untergrund mit                                       60 bis 80 nSv/h

Die tolerierbare Umgebungsstrahlung sind                    maximal 300 nSv/h

Erhöhte Strahlung in Leipzig, Dresden                          um 600 nSv/h

Strahlung in Oranienburg, Hannover, jetzt saniert          1 200 nSv/h bis 15 600 nSv/h

Zur Erläuterung:

1 nSv = 1 Nanosievert = 1/1000 Mikrosievert = 1/1000 µSv = 1/1 000 000 Millisievert = 1/1 000 000 mSv

Natürlich muß man eine ganze Stunde an der Stelle mit 15 600 nSv/h stehen bleiben, um die gleiche Dosis zu erreichen, die Fluggäste in der Concorde während einer Stunde erhalten. Die Concorde gibt es nicht mehr, aber im normalen Flugzeug über den großen Teich ergeben sich dieselben zusätzlichen Bestrahlungsdosen:

Beim Flug über den Atlantik FRA – JFK – FRA summiert sich die erhaltene Dosis auf

80 µSv bis 140 µSv

Und das sind Bestrahlungsdosen, die in der Kerntechnik sämtliche Alarmglocken läuten lassen würden, denn in der Kerntechnik werden riesige Geldbeträge ausgegeben, um die vom Gesetzgeber vorgegebene Grenze einer zusätzlichen Dosis von

10 µSv/a

nicht zu überschreiten. Bei der Kerntechnik gibt es in Medien Schlagzeilen „Alles ist verstrahlt“, Dosisvergleiche mit Bodenstrahlung oder Höhenstrahlung werden vermieden.

 

Was soll mit den niedrigen in der Kerntechnik geltenden Grenzen bezweckt werden?

Diese Frage liegt nahe, aber eine Antwort könnte nur der Gesetzgeber geben. Der Gesetzgeber steht aber zur Beantwortung von Fragen des Bürgers nicht zur Verfügung. Und es steht zu vermuten, daß er in der Materie nicht Bescheid weiß, die Fragen nicht beantworten kann. Die niedrigen Grenzen gelten nur für den Umgang mit Kernbrennstoffen, nicht für Bodenstrahlung, nicht für Höhenstrahlung und nicht in der Medizin. Natürlich sind die Grenzen in der Kerntechnik unlogisch, aber da sich niemand auskennt und da die wirklichen Fachleute in Medien und Politik nicht gehört werden, funktioniert die Volksverführung mit der Strahlenangst.

Die Strahlenangst wird geschürt um ein politisches Ziel zu erreichen. Die Medien machen da mit. Entweder sind sie schon selber von der Strahlenangst total ergriffen, so daß sie sich noch nicht einmal dazu aufraffen, sich in den Fachmedien zu informieren. Oder die Medien sind inzwischen so stark von der Obrigkeit abhängig geworden, daß sie sich keine freie Berichterstattung mehr zutrauen.

[1] https://nuklearia.de/2018/10/18/radioaktive-halskette/Sehr zu empfehlen, denn die 27-seitige Darstellung von Dr. Walter Rüegg mit vielen nützlichen Zitaten befasst sich mit dem Strahlenrisiko, was durch eindrucksvolle Vergleiche die behördlichen Vorschriften lächerlich erscheinen lässt.

[2] StrahlenschutzPRAXIS 2/2018 Seite 50 bis 53

[3] R. Gellermann: The world we really live in – communication on radiation, Kerntechnik 77 (2012) 3




Stickoxid, Ethanol, Strahlung — Wie giftig sind diese Gifte?

Grundsätzliches: Was ist ein Gift?

Wenn man eine Substanz auf deren Schädlichkeit für Lebewesen untersuchen will, macht man damit Tierversuche, indem man die Tiere hohen Konzentrationen der Substanz aussetzt. Es wird der NOAEL-Wert (No Observed Adverse Effect Level) festgestellt: oberhalb dieses Wertes gibt es schädliche Einflüsse auf das Leben der Tiere, unterhalb des Wertes ist kein Schaden feststellbar, siehe folgende Darstellung:

Aus dem NOAEL-Wert leiten Toxikologen den MAK-Wert ab, das ist die Maximale Arbeitsplatz Konzentration der Substanz in der Luft für 1600 Arbeitsstunden im Jahr. Der MAK-Wert gilt für Menschen, und dabei wurde ein Sicherheitsabstand zum NOAEL berücksichtigt. In der MAK-Liste findet man dazu Einzelheiten.

Bei einer Dosis unterhalb von NOAEL – also beim MAK-Wert bzw. tiefer – muss der Organismus des Menschen den Schadstoff ebenfalls bekämpfen, das gelingt, denn es ist kein Schaden bemerkbar. Durch dieses Bekämpfen des Schadstoffes wird die Abwehrkraft des Organismus gegen den Fremdstoff gestärkt und das ist dann ein Nutzen für den Organismus. In der Medizin nennt man dieses „adaptive Antwort“, bei Strahlung hat man dazu ein extra Wort erfunden, man sagt „Hormesis“ dazu [1]. Den Nutzen kann man an Versuchstieren mit kurzer Lebensdauer nachweisen. Bei Menschen gelingt das wegen ihrer langen Lebensdauer selten, nur in Sonderfällen ist die nützliche Wirkung durch Stärkung des Immunsystems zu beobachten.

Ein gutes Beispiel für den beschriebenen Mechanismus ist die Tatsache, dass bei Kindern von Bauernhöfen weniger Allergien als bei Stadtkindern beobachtet werden. Die Kinder von Bauernhöfen kommen häufiger mit vielerlei Keimen in Berührung, daher ist deren Immunsystem besser gegen Angriffe gewappnet.

Man muss abwägen zwischen nützlicher Hygiene und übertriebener Jagd auf Bakterien, Viren, Sporen, körperfremder Substanzen…. Die Stärkung der körpereigenen Abwehr ist ein gutes Mittel gegen Schadstoffe.

Aspirin ist in der Dosis 30 bis 50 mg ein Blutverdünner, bei 0,5 bis 2g schmerzstillend, bei 2 bis 5g entzündungshemmend und bei 30 bis 40g tödlich [2]. Auch jede Schutzimpfung ist ein Beispiel für eine adaptive Antwort des Organismus.

Toxikologen haben viele Dosis-Wirkungsbeziehungen gemessen und den J-förmige Verlauf gefunden mit Schaden bei großer Dosis und Nutzen bei kleiner Dosis. Beispiele sind Substanzen wie Natriumhypochlorit, Methanol, Penicillin, Fluridone, Quecksilber, Aluminium, 4-Chloro-2-methylphenoxyacetic Acid, Ethanol, Phosfon, Cadmium, Kupfer, Na-Arsenate, Retinoesäure, Phenobarbital, Cadmiumchlorid, 1,4-Dioxan, Dioxin, 3-Methylcholanthrene, Saccharin, Lindan, dazu auch Strahlung von Neutronen und Gammastrahlung [3].

Zur Diskussion von Risiken durch Fremdstoffe sollen zwei Substanzen und Strahlung behandelt werden.

Beispiel 1, Stickoxide in der Luft:

Der NOAEL-Wert liegt bei 20 000µg/m³ Luft [4], dazu passend erscheint der MAK-Wert von 9000µg/m³ Luft, der bis 2009 in Deutschland galt. Heute gilt bei uns der MAK-Wert 950µg/m³ Luft, in der Schweiz gilt 6000µg/m³ Luft. Zu allen Änderungen in der MAK-Liste geben die Toxikologen eine Begründung, die man nachlesen kann. In dem Beispiel von NO2 fehlt in den Medien jegliche Stellungnahme zu der Änderung. Der heute geltende Jahresmittelwert von 40µg/m³ Luft erscheint bedeutungslos für die Gesundheit von Lebewesen. Eine nützliche, aber an Menschen nicht nachweisbare Wirkung des NO2 könnte im Bereich von einigen 1000µg/m³ liegen.

Beispiel 2, das beliebte Gift Ethanol ( = Alkohol), logarithmische Abszisse:

Ethanol – meist sagt man nur Alkohol dazu – ist ein Gift, dennoch ist es den Menschen lieb geworden und wird viel konsumiert. Daher sagt man nicht „Gift“ dazu. In Abhängigkeit von Menge des Konsums gibt es viele negative Eigenschaften: es ist giftig, kanzerogen, teratogen, brennbar, explosiv, hat Suchtpotential.

Vom Gesetzgeber wurde ein Grenzwert von 0,5‰ als Konzentration im Blut festgelegt, das kann man als NOAEL-Wert sehen. Als MAK-Wert wurde 380mg/m³ Luft festgelegt, das sind bei normalem Atemvolumen auf das Jahr hochgerechnet rund 300g Alkohol als zugelassene Jahresdosis. Die Zahl der Überschreitungen des MAK-Wertes in Deutschland wird auf 10 Milliarden pro Jahr geschätzt, allein beim Münchner Oktoberfest sind es Millionen Überschreitungen. Die Zahl der Todesfälle infolge Alkoholkonsum geht in die Tausende, die Zahl der Suchtkranken in die Millionen.

In Deutschland liegt der mittlere Alkoholkonsum bei etwa 10 Litern reinem Alkohol pro Jahr. Damit trinkt im Mittel jeder Mensch in unserem Lande im Jahr rund 40 tödliche Dosen. In meinem Supermarkt in der Nähe stehen in den Regalen immer etwa 1000 tödliche Giftdosen zum Verkauf.

Ethanol ist auch nützlich für die Gesundheit, sonst würden es die Menschen nicht so häufig konsumieren. Die Grenze zwischen Schaden und Nutzen ist variabel, hängt von vielen Faktoren ab. Wer seinen Körper auf die Bekämpfung des Giftes trainiert, macht ihn fit dazu, den irgendwann folgenden nächsten Angriff abzuwehren. Das Training ist nützlich für die Gesundheit und ein weiteres Beispiel für das Schutzsystem des Körpers.

Beispiel 3, Strahlung von radioaktiven Substanzen, logarithmische Abszisse:

Die letale Ganzkörperdosis liegt bei etwa 4 Sievert und ist als Dosis in kurzer Zeit zu verstehen, so wie es bei Alkohol und allen anderen Substanzen bei der Giftwirkung verstanden wird.

Im Gegensatz zu den ersten zwei Beispielen NO2 und Alkohol macht man bei Strahlung die Annahme, daß die Wirkung unabhängig von der Zeitdauer ihres Einwirkens ist und sich die Dosis und damit auch das Risiko mit der Zeit summiert (LNT-Hypothese). Das ist in der obigen Darstellung beachtet: Die Grenzwerte sind summierte Dosen über ein ganzes Jahr, dsgl. die als nützlich angegebenen Empfehlungen. Nach Krebs-OP wird täglich mit einer Organdosis von 2 Sv bestrahlt, in der Summe werden ca. 60 Sv gegeben [5].

Die Strahlenschutzgesetze gelten nur für den Umgang mit Kernbrennstoffen, nicht für Höhenstrahlung, Bodenstrahlung und nicht in der Medizin. Daraus ergeben sich Widersprüche [6]. Was in der Kerntechnik verboten ist, wird in den anderen Bereichen toleriert.

Die Existenz der nützlichen Wirkung ist bei Strahlung vielfach bewiesen. Es gibt mehrere tausend Veröffentlichungen und gute Bücher dazu: Henriksen [7], Allison [8], Sanders [9], Hiserodt [10]. In Deutschland folgt man der LNT-Hypothese, man findet nur wenig zur nützlichen Strahlenwirkung. Die deutschen Professoren Klaus Becker und Ludwig Feinendegen haben sich oft darüber beklagt, wenn Forschungsergebnisse unterdrückt wurden, die der LNT-Hypothese widersprachen.

Um von der nützlichen Wirkung von Strahlung zu profitieren, sollte die Dosisleistung im Bereich von 15µSv/h bis 800µSv/h liegen [7, 8, 9, 10]. In der Internationalen Raumstation ist das der Fall, der Strahlenpegel – also die Dosisleistung – ist rund 1000-fach höher als unten auf der Erde, und das ist keinesfalls schädlich [11].

Was sollen solche Vergleiche bewirken?

Es läuft einiges falsch in der Beurteilung von körperfremden Substanzen / Strahlung. Um das zu erkennen, sind Vergleiche ein nützliches Instrument.

  • Bei Strahlung ist die schädliche Wirkung von hoher Kurzzeitdosis bewiesen, dazu gibt es einige wenige Beispiele. Dennoch wird dort gemäß dem Vorsorgeprinzip JEDE noch so kleine Dosis verboten. Wenn es tatsächlich um die Gesundheit der Menschen gehen würde, sollte dieses Vorgehen auch dort praktiziert werden, wo es sehr viele Beispiele für einen Schaden gibt, und das ist und bleibt der Alkohol. Also sollten zur Vorsorge für die Gesundheit auch bei Alkohol JEDE noch so kleine Dosis minimiert werden und infolgedessen verboten werden — das macht man aber nicht, denn man weiß um die Unsinnigkeit dieses Vorgehens.
  • So wie man bei Strahlung aus der Dosis-Wirkungsbeziehung virtuelle Opfer nach der LNT-Formel berechnet, so sollte man aus der bekannten Dosis-Wirkungsbeziehung bei Alkohol ebenso eine LNT-Formel ableiten und daraus die virtuellen Opfer des Alkohols berechnen. Das Ergebnis wären einige Millionen Todesopfer durch Alkohol jedes Jahr in Deutschland, und die gibt es nicht.
    Die Berechnung virtueller Todesopfer ist unsinnig, bei Strahlung, und bei Alkohol. Und auch bei NO2 und Feinstaub, wie es zur Zeit in der aktuellen Diskussion geschieht.

Was sollte getan werden?

Das Prinzip der „adaptive Antwort“ bzw. der „Hormesis“ ist ein universelles Prinzip in der belebten Natur. Lebewesen müssen trainieren um fit zu werden, wir wissen das vom Lernen der Vokabeln aus der Schulzeit und vom Sport. Dasselbe gilt auch für die Abwehr von körperfremden Substanzen und Strahlung, diese Abwehr macht den Körper fit und das dient der Gesundheit. Strahlenbiologen erklären den Mechanismus, wie die biopositive Wirkung der Strahlung funktioniert [12]. Die öffentliche Meinung zu Strahlung wurde seit nahezu einem ganzen Jahrhundert fehlgeleitet mit katastrophalen Folgen für die Menschheit.

Es gibt heutzutage keine Möglichkeit, in den Genuß der nützlichen Strahlenwirkung zu gelangen, wie es oben in Beispiel 3 von Luckey, Doss, Allison, Sanders angedeutet wird. Nur Einzelpersonen wie Alexander Gerst hatten in der ISS die Möglichkeit. Man weiß aber nicht, wie lange diese Positivwirkung für Herrn Gerst anhält. Um für die Erdenbürger hier unten eine Dauerbestrahlung wie in der ISS zu erreichen, braucht man künstliche Gamma-Quellen, wie es sich beim Co-60-Ereignis von Taiwan zum Glück ergeben hatte [13]. Mit Hilfe einer Co-60-Punktquelle der Aktivität im Bereich von 107 bis 108 Bq und Abstand kleiner als einem Meter ist der erforderliche Strahlenpegel zu erreichen – die Strahlen-„Schutz“-Gesetze verbieten das.

Die Strahlenschutzregeln gemäß der LNT-Hypothese und dem ALARA-Prinzip sind der folgenreichste wissenschaftliche Irrtum der Neuzeit (Prof. Walinder). Sie verhindern nicht nur die Versorgung der Menschheit mit billiger und unerschöpflicher Kernspaltungsenergie, sondern sie verhindern auch die Nutzung von ionisierender Strahlung um beste Gesundheit für die Menschen zu erreichen. Was heute an Arbeit zur Minimierung von Strahlendosen aufgewendet wird, sollte in Forschungsarbeiten zur nützlichen Strahlenwirkungen am Menschen investiert werden. Dazu sind zunächst die Strahlenschutzregeln ein Hindernis, eine 180-Grad-Wende ist erforderlich. Zuerst beim Gesetzgeber, dann bei der öffentlichen Meinung.

Die Obrigkeit hat kein Recht, den Menschen die für eine optimale Gesundheit erforderliche Strahlendosis zu verweigern. Jeder Mensch sollte die Möglichkeit haben, in freier Entscheidung selber zu bestimmen, um sein Strahlendefizit durch eine Zusatzdosis auszugleichen. Es ergibt sich die Frage, ob die heutigen Strahlenschutzgrundsätze nicht gegen die in Art. 1 und 2 GG garantierten Grundrechte „Würde des Menschen“ und „körperliche Unversehrtheit“ verstoßen.

Literatur

[1] Richard Friebe, „Hormesis, Wie Stress und Gift uns stärker machen“, ISBN 978-3-446-44311-2, 21,50 EURO

[2] Römpp-Chemielexikon, Wikipedia

[3] https://www.ncbi.nlm.nih.gov/pubmed/12195028 Calabrese et.al. “Hormesis The Dose-Response Revolution”

[4] Mitteilung von Prof. Dr. Hans-Günter Appel, naeb

[5] Deutsches Ärzteblatt Heft 17, 26.4.2013 auf Seite 720

[6] https://eike.institute/2018/06/24/die-widerspruechlichkeiten-beim-strahlenschutz/

[7] T. Henriksen et.al., „Radiation and Health“, 2012, kostenlos unter http://tinyurl.com/nlsm4wm

[8] W. Allison, “Nuclear is for Life, A Cultural Revolution”, 280 Seiten, 25,50 EURO

[9] Charles L. Sanders „Radiation Hormesis and the Linear-No-Threshold Assumption“, 210 Seiten, 171,- EURO

[10] Hiserodt, “Underexposed, What if Radiation is actually GOOD for You?” ISBN 0-930073-35-5, 249 Seiten

[11] DIE WELT vom 2.2.2017 „Nasa entdeckt Jungbrunnen-Effekt bei Weltraumreisen“ auf Seite 1

[12] https://www.ncbi.nlm.nih.gov/pubmed/15673519

[13] http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2477708/




Eine Reise nach Tschernobyl in 2018

Für die Rückholung werden unzutreffende Ansichten über die Ausbreitung und Wirkung radioaktiver Stoffe vorgebracht. Dazu kommen für die heutige und künftige Sicherheit der Menschen in den umliegenden Orten gänzlich bedeutungslose juristische Spitzfindigkeiten: Bei der Einlagerung der radioaktiven Abfälle in das Bergwerk wären irgendwelche Vorschriften nicht eingehalten worden.

Aber es gibt die Strahlenschutzkommission, unser oberstes Beratungsgremium auf dem Strahlengebiet. Das ist keineswegs eine Atomlobby. Die 20 Wissenschaftlerinnen und Wissenschaftler werden jeweils für 2 Jahre vom BMUB (Bundesministerium für Wissenschaft usw.) berufen. Diese haben einstimmig empfohlen und ausführlich begründet: Die radioaktiven Abfälle sollten unten bleiben.

Strikt gegen Kernenergie ist das Ökoinstitut Freiburg. Aber auch dort gibt es Fachleute, und Herr Michael Sailer hat bei einer Anhörung in Berlin überzeugend dargelegt: Wie die Lage nun einmal ist, sollten die Abfälle nicht wieder ans Tageslicht geholt werden.

Nicht ein Bundestagsabgeordneter hat ihn verstanden. Der Bundestag beschloss nach dieser Anhörung einstimmig: Die radioaktiven Abfälle müssen wieder raus. Wohin? Egal, jedenfalls erst einmal an die Erdoberfläche. Für jeden, der nicht politische Korrektheit, sondern die Wirklichkeit seinen Entscheidungen zugrunde legt, ist keiner dieser Abgeordneten mehr wählbar. Aber das war 2013. Heute gibt es glücklicherweise die AfD.

Auch sonst ist zu beobachten, dass die Zahl der Menschen zunimmt, welche sich für die Wirklichkeit interessieren. Immer mehr wollen sehen, wie es in Tschernobyl tatsächlich aussieht, allerdings weniger die Deutschen.

Ist es die Strahlenhölle, in der einem die Kaninchen mit zwei Köpfen entgegen hoppeln und man sich vor schweinegroßen Ratten fürchten muss?

Im Jahr 1992 brauchte man noch berufliche Beziehungen, um die Sperrzone besuchen zu dürfen. Ich hatte sie und war mit einer meiner Töchter dort. Schon damals setzte man sich keiner höheren Strahlendosis aus als im Flugzeug. Gärten sahen so aus wie man das nach 6 Jahren Vernachlässigung erwartet.

Im Jahr 2013 kam ich wieder, als normaler Tourist in einer Gruppe von 4 Leuten. Außer unserer kleinen Gruppe war noch eine etwas größere auf dem Reaktorgelände unterwegs. Wir sahen Wildpferde. Ein Kuckuck rief, das heißt, es lebten dort viele Kleinvögel. Die Bäume waren schon höher als die Bauernhäuser.

Bei den folgenden Besuchen 2014 und 2016 sahen wir stets steigende Touristenzahlen. 2017 sollen es 30.000 gewesen sein. Das wird dies Jahr (2018) sicher übertroffen. Als unsere 16-köpfige Gruppe in einem Kleinbus am Kontrollpunkt Dityatki ankam, standen da schon 11 weitere Kleinbusse und 3 große Busse. Schätzungsweise 350 Leute besuchten gleichzeitig das Sperrgebiet.

In unserer Gruppe waren Engländer, Holländer, Schweizer, ein Isländer. Mit mir reiste ein Radiologe. Nur drei Teilnehmer kamen aus fachlichem Interesse, außer uns eine englische Studentin der Psychologie. Was immer die Strahlung angerichtet hat, durch die Angst, welche dort erzeugt werden konnte, wurden mehr Leute krank. Für Psychologen ist das Unglück daher noch interessanter als für Physiker und Mediziner.

Wir waren schon viele Kilometer im Sperrgebiet herumgefahren, ohne eine erhöhte Strahlenintensität zu messen. Jedoch, nach Passieren eines weiteren Kontrollpunktes, waren es dann doch durchgehend 0,2 bis 0,5 Mikrosievert pro Stunde (µSv/h). Wenig gegenüber der kosmischen Strahlung im Flugzeug, wo wir bis zu 3,7 µSv/h gemessen haben, aber das Mehrfache der Umgebungsstrahlung im Flachland von 0,1 µSv/h.

Allerdings gibt es „hotspots“, die uns die Führerin zeigte, an denen auch die im Flugzeug ankommende kosmische Strahlung weit übertroffen wird. Wir haben an einigen Stellen bis 30 µSv/h gemessen. Das ist Weltraumniveau, so viel müssen Astronauten aushalten.

Der absolute Höhepunkt war ein kleiner Haufen Abfall in einem ehemaligen Krankenhaus mit 1.000 µSv/h, d.h. dem Zehntausendfachen der normalen Umgebungsstrahlung.

Ich habe abgeschätzt, welcher Dosis sich die Führerin aussetzt, die an jedem Arbeitstag den Touristen solche Attraktionen vorführt, natürlich immer nur kurz. Sie bekommt weniger Strahlung pro Jahr ab als eine Stewardess im Flugzeug.

In einem höher belasteten Bereich sind wir eine längere Strecke zu Fuß gelaufen. Da gesellte sich ein Hund zu uns, ein friedliches Tier, das sich streicheln ließ. Er und unsere Führerin kannten sich. Der Hund lebte an einem Kontrollpunkt und wurde „Alpha“ gerufen. Es gäbe dort zwei weitere Hunde, die man „Beta“ und „Gamma“ genannt hätte.

Gesundheitliche Probleme hatte Alpha nicht. Wie man aus – viel zu vielen – Tierversuchen weiß und aus Untersuchungen an Wildtieren im Sperrgebiet, reicht auch das Hundertfache der natürlichen Umgebungsstrahlung nicht, um biologische Wirkungen zu erzeugen. Aber sehen wir die Sache einmal vom Standpunkt der Strahlenhysteriker, d.h. vom heute noch allgemeinen Standpunkt. Kinder, die weit ab vom Sperrgebiet leben, werden nach Deutschland eingeladen, um sich hier von der Strahlung zu erholen. Abenteuerliche Behauptungen werden aufgestellt, so wären im Jahr 2013 in Gomel nur 20 % der Kinder gesund zur Welt gekommen. Aber Kinder, die man mehrmals für ein paar Wochen nach Deutschland einlädt, können gesund werden.

Wie sieht die Strahlensituation wirklich aus? Im Jahr 2009 wurde in einer der am stärksten belasteten Städte Weißrusslands, Bragin, als Höchstwert 0,6 µSv/h gemessen. Typische Höchstwerte anderswo lagen um 0,3 µSv/h. Das ist nun fast 10 Jahre her. Viel schlimmer ist es von Natur aus in anderen Ländern, und dort bleibt es auch so:

Kerala (Indien)           Mittel 0,4 µSv/h,    Maximum 4 µSv/h,

Guarapari (Brasilien) Mittel 0,6  µSv/h,   Maximum 4 µSv/h,

Ramsar (Iran)              Mittel 1,2 µSv/h,    Maximum 30 µSv/h.

 

Wann sind die armen Kinder aus diesen Gegenden dran?

Tierfreunde sollten zunächst an die erwähnten Hunde denken. Die leben immer im Sperrgebiet, laufen barfuß herum und lecken sich gelegentlich die Pfoten. Da wäre doch eine Erholung in Deutschland wichtig. Gegen ein nicht zu kleines Geldgeschenk sind die Besitzer sicherlich bereit, die Hunde für ein paar Wochen in Strahlenurlaub zu schicken.

Für die Feuerwehrleute und andere, welche bei den ersten Aktionen nach dem Unglück ums Leben kamen, wurden Denkmäler errichtet. Auf diesen steht: Sie haben ihr Leben geopfert, um unsere Welt zu retten.

Haben sie das? Natürlich nicht. Sie haben erreicht, dass nur ein kleiner Teil der radioaktiven Stoffe im Reaktor in die Umgebung freigesetzt wurde. Bei dem wichtigsten, Caesium 137, sind etwa 13 % freigesetzt worden. Hätte man nichts getan, wäre es das Mehrfache gewesen.

Nun gibt es die berechneten Strahlentoten. In einem offiziellen Bericht der weißrussischen Regierung wird das Unglück von Tschernobyl als das Schlimmste in der Geschichte der Technik bezeichnet, aber auch geschrieben: Die gesamte Sterblichkeit der Bevölkerung ist nicht angestiegen.

Da hört man von den Strahlenhysterikern anderes. Sie berechnen Tote mit Hilfe des Begriffes der Kollektivdosis. Lutz Niemann erklärt diesen Begriff passen anhand von Schnaps. Trinkt jemand 2 l Hochprozentiges in kurzer Zeit, ist er tot. 2 l sind also die tödliche Dosis. Teilen sich 100 Leute den Schnaps, jeder bekommt ein Schnäpschen von 20 ml, dann sind das zusammen wieder 2 l, eben die Kollektivdosis. Da nun 2 l tödlich sind, stirbt einer der 100 Schnapstrinker.

Nach dieser Rechnung mit Kollektivdosen haben die durch Strahlung gestorbenen Einsatzkräfte einer Unmenge von Menschen das Leben gerettet, wenn auch nicht die Welt. Legt man aber die gesicherte Erkenntnis zugrunde, dass es unter 100 mSv keine erkennbaren und unter 300 mSv keine für das Weiterleben gefährlichen Wirkungen gibt, und außerdem die Wirkung abnimmt, wenn diese Dosen über längere Zeiten verteilt sind, dann sieht die Sache anders aus.

Wer einen solchen Einsatz mitgemacht hat, verdient unsere höchste Achtung, wer ihn befohlen hat, nicht unbedingt.




Die Widersprüchlichkeiten beim Strahlenschutz

Damals traten bei hohen sich wiederholenden Strahlendosen gesundheitliche Schäden auf. Im Jahre 1934 legte man den ersten Grenzwert für den Umgang mit Strahlung fest und man schuf Gesetze zum Schutz vor Strahlung. Bis zur heutigen Zeit wurden die Grenzwerte ständig verringert. Allerdings bezogen sich die Grenzwerte nur auf den Umgang mit Kernbrennstoffen, im Wesentlichen also auf den Umgang mit Uran. Aus dem Auftreten von gesundheitlichen der Schäden bei hohen Strahlendosen wurde geschlossen, daß auch kleinste Strahlendosen unabhängig von der Zeit des Einwirkens schädlich seien. All dieses ist heute in Gesetzesform gegossen und wegen der Existenz dieser Gesetze wird fest an die Gefahren jeglicher Strahlung geglaubt.

Es gibt heute viele Widersprüchlichkeiten in der Strahlenschutzgesetzgebung, denn nicht nur beim Umgang mit Kernbrennstoffen gibt es hohe Strahlendosen. Im Folgenden sollen einige der Widersprüche erläutert werden:

  1. Die Strahlenschutzverordnungwurde bei uns durch ein Strahlenschutzgesetzabgelöst und so verschärft. In diesem Strahlenschutzgesetz ist jetzt auch für das überall in der Luft vorhandene Edelgas Radon der Grenzwert von 300 Becquerel pro Kubikmeter Luft für Innenräume genannt, Radon wird so als „Gefahrstoff“ gebrandmarkt. Es wurden2000 hypothetischeTodesopfer pro Jahr durch Radon in Deutschland ausgerechnet. Dabei wird übersehen, daß in Radonheilbädern die 1000-fach höhere Konzentration des Radons in der Atemluft zur heilenden Wirkung für die Patienten führt. Es gibt in Deutschland 8 Radonheilbäder, und in der EU profitieren im Jahr 80 000 Patienten von der Heilwirkung des Radons.
    Einige 100 000 Becquerel Radon pro Kubikmeter Luft in Heilbädern bewirken Heilung für Patienten, warum sind dann 300 Becquerel Radon gefährlich???
  2. In der evakuierten Zone von Tschernobyl ist der Strahlenpegel erhöht, er liegt im Bereich 0,1 bis 0,2 Mikro-Sievert pro Stunde. In unmittelbarer Umgebung des Unfallreaktors werden an einzelnen Stellen 10 Mikro-Sievert pro Stunde erreicht. Die evakuierte Zone wird „Todeszone“ genannt. Im Flugzeug hat man in Reiseflughöhe auf unserer Breite ca. 6 Mikro-Sievert pro Stunde.
    Warum gibt es in der „Todeszone“ Betretungsverbot, während die vielfach höhere Strahlung im Flugzeug täglich für Millionen Menschen erlaubt ist???
  3. Bei einem Ganzkörper-CT erhält der Patient eine Strahlendosis von 10 bis 20 Milli-Sievert in wenigen Minuten. Bei Aufräumarbeiten in der Kerntechnik gilt eine Grenze von 10 Mikro-Sievert im Jahr.
    Warum werden zur Einhaltung der Grenze in der Kerntechnik riesige Geldbeträge ausgegeben, wenn doch die 1000-fach höhere Dosis bei einem CT sich in millionenfacher Anwendung als harmlos erwiesen hat???
  4. Durch den Unfall in Fukushima hat niemand einen Schaden durch Strahlung erlitten, und es ist auch in Zukunft nicht mit gesundheitlichen Schäden zu rechnen, so berichten die von der UNO beauftragten Fachleute (UNSCEAR). Es hat aber durch die Strahlenschutzmaßnahmen der Evakuierung Todesopfer gegeben, es werden 150 bis 600 Opfer genannt (DER SPIEGEL), anderen Quellen in Japan sprechen von 1600 Opfern durch die Schutzmaßnahmen.
    Warum wird vor Strahlung geschützt, nicht aber vor unsinnigen Strahlenschutzmaßnahmen???
  5. In Kernkraftwerken westlicher Technik ist durch Strahlung noch nie ein Mensch zu Schaden gekommen, dennoch sind Italien und Österreich ausgestiegen und Deutschland folgt dem Beispiel. Weltweit hat die friedliche Nutzung der Kerntechnik laut UNSCEAR von Beginn in 1945 bis 2007 insgesamt 147 Todesopfer bei Strahlenunfällen gefordert, da sind Tschernobyl und Unfälle in der Medizin mit eingeschlossen, ebenso auch Kritikalitätsunfälle in der Anfangszeit. Die IAEA gibt eine um etwa 20 höhere Zahl an. Durch Stürze von Treppen und Leitern sterben allein in Deutschland jedes Jahr etwa 5000 Menschen.
    Warum wird die Kerntechnik eine HOCH-Risiko-Technik genannt und verboten, Treppen und Leitern jedoch nicht???
  6. Im Jahre 2006 hat man sich auf einer Tagung der IAEA geeinigt, daß der Tschernobyl-Unfall insgesamt 4000 zusätzliche Krebstodesfälle zur Folge haben wird. Das sind virtuelle Todesopfer, die unter allen zukünftigen Krebsopfern nicht nachweisbar sind. Wenn man die hierbei benutzte Rechnung auf die Zusatzbestrahlung bei Flugreisen anwendet, kommt man auf jährlich 5000 virtuelle Krebsopfer weltweit durch das Fliegen, die ebenfalls nicht nachweisbar sind.
    Warum werden aus den einmaligen 4000 virtuellen Krebstodesfällen des Tschernobyl-Unfalls schwerwiegende Schlußfolgerungen gezogen, die sich jährlich wiederholenden ähnlich hohen virtuellen Opferzahlen des Flugverkehrs jedoch ignoriert???
  7. Fall A)Meine Frau ist mit ihren 52kg eine Strahlenquelle von 6000 Becquerel, mit diesen 6000 Bq bestrahlt sie sich selber und ihre Umgebung.
    Fall B)Wladimir Klitschko ist mit 110kg eine Strahlenquelle von 12 000 Bq, er bestrahlt sich selber und seine Umgebung mit doppelt so viel Radioaktivität wie Fall A.
    Fall C)Herr Minister Peter Altmaier ist mit seinen 140kg (?) eine Strahlenquelle von 15 000 Bq, er bestrahlt sich selber und seine Umgebung mit der 2 ½ – fachen Menge im Vergleich mit Fall A.
    Nun wäre es für Herrn Minister Altmaier durchaus nützlich, sich mit einigen 1000 Bq weniger zu bestrahlen, zu Erreichen durch kleineren Body-Maß-Index. Dann könnte er seine Dosis durch Eigenbestrahlung um 30 bis 50 Mikro-Sievert im Jahr verringern und würde nicht mehr den Grenzwert von 10 Mikro-Sievert im Jahr verletzten, wie er bei Freimessungen im Rückbau von Kernkraftwerken gilt.
    Warum gilt beim Strahlenschutz oft eine Grenze von 10 Mikro-Sievert im Jahr, nicht jedoch für die Eigenbestrahlung durch erhöhten Body-Maß-Index???
  8. Nach Fukushima wurden in Deutschland die erlaubten Grenzen für Kontamination mit Cäsium-137 in Nahrungsmitteln herab gesetzt, von 1000 Bq/kg auf 600 Bq/kg. Fleisch von Wildschweinen kann heute noch über der Grenze liegen. Wenn meine Frau nun einen Wildschweinbraten essen wollte mit >600 Bq/kg, dann wäre sie für einige Tage eine Strahlenquelle von etwa 6100 Bq, sie würde sich selber und alles in ihrer Umgebung mit zusätzlichen 100 Bq bestrahlen.
    Warum wird das nun als gefährlich hingestellt und verboten, wenn doch Peter Altmaier sich selber das ganze Jahr über mit 15 000 Bq bestrahlen darf???
  9. Zur ASSE:Der Bundestag hat ein Gesetz gemacht, das die Rückholung der Abfälle aus der Tiefe verlangt. Dort lagern schwach radioaktive Abfälle, so wie alles auf der Erde schwach aktiv ist. In der ASSE sind verteilt über 125 000 Fässer 250 Gramm Plutonium-241, was den Löwenanteil der Aktivität in der Tiefe ausmacht. Allerdings wird diese Aktivität wegen kurzer Halbwertszeit verschwunden sein, wenn die Abfälle eines Tages tatsächlich wieder an der Oberfläche sein werden. Dann werden die Abfälle nur noch eine Aktivität von ca. 2 mal 10 hoch 13 Bq haben. In dem Deckgebirge über der ASSE von rund einem halben Kubikkilometer Volumen befinden sich etwa 2 mal 10 hoch 15 Bq, also die 100-fache Menge an Radioaktivität.
    Warum wird die Radioaktivität in der Tiefe als Gefahr gesehen, die 100-fache Menge darüber im Deckgebirge jedoch nicht???
  10. Zur ASSE:Die Radioaktivität von ca. 2 mal 10 hoch 13 Bq ist die ganz normale Radioaktivität der Erdkruste von einem Volumen von einem Quadratkilometer Fläche und 10 Meter Tiefe. In diesem Volumen der Erdkruste wachsen unsere Lebensmittel und wird unser Trinkwasser gewonnen. Deutschland hat eine Fläche von 356 000km², also das besagte Volumen an der Oberfläche 356 000-fach.
    Wie kann es sein, daß die Radioaktivität in der Tiefe der ASSE eine Gefahr darstellt, die 356 000-fach vorhandene gleiche Menge an der Oberfläche jedoch nicht???
  11. Zur ASSE:In der Landwirtschaft in Deutschland werden durch Düngung mit Kali in 2 bis 3 Jahren eine Menge Radioaktivität von etwa 2 mal 10 hoch 13 Bq durch K-40 auf die Felder verteilt.
    Warum ist die Radioaktivität in der Tiefe der ASSE gefährlich, die auf den Äckern verteilte gleiche Menge jedoch nicht???
  12. Zur ASSE:In 2 bis 3 Jahren werden von den Menschen in Deutschland mit der Nahrung etwa 2 mal 10 hoch 13 Bq durch Kalium-40 und Kohlenstoff-14 verspeist ohne negative Folgen für deren Wohlergehen. Die eingeatmete Radioaktivität durch Radon und seine Zerfallsprodukte liegt um den Faktor 10 höher.
    Warum ist die Radioaktivität in 500 Meter Tiefe der ASSE gefährlich, die viel höhere von den Menschen verspeiste und eingeatmete Menge jedoch nicht???
  13. Bei Radioaktivität und vielen anderen umweltpolitischen Diskussionen wird mit nicht nachweisbaren virtuellen Todesopfern argumentiert, aktuell bei Feinstaub und Stickoxiden. Das Rechenverfahren wurde im Umgang mit Radioaktivität erfunden und führte zur Verdammung der Kerntechnik und oft auch zur Verweigerung nützlicher medizinischer Strahlenanwendungen. Würde man das Rechenverfahren auch in der Medizin bei Bestrahlung nach Krebs-OP anwenden, dann käme man auf viel mehr Todesfälle als es überhaupt gibt. Würde man dieses Rechenverfahren auch bei dem allseits beliebten „Gift“ und Kanzerogen Ethanol anwenden, so käme man allein in Deutschland auf eine Todesrate, die 3-fach über der tatsächlichen liegt. Warum ist die Politik als oberste Autorität der Demokratie nicht bereit, diese Unstimmigkeiten zu beseitigen???
  14. Die weltweit geltenden Strahlenschutzgesetze erlauben dem Bürger eine maximale zusätzliche Dosis von
    1 Milli-Sievert im Jahr. Diese Dosis ist gleichbedeutend mit einer Temperaturerhöhung des menschlichen Körpers von 0, 000 000 2°C. Zur Erhaltung des Lebens brauchen wir eine Temperatur von 36°C, also rund 20°C mehr als die Umgebung.
    Die Lebensvorgänge in unseren Zellen sorgen für 100-millionenfach höheren Energieumsatz als die erlaubte Strahlung von 1 Milli-Sievert im Jahr, daher ist diese neben den Lebensvorgängen bedeutungslos – wann wird das erkannt und in den Massenmedien gesagt???
  15. Strahlung von Radioaktivität ist nicht grundsätzlich schädlich, wie es der Menschheit seit 80 Jahren suggeriert wird. Zusätzliche Strahlung führt zu zusätzlichem Training des Abwehrsystems im Organismus von Lebewesen und zusätzlichen Fähigkeiten des Immunsystems zur Abwehr und Korrektur von Fehlern. Dieser Zusammenhang ist seit langen als Hormesis bekannt und verspricht gigantische gesundheitliche Vorteile. Daher wird das Minimierungsgebot im Strahlenschutz auch „der größte wissenschaftliche Irrtum“ der Menschheit genannt.
    Wann werden die Menschen bereit sein, diesen fatalen Irrtum zu korrigieren???

Die 15 Beispiele zeigen Fehler/Irrtümer in der Strahlenschutzgesetzgebung. Die Ursache dazu ist die falsche Lehrmeinung, nämlich die Annahme, daß jede noch so kleine Strahlendosis schädlich sei. Die Strahlengefahr ist keine reale Gefahr, sie ist eine virtuelle Gefahr. Und die damit berechneten Todesopfer sind nicht real, sondern virtuell, d.h. es gibt sie nicht. Einige Mitglieder der Internationalen Strahlenschutzkommission sprachen von einem Geisterbild, das sagt viel. Die Strahlenschutzgesetzgebung sollte auf den Stand der Wissenschaft gebracht werden, dazu sind die internationalen und nationalen Gremien gefordert: ICRP, UNSCEAR, IAEA, BfS, SSK;  mit Unterstützung der Massenmedien.  

 

 

 

 




Brennstäbe unterm Bett

Als Lilli drei Jahre alt war, bat sie mich jeden Abend, nachzusehen, ob unter ihrem Bett auch wirklich kein Krokodil sitzt. Was wir nicht sehen können, ist halt immer am unheimlichsten, besonders, wenn wir uns sicher sind, dass „es“ da ist. Alle Kinder durchlaufen eine Phase magischen Denkens. Sie meinen dann zum Beispiel, dass ihr Denken oder Tun Einfluss auf unzusammenhängende Ereignisse hat. Erwachsene sind auch nicht frei davon. Manche stecken Nadeln in Puppen, um den in Wolle nachempfundenen Unglückswurm nach Voodoo-Art zu verwünschen, andere konzentrieren sich auf Löffel und Gabeln, um sie zur Unbrauchbarkeit zu verbiegen und aufgeschlossene Innenarchitekten stimmen die Geister der Luft und des Wassers mit Hilfe von Feng Shui gewogen.

Magie gibt es auch als religiöse Wunder-Edition: Jesus hatte seinerzeit Wasser in Wein verwandelt, während Mohammed bekanntlich auf seinem geflügelten Pferd Buraq gen Himmel geflogen ist. Auch der Alltag von uns aufgeklärten Weltbürgern ist nicht frei von Magie. Allerorten lauert die unsichtbare Gefahr. Mir zum Beispiel ist unser Mikrowellenofen nicht geheuer. Andere fürchten sich vor Handystrahlen. Und dann ist da noch der eine Zauber, der uns alle bange macht [Soundeffekt: „Psycho“-Geigen unter der Dusche]: das Atom!

Magie und Strahlung

Man kann es nicht sehen, hören, tasten, schmecken oder riechen, es ist sinnlich schlichtweg nicht zu erfassen. Der britische Science-Fiction-Autor Arthur C. Clarke formulierte drei Gesetze, von denen das letzte lautet: „Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.“ Weil sie sich unseren Sinnen entzieht, ist die Atomenergie ein solches Hexenwerk. Kein Wunder, dass sie uns genauso ängstigt wie die kleine Lilli ihr Krokodil unter dem Bett.

„Die lachende Atomkraft-Nein-Danke-Sonne auf dem VW-Bus erfüllt einen ähnlichen Zweck wie der Knoblauch gegen Vampire.“


1917 teilte Ernest Rutherford in Manchester das „Atom“ (altgriechisch für unteilbar) zum ersten Mal. Fortan legte es eine steile Kariere hin und nach 28 Jahren war aus einem obskuren Winzling die denkbar schrecklichste Waffe geworden. Nach dem Schock von Hiroshima und Nagasaki rückte die zivile Nutzung der Irrsinns-Energie in den Vordergrund. In der Euphorie der Nachkriegsjahre fand die Zaubertechnik zunächst einmal Bewunderer. 1946 wurde gar ein neuartiges, zweiteiliges Badekostüm nach jenem Atoll benannt, in dem versuchsweise Atombomben gezündet wurden (Slogan: „Der Bikini, die erste an-atomische Bombe“).

Landauf, landab wurden fortan Kernkraftwerke gebaut und lieferten Unmengen an Strom. Dass sie dabei kein CO2 oder sonstige Abgase freisetzen, spielte in den Sechzigern noch keine Rolle, umso mehr jedoch, dass sie aus natürlichem Uran waffenfähiges Plutonium erbrüteten. Im Kalten Krieg war das nicht nur ein schöner Zusatznutzen, sondern der Kern des Pudels. Ein weiterentwickelter Reaktortyp, der Thorium-Flüssigsalzreaktor, wurde deshalb schnell wieder eingemottet. Er war zwar in mehrerlei Hinsicht sicherer, aber leider nicht geeignet zur Herstellung von Bombenrohstoff. In den 1980er-Jahren hat dann Deutschland die Idee weiterentwickelt. In Hamm-Uentrop stand ein Thorium-Testreaktor mit silbernem Designer-Kühlturm. Nach Tschernobyl wurde er gleich wieder stillgelegt. Wir hätten Vorreiter sein können.

Es kam anders, weil in unseren Köpfen hängengeblieben ist, dass alles, was „Atom“ im Namen trägt, nicht nur der Gesundheit abträglich ist, sondern grundsätzlich finstere Ziele verfolgt. Atomenergie, Atommüll, Atomwaffen – alles eine Soße. Kein Wunder, dass die ganze Begriffswelt unwiderruflich verstrahlt ist: Reaktor, Störfall, Kernspaltung, Wiederaufbereitung, Schneller Brüter – bei der bloßen Erwähnung solcher Unworte schüttelt’s einen. Dazu kommen die Bilder: Das gelb-schwarze Strahlungswarndreieck, die betongrauen Riesenkühltürme, die hochgerüstete Staatsmacht. Im Angesicht dieser magischen Superpower geht es nicht mehr um bloßes Für und Wider, sondern um Leben und Tod. Die lachende Atomkraft-Nein-Danke-Sonne auf dem VW-Bus erfüllt einen ähnlichen Zweck wie der Knoblauch gegen Vampire (neben dem Virtue Signalling).

„Die Castoren enthalten nutzbare Energie für hunderte von Jahren.“


Flucht- und Angriffsreflexe in potenziellen Gefahrensituationen sind uns allen mitgegebene Überlebensmechanismen. Ob das jeweilige Angstszenario durch Erfahrung begründet ist, ein Produkt unserer magischen Intuitionen ist oder einfach nur durch vielfachen Vortrag ausgeformt wurde, spielt in Demokratien keine Rolle. Jede Stimme zählt und die Politik hat das zu berücksichtigen. Überhaupt, vage Bauchgefühle bilden die Zukunft im Zweifel nicht schlechter ab als handverlesene Statistiken und wir alle haben noch klar vor Augen, wie ein Atompilz aussieht und was er anrichtet. Im Übrigen hat die angeblich so sichere Reaktortechnik nicht nur einmal versagt. Doch wie schlimm war’s wirklich? Und gilt das immer noch für die zivil genutzte Kernenergie der nächsten Generation?

Thorium-Flüssigsalzreaktor

Jede Technik, die irgendetwas bewirkt, kommt mit Nebenwirkungen. Die regenerativen Energien sind da keine Ausnahme. Anders als zum Beispiel Windräder, ein Konzept aus dem 14. Jahrhundert, ist Kernkraft eine junge Technik mit viel Spielraum zur Optimierung. Und wer hätte es gedacht, unbemerkt von uns germanischen Umweltfreunden tut sich hier gerade wieder eine ganze Menge. Zumindest in den Industriestaaten gibt es kein Interesse mehr an weiterem Plutonium. Im Gegenteil, das Zeug muss weg, am besten gleich zusammen mit dem restlichen Atommüll. Und so wenden sich alle Augen jetzt wieder dem Thorium-Flüssigsalzreaktor zu, denn der vereint geradezu magisch viele Eigenschaften der guten Sorte:

  • GAUs, also Kernschmelzen verbunden mit austretender radioaktiver Strahlung, sind konstruktionsbedingt unmöglich.
  • Der Brennstoff wird bis zu 99 Prozent genutzt, es bleibt kaum Restmüll übrig. Bisher lag die Energieausnutzung unter 5 Prozent. Carlo Rubbia, Nobelpreisträger in Physik, sagt, mit einem Kilo Thorium können wir so viel Energie produzieren wie mit 200 Kilo Uran.
  • Es entstehen rund tausendmal weniger radioaktive Abfälle als bei den üblichen Leichtwasserreaktoren. Fünf Sechstel davon sind schon nach 10 Jahren stabil, der Rest nach 300 Jahren.
  • Unsere radioaktiven Müllberge einschließlich Plutonium können Stück für Stück mitverbrannt werden, statt hunderttausende Jahre im Endlager zu verrotten. Die Castoren enthalten nutzbare Energie für hunderte von Jahren.
  • Es ist nicht möglich, im Betrieb Uran oder Plutonium für den Bau von Atombomben abzuzweigen.
  • Thorium ist günstiger und kommt viermal häufiger vor als Uran. Thorium-Strom ist kostengünstiger als der billigste Strom aus Kohlekraftwerken.
  • Flüssigsalzkraftwerke können sehr viel kleiner gebaut werden als herkömmliche KKWs. Sie sind in Modulbauweise in Serie herzustellen und dezentral einsetzbar.
  • Es ist denkbar, die Reaktoren unterirdisch zu bauen. Das erschwert Terroranschläge.
  • Sie sind schnell an- und abschaltbar und können so die systembedingte Sprunghaftigkeit erneuerbarer Energiequellen perfekt ausgleichen.
  • Wie alle anderen Kernkraftwerktypen stoßen auch Flüssigsalzreaktoren kein CO2 aus.

Die ersten neuen Thorium-Flüssigsalzreaktoren laufen gerade an, der Betrieb in großem Maßstab ist allerdings noch Jahre entfernt. Wenn wir am Ball bleiben, lösen wir mit ihrer Hilfe eine ganze Reihe der Probleme im Zusammenhang mit unserem Energiebedarf und der alten Kernenergie. Das sehen weltweit auch immer mehr Umweltexperten so. Deutsche Ökos, die starrsinnigsten aller Pessimisten, erkennen darin nichts weiter als böse Gaukelei der „internationalen Atomlobby“. (Wenn es darum geht, den armen Mitbürgern zum Zweck der Profitmaximierung Schaden zuzufügen, werden leider selbst die reaktionärsten Industriellen grundsätzlich zu Internationalisten.)

„Erneuerbare Energien liefern bei Weitem nicht die benötigten Strommengen, grundlasttauglich sind sie ohnehin nicht.“


Auf unserer Wohlstandsinsel haben wir nicht im Blick, was die Entwicklungsländer wirklich brauchen. Wir hier in der schönen ersten Welt haben zwar hohe Energiepreise, aber alles in allem gut lachen. Für drei Milliarden Menschen in der dritten Welt hingegen ist das größte Problem ein fehlendes Stromnetz. Keine verlässliche Energieversorgung zu haben, heißt, dass nichts von dem, was wir als selbstverständlich voraussetzen, funktioniert. Gekühlte Medikamente im Landkrankenhaus? Nur, wenn das Licht ausbleibt, denn Strom für beides gibt die eine Solarzelle auf dem Dach nicht her. Nachts wird es erst recht schwierig. Der Weg aus der Armut ist ein grundlastfähiges Stromnetz für eigene Industrien und Infrastrukturen. Für uns ist Strom eine Selbstverständlichkeit, in Afrika brächte er mit dem dadurch wachsenden Wohlstand Nahrung, Gesundheit und Frieden. Kohle- und Gaskraftwerke und Sprit schluckende Autos soll Afrika nicht haben dürfen, weil der Weltklimarat das CO2 fürchtet. Erneuerbare Energien liefern bei Weitem nicht die benötigten Strommengen, grundlasttauglich sind sie ohnehin nicht. Da bleibt nur eine Technik übrig – die gute alte Kernkraft, die aber weltweit abnimmt. Doch wie ist das mit den Risiken der Nukleartechnik? Thorium hin oder her, was ist bisher geschehen? Hier kommen Daten:

  • Ist jede kleine Strahlendosis schädlich?

Gemäß der „Linear No Threshold“-Hypothese (LNT) steigt das Krebsrisiko mit jeder jemals erhaltenen Dosis linear an. „Je weniger Strahlung, desto besser“ ist die übliche Sprachregelung, auf der die Risikohochrechnungen beruhen. Manche Institute sind anderer Ansicht, nämlich, dass der Körper mit geringer Strahlung gut klarkommt und dass sich die Wirkung von Strahlung nicht lebenslänglich im Körper kumuliert.

  • Wie hoch ist die Strahlenbelastung, wenn man eine Banane isst?

0,001 Millisievert.

  • Wie hoch ist die Höchstdosis der Bevölkerung Deutschlands durch laufende Kernkraftwerke?

Zehn Bananen – 0,01 Millisievert pro Jahr – bei großzügiger Berechnung. Tatsächlich ist es meist weniger. Ein Flug nach Japan liegt zehnfach höher, eine Computertomografie hundert- bis dreihundertfach.

  • Wie hoch war die durchschnittliche Strahlenbelastung innerhalb eines 16-km-Radius bei der Three-Mile-Island-Kernschmelze (bei Harrisburg, 1979)?

80 Bananen oder 0,08 Millisievert.

  • Gibt es eine natürliche Strahlung auf der Erde?

Die durchschnittliche Jahresdosis durch Hintergrundstrahlung beträgt 2,4 mSv (Millisievert), das 240-Fache der maximalen Belastung durch KKWs in Deutschland. Hierzulande liegt sie im Schnitt bei 2,1 mSV, mancherortsvielfach höher. Die Stadt Ramsar im Iran bestrahlt ihre Bewohner an jedem einzelnen Tag mit dem Äquivalent von zwölf Röntgenbildern, ohne dass dort die Sterblichkeit ansteigt, ganz im Gegenteil, die Leute werden bei guter Gesundheit uralt.

  • Ist eine geringe Menge an Radioaktivität womöglich sogar gesund?

Es wäre unmoralisch, das zu testen, indem man Menschen im Großversuch bestrahlt. Doch genau das ist in Taiwan passiert. Was war da los in Taipeh? Um 1982 herum wurde versehentlich ein Container mit strahlendem Kobalt-60 zusammen mit regulären Stahlresten verschmolzen und zu Stahlträgern verarbeitet. Diese wurden in 180 Neubauten eingesetzt. Etwa zehntausend Menschen zogen für 9 bis 20 Jahre ein. Erst 1992 begann man, die harte Gammastrahlung der Häuser zu bemerken. 2003 betrug die kumulierte Kobalt-Strahlendosis der Bewohner 600 mSv, bei manchen bis zu 4000 mSv, das ist 1600 Mal höher als die durchschnittliche Hintergrundstrahlung der Erde.

„Studien zeigen, dass geringe und mittlere Dosen von Strahlung gesundheitsfördernd sein könnten.“


In diesen 20 Jahren hätte man statistisch 232 Krebstote durch natürliche Ursachen, also ohne das Kobalt-60 in der Wand, erwarten können. Gemäß den LNT-Datenmodellen müssten weitere 70 durch die erhöhte Strahlung hinzukommen, zusammen 302. Tatsächlich starben aber nur sieben Menschen an Krebs. Die Bewohner dieser kontaminierten Gebäude hatten ein um beispiellose 97 Prozent gemindertes Krebsrisiko. Zufall? Oder eine Nebenwirkung der Kobalt-60-Radioaktivität? Ohne die eingebaute Strahlungsquelle wären 46 Neugeborene mit einer Form von genetischer Missbildung wie Down-Syndrom oder Kinderlähmung zu erwarten gewesen. Doch es kamen nur drei solche Babys zur Welt (alle drei mit Herzfehlern, die später verheilten), das ist eine Verringerung von Gendefekten bei Neugeborenen um 93 Prozent. Die Bewohner waren im Schnitt jünger als die Gesamtbevölkerung, das erklärt einen Teil der geringeren Krebshäufigkeit. Spätere Untersuchungen konnten auch noch weitere Störeinflüsse berücksichtigen, etwa die lange Zeitspanne von der Entstehung einer Krebskrankheit bis zur Diagnose und die variierende Wirkung der Kobaltstrahlung auf unterschiedliches Gewebe. Übrig bleibt eine um 40 Prozent niedrigere Krebsrate. All dies deutet auf eine positive Wirkung von Strahlung in geringer und mittlerer Höhe hin, man nennt das Hormesis.

  • Was ist Hormesis?

Seit Jahrmillionen sind Lebewesen radioaktiver Strahlung ausgesetzt, in der Frühzeit stärker als heute. Durch Adaption entstanden Mechanismen, die molekulare Strahlungsschäden umgehend reparieren – und zwar so übereffizient, dass nicht nur akute, sondern auch bereits vorhandene Zellschäden gleich mit repariert werden. Studien zeigen, dass geringe und mittlere Dosen von Strahlung (aber auch anderer Stressfaktoren wie Gifte), durch diesen Trainingseffekt gesundheitsfördernd sein könnten – selbst noch in einer Höhe, die der maximal erlaubten Dosis für Kernkraftwerksarbeiter entspricht. In Gegenden mit höherer Hintergrundstrahlung gibt es weniger Krebsfälle. Britischen Radiologen wurde eine überdurchschnittliche Lebenserwartung attestiert. In amerikanischen Bundesstaaten, in denen Atomtests stattfanden, ist die Lungenkrebsrate deutlich niedriger als in den anderen.

  • Löst Strahlung Genmutationen aus, die weitervererbt werden?

Ionisierende Strahlung kann zu Mutationen im Zellkern führen. Dass es in der Folge zu Gendefekten bei den Nachkommen kommt, ist aber offenbar höchst selten. Die Radiation Effects Research Foundation, eine japanisch-amerikanische Organisation, die seit Ende der 1940er-Jahre gesundheitliche, genetische und umweltbezogene Langzeiteffekte der radioaktiven Strahlung der Atombombenopfer von Hiroshima und Nagasaki untersucht, findet keinen Anstieg von Gendefekten bei den Kindern der Betroffenen, selbst wenn ihre Eltern extrem hohen Dosen ausgesetzt waren.

  • Wie viele Menschen hat die zivile Nukleartechnik bisher insgesamt auf dem Gewissen?

Unumstritten sind insgesamt und weltweit 209 Tote seit 1945. Bei einem Unfall in Kyshtym 1957 schwanken die Schätzungen zwischen 49 und 8015 Toten als Spätfolgen. Damit kollidieren sie jedoch mit der bis zu 39 Prozent niedrigeren Krebsrate gegenüber einer nicht kontaminierten Vergleichsgruppe aus der Gegend.

  • Und Tschernobyl?

Neben den 45 Mitarbeitern, die bereits oben eingerechnet sind, kursieren unterschiedliche Schätzungen zu den Langzeitfolgen von Tschernobyl, gemäß UN sind bislang 58 weitere Strahlenopfer zu beklagen. Die Spätfolgen beziffert die Weltgesundheitsorganisation auf bis zu weitere 4000 Krebstote. Greenpeace behauptet, es werden 200.000 oder mehr werden. Das International Journal of Cancer wiederum schreibt in einer Studie, es sei unwahrscheinlich, dass die Folgen des bislang größten Strahlungsunfalls in den Krebsstatistiken Europas überhaupt erkennbar werden und auch bislang gebe es in Europa keinen daraus resultierenden Anstieg.

  • Fukushima?

Null Tote durch den (größten anzunehmenden) Reaktorunfall. Was 18.000 Menschenleben kostete, war eines der schwersten jemals gemessenen Erdbeben und der darauffolgende Tsunami, nicht aber die dreifache Kernschmelze. Gemäß UN-Report waren die Arbeiter im havarierten Kernkraftwerk im Schnitt nur 140 mSv ausgesetzt, daher besteht für sie kein erhöhtes Krebsrisiko. Ein zweiwöchiger Aufenthalt innerhalb der Sperrzone bedeutete typischerweise 1 mSv, das ist wenig (vgl. Taipeh). Für die Bevölkerung war das größere Gesundheitsrisiko die Überreaktion der Behörden, ausnahmslos alle zu evakuieren.

  • Welche Energiequelle ist die tödlichste?

Kohle. Wenn man mal CO2 außen vor lässt, liegt die Sterblichkeit im weltweiten Schnitt bei 100.000 pro Billiarde Kilowattstunden. Öl: 36.000, Biomasse: 24.000, Solarzellen: 440, Windräder: 150 (Vögel nicht mitgezählt). Kernkraft schneidet mit weitem Abstand am besten ab: 90.

„Was außerhalb unseres Einflusses liegt, macht uns panisch.“


Um all dem Geraune von Mutationen, Strahlung und Toten noch zwei weitere Kennziffern hinzuzufügen: Jährlich sterben 3.000.000 Menschen durch Luftverschmutzung und weitere 4.300.000, weil sie mangels Strom in ihren vier Wänden Holz und Dung (in den weltweiten Statistiken subsumiert unter „Erneuerbare Energien“) zum Kochen und Heizen verbrennen. Das bekommen wir nur nicht so mit.

Was wir mitbekommen und was wir uns merken, ist das Spektakuläre, das Visuelle und das, worüber die Medien berichten und unsere Freunde reden: Schweinegrippe, kalbende Eisberge, Flugzeugabstürze. Und natürlich Hiroshima, Fukushima, Tschernobyl. Zerstörung läuft plötzlich ab, Aufbau nur langsam. Langsam hat keinen Nachrichtenwert, deshalb besteht die mediale Ausgabe der Welt zu großen Teilen aus Kurseinbrüchen, Superstürmen und Unfällen aller Art. Dazu kommt, dass wir Risiken, die wir nicht selbst beeinflussen können, maßlos überschätzen. Hausgemachte Gefahren hingegen ereilen gefühlt immer nur die anderen, zum Beispiel der ganz gewöhnliche Tabakgenuss, welcher für Raucher das mit Abstand größte Lebensrisiko darstellt. Was wir vermeintlich selbst kontrollieren könnten, lässt uns kalt (gähn, Reiseverkehr …). Was außerhalb unseres Einflusses liegt, macht uns panisch (OMG, Turbulenzen!).

Als kleiner Junge konnte ich eine Weile lang nicht einschlafen. Ich war überzeugt, die RAF würde mich holen kommen. Sie kam nicht. Und was das Atom betrifft: Vielleicht wäre es mal an der Zeit, nachzusehen, ob da wirklich ein Krokodil unter dem Bett lauert.

Der Beitrag erschien zuerst bei NOVO Argumente