1

Weitere Beweise für eine verfälschte Erwärmung im IPCC-Temperaturdatensatz -McKitrick & Michaels hatten recht!

Graphik rechts: Der Graph zeigt den UHI per Einwohnerzahl pro Landkreis in Kalifornien. Quelle: Goodridge 1996, veröffentlicht im Bulletin of the American Meteorological Society.

Der städtische Wärmeinseleffekt (UHI) ist den meisten Leuten vertraut: in Städten ist es typischerweise wärmer als in den ländlichen Gebieten der Umgebung, und zwar wegen der Ersetzung natürlicher Vegetation durch menschliche Strukturen. Wenn dieser Effekt an Stationen mit Thermometern mit der Zeit zunimmt, gibt es bei der Berechnung globaler Temperaturtrends mit diesen Daten eine verfälschte Erwärmung.

Anhand nicht adjustierter Daten von International Surface Hourly (ISH), die bei NCDC archiviert werden, werde ich in dieser Studie zeigen, dass der Erwärmungstrend der Nordhemisphäre, aus der fast alle Thermometerdaten stammen, eine Funktion der Bevölkerungsdichte an der Messstation ist.

Abhängig davon, bis zu welcher immer geringeren Bevölkerungsdichte man die Ergebnisse ausweitet, beträgt die Bandbreite der fälschlichen Erwärmung im CRUTem3-Datensatz 14% bis 30%, wenn man drei Klassen der Bevölkerungsdichte zugrunde legt, und sogar 60% mit 5 Klassen.

DATEN & METHODE

Die Analyse der Stationsrohdaten kommt nicht von ungefähr. Im Zeitraum von 1973 bis 2011 gibt es Hunderttausende von Datenfiles im ISH-Archiv des NCDC. Jeder File repräsentiert die Daten einer Station von einem Jahr. Das Volumen der Daten macht viele Gigabytes aus.

Aus diesen Daten berechnete ich tägliche Temperaturmittelwerte von jeder Station, deren Reihe mindestens bis zum Jahr 1973 zurückreichte, dem Jahr einer großen Zunahme der Anzahl globaler Stationen, die in die ISH-Datenbasis Eingang gefunden hatten. Die tägliche Mitteltemperatur berechnete sich aus den 4 Standard-Synopzeiten (00, 06, 12, 18 UTC), einer Methode, die allgemein an Stationen in der ganzen Welt üblich ist.

Mindestens 20 Tage mit einem vollständigen Datensatz waren erforderlich, um eine monatliche Mitteltemperatur zu berechnen, und die Aufzeichnungsperiode von 1973 bis 2011 musste mindestens zu 80% vollständig sein, um in der Analyse berücksichtigt zu werden.

Dann teilte ich die Stationen aufgrund einer Volkszählung aus dem Jahr 2000 nach verschiedenen Bevölkerungsdichten an jeder Station ein; der diesbezügliche Datensatz hat eine Flächenauflösung von 1 km.

Dann akzeptierte ich nur alle Gitterquadrate mit 5 mal 5 Grad Länge/Breite (den gleichen, die Phil Jones bei der Konstruktion des CRUTem3-Datensatzes verwendet hat), die alle folgende Bedingungen erfüllen mussten: sie mussten eine CRUTem3-Temperatur und mindestens 1 Station aus jeder der drei Bevölkerungsklassen enthalten. Die Grenzen: 0, 15, 500 und 30000 Personen pro Quadratkilometer.

Durch die Bedingung, dass alle drei Bevölkerungsklassen in den Gitterquadraten vorkommen müssen, die wir analysierten, erhalten wir den besten ‚Äpfel-mit-Äpfeln-Vergleich’ zwischen Stationen mit unterschiedlicher Bevölkerungsdichte. Der Nachteil ist, dass die geographische Abdeckung geringer ist als im Datensatz von Jones, weil relativ wenige Gitterquadrate alle Bedingungen erfüllen.

Aber der Zweck dieser Studie ist es nicht, eine beste Abschätzung von Temperaturtrends im Zeitraum 1973 bis 2011 zu erhalten; stattdessen wollen wir eine Abschätzung der verfälschten Erwärmung im CRUTem3-Datensatz erhalten.

Ergebnisse

Die Ergebnisse zeigt die folgende Abbildung, die darauf hindeutet, dass der mittlere lineare Erwärmungstrend umso geringer ist, je geringer die Bevölkerungsdichte um diese Station ist (Periode 1973 bis 2011). Man beachte, dass der CRUTem3-Trend ein wenig höher ist als die einfache Mittelung aller ISH-Stationen zusammen; aber sie ist nicht so hoch, wie wenn man nur die Stationen mit der höchsten Bevölkerungsdichte mittelt.

Die Zeitreihe der Anomalien von CRUTem3 und die niedrigste Bevölkerungsdichte, die in die Berechnung dieser Trends eingehen, zeigt die nächste Graphik, zusammen mit polynomischen Fitts der Daten:

Noch einmal: der obige Graph steht nicht notwendigerweise für die gesamte Landmasse der Nordhemisphäre, sondern nur für jene 5 mal 5 Grad-Gitterquadrate, in der alle drei Klassen der Temperatur aufzeichnenden Stationen präsent sind.

Der Unterschied zwischen diesen beiden Temperaturverläufen zeigt die folgende Graphik:

Aus diesem letzten Plot geht eindeutig hervor, dass es eine zunehmende Verzerrung (Bias) im Vergleich der CRUTem3-Temperaturwerten mit den Temperaturen der niedrigsten Bevölkerungsklasse gibt.

Der lineare Trend von CRUTem3 ist um etwa 15% wärmer als der Temperaturtrend an Stationen mit der niedrigsten Bevölkerungsklasse. Aber wenn man diese Ergebnisse in der ersten Graphik auf eine Bevölkerungsdichte nahe Null extrapoliert (0,1 Personen pro Quadratkilometer), erhält man eine Überschätzung der Temperaturtrends von CRUTem3 von etwa 30%.

Wenn ich die Anzahl der Bevölkerungsklassen von 3 auf 5 erhöhe, erscheint der CRUtem3-Datensatz bei einer Bevölkerungsdichte von 0,1 Personen pro Quadratkilometer mit einer Überschätzung um 60%, aber da die Anzahl der Gitterquadrate mit Stationen in allen 5 Klassen nur etwa 10 bis 15 Mittelbildungen pro Monat zulässt anstatt 100 pro Monat, denke ich, dass diese Ergebnisse weniger zuverlässig sind.

Ich finde, dass die obigen Ergebnisse ziemlich überzeugend das bestätigen, was Anthony Watts, Pat Michaels, Ross McKitrick et al. schon vor Jahren betont haben: dass die bloße Lage der Thermometerhütten wahrscheinlich verfälschte Erwärmungstrends zeigte, die dann durch das IPCC für die offizielle Schätzung der Erwärmung aufgeblasen worden waren. Diese Resultate sind in etwa konsistent mit der Studie von McKitrick and Michaels (2007), in der sie herausfanden, dass bis zu 50% der berichteten Erwärmung seit 1980 verfälscht sein könnte.

Es wäre zu schön, wenn ich diese Arbeit zur Veröffentlichung einreichen könnte, aber ich bin es leid, dass die Wächter des IPCC meine Studien regelmäßig töten; je mehr sie den Schlussfolgerungen des IPCC widersprechen, umso unwahrscheinlicher ist deren Veröffentlichung. Das ist die Welt, in der wir leben.

Aktualisierung: Ich habe die Ergebnisse nur für die USA berechnet, die beweisen, dass CRUTem3 die Erwärmungstrends in den USA im Zeitraum 1973 bis 2011 um mindestens 50% überschätzt haben.

Ich habe Ergebnisse nur für die USA berechnet, und die sind ein wenig spezieller. Die ISH-Stationen wurden erneut nach der lokalen Bevölkerungsdichte eingeteilt. Temperaturtrends wurden individuell für jede Station berechnet, und die oberen bzw. unteren 5% der ‚Ausreißer’ in jeder der drei Bevölkerungsklassen wurde in der Analyse nicht berücksichtigt. Für jede Bevölkerungsklasse habe ich auch die ‚offiziellen’ CRUTem3-Trends berechnet und gemittelt, genau wie ich es mit den ISH-Stationsdaten gemacht habe.

Die Ergebnisse im folgenden Bild zeigen, dass für die 87 Stationen in der niedrigsten Bevölkerungsklasse der mittlere CRUTem3-Temperaturtrend um 57% wärmer war als der aus den ISH-Stationen berechnete Trend.


Hier werden also wirklich Äpfel mit Äpfeln verglichen… für jede Station, die in die Mittelbildung für jede Bevölkerungsklasse einbezogen worden ist, wurde eine korrespondierende nächstgelegene Station ebenfalls in die Mittelbildung für diese Bevölkerungsklasse einbezogen.

Wie kann man solche Ergebnisse anders deuten als dass es eine verfälschte Erwärmung im CRUTem3-Datensatz gibt? Ich sehe schon jetzt in den Kommentaren, dass es einige wenige Versuche gibt, die Aufmerksamkeit von diesem zentralen Punkt abzulenken. Ich würde gerne eine alternative Erklärung für diese Ergebnisse hören.

Roy W. Spencer, Ph.D.

Link: http://wattsupwiththat.com/2012/03/30/spencer-shows-compelling-evidence-of-uhi-in-crutem3-data/

Übersetzt von Chris Frey EIKE




Atommüll ein (ökologisches) Problem

..Letzteres ist allerdings teuer und würde den Preis des umweltfreundlichen Stroms signifikant erhöhen. Ein Verschwinden des Atommülls würde andererseits keinen Gegner der Atomenergie von seinem Glauben abbringen. Es gibt analog der chemotoxischen Abfälle zahlreiche  Wege den anfallenden Atommüll zu entsorgen. Der heutzutage am häufigsten  gegangene Weg ist es diese Abfälle in geologisch sicheren Formationen in Salz, Ton, oder Granit zu lagern. Der Artikel geht auch auf die Alternativen, wie das Lagern in der Wüste, im Meer, oder im ewigen Eis, ein. Verfahren die eleganter und günstiger sind.(sehen Sie hier die undefinedVollversion des nebenstehenden offenen Briefes)

Einleitung

Derzeit werden jährlich 200.000 to Arsen, Zyanid, Dioxin und Furanhaltiger Giftmüll im ehemaligen Kalisalzbergwerk Herfa-Neurode eingelagert(14). Große Mengen giftiger Filterstäube, z.B. aus Kohlekraftwerken, werden als Bergversatz in Kohlezechen endgelagert (13). Filterstäube und Kohleasche können neben diversen Giften auch bis zu 200ppm Uran enthalten. In China ist die Urangewinnung aus den Hinterlassenschaften mehrerer Kohlekraftwerke geplant. (4) Langfristig, d. h. in der Nachbetriebsphase  ist das Gefährdungs-Potenzial der radioaktiven Abfälle bzw. Endlager niedriger als das der chemotoxischen Abfälle bzw. einer UTD (Untertagedeponie)….. Es besteht eine Diskrepanz zwischen dem tatsächlichen Risiko und der Risikowahrnehmung in der Öffentlichkeit. Aus Strahlenschutzpraxis (15)

 Es ist nur ökologisch (irrational) zu erklären, warum der Atommüll ein derartiges mediales Aufsehen genießt. Ausgerechnet die geringen Mengen an Atommüll werden seitens der Ökologen als  unlösbares Problem (wobei Sie mögliche Lösungen blockieren),  dargestellt. Nüchtern betrachtet ist die Müllentsorgung ein Vorteil für die Kernenergie. Aufgrund der enormen Energiedichte des Brennstoffs ist das Müllproblem wesentlich geringer als bei Kohle, Wind und Sonne.

1. Anfall hochradioaktiver Abfälle in Kernkraftwerken

Ein typisches Leichtwasserkernkraftwerk, ein Druckwasserreaktor, ist mit etwa 100 to leicht angereicherten Uran (Oxid) beladen. Die Spaltung von 1g 235Uran erzeugt ca. 22000 KWh entsprechend der Verbrennung von 2700 kg Kohle(2). In einem Jahr erzeugt ein derartiges Kraftwerk bei 33% Wirkungsgrad 10.000 GWh Strom. Dabei wird 1100 kg Uran und im Reaktor erbrütetes Plutonium gespalten. Jeweils nach einem Jahr wird z.B. knapp 1/4 des Brennstoffs (Abbrand 50,55 MWd/kg) ausgetauscht. Die Zusammensetzung des ausgetauschten Brennstoffs* kann wie folgt aussehen:

Als Brennstoff nutzbar

 

20,9 to Uran, entsprechend 23,6 to Uranoxid, Isotopenzusammensetzung z.B.  0,68% U235, 0,58% U236, Spuren U234,  Rest 238U*

240 Kg Plutonium, entsprechend 272 Kg  Plutoniumoxid, Zusammensetzung: 3% Pu238, 50% Pu239, 26% Pu 240, 13% Pu241 u. 8% Pu242*

Atommuell teilweise nutzbar

 

1100 Kg Spaltprodukte incl. Sauerstoff (Oxide) davon

830 Kg Stabile Spaltprodukte, z.B. 24 Kg Molybdän 95 (Keine Radioaktivität)

39 Kg Caesium137, Halbwertszeit 30,2J, Strontium90 Halbwertszeit 28,1J,  Jod

24 Kg Technetium,

30 Kg langlebige Spaltprodukte

Als Brennstoff  in Brütern nutzbar

 

29 Kg Transurane (Minore Actinide), davon. 15,5 Kg Neptunium Np237, 7,4 Kg Americium Am 241,  5,6Kg Am 243, Curium *(Mit schnellen Neutronen spaltbar, bzw. in schnellen Brütern nutzbar)

*Gem. einer ICP-MS Analyse Mittelwert mehrerer Brennstäbe  aus einem Druckwasserreaktor, mit 4% Anfangsanreicherung und 50,55 MWd/Kg  mittlerer Abbrand

Zu dem oben genannten hochradioaktiven Abfall kommen 50 m3 (konditioniert) leicht u. mittel-radioaktive Abfälle, wie gebrauchte Kittel, Handschuhe, aber auch 9to (Erläuterung e) Strukturmaterial, in erster Linie Brennstabhüllen, hinzu.

2. Reduzierung des Atommülls durch weitere Nutzung als Kernbrennstoff

   

Eine sehr elegante Möglichkeit mehr Energie aus dem Kern-brennstoff, bzw. weniger Atommüll je erzeugter KWh (Ener-gieeinheit) zu gewinnen ist der  DUPIC (Direct Use of used PWR fuel in CANDU reactors) Prozess. CANDU (CANadian Deuterium Uranium) Reaktoren werden mit dem wesentlich effektiveren Schwerwasser moderiert. Dadurch kann dieser Reaktortyp mit für Leichtwasserreaktoren bereits abgebranntem Brennstoff betrieben werden. Candu Reaktoren sind in Kanada, Indien, Rumänien, Korea und China im Einsatz. Der Abbrand der Brennstäbe erhöht sich um etwa 20%, oder 10 – 12 MWd/Kg. Hierzu müssen die hochradioaktiven Brennelemente in einer geeigneten Anlage auf die Brennstoffkonfiguration des CANDU Reaktors konvertiert werden  (Erläuterung g). Umfangreiche Tests dieses Verfahrens werden derzeit in China und anderen Ländern durchgeführt (30).

3. Reduzierung des Atommülls durch Wiederaufarbeitung (Recycling)

Langlebige Radioaktive Stoffe wie Uran, Thorium kommen in der Natur häufig vor und strahlen nur geringfügig. Kurzlebige radioaktive Stoffe zerfallen größtenteils bereits im Reaktor. Problematisch sind, wie man auch aus der obigen Darstellung erkennen kann die radioaktiven Stoffe mit Halbwertszeiten von mehreren Jahren bis zu 1 Mio. Jahre. Plutonium ist sehr giftig, radioaktiv und hat (z.B.239Pu) eine Halbwertszeit von 24000 Jahren. Das bedeutet es ist als Abfall sehr schwierig zu entsorgen. Andererseits ist 239Pu ein wertvoller Brennstoff in Kernkraftwerken. Deshalb ist es geboten den genutzten Brennstoff wieder aufzuarbeiten. Die abgebrannten Brennstäbe enthalten etwa 96% Uran und Plutonium, die  als wertvolle Brennstoffe wiederverwertet werden können.

Das Bild zeigt die Radioaktivität abgebrannten Kernbrennstoffs. Es unterscheidet sich  von der obigen Analyse.

Es verbleibt 1100 Kg hochradioaktiver Müll der nach einigen Jahrhunderten (bei Abtrennung der Actinide) auf das Niveau von Natururan abgeklungen ist und etwa 10m3 Betriebsabfälle aus der Wiederaufbereitung. In Deutschland wurde die Wiederaufarbeitung von Minister Trittin aus ökologischen (=irrationalen) Gründen verboten. Ein erheblicher Teil der Atommüllproblematik beruht auf dieser ökologischen Entscheidung

Die Bilder Links zeigen die Abfüllung einer Mischung aus Borsilikatglas versetzt mit hochradioaktivem Müll in der Wiederaufbereitungsanlage in La Hague, sowie einen der verwendeten Edelstahlbehälter in denen diese Masse eingeschmolzen wird

 

Radioaktivität der Reststoffe aus der Wiederaufbereitung

Man beachte die Rolle der Transurane (Actinide). Bei einer vollständigen Abtrennung derselben ist die Radioaktivität des hochradioaktiven Abfalls nach ein paar Jahrhunderten auf das Niveau von Uranerz abgeklungen.

4. Mögliche Nutzung der verbleibenden Reststoffe aus der Wiederaufbereitung 

4a. Extrahieren und Nutzung der Reststoffe

Gem. einer ICP-MS Analyse von mehreren Brennstäben  aus einem Druckwasserreaktor, 4% Anfangsanreicherung und einem mittleren Abbrand von 50,55MWd/Kg Abbrand kann man auf 25 to Brennstoff bezogen, in dem nach der Abtrennung des Urans und Plutoniumoxids verbleibenden 1100 kg Restabfall folgende Spaltprodukte erwarten:

Rh 103 13,4 kg Rhodium ist eines der wertvollsten Elemente der Welt, Der Preis beträgt etwa 65.499€/kg (19). Neben dem 103Rh kommt auch ein radioaktives Rhodium Isotop in Spuren vor, das jedoch mit einer Halbwertszeit von 39 Tagen bereits vor einer möglichen Wiederaufarbeitung zerfallen ist und eine Nutzung nicht behindert.

Ru 101 25 kg. Ruthenium, Preis 4540 €/kg (29) ist gleichfalls ein sehr seltenes teures Metall. Durch Verunreinigung mit Spuren des radioaktiven 106Ru, mit einer Halbwertszeit von 373 Tagen, kann man dieses erst nach einigen Jahren nutzen.

Ag 109 1,4 kg, Preis 535 €/kg (27)  nicht radioaktives Silber.

Sm 149,150,151,152. Gilt als seltene Erde. 151Sm hat eine Halbwertszeit von 90 Jahren und verhindert durch radioaktive Verunreinigung eine Nutzung des Samariums.

Tc99 24 kg, Preis 83.000$/kg (20) Technetium wird dringend als Radiopharmaka benötigt. Als Tracer wird es in die Blutbahn gespritzt und lagert sich in schwerzugänglichen Organen an Krebszellen an. Derzeit wird überlegt aufgrund der Knappheit desselben neue spezielle Reaktoren zum erbrüten dieses Isotops zu errichten (16). In der Wiederaufbereitungsanlage Sellafield wird das anfallende 99Tc teils gewonnen. Eine Produktion im Bereich mehrerer to aus der Wiederaufbereitung abgebrannten Kernbrennstoffs würde einerseits den Preis für 99Tc massiv einbrechen lassen, andererseits eine Behandlung für viele Menschen erschwinglich machen und diesen  helfen.

Sr90 Radioaktiv, Strontium wird in Radionuklidbatterien als Stromquelle genutzt

Nd 143, 145, 148 Gesamtmenge der Isotope 54 Kg. Der Preis von 68 €/Kg (26) bietet begrenzten Anreiz für eine Nutzung. Die Isotope des Neodyms sind stabil, oder haben sehr lange Halbwertszeiten im Bereich 1015 Jahren. Neodym wird in Hochleistungsmagneten genutzt

Ein paar weitere Isotope können z.B. in der Messtechnik, zum Einsatz kommen. Aus den Stellitrollen der SWR lassen sich 60Co Strahlenquellen fertigen (1) mit denen Gewürze, Obst und Gemüse haltbarer gemacht werden.

Russland berechnet für die Wiederaufbereitung abgebrannten Kernbrennstoffs aus ausländischen Reaktoren, z.B. Bulgarien, 620$/Kg (18). In La Hague, Frankreich werden ausländischen Kunden, z.B. Italien, 1000 €/kg berechnet. (22). Gewonnen werden in der Wiederaufbereitung das Uran und das Plutonium. Bei einem Pu Gehalt des verbrauchten Brennstoffs von 1% ergibt sich bei einem Uranpreis von 66 €/Kg, (17) und einem Faktor von 200 für das Reaktorplutonium, 10g x 200 = 2 Kg Uran, einen Wert für den wieder gewonnenen Brennstoffs von etwa 198 €/Kg. Das bedeutet dass die Wirtschaftlichkeit der Wiederaufbereitung derzeit von den Kosten der vermiedenen Atommüllentsorgung abhängt. Die Extrahierung seltener Elemente aus Atommüll steckt in den Kinderschuhen. Die Weiterentwicklung hin zu einer besseren Wirtschaftlichkeit und der besseren Nutzung aller Reststoffe, ist unbedingt erforderlich um die Wiederaufbereitung von Kernbrennstoff wirtschaftlich attraktiver zu machen. 

4b. Nutzung hochradioaktiver Abfälle als Wärmequelle

Eine wesentliche Eigenschaft des hochradioaktiven Abfalls ist dessen starke Wärmeabgabe.

Ein Block hochradioaktiven Abfalls aus der Wiederaufarbeitung (4J nach der Entnahme aus dem Reaktor) in Frankreich hat einen Durchmesser von 430mm, einen Inhalt von 150L, wiegt 490 Kg und enthält ca. 23% hochradioaktive Abfälle (77% Glasanteil) die in Borsilikatglas eingeschmolzen und mit Edelstahl ummantelt sind. Ein derartiger Block gibt direkt nach der Wiederaufarbeitung bis zu 2 KW Wärme ab (21).  Blöcke hochradioaktiven Atommülls können für mehrere Jahre als Energiequelle in anderen nuklearen Einrichtungen,  beispielsweise in Anreicherungsanlagen zur Erhitzung des UF6, dienen, oder auch für Polarstationen, Militärstützpunkte und Inseln genutzt werden, bis die Radioaktive Wärme weitgehend abgeklungen ist.

Die größte Herausforderung ist es bei einer derartigen Nutzung sicherzustellen dass der Müll nicht durch Gotteskrieger gemopst und zur Herstellung schmutziger Bomben verwandt wird. Der Gedanke an eine derartige Nutzung wurde in den 70er Jahren im Kernforschungszentrum Karlsruhe erwogen. Er wurde jedoch aufgegeben, da eine derartige Energiequelle nicht wirtschaftlich (a) konkurrieren kann, wenn der Müll mit riesigem Aufwand, dem atomrechtlichen Verfahren ausgesetzt, mit staatlich geduldetem Ökologen-Polizisten Prügelspiel (b) zugestellt wird.

5. Deaktivierung des Atommülls durch Mutation der Actinide und Spaltstoffe in nichtradioaktive Elemente

Grundsätzlich kann man die radioaktiven Spaltprodukte und Actiniden in die einzelnen Elemente auftrennen und die kritischen Elemente durch Neutronenbeschuss in nichtradioaktive Stoffe verwandeln. Die Transurane (Minore Actinide), die aufgrund ihrer langen Halbwertszeiten die größte Herausforderung bei dem aus der Wiederaufbereitung verbleibenden atomaren Restmüll darstellen, lassen sich in der Wiederaufbereitung abtrennen.

Ein schneller Brüter mit seiner hohen Dichte schneller Neutronen ist ideal geeignet um die in Leichtwasserreaktoren gebildeten Actinide (Transurane), als Brennstoff zu nutzen. Es gibt Studien bei dem neuem Konzept des SCWFR Reaktors, der sich durch einen hohen Brutfaktor auszeichnet, Targets aus Minoren Actiniden einzubringen (8).

Eine anderer Weg die Minoren Aktinide zu deaktivieren und diese gleichzeitig als Brennstoff zu nutzen sind Beschleuniger, s. Abbildung.

Der Gedanke der Nutzung der Neutronen eines Kernreaktors zur Deaktivierung von Spaltprodukten, oder Neutronen aus einem Neutronenbeschleuniger, s.o. zur Deaktivierung radioaktiver Spaltprodukte ist machbar, ist jedoch sehr aufwendig und eine Verschwendung die der ökoreligiösen Diskussion geschuldet ist.

Es ist eine sehr teure Lösung eines fiktiven Problems. Ein Verschwinden des Atommülls würde keinen Jünger der Ökoreligion von seinem Glauben abbringen.   

6. Endlagerung des radioaktiven Mülls

a.Versenken des Atommülls im Meer:

Eine Möglichkeit leicht und mittelradioaktiven Atommüll preisgünstig zu deponieren ist diesen im Meer zu versenken. Die Weltmeere enthalten 66 Mrd. to radioaktives Kalium40 und 4 Mrd. to radioaktives Uran (Erläuterung h), Thorium, Tritium und viele andere radioaktive Stoffe. Man kann sich leicht ausrechnen das die Menschen die Weltmeere nicht mit den geringen Mengen Atommüll verseuchen können wie sie durch Kernkraftwerke  entstehen. Die Engländer hatten bis 1982 den anfallenden Atommüll im Meer versenkt. Auch die Russen haben z.B. ausgediente Atom U-Boote im Weißen Meer versenkt. Derzeit wird lediglich flüssiger Atommüll im Meer entsorgt. Die natürliche Radioaktivität des Meeres von 12 Bq/l (6) kann  sich jedoch örtlich erhöhen, wenn dieser unachtsam eingeleitet wird. So wurde einst in der Britischen Wiederaufbereitungsanlage Sellafield der flüssige radioaktive Müll über ein Rohr ins nahe Meer eingeleitet. Im Umfeld der Einleitung ist die Radioaktivität noch Heute höher.

b.Vergraben des Atommülls in der Wüste

Der Kernforscher und Physiknobelpreisträger Heisenberg schlug einst vor den Atommüll mit 3 m Erde zu bedecken. Wenn man dies in der Wüste ohne besondere Grundwasserströme vornimmt, z.B. in einer Senke, ist dies unproblematisch. Der Wüstensand bedeckt den Atommüll innerhalb weniger Jahre m-dick. Ein Vorteil liegt darin das der Atommüll in einigen 100 Jahren ohne großen Aufwand wieder ausgegraben werden kann und dann Rhodium, Ruthenium und andere Materialien kostengünstig gewonnen werden können. Schwierig ist jedoch die politische Situation in vielen Wüstenstaaten. Terroristen könnten diesen Müll zum Bau schmutziger Bomben nutzen. Verschwörungsgerüchte könnten die politischen Führungen der Länder destabilisieren. Die Nutzung der Wüsten in politisch stabilen, nichtökoreligiösen Ländern ist ein preisgünstiger, sinnvoller Weg. In diesem Sinne kam in den 80er Jahren eine chinesische Delegation nach Deutschland, die neben einigen Porzellanlöwen auch das Angebot hinterließ den Deutschen Atommüll gegen gutes Geld in der Wüste Gobi abzulagern.

c. Deponieren des Atommülls im ewigen Eis

Die radioaktive Zerfallswärme lässt die Atommüllkokillen  durch das Eis bis zum felsigen Untergrund des antarktischen Kontinents gleiten. 

Die Antarktis ist mit einem bis zu 4000m dicken Eispanzer versehen. Sofern man den stabil verglasten, mit Edelstahl ummantelten, hochradioaktiven Müll (der Eisdruck ist enorm) dort verbringt, wird dieser sich durch seine Wärme mit abnehmender Geschwindigkeit und Radioaktivität durch den Eispanzer schmelzen und irgendwann auf den Fels treffen. Diese Alternative ist elegant und preisgünstig.

Die inländische Durchschnittstemperatur der Antarktis beträgt -55C°. Das antarktische Inlandeis wird auch bei einer signifikanten Erwärmung der Erde durch eine eventuelle Klimaänderung nicht schmelzen. Möglicherweise wird der Kontinent durch die Kontinentaldrift im Laufe von Millionen Jahren an einen wärmeren Platz der Erde wandern. 

Die radioaktive Zerfallswärme des Atommülls ist viel zu gering und die Wärmeleit- fähigkeit des Eises zu gut um das Antarktische Inlandeis zu schmelzen (f).

Derzeit ist die Nutzung der Antarktis durch den Antarktisvertrag verboten. Eine Alternative zur Antarktis könnte der Inlandsgletscher Grönlands darstellen. 

d. Deponierung des Atommülls Untertage

 

Das Bild zeigt die Untertage Atommülldeponie WIPP (USA)

Die meisten Länder haben sich entschieden ihren Atommüll unter Tage in geologisch stabilen Gebieten in Granit, Ton oder Salz zu lagern. Derzeit sind 16 (7) atomare Endlager in Betrieb. Dem in Deutschland geplanten und seit Jahrzehnten blockierten Atommüllager in Gorleben ist die WIPP Anlage in New Mexico (23) (USA) am Ähnlichsten.

In einem Salzstock in New Mexiko wird seit 1999 der  hoch-radioaktive Abfall militärischer Einrich-tungen deponiert. Un-tertagedeponien sind Das Bild zeigt die Untertage Atommülldeponie WIPP (USA) teurer und weniger elegant als die oben genannten Verfahren. Stabile Salzstöcke ermöglichen allerdings einen idealen Abschluss der radioaktiven Abfälle von der Biosphäre über geologische Zeiträume hinweg.

 In Dukovany (Bild links) werden heutzutage die Leicht- und Mittelradioaktiven Abfälle Tschechischer KKW endgelagert. Verglichen mit Asse aus den 60er Jahren, wo der Atommüll tief unter den genutzten Grundwasserschichten liegt, ist dieses eher ungünstiger zu bewerten.

Das Versuchsatommüllendlager Asse setzte im Umfeld der 60er Jahre Maßstäbe (c). Im Vergleich zur vielfach üblichen Deponierung des Leicht- und Mittelradioaktiven Mülls in Betonwannen, z.B. Frankreich, CSR, ist Asse auch nach heutigen Maßstäben eher übertrieben. Allerdings ist auch Asse nicht perfekt. Aus wirtschaftlichen Gründen wurde einst der Salzabbau bis an die Ränder des Vorkommens betrieben. Von außerhalb des Salzstocks drückt das Grundwasser mit ca. 50 bar. Die Hohlräume üben keinen Gegendruck aus. Dadurch sickert etwas Wasser in das ehemalige Salzbergwerk. Es wird von 12m³/Tag geschrieben.

   

  Dies ließe sich allerdings beheben indem man die Hohlräume mit weiteren Abfällen verfüllt, oder einfach flutet wie man dies mit vielen ehemaligen Salzbergwerken getan hat. Letztere Maßnahme hätte zur Folge, dass sich das Wasser im Salzstock mit Salz sättigt und dann als Salzlauge stabil bleibt. Durch ein Auffüllen, oder Fluten des Salzstocks entfällt die Druckdifferenz und der Salzstock kann dann die gebrauchten Kittel und Handschuhe für geologische Zeiträume einschließen. Die meisten Salzstöcke Deutschlands bergen Laugeneinschlüsse die beispielsweise in Gorleben seit 240Mio Jahren stabil sind. Entscheidend ist, dass keine nennenswerte Wasserbewegung stattfindet die Salz aus dem Salzstock spült und diesen im Negativfall auflöst. Der Salzstock in Gorleben wurde noch nicht genutzt. Insofern entfällt diese Thematik.

 

Horst Trummler (Vandale)

Der Beitrag kann als pdf im Anhang herunter geladen werden.

www.oekoreligion.npage.de

Erläuterungen

Solarmüll

Auf dem Gelände der kürzlich verkauften Antec Solar Energy AG in Arnstadt lagern 600 Tonnen Sondermüll. Wie Holger Wiemers von der Landesentwicklungsgesellschaft auf Anfrage von MDR 1 RADIO THÜRINGEN sagte, handelt es sich um 35.000 defekte Solar-Module. Diese müssten in einer Sonderdeponie eingelagert werden, weil sie mit giftigem Kadmium beschichtet seien (10).  Die Produktion einer derartigen Solarzellenfabrik beträgt 1/100 eines KKWs ausgedrückt als Peakleistung. Da die Durchschnittserzeugung weniger als 10% der Peakleistung beträgt und eine Solarzelle wahrscheinlich etwas mehr als 20 Jahre betrieben werden,  kann man das Verhältnis des Problemmülls auf 1/5000 schätzen. (9).

Anbei Bilder der Giftmülluntertagedeponie Herfa-Neurode in der jährlich etwa 200.000 to Giftmüll (alle Kernkraftwerke zusammen 20 to/a nach einer Wiederaufbereitung) endgelagert werden. Darunter PCB-haltige Transformatoren (z.B. Windmühlen), Filterstäube aus Kraftwerken (11), oder arsenhaltige Abfälle (7)wie sie  z.B. bei der Herstellung von Solarzellen auftreten..

a. Die technisch notwendigen Einrichtungen wie ein im Vergleich zu Heizöl größerer Kessel und eine 50cm Betonabschirmung gegenüber der Gammastrahlung ließen sich leicht aus der Brennstoffeinsparung finanzieren.

b Sofern der Staat die Prügelspiele nicht gewollt hätte, hätte man ernsthaft gegen die Organisatoren wie Grüne, BUND usw. als kriminelle Vereinigungen ermitteln können. Regelmäßig wurden Polizeiführer abgesetzt die zu hart mit den Ökologen umgingen.

Es wird zur Zerstörung von Schienen und Straßen aufgerufen.

Das Plakat hing an einer von der Stadt Frankfurt finanzierten Einrichtung

Sofern es sich nicht um geduldete/geförderte linke Kräfte handeln würde, würde man derartige Organisationen analog Rocker, oder NP.. juristisch bekämpfen.

c Asse wurde als Atommüllversuchsendlager für Leicht- und Mittelradioaktiven Müll 1967 in Betrieb genommen, zu einem Zeitpunkt als man chemotoxische Abfälle schlicht vergraben hat, bzw. ganz andere Maßstäbe an die Entsorgung angelegt hat. Aufgrund dessen, daß man Salz bis nahe an den Rand des Salzstocks abgebaut hatte, mußte mit Laugeneinbrüchen gerechnet werden. Dies war bereits in den 60er Jahren bekannt (28). Durch geschickte Skandalisierung (Eine Ameise zum Elefanten aufblasen) ist Asse zum Spektakel geworden anhand dessen die Endlagerung zum Problem erklärt wird.

d Allein der Materialaufwand für die Stromerzeugung aus Windkraftanlagen vs. Kernenergie beträgt ein 37-faches, s. Artikel CO2 Bilanzen.

e. Ausgehend von einem Außendurchmesser v. 9,5mm und einer Brennstabwandstärke von 0,65mm (EPR) ergibt sich bei Dichten von Zirkaloy von 6,5g/cm3 und Uox von 10,4 ein Gewichtsverhältnis von mU/mZ = (8.22 x 10.4)/(6.5 x (9.52 – 8.22) = 4.67. Sofern man die Endstücke, Abstandhalter usw. Hinzufügt erhält man ein Verhältnis von 3:1

f. Wenn man die aus der Wiederaufbereitung stammenden Reststoffe von 400 Kernkraftwerken aus 50 Betriebsjahren in einem Gebiet von 500 x 500Km ablagert, entsprechend 1000 MW Wärmeabgabe (das Abklingen der Radioaktivität und der Wärme ist hierbei nicht berücksichtigt), so ist dies verglichen mit der Sonneneinstrahlung von 55W/m2 und dem natürlichen Erdwärmestrom (Hauptanteil ist der radioaktiver Zerfall im Erdinnern) von 63mW/m², entsprechend 13.750.000 MW vernachlässigbar. Die Eisoberfläche der Antarktis strahlt mehr Wärme in den Weltraum ab, als ihr zugeführt wird.

g. Für den DUPIC Prozess ergeben sich 3 Optionen:

·       Die genutzten hochradioaktiven Brennelemente werden zerlegt, die Brennstäbe in 50cm lange Stücke geschnitten und wiederum verschlossen. (25) Üblicherweise enthalten die Brennstäbe eine Feder um die Brennstofftabletten im Brennstab zu positionieren und ein Spaltgasplenum um einen Überdruck zu vermeiden. Somit erscheint mir fraglich ob dieser Prozess so funktioniert. Dieser Prozess, obwohl einfach , erfordert aber auch Investition in eine geeignete Anlage.  

·       Die genutzten Brennelemente werden zerlegt, der hochradioaktive Brennstoff von den Brennstabhüllen befreit, zu Pulver gemahlen, mit Sauerstoff erhitzt um einen Teil der Spaltprodukte zu entfernen und wiederum zu Tabletten gepresst, in Brennstäbe gefüllt und daraus Brennelemente gefertigt. Dieser Prozess wird in einer Zusammenarbeit von AECL Kanada und der Ukraine entwickelt. (12) Der Prozess erfordert Investitionen in eine geeignete Anlage.

·       Die genutzten Brennelemente werden in einer Wiederaufbereitungsanlage in kochender Salpetersäure zersägt, der Brennstoff löst sich in Salpetersäure auf. Uran und Plutonium werden in TBT gebunden und der von Spaltprodukten befreite Brennstoff zur Fertigung von neuen Brennelementen genutzt. Auf die Trennung von Pu und Uran, wie im Purex Verfahren üblich, kann verzichtet werden. Dieser Wiederaufbereitungsprozess ist erprobt, jedoch sehr teuer!  (s. Artikel Wiederaufbereitung!)

h. Radioaktive Substanzen im Meerwasser

Gem. Wikipedia http://de.wikipedia.org/wiki/Meer  ergibt sich das Volumen der Weltmeere zu  1338 Mrd. km³

Gem. Wikipedia http://de.wikipedia.org/wiki/Kalium die durchschnittliche Konzentration von Kaliumionen bei 399,1 mg K+/kg = 408,4 mg K+/l.  Der Anteil  des  40K beträgt 0,012 %. Daraus ergibt sich:

1,338 x 10exp12  Mrd to  x 408 x 10exp-6 Kg K x 0.12 x 10 exp-3 = 65,5 Mrd to 40k

Uran hat einen Anteil von 3mg/m3 im Meerwasser resultierend in = 4 Mrd. to Uran.

Der Anteil an Thorium, Radium, Rhadon, wurde nicht berücksichtigt.

Verwendete Quellen:

1.             Homepage Fa. Hoefer & Bechtel

2.             Kernenergie u. Kerntechnik Lothar Lüscher

3.  Abbildung aus "Will time heal every wound?" (Monitor 17), Swedish     Environmental Protection Agency. (Das Buch ist über Miljobokhandeln erhältlich)

4.         Referat Prof. Horst Michael Prasser ETH Zürich gehalten am 29.05.08 in Lausanne

5. Uran limitierender Faktor für die Kernenergie Ohnemus Gronau 2006

6. Umweltradioaktivitaet. und Strahlenbelastung BMU Jahresbericht 2001 * gem. Diesem Bericht liegt die Radioaktivität des Meerwassers bei 12 Bq/l.

7. Wikipedia

8. CORE DESIGN ANALYSIS OF THE SUPERCRITICAL WATER FAST REACTOR Dissertation von Dr. Ing. Magnus Mori

9. Gegenwärtig verfügt die Antec Solar Energy AG am Produktionsstandort Arnstadt über 10 Megawatt (MW) Produktionskapazitäten. Der thüringische Standort bietet

www.solarserver.de/solarmagazin/artikelmai2005.html – 36k – Im CacheÄhnliche Seite

10. http://www.mdr.de/mdr1-radio-thueringen/nachrichten/5616073.html 26. Juni 2008, 18:44 Uhr

11. http://www.ks-entsorgung.com/standorte/neurode.cfm. Homepage Zugriff vom 23.11.08

12. http://www.world-nuclear-news.org/C-Canadian_technology_agreement_with_Ukraine-3005084.htmlCanadian technology agreement with Ukraine

xx

13. Köster, S.: Relevante Abfallströme für eine Immobilisierung, Tagungsband des 15. Aachener Kolloquiums Abfallwirtschaft im Dezember 2002

14. http://www.sueddeutsche.de/wissen/647/301644/text/ SZ Wissen 12/2006 (20.10.2006)

15. Strahlenschutzpraxis (Zeitschrift) Ehrlich, Dietrich/ Schulze, Hartmut/ Schlagwort(e)Endlagerung konventionelle Abfälle radioaktive Abfälle Heft/Jahr4/2003Seite/Seitenzahl61/5

16. Mangel an medizinisch verwendbaren Isotopen 

17. http://www.uxc.com/review/uxc_Prices.aspx UxC Nuclear Fuel Price Indicators (Delayed) Zugriff v.25.02.2010 , Preis U3O8 66,16 €/Kg

18. http://www.world-nuclear.org/info/inf87.html World Nuclear Organization Nov08

19. http://www.metal-pages.com/metalprices/

Zugriff 26.03.2010

1 tr Oz = 31,1g → 1 kG Rhodium 88424$ = 65499 €

20. http://en.wikipedia.org/wiki/Technetium 18.02.09

21. FZKA6651 Forschungszentrum Karlsruhe, Wissenschaftliche Berichte, Endlagerrelevante Eigenschaften von hochradioaktiven Abfallprodukten, Bernhard Kienzler, Andreas Loida, 2001 S64 des Dokuments

22. Areva Pressemitteilung  09.05.07 http://www.areva.com/servlet/news/pressroom/pressreleases/cp_07_05_2007-c-PressRelease-cid-1177488959131-p-1140584426338-en.html

23. Homepage von WIPP http://www.wipp.energy.gov/ U.S. Department of Energy
4021 National Parks Highway Carlsbad, New Mexico 1-800-336-WIPP Zugriff 16.08.09 Atommüllendlager der USA für den in militärischen Anlagen anfallenden hochradioaktiven Müll, als Pilot Plant deklariert.

24. http://www.lahague.areva-nc.com/areva-nc/liblocal/docs/download/Usine%20de%20la%20hague/LH-usine-la-hague-DT-6-en.pdf

25. Processing of Used Nuclear Fuel, WNA, oct 09, http://www.world-nuclear.org/info/inf69.html

26.   http://www.metal-pages.com/metalprices/neodymium/

Zugriff 22.10.2010

95$/Kg = 68 €/Kg

27.Silber .de http://www.silber.de/silberpreis.html

28. http://www.strom-magazin.de/strommarkt/endlager-papst-moegliches-absaufen-der-asse-schon-lange-bekannt_27208.html

06.11.2009, 14:21 Uhr

"Endlager-Papst": Mögliches Absaufen der Asse schon lange bekannt

29. http://www.ebullionguide.com/price-chart-ruthenium-last-6-months.aspx Zugriff 26.03.2010  190$/oz entspricht  4540 /Kg

30. WNN News 24.03.2010 http://www.world-nuclear-news.org/ENF-Chinese_reactor_trials_Candu_fuel_reuse-2403101.html

Related Files




Welche Rolle spielen Treibhausgase ?- Teil 1

Seit gut 20 Jahren erzählen das IPCC und deren Anhänger, Treibhausgase (THG), die wir Menschen ausbringen, würden den Temperaturgang maßgeblich beeinflussen und damit das Klima auf der Erde steuern, weil Sonnenaktivität und Temperaturgang seit 30 Jahren auseinander laufen würden. Noch jüngst behauptete der Direktor des MPI-M, Prof. Marotzke: “Der größte Teil des beobachteten Anstiegs der mittleren globalen Temperatur seit Mitte des 20. Jahrhunderts ist sehr wahrscheinlich (Wahrscheinlichkeit höher als 90%) durch den beobachteten Anstieg der anthropogenen Treibhausgaskonzentrationen verursacht.“ Die Sonne kommt als Verursacher der Erwärmung nicht mehr vor und findet keine Erwähnung. Vielleicht sollte Herrn Prof. Marotzke eine Studienreise in die Sahara und zum Nordpol spendiert werden, um zu erfahren, welche Kraft in der Sonne steckt und welche Erwärmung von ihr ausgeht. Der folgende Artikel, der auch als Lernbeitrag in Meteorologie für Herrn Prof. Marotzke dient, wird zeigen, dass zur Erklärung des Temperaturgangs, sowohl der leichten Erwärmung bis zum Ende des 20. Jahrhunderts, als auch die seit 10 Jahren zu verzeichnete Abkühlung, keine THG notwendig sind, sondern die Sonne über die Hadley-Zellen und von dort über die globalen Windsysteme das Wetter und die Temperaturen bis in die Gegenwart allein steuert.

Teil 1: Manipulationen zur Aufrechterhaltung der behaupteten Rolle der THG und  deren Aufdeckung – globaler Temperaturgang

In seinem EIKE-Beitrag "La Niña und El Niño, was sich dahinter verbirgt und was sie, wann auslöst – Die Sonne ist an allem schuld" vom  24.01.2011 (http://www.eike-klima-energie.eu/climategate-anzeige/la-nina-und-el-nino-was-sich-dahinter-verbirgt-und-was-sie-wann-ausloest-die-sonne-ist-an-allem-schuld/) hatte der Autor folgende Abbildung gezeigt und textlich wie folgt hinterlegt.

 

Abbildung 1 “zeigt die sich ändernde Strahlungsabgabe (Variabilität, TOP = Top Of Atmosphäre) der Erde im Zeitraum 1984 – 2005 aus Satellitensicht. Der Hub zwischen Min. – Max. beträgt 7 W/m2. Die Abbildung ist übrigens ein eindeutiger Beweis, dass die globalen Temperaturreihen, wie sie jüngst wieder medienwirksam veröffentlicht wurden und das Jahr 2010 als wärmstes ausweisen wollen, gefälscht sind, weil die Temperaturreihen nicht zur langwelligen Abstrahlung (Wärmeabstrahlung) der Erde, die sich aus ihrer Temperatur ergeben, passen.  Siehe hierzu (http://www.eike-klima-energie.eu/klima-anzeige/waermstes-jahr-2010-flugverkehr-in-europa-festgefroren-lebt-die-un-organisation-wmo-auf-einem-anderen-planeten/?tx_ttnews[pointer]=1).“ Anmerkung: Dieser Beitrag zeigte, dass die Temperaturreihen 2010 der WMO auf Manipulationen beruhen.

Da Abbildung 1 die sich ändernde Wärmeabstrahlung der Erde zeigt und nach Planck und Newton die Wärmeabstrahlung im direkten Zusammenhang zur Temperatur des abstrahlenden/abgebenden Körpers steht, zeigt die Abbildung, dass sie weder zum globalen Temperaturgang, noch zum globalen atmosphärischen CO2-Pegel passt (Abbildung 2).

 

Während sich die Abstrahlung der Erde und damit ihr Temperaturniveau von 1984 – 1997 in der Tendenz nicht ändern und erst ab 1997 – 2005 ansteigen, zeigt die Zeitreihe der globalen ermittelten (berechneten) Temperaturzeitreihe nach Jones, die als Grundlage der IPCC-Betrachtungen gilt, ab 1960 steil nach oben (Pfeil). THG als Erklärung scheiden von vorneherein aus, da diese nicht das volatile Verhalten, sprich die Schwankungen in der Abstrahlung erklären können. Dass es sich bei der Zeitreihe nach Jones um keine wahrheitsgemäße Wiedergabe des globalen Temperaturgangs handelt, dazu gleich mehr.

Anmerkung:

Ungeachtet der Trendverläufe muss erwähnt werden, dass globale Temperaturen generell nicht real sind – die Sahara-Temperaturen sind bekanntlich anders als die unsrigen – sondern statistisch berechnet werden, wozu komplexe Algorithmen (Formeln) verwendet werden. Wenn in diesem Artikel von Globaltemperaturen die Rede ist, so handelt es sich stets, wie auch beim IPCC, um statistisch ermittelte Werte.

Wenn die Abstrahlung der Erde als Maß ihrer Erwärmung, bzw. Abkühlung nicht dem vom IPCC ausgewiesenen globalem Temperaturgang folgt, durch was wird sie bestimmt? Die Antwort gibt Abbildung 3.

Abbildung 3 links zeigt die Häufigkeit der solaren Neutronenströme pro Jahr als Maß solarer Aktivität, Quelle: Dr. Borchert (Uni Mainz), “Klima, Sonnenflecken und kosmische Strahlung“. Deutlich ist das gleiche Muster (Fingerabdruck, grüne Kreise) zu erkennen. Weiter ist sehr transparent zu sehen, wie der Ausbruch des Pinatubo in 1991 (blauer Balken), der die Erdtemperaturen für ca. 2 Jahre um bis zu 0,8°C senkte, die langwellige Erdabstrahlung (abhängig von der Temperatur) ebenfalls ins "Minus" lenkt, obwohl die Neutronenströme und damit die solare Aktivität hoch ist. Bereits Abbildung 3 gibt die entscheidenden Hinweise, was die Wärmeabstrahlung der Erde und damit ihr Temperaturniveau steuert.

Fälschungen der Temperaturreihen haben eine lange Tradition.

Schon mehrfach wurde bekannt, dass weltweite Zuträger des IPCC die Temperaturganglinien passend machten. Die bekanntesten Beispiele sind der sog. Hockey-Stick von Prof. Mann und die “Tricks“ die angewendet wurden, das heutige Temperaturniveau als besonders hoch ausfallen zu lassen (Climategate – EIKE berichtete ausführlich darüber). Ein Beispiel zur Erinnerung. Die Daten aus Baumringen, die bis weit ins 20. Jahrhundert keine Erwärmung auswiesen, wurden einfach ab Anfang des 20. Jahrhunderts abgeschnitten und durch gemessene Werte ersetzt. Was auf den ersten Blick manchem vielleicht harmlos erscheinen mag oder gar korrekt, ist jedoch dreiste Fälschung, da aus einer Methodik zum ermitteln des Temperaturganges (Baumringe) nur die Werte genommen wurden, die zum gewünschten Ergebnis passen (niedrige vorindustrielle Werte) und die Werte, die nicht passten (niedrige industrielle Werte), durch passende Werte ersetzt wurden. Die Messreihe aus Baumringen, ging bis ca. 1980 und nur die daraus ermittelten Werte sind auch miteinander vergleichbar (!) und zeigten, wie gesagt, keine Erwärmung. Die ab 1900 angesetzten, gemessenen Werte sind nicht (!!) mit den Werten aus den Baumringen vergleichbar, da sie vollkommen anders ermittelt werden. So etwas wird Manipulation genannt. Prof. Mann ging noch dreister vor, indem er zum einen Datenauswahl und statistische „Tricks“ vornahm und zum anderen, Bäume (Proxys) auswählte, die nur eine Wachstumsperiode von 6-8 Wochen im Jahr haben und daher auch nur 6-8 Wochen von 52 Wochen die Temperatur „sehen“. An mindestens 44 Wochen im Jahr daher für eine Temperaturaussage „blind“ sind. Der Autor mag sich jetzt ein Wortspiel zum IPCC und deren Mitläufern verkneifen.

Dank Herrn Prof. Ewert wurde weiter bekannt, dass das GISS (Goddard Institute for Space Science) in Abwandlung, sich weiter dieser Fälschungsmethodik verschreibt: Die Werte, die für das gewünschte Ergebnis brauchbar sind, werden belassen und die, die unbrauchbar sind, entfernt. Prof. Ewert fasste dies in seiner Untersuchung, GISS „korrigiert“ seine Temperaturdaten, zusammen. Die Manipulation wurde vom GISS in 2011, also knapp zwei Jahre nach Climategate vorgenommen. Nun verwundert es nicht mehr, dass ich zu dem angeblich so warmen Jahr 2010 auf EIKE schrieb, dass die Aussage der WMO zur andauernden Erwärmung, nicht der Realität entspricht. Herr Prof. Ewert konnte anhand der Überprüfung von über 800 Messstationen, massive Fälschungen beim GISS nachweisen. Hier zwei Beispiele:

 

Abbildung 4, Quelle: Prof. Ewert. Nur zwei Beispiele, wie durch Datenmanipulation das GISS eine künstliche Erwärmung zaubert. Links die Werte, die noch 2010 ausgewiesen wurden, rechts der neu designte Temperaturgang der „Künstler“ der Global-Warming-Fraktion. Diese Erwärmung ist in der Tat menschen-gemacht! 2011, knapp zwei Jahre nach Climatgate: “Ist der Ruf erst ruiniert, regiert sich´s völlig ungeniert.“ Ein wohl jedem geläufiges Sprichwort.

Wir Naturforscher unter den Klimaforschern oder besser gesagt, unter den Klimatricksern, brauchen weder THG, Tricks, Manipulationen oder gar Fälschungen,  noch Wahrscheinlichkeiten, um den Temperaturgang zu erklären. Hierzu reichen allein Naturbeobachtungen. Im Besonderen, die der Sonne und der globalen Wettersysteme.

Abbildung 5 zeigt die gemittelte, globale Temperaturentwicklung im Zeitraum von 1979 – Januar 2012. Der geglättete Kurvenverlauf zeigt eine Wellenform mit einer Periode von im Mittel 7,5 Jahren (http://www.climate4you.com/GlobalTemperatures.htm). Dies spricht für einen natürlichen Einfluss. Um es vorweg zu nehmen, es ist der "Kleine-Landscheidt-Zyklus" der Sonne. Der Autor berichtete in seiner 8-teiligen EIKE-Reihe “Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels“ (Teil 3, Abbildung 43) darüber.

Weiter zeigte ich bereits am 24.01.2011 (http://www.eike-klima-energie.eu/climategate-anzeige/la-nina-und-el-nino-was-sich-dahinter-verbirgt-und-was-sie-wann-ausloest-die-sonne-ist-an-allem-schuld/), dass der globale Temperaturgang El Niño-Ereignissen unmittelbar folgt und welche solaren Ereignisse diese, wann auslösen. Dazu habe ich den Zeitraum betrachtet, der angeblich von der Sonnenaktivität abgekoppelt sein soll.

Abbildung 6 zeigt nach Solanki et al., dass anhand des TSI (Total Solar Irradiance) ab ca. 1980 Sonnenaktivität und globaler Temperaturgang (rot) auseinanderlaufen würden.

Nun ist der TSI grundsätzlich ungeeignet, eine Aussage über die solare Aktivität anzugeben. Dies mag auf den ersten Blick verwundern, da der TSI doch auch von Satelliten gemessen wird. Die Lösung ist jedoch denkbar einfach. Die Satelliten können nur das aufnehmen, wofür das Messgerät ausgelegt ist und die Messgeräte der Satelliten nehmen nur den Wellenlängenbereich zwischen 200 nm und 2.000 nm auf. Also nur einen kleinen Energiespektralbereich der Sonne. Dies ist der Teil, der auf die Erdoberfläche gelangt. Will man heutige, gemessene Werte des TSI mit rekonstruierten vergleichen, so bietet sich diese Vorgehensweise an, da der Proxy, der sich logischerweise auf der Erde befindet, natürlich auch nur den Teil der Sonnenaktivität sieht, der auf die Erdoberfläche gelangt. Nun ist das Wetter bekanntlich der Teil aus dem sich das Klima zusammen setzt und das Wetter wird nun einmal nicht auf der Erdoberfläche „gemacht“, sondern in der Tropo- und Stratosphäre und dorthin gelangt ein größeres Energiespektrum der Sonne. Von den indirekten Einsflüssen der Sonne auf die Erde (Wolkenbedeckung = Svensmark-Effekt) ganz zu schweigen. Der TSI blendet darüber hinaus gerade die Energiespektren aus der Sonne aus, die besonders variabel sind. So ändert sich der TSI über den Sonnenzyklus (Schwabe-Zyklus) kaum – nur 0,1 bis 0,2%. Beim UV-Anteil ist dies bereits gänzlich anders. Er ändert sich um bis zu 35% und beim Röntgenanteil, aus dem auf die indirekten Einflüsse der Sonne auf die Wolkenbedeckung geschlossen werden kann, um das 100-fache! Abbildung 7 zeigt das Sonnenspektrum und seine Reichweite in die Erdatmosphäre.

Abbildung 7 links zeigt das Sonnenspektrum nach Daten des High Altitude Observatory am NCAR (National Center for Atmospheric Research) und rechts, neben den Temperatur- und Dichtegradienten der Erdatmosphäre, die wirksamen Wellenlängenbereiche der Sonnenstrahlung und deren Eindringtiefe in die Atmosphäre, Quelle: (http://www.physorg.com/news198429352.html).

Von „Total“ kann also beim TSI keine Rede sein. Sein Wording ist demnach eine bewusste Mogelpackung. Soll die ganze Sonnenaktivität betrachtet werden, müssen andere Parameter ausgewertet werden. Einer davon ist die Korona, also die Sonnenatmosphäre. Diese zeigt im Aktivitätszyklus der Sonne interessante Eigenschaften. So springt sie plötzlich auf ihren nahezu doppelten Temperaturwert (Abbildung 9). Da die Korona der Teil der Sonne ist, der über den Sonnenwind direkt mit der Erde verbunden ist, liegt es nahe, sie mit dem Wettergeschehen der Erde in Relation zu setzen.

Abbildung 8 links (Quelle: http://www.ngdc.noaa.gov/stp/SOLAR/solarda3.html) zeigt die gesamte Strahlungsleistung der Korona von 1938 – 1995 in W/sr, mit r = 2.800 MHz Radio flux. Deutlich ist zu sehen, dass parallel zum (leichten) Temperaturanstieg auf der Erde, die Strahlungsleistung der Korona stark (ca. 25%) ansteigt. Der TSI-Wellenlängenbereich bildet die Koronatemperatur und damit ihr Energiespektrum gar nicht ab. Die NASA beweist damit, dass die Sonne bis zum ausgehenden 20. Jahrhundert immer aktiver wurde. Die rechte Abbildung zeigt die fragwürdige globale Temperaturentwicklung nach Jones. In der Satelliten-gestützen Zeitreihe aus Abbildung 5 ist der Anstieg in der Temperatur im Betrachtungszeitraum von 1979 – 1995 ebenfalls vorhanden, jedoch moderater.

Abbildung 9 unten zeigt die sich ändernde Koronatemperatur der Sonne. Deutlich zu sehen, dass nach dem Einschalten der Koronazusatzheizung (wenn die Koronatemperatur auf nahezu ihren doppelten Wert „springt“) ein El Niño ausgelöst wird und zwar innerhalb eines festen Zeitraumes und weiter, nach ca. 11 Monaten der El Niño sein Maximum erreicht. Das blaue Rechteck gibt den Zeitpunkt an, ab wann nach einem Sonnenminimum im Schwabe-Zyklus, die Koronatemperatur auf nahezu ihren doppelten Wert (ca. 2 Millionen Kelvin springt). Da die Koronatemperatur nur aus dem Weltraum aufnehmbar ist und kontinuierliche Daten deshalb erst seit gut 20 Jahren vorliegen, wurden ihre „Schaltpunkte“ rekonstruiert. Dabei wurden die Zeitabstände (blaue und grüne Rechtecke) exakt beibehalten und betrachtet, ob diese mit weiteren El Nino-Ereignissen zusammen fallen. Dies ist eindeutig der Fall und zwar nach exakten Zeiten (!) 11 Monate, nachdem sich die Temperatur der Korona verdoppelte, erreicht ein starker El Niño sein Maximum.

Jedoch zeigt die El Niño 3.4-Reihe, dass im betrachteten Zeitraum, in dem laut IPCC-Anhängern, die Erdtemperaturen von der solaren Aktivität abgekoppelt sein sollen, noch mehr El Niño-Ereignisse stattfanden. Demnach muss es noch eine weitere solare Aktivität geben, die auf der Erde einen El Niño auslöst. Die Antwort, um welche solare Aktivität es sich handelt, gibt die Abbildung 10. Es ist die unmittelbare magnetische Aktivität der Sonne. Ihr solares magnetische Maximum.

 

Abbildung 10 zeigt nochmals die Abbildung 9. Darüber hinaus die magnetische solare Aktivität (zweite Datenreihe von oben, Quelle: Max Planck Gesellschaft http://www.mps.mpg.de/projects/solar-mhd/research_new.html). Wie unschwer festzustellen, wird nach jedem Maximum im Schwabe-Zyklus ebenfalls ein El Niño-Ereignis ausgelöst. Auch hier wird das Maximum im El Niño-Ereignis nach einer exakt festen Zeitspanne erreicht (graue Rechtecke).

Bleibt noch die Frage zu beantworten, was die grün und rot umrundeten schwächeren El-Niño-Ereignisse auslöst. Die Antwort für das rot-umrundete in 2005 lässt der Autor die NASA und zwar deren Sonnenforscher David Hathaway vom September 2005 geben: “http://science.nasa.gov/headlines/y2005/15sep_solarminexplodes.htm)

Die Antwort für die grün umrundeten gibt bereits die Datenreihe von der Max Planck Gesellschaft und zwar die grüne Datenreihe, die das magnetische Polarfeld der Sonne zeigt. Der Autor möchte Ihnen dieses anhand der Sonnenwindaktivität weiter belegen (Abbildung 11).

 

Abbildung 11 (Quelle: http://www.leif.org/research/files.htm) zeigt den 27-Tage-Durchschnitt der Sonnenwindgeschwindigkeit in 100 km/s von 1880 – 2009, nach Leif Svalgaard. Blau, aus dem IHV (Inter-Hour Variability-Index) und IDV (Inter Diurnal Variability) rekonstruiert, rot sind direkt gemessene Werte. Nun muss man wissen, dass der schnelle Sonnenwind entweder aus dem Nonaxisymmetric Open Flux, dort von starker solarer magnetischer Aktivität (z.B. ño-Datenreihe verglichen, so ist Übereinstimmung festzustellen.

Das Max Planck-Institut für Sonnensystemforschung (MPS) nennt die Polfeldaktivität Coronal Hole associated storms (“Physikalische Grundlagen des Weltraumwetters – Der Sonnenwind“), Abbildung 12.

 

Abbildung 12 zeigt die solare magnetische Aktivität im Zeitraum von 1930 – 2000 (Quelle: MPS).

Abschließend ist festzuhalten, dass El Niño-Ereignisse durch drei solare Ereignisse unmittelbar ausgelöst werden:

1) Dem Einschalten der Koronaturboheizung, wenn deren Temperatur verdoppelt wird

2) Nach jedem Maximum im magnetischen solaren Zyklus.

3) Dem Polarfeld der Sonne (schwache El-Niño)

Was hat nun ein im Pazifik stattfindendes El Niño-Ereignis mit den globalen Temperaturen zu tun? Wie Abbildung 13 zeigt, sehr viel, um nicht zu sagen, so gut wie alles. Warum dies so ist, gleich mehr.

Abbildung 13 zeigt nochmals den in Abbildung 5 gezeigten gemittelten, globalen Temperaturgang und dazu den El Niño 3.4, wie er von der NOAA (amerikanische Wetterbehörde) für La Niña/El Niño-Ereignisse verwendet wird. Deutlich ist zu sehen, dass jedes El Niño-Ereignis exakt mit den positiven Ausschlägen (Erwärmungsphasen) in der globalen Temperatur übereinstimmt. Das Gleiche gilt im umgekehrten Fall für seine Schwester La Niña.

Im Teil 2 erfahren Sie, dass El Niño-Ereignisse auf der ganzen Erde Auswirkungen haben und warum dies so ist und, wie die solaren Aktivitätsschwankungen die Hadley-Zellen moderieren und wie dies Auswirkungen auf der ganzen Erde hat. Weiter werden dazu die Erklärungen gegeben, warum dies ist und aus physikalischen Grundgesetzen gar nicht anders sein kann. THG werden zur Erklärung einer Erwärmungs- oder Abkühlungsphase nicht benötigt, da sie erkennbar keine Rolle spielen. In der Naturbeobachtung treten sie nicht in Erscheinung, einzig in Computerspielen des PIK oder sonstiger, am Fördertropf hängender Institute.

Raimund Leistenschneider – EIKE

Zum Abschluss mochte ich unseren Lesern noch ein anschauliches Beispiel zukommen lassen, welches von einem Vorkämpfer der wissenschaftlichen Aufklärung in Sachen THE und THG stammt und den Autor erreichte. Das Beispiel zeigt anschaulich, dass es in der Physik und damit Realität keinen THE gibt, da der Boden die Atmosphäre erwärmt und nicht die Atmosphäre – die dortigen sog. THG – den Boden:

"Sehr geehrter Herr Leistenschneider,

besten Dank für Ihre Überlegungen. Darf ich als kleiner Wetterfrosch eine Anmerkung machen, denn als Frosch kann man nur überleben, wenn man die Natur genauestens beobachtet und daraus Schlüsse zieht.

Heute am 27. März hatten wir in Oppenheim (128 m über NN) folgende Temperaturwerte:

07 Uhr: 200 cm 8,4 °C, 20 cm 7,7°C und -5 cm (Bodentemperatur) 9,4°C

10 Uhr: 200 cm 10,6°C, 20 cm 11,6°C und -5 cm 9,9°C

12 Uhr. 200 cm 14,1°C, 20 cm 16,2°C und -5 cm 12,6°C

Um 7 Uhr betrug die Globalstrahlung 9,0, um 10 Uhr 386,0 und um 12 Uhr 1352,0 Wh/m2. Diese Werte nach klarer Nacht lassen nur einen Schluss zu: Einen Treibhauseffekt gibt es nicht!

Die Bodenoberfläche ist nachts die Kühlfläche und am Tage die Heizfläche für die aufliegende Luft. Die Energiequelle ist die Sonne. Sie strahlt aber nur am Tage, während die Erde rund um die Uhr strahlt!

Und nun noch der Nachmittag. Während die 200 cm Temp. Von 19,3°C um 16 Uhr noch auf 19,7°C um 17 Uhr stieg, sank die 20 cm Temp. von 20,7°C auf 20,6°C. Kurz vor 17 Uhr wurde die Ausstrahlung größer als die Einstrahlung, die Bildung einer Bodeninversion hatte begonnen.

Dies noch zur Abrundung! Jedenfalls für eine Gegenstrahlung kein Hinweis, geschweige denn ein Beweis!

Mit freundlichen Grüßen

Wolfgang Thüne

Teil 2 finden Sie hier

Der vollständige Beitrag ist im Anhang als pdf herunter ladbar

Related Files