1

Der Deutsche Wetterdienst hat ein Problem mit dem Klima

Eine solche Behauptung ist wohl nur zu erklären aufgrund einer politischen Anweisung, oder vorauseilendem Gehorsam gegenüber der regierungsamtlichen Klima-Politik.

Selbst der Leiter des MPI für Meteorologie in Hamburg, Prof. Dr. Marotzke, stellte fest “Ich kenne keinen seriösen Kollegen, der leugnen würde, dass es in den letzten Jahren nicht mehr wärmer geworden ist”.

Als Beispiele für die Erwärmung hat man sich beim DWD drei sorgfältig ausgewählte Fälle herausgesucht: Durch Verwendung der überholten Referenzperiode 1961-1990 kann man bis heute einen Temperaturanstieg um 0,4°C konstatieren. Dabei  ist zu bemerken, dass es sich um einen Tieftemperaturbereich handelt, der nach 35-jähriger Abkühlungsphase von 1940 bis 1975 aufgetreten war. Als aktuelle Vergleichsbasis gilt heute der auch in den USA benutzte Zeitraum 1981-2010. Und dann sieht die Sache schon wieder anders aus: Das Jahr 2013 lag in diesem Fall um 0,2°C unter dem Durchschnitt.

Als zweites Beispiel wird erwähnt, dass es seit 1881 in Deutschland um 1,2°C wärmer geworden sei. Auch hier hat man als Referenz einen Temperatur-Tiefpunkt ausgewählt. Würde man z.B. das Jahr 1860 wählen, wäre die Differenz nur noch halb so groß, ca. 0,6°C. Kein Wort jedoch von der Tatsache, dass die Jahres-Temperaturen in Deutschland seit dem Jahr 2000 bis 2013  um 0,6°C abgesunken sind (nach den Daten des DWD !) und dass das Jahr 2013 das zweitkälteste Jahr seit 14 Jahren war (Abbildung 1).

Vergebens sucht man ein Diagramm mit der neueren Klima-Entwicklung auf den Internet-Seiten des DWD. Das passt offenbar überhaupt nicht in die verordnete Klima-Ideologie.

Auch wenn man den Zeitraum seit 1990 betrachtet (immerhin 24 Jahre), zeigt sich kein Temperaturanstieg, sondern ein nahezu konstantes Niveau.

Als drittes Beispiel wird vom DWD erwähnt, dass wir im Zeitraum 1983 bis 2012 wahrscheinlich die wärmste Periode der letzten 1400 Jahre hatten – und bezieht sich dabei auf den IPCC-Bericht. Gib es denn beim DWD keine eigene klimahistorischen Daten? Ist es beim DWD unbekannt, dass es nicht nur vor 1000 Jahren genauso warm war wie heute, sondern sogar mehrmals in den letzten 3200 Jahren  (und dies garantiert ohne jeden CO2-Einfluss)? Abbildung 2 veranschaulicht die Klima-Historie, die u.a. zeigt, dass stets die Warmzeiten Perioden politischer Stabilität und wirtschaftlicher Blüte waren, während in den kühlen Perioden dazwischen Instabilität (Migration) und Hungersnöte durch Dürren auftraten.

Abbildung 1: Temperaturdaten Deutschland 1999-2013, nach DWD

Abbildung 2: Globaltemperaturen der letzten 3200 Jahre.

Der Beitrag erschien zuerst im Blog Die kalte Sonne hier

Link zur Pressekonferenz des DWD hier

 ==================================================

Anmerkungen / Ergänzungen der EIKE-Redaktion :

DWD-Verlautbarungen wie die oben zitierte “dass die Erwärmung fortschreitet” sind wohl rational kaum noch zu erklären, wenn man zugleich liest, daß international maßgebliche Forscher und auch das IPCC selbst (2013 in Stockholm) die mittlerweile 16-jährige Temperatur-Stagnation klar ansprechen. Dazu gehören z.B. die Instituts-Leiter Jochem Marotzke (MPI Hamburg) und Hans von Storch (Institut für Küstenforschung; Helmholtz-Zentrum Geesthacht) :

Zu diesen sachlichen nüchternen Feststellungen und Analysen solcher Forscher stehen Aussagen des Deutschen Wetterdienstes aus den letzten zwei Jahren in krassem Widerspruch. Mehr noch: Der DWD argumentiert sogar gegen seinen eigenen Daten und Messungen und widerspricht sich selbst im Rahmen von Verlautbarungen :

===================================================




Der Entwicklungsstand bei Kernreaktoren der IV Generation- Eine Zwischenbilanz

Nach zehn Jahren der internationalen Zusammenarbeit bei der Entwicklung von Reaktoren der sogenannten "vierten Generation" erschien eine Überarbeitung der Ursprünglichen Fahrplanes aus dem Jahre 2002 erforderlich (https://www.gen-4.org/gif/upload/docs/application/pdf/2014-03/gif-tru2014.pdf). In der letzten Dekade ist viel geschehen: Dies betrifft die Zusammensetzung und Forschungsintensität der Mitglieder, die bereits gewonnenen Erkenntnisse und nicht zuletzt die Veränderung der äußeren Randbedingungen (Shale Gas Boom, Fukushima, etc.).

Es ist bei den ursprünglich ausgewählten sechs Konzepten geblieben. Neue sind nicht hinzugekommen. Mehrere teilnehmende Länder haben bedeutende Mittel in die Entwicklung natriumgekühlter Reaktoren mit einem schnellen Neutronenspektrum (sodium-cooled fast reactor, SFR) und gasgekühlten Reaktoren mit möglichst hoher Betriebstemperatur (very-high-temperature reactor, VHTR) investiert.

Die restlichen vier Konzepte: Mit Wasser im überkritischen Zustand gekühlte Reaktoren (SCWR), bleigekühlte Reaktoren mit schnellem Neutronenspektrum (LFR), gasgekühlte Reaktoren mit schnellem Neutronenspektrum (GFR) und mit Salzschmelzen gekühlte Reaktoren wurden — mehr oder weniger — auf Sparflamme entwickelt.

Ziele

Weiterhin gelten als zentrale Anforderungen an die sogenannte vierte Generation folgende vier Bereiche:

·       Nachhaltigkeit

·       Sicherheit und Verfügbarkeit

·       Wirtschaftliche Wettbewerbsfähigkeit

·       nicht zur Produktion von Waffen geeignete Technologien und ein physikalischer Schutz gegen jedwede Einwirkungen von Außen (Naturkatastrophen, Terrorismus etc.).

Interessant ist in diesem Zusammenhang die Definition der vier Generationen: Die ersten Reaktoren der Baujahre 1950-1960 (z. B. Shippingport, Dresden, MAGNOX usw.) werden als Demonstrationskraftwerke verstanden und sind bereits stillgelegt. Die zweite Generation umfaßt die Baujahre 1970-1990 und stellt die überwiegend heute im Betrieb befindlichen Leichtwasser- und Schwerwasserreaktoren dar. Die dritte Generation wird als die Leichtwasserreaktoren der Baujahre 1990-2000 definiert, wobei die Reaktoren nach dem Jahr 2000 als Generation III+ bezeichnet werden. Sie stellen eine evolutionäre Weiterentwicklung der Druck- und Siedewassertechnologie dar. Die Vielzahl unterschiedlichster Reaktortypen der Anfangsjahre, hat sich also auf lediglich zwei Bauarten verengt. Die Weiterentwicklungen der schwerwassermoderierten, der gasgekühlten und der metallgekühlten Reaktoren ist — zumindest, was die Stückzahlen anbetrifft — auf das Niveau von Demonstrationsanlagen zurückgefallen. Erst ab dem Jahr 2030 wird von der Einführung einer vierten Generation ausgegangen.

Als die zentralen Ziele für die vierte Generation wir dabei die Verringerung der Gesamtkosten über den Lebenszyklus eines Kraftwerks, eine nochmals verbesserte Sicherheit, ein möglichst großer Schutz vor missbräuchlicher Nutzung (Waffen, Terrorismus) und eine erhebliche Verringerung des (Atom)mülls gesehen.

Abgebrannte Brennelemente

Nach einer gewissen Zeit ist jedes Brennelement in einem Reaktor nicht mehr nutzbar und muß ausgetauscht werden. Im Sprachgebrauch der "Atomkraftgegner" ist es dann "Atommüll" der zudem auch noch für Jahrtausende tödlich sein soll. In Wirklichkeit sind in einem "abgebrannten" Brennelement eines Leichtwasserreaktors noch über 95% Brennstoff enthalten. Dieser Brennstoff muß und kann recycled werden. Aber selbst die übrig bleibenden Spaltprodukte sind keinesfalls wertlos. Aus wirtschaftlichen Gründen lohnt meist keine sofortige Aufbereitung. Es empfiehlt sich daher, diesen Atommüll (Müll in Bezug auf eine energetische Verwertung) für längere Zeit sicher zu lagern um ein Abklingen der Radioaktivität abzuwarten. Durch eine Nachbehandlung des Abfalls in geeigneten Reaktoren (mit schnellem Neutronenspektrum oder sog. Transmutation) kann diese notwendige Lagerzeit auf wenige hundert Jahre beschränkt werden. Eine "Endlagerung" ist weder nötig noch sinnvoll. Das übrig bleibende "Erz" — mit hohem Gehalt wertvollster Materialien — kann anschließend dem normalen Wirtschaftskreislauf zugeführt werden.

Die Aufgabe der nahen und mittleren Zukunft liegt in der Entwicklung und Realisierung solcher Kreisläufe mit möglichst geringen Kosten. Das bisher vorliegende "Henne-Ei-Problem" beginnt sich gerade von selbst zu lösen: Es gibt inzwischen weltweit große Mengen abgebrannter Brennelemente, die eine Aufbereitung mit unterschiedlichsten Verfahren im industriellen Maßstab möglich machen. Viele dieser Brennelemente sind bereits soweit abgelagert (die Strahlung nimmt in den ersten Jahren besonders stark ab), daß sich ihre Handhabung stark vereinfacht hat.

Ein "Endlager" — besser ein Lager mit sicherem Einschluß über geologische Zeiträume — ist nur für die Abfälle nötig, deren Aufbereitung zu kostspielig wäre. Dieser Weg wird bereits für Abfälle aus der Kernwaffenproduktion beschritten. Dafür reicht aber maximal ein "Endlager" pro Kernwaffenstaat aus.

In naher Zukunft wird sich ein weltweiter Austausch ergeben: Es wird unterschiedliche Wiederaufbereitungsanlagen in verschiedenen Ländern geben. Die Kraftwerksbetreiber können diese als Dienstleistung nutzen. Die dabei wiedergewonnen Wertstoffe werden auf speziellen Märkten gehandelt werden. Wer zukünftig beispielsweise einen "Brutreaktor" bauen möchte, kann sich das für die Erstbeladung notwendige Plutonium auf diesem Markt zusammenkaufen. Wem die Mengen langlebiger Aktinoiden zu groß werden (Lagerkosten) kann diese an Betreiber von schnellen Reaktoren oder Transmutationsanlagen zur "Verbrennung" abgeben. Es wird sich genau so ein Markt für "nukleare Müllverbrennungsanlagen" etablieren, wie er heute für Industrie- und Hausmüll selbstverständlich ist.

Ebenso wird es kommerzielle "Endlager" geben, die gegen (teure) Gebühren Restmengen aufnehmen, die sich anderweitig nicht mehr wirtschaftlich verwenden lassen. Gerade Deutschland ist weltweit führend, in Erwerb und Endlagerung von hoch toxischen Abfällen in ehemaligen Salzbergwerken. Hier ist es auch sprachlich gerechtfertigt, von Endlagern zu sprechen, da die dort eingelagerten Stoffe — anders als radioaktive Stoffe — nie verschwinden werden. "Gefährlich" ist (zumindest in Deutschland) halt nur eine Frage des ideologischen Standpunktes.

Die sechs Systeme

Im Jahre 2002 wurden aus über 100 Vorschlägen sechs Konzepte ausgewählt. Leitgedanke dabei war, aus verschiedenen Reaktortypen symbiotische Systeme zu bilden. Beispielsweise durch die Verknüpfung von Leichtwasserreaktoren mit Reaktoren mit schnellem Neutronenspektrum, sodaß der "Abfall" des einen Reaktortyps als Brennstoff für den anderen dienen kann. In diesem Sinne, konzentrierte man sich nicht auf die Entwicklung eines einzelnen neuen Reaktors, sondern wählte sechs Konzepte aus, aus denen ein weltweites Netz aufgebaut werden könnte. Jeder einzelne dieser sechs ausgewählten Konzepte hat ganz spezielle Vor- und Nachteile, die es jedem Land ermöglichen sollte, für seinen speziellen Bedarf, das geeignete Modell auswählen zu können. Es geht also eher darum, Möglichkeiten zu eröffnen, als Konzepte fest zu schreiben. Dies ist ein sehr flexibler und (theoretisch) Kosten sparender Ansatz, da jedes Land seine besonderen Stärken (Werkstofftechnik, Fertigungstechnik, Datenverarbeitung etc.) in die gemeinsame Forschung und Entwicklung einbringen kann, ohne sich ein komplettes Entwicklungsprogramm für einen einzelnen Reaktor aufbürden zu müssen. Insbesondere auch kleinen Ländern, mit beschränkten Ressourcen steht es offen, sich zu beteiligen.

Die ursprünglich ausgewählten Konzepte sind alle in den letzten zehn Jahren verfolgt worden und sollen auch weiter entwickelt werden. Allerdings haben sich durch neue Erkenntnisse und einem unterschiedlichen finanziellen Einsatz in den beteiligten Ländern, der ursprünglich geplante Zeitplan etwas verschoben. Die Entwicklung wurde in jeweils drei Phasen unterteilt.

Zeitplan

Für alle sechs Reaktortypen sollten die Machbarkeitsstudien als erste Phase bereits abgeschlossen sein. Bei der Machbarkeitsstudie sollten alle relevanten Probleme geklärt worden sein und insbesondere für kritische Eigenschaften, die später sogar eine Aufgabe erforderlich machen könnten, zumindest Lösungswege aufgezeigt werden. Für Salzbadreaktoren glaubt man diese Phase nicht vor 2025 und für gasgekühlte Reaktoren mit schnellem Neutronenspektrum, nicht vor 2022 abschließen zu können.

In der Durchführungsphase sollten alle Materialeigenschaften, Berechnungsverfahren etc. entwickelt und als Prototypen getestet und optimiert sein. Diese Phase wurde bisher bei keinem Konzept abgeschlossen. Am weitesten vorn im Zeitplan, liegen der mit Natrium gekühlte schnelle Reaktor (erwartet 2022) und der mit Blei gekühlte schnelle Reaktor (erwartet 2021).

Aus heutiger Sicht wird deshalb kein Reaktor die Demonstrationsphase bis zum Jahr 2030 abschließen können. Bevor eine kommerzielle Anlage in Angriff genommen werden kann, muß wenigstens ein Demonstrationskraftwerk (einschließlich dem erforderlichen Genehmigungsverfahren!) errichtet worden sein und einige Jahre  Betriebserfahrung gesammelt haben. Selbst in Ländern mit durchweg positiver Einstellung zur Nutzung der Kernenergie und einem gewissen Pioniergeist (ähnlich der 1950er Jahre) dürfte dies ein ehrgeiziges Ziel sein. Zumal kein wirklicher Zeitdruck vorliegt: Es gibt genug Natururan zu günstigen Preisen, die Mengen abgebrannter Brennelemente sind immer noch so gering, daß kein Kostendruck zur Beseitigung von "Atommüll" existiert und der Bedarf an Prozeßwärme mit hoher Temperatur kann problemlos durch kostengünstiges Erdgas gedeckt werden. Es bleibt die Erzeugung elektrischer Energie: Die kann aber problemlos und kostengünstig (im Vergleich zu Kohlekraftwerken mit Abgaswäsche) durch konventionelle Leichtwasserreaktoren erzeugt werden. China stellt dies eindrucksvoll unter Beweis.

Fukushimas Auswirkungen

Fukushima hat die Bedeutung für eine nach den Regeln der Technik entsprechende Auslegung und Bauweise gezeigt. Die Lehren aus dem Unglück beeinflussen nicht nur die in Betrieb befindlichen Kraftwerke, sondern auch zukünftige der vierten Generation. Schädigende Einflüsse von außen müssen bauartbedingt von den Reaktoren fern gehalten werden (z. B. Baugrund oberhalb von möglichen Flutwellen) und die Nachzerfallswärme muß auch über längere Zeit und in jedem Falle sicher abgeführt werden (z. B. passive Wasserkühlung aus oberen Tanks ausreichender Dimension).

Für die Reaktoren der vierten Generation sind umfangreiche Forschungsarbeiten zur Beantwortung dieser Fragen notwendig. Dies betrifft insbesondere das Verhalten der andersartigen Kühlmittel (Helium, Natrium, Blei etc.) und die teilweise wesentlich höheren Temperaturen (Werkstoffe, Temperaturschocks etc.). Hinzu kommt die höhere Energiedichte in den Kernen und etwaige Brennstoffkreisläufe in unmittelbarer Nähe.

Gasgekühlter schneller Reaktor (GFR)

Bei dem GFR (Gas-cooled Fast Reactor) handelt es sich um einen mit Helium gekühlten Reaktor mit schnellem Neutronenspektrum. Durch schnelle Neutronen lassen sich alle Aktinoiden — also alle radioaktiven Elemente mit langen Halbwertszeiten — spalten. Dies ist heute der Hauptgrund, warum man diese Entwicklung verfolgt. Man könnte mit solchen Reaktoren die "Endlagerfrage" eindeutig beantworten: Man braucht faktisch kein Endlager mehr, weil sich das Problem der potentiellen "Gefahr durch strahlenden Atommüll" auf technische Zeiträume von weniger als 300 Jahren reduziert. Damit ist auch klar, warum sich die "Anti-Atomkraftbewegung" mit besonderer Vehemenz — und auch Gewalttätigkeit — gegen den Bau solcher Reaktoren gewandt hat. Würden solche Reaktoren mit Wiederaufbereitung abgebrannter Brennelemente eingesetzt, wäre ihnen ihr Totschlagargument von angeblich über Millionen Jahre zu sichernden Endlagern entzogen. Die (deutsche) Scharade einer "Standortsuche" wäre schlagartig zu Ende.

Ein mit Helium gekühlter Reaktor mit schnellem Neutronenspektrum hat jedoch einen systembedingten Nachteil: Wegen des angestrebten Neutronenspektrums darf ein solcher Reaktor nur geringe Mengen an Materialien enthalten, die Neutronen abbremsen. Idealerweise würde er nur aus Brennstoff und Kühlmittel bestehen. Seine Fähigkeit "Wärme" zu speichern, ist sehr gering. Jede Leistungsänderung führt somit zu starken und schnellen Temperaturänderungen. Ein ernster Nachteil bei einem Verlust des Kühlmittels. Allein die Nachzerfallswärme könnte zu schwersten Schäden führen. Ebenso ist eine passive Nachkühlung kaum realisierbar. Helium ändert — anders als Wasser — nur geringfügig seine Dichte bei Temperaturänderungen. Man wird daher immer auf aktive Nachkühlung angewiesen sein. Die Ereignisse von Fukushima haben die Genehmigungsfähigkeit dieses Reaktorprinzips nicht unbedingt erhöht.

In nächster Zukunft müssen Gebläse bzw. Turbinen entwickelt werden, die Helium mit hoher Temperatur (Betriebstemperatur 850 °C) und unterschiedlichen Drücken (zwischen 1 und 70 bar) zuverlässig befördern können. Für die Kreisläufe zur Abführung der Nachzerfallswärme sind sicherheitsrelevante Ventile zu entwickeln und zu testen. Es sind zuverlässige Antriebskonzepte für die Notkühl-Gebläse zu entwickeln. Nach den Erfahrungen in Fukushima keine ganz einfache Aufgabe.

Die infrage kommenden Legierungen und Keramiken für die Brennelemente sind ausgiebig zu testen. Gleiches gilt für die Hüllrohre. Es müssen im Störfall Temperaturen von etwa 2000 °C sicher beherrscht werden.

Mit der bisherigen Entwicklung sind die Probleme eher größer geworden. Es wird deshalb nicht mit einem Abschluss der Machbarkeitsstudien in den nächsten zehn Jahren gerechnet. Wegen der Langfristigkeit ist der Einsatz der Mittel eher verringert worden.

Bleigekühlter schneller Reaktor (LFR)

Bei dem Lead-cooled Fast Reactor (LFR) handelt es sich um einen Reaktor, der flüssiges Blei als Kühlmittel verwendet. Blei besitzt einen sehr hohen Siedepunkt (1743 °C), sodaß man mit diesem Reaktortyp sehr hohe Temperaturen ohne nennenswerten Druckanstieg erzeugen kann. Allerdings ist Blei bei Umgebungsbedingungen fest, weshalb man den gesamten Kreislauf stets auf über 328 °C halten muß. Es gibt also zusätzlich den neuen Störfall "Ausfall der Heizung". Blei ist chemisch recht beständig und reagiert — wenn überhaupt — ohne große Wärmefreisetzung mit Luft oder Wasser. Es schirmt Gammastrahlung sehr gut ab und besitzt ein gutes Lösungsvermögen (bis 600 °C) für Jod und Cäsium. Ferner trägt die hohe Dichte von Blei eher zu einer Rückhaltung als einer Verteilung von radioaktiven Stoffen bei einem schweren Störfall bei. Allerdings stellt die Undurchsichtigkeit und der hohe Schmelzpunkt bei allen Wartungsarbeiten und Sicherheitsinspektionen eine echte Herausforderung dar. Die hohe Dichte von Blei erschwert den Erdbebenschutz und erfordert neue (zugelassene) Berechnungsverfahren. Nach wie vor, ist die Korrosion von Stahl in heißem Blei mit Sauerstoff ein großes Problem. Hier ist noch sehr viel Forschung und Entwicklung nötig, bis ein dem heutigen Niveau von Leichtwasserreaktoren entsprechender Zustand erreicht wird.

In sowjetischen U-Booten wurden Reaktoren mit einem Blei-Wismut-Eutektikum (niedrigerer Schmelzpunkt) verwendet. Die dort (meist schlechten) gesammelten Erfahrungen sind nicht direkt auf das LFR-Konzept übertragbar. Die Reaktoren sind wesentlich kleiner, haben eine geringere Energiedichte und Betriebstemperatur und eine geringere Verfügbarkeit. Außerdem arbeiteten sie mit einem epithermischen und nicht mit einem schnellen Neutronenspektrum. Der Vorteil des geringeren Schmelzpunktes einer Blei-Wismut-Legierung ist nicht ohne weiteres auf eine zivile Nutzung übertragbar, da durch den Neutronenbeschuß Plolonium-210 gebildet wird. Es handelt sich dabei um einen starken Alphastrahler (Halbwertszeit 138 Tage), der den gesamten Kühlkreislauf kontaminiert.

Im Moment werden im Projekt drei verschiedene Konzepte verfolgt: Ein Kleinreaktor mit 10 bis 100 MWel in den USA (Small Secure Transportable Autonomous Reactor or SSTAR), ein Reaktor mit 300 MWel in Russland (BREST) und ein Reaktor mit mehr als 600 MWel in Europa (European Lead Fast Reactor or ELFR – Euratom).

Wenn man einen solchen Reaktor als Brüter betreiben will, benötigt man eine Mindestleistung. Je größer, je effektiver. Ein kleiner Reaktor, wie z. B. der SSTAR, ist nur als reiner "Aktinoidenbrenner" geeignet. Allerdings kann er sehr lange ohne einen Brennstoffwechsel betrieben werden. Will man Spaltmaterial erbrüten, ist ein häufiger Brennstoffwechsel unvermeidlich. Es empfiehlt sich deshalb, einen entsprechenden Brennstoffzyklus zu entwickeln. Es wird auf den Bau mehrere Reaktoren mit einer gemeinsamen Wiederaufbereitungsanlage hinauslaufen. Das Verfahren zur Wiederaufbereitung hängt wiederum von dem Brennstoffkonzept des Reaktors ab.

Ein besonderes Konzept, im Zusammenhang mit Blei, ist die Entwicklung einer Spallationsquelle (Japan, MYRRHA in Belgien usw.). In einem Beschleuniger wird ein Strahl von Protonen auf über 1 GeV beschleunigt und auf flüssiges Blei geschossen. Beim Auftreffen auf ein Bleiatom "verdampft" dieses seine Kernelemente. Es wird eine große Anzahl von Neutronen frei. Diese Neutronen werden von einem Mantel aus Aktinoiden absorbiert. Diese eingefangenen Neutronen führen teilweise zu einer Spaltung oder einer Umwandlung. Durch die Spaltungen wird — wie in jedem Kernreaktor — Wärme frei, die anschließend konventionell genutzt werden kann. Es entsteht aber keine selbsterhaltende Kettenreaktion. Wird der Beschleuniger abgeschaltet, brechen auch sofort die Kernreaktionen in sich zusammen. Es handelt sich hierbei also um eine Maschine, die primär der Stoffumwandlung und nicht der Energieerzeugung dient. Durch die Verwendung von Blei als "Neutronenquelle" und Kühlmittel sind aber alle Erfahrungen und Probleme unmittelbar übertragbar.

Am weitesten scheint die Entwicklung in Russland vorangeschritten zu sein. Man entwickelt einen bleigekühlten Reaktor mit 300 MWel (BREST-300) und betreibt die Weiterentwicklung der U-Boot-Reaktoren mit Blei-Wismut-Eutektikum als Kühlmittel (SVBR-100). Beide Reaktoren sollen bis zum Ende des Jahrzehnts erstmalig kritisch werden. In Europa plant man eine Demonstrationsanlage mit 300 MWth (Advanced Lead Fast Reactor European Demonstrator, ALFRED).

Salzbadreaktoren (MSR)

Salzbadreaktoren (Molten Salt Reaktor, MSR) werden in zwei Gruppen eingeteilt: Reaktoren, bei denen der Spaltstoff im Salz selbst gelöst ist und Reaktoren, bei denen das flüssige Salz nur als Kühlmittel dient (Fluoride salt-cooled High-temperature Reactor, FHR).

Zwischen 1950 und 1976 gab es in den USA ein umfangreiches Entwicklungsprogramm, aus dem zwei Prototypen erfolgreich hervorgingen (Aircraft Reactor Experiment, ARE und Molten Salt Reactor Experiment, MSRE). Anfangs konzentrierte man sich in der Entwicklung auf Salzbadreaktoren mit thermischem Neutronenspektrum.

Ab 2005 entwickelte sich eine Linie, die von in Salz gelöstem Brennstoff und Spaltprodukten ausging. Als Kühlmittel soll ebenfalls Salz dienen. Das Neutronenspektrum soll schnell sein. Von dieser Kombination verspricht man sich einerseits das Erbrüten von Spaltstoff (z. B. Uran-233 aus Thorium-232) und andererseits das kontinuierliche "Verbrennen" von Minoren-Aktinoiden mit dem Ziel eines relativ kurzlebigen "Atommülls", der nur noch aus Spaltstoffen besteht. Durch das Salzbad möchte man hohe Betriebstemperaturen bei nahezu Umgebungsdruck erreichen. Bis zum Bau eines Reaktors, ist jedoch noch ein langer Weg zurück zu legen: Es müssen die chemischen (Korrosion) und thermodynamischen Zustandsdaten für solche n-Stoff-Salze bestimmt werden. Es müssen Verfahren zur kontinuierlichen Entgasung der Salzschmelze entwickelt werden, da ein großer Teil der Spaltprodukte (zumindest bei der Betriebstemperatur) gasförmig ist. Für das flüssige Salzgemisch müssen gekoppelte neutronenphysikalische und thermohydraulische Berechnungsverfahren geschaffen werden. Für die radioaktiven Salzgemische sind zahlreiche Sicherheitsversuche zur Datensammlung und Absicherung der Simulationsmodelle nötig. Die Chemie und Verfahrenstechnik der Aufbereitung während des Reaktorbetriebs muß praktisch noch vollständig getestet werden.

Natriumgekühlter schneller Reaktor (SFR)

Der Sodium-cooled Fast Reactor (SFR) verwendet flüssiges Natrium als Kühlmittel. Natrium hat nahezu ideale Eigenschaften: Relativ geringer Schmelzpunkt (98 °C), aber hoher Siedepunkt (890 °C), sehr gute Wärmeleitfähigkeit (140 W/mK) bei annehmbarer Wärmekapazität (1,2 KJ/kgK). Es hat keine korrosiven Eigenschaften, reagiert aber heftig unter Wärmefreisetzung mit Luft und Wasser. Bisher wurden bereits 17 Reaktoren gebaut und drei weitere befinden sich in Russland, Indien und China im Bau.

Ursprüngliches Ziel war die Erschaffung eines "schnellen Brüters". Mit ihm sollte mehr (thermisch) spaltbares Plutonium erzeugt werden, als dieser Reaktortyp zu seinem Betrieb benötigte. Dieses zusätzlich gewonnene Plutonium sollte dann zum Start weiterer Reaktoren verwendet werden. Inzwischen gibt es aus dem Betrieb von Leichtwasserreaktoren und der Rüstungsindustrie mehr als genug Plutonium auf der Erde. Darüber hinaus sind die Natururanvorräte nahezu unerschöpflich. Deshalb hat sich die Zielrichtung in den letzten Jahren verschoben. Die benutzten Brennelemente aus Leichtwasserreaktoren werden von "Atomkraftgegnern" abfällig als "Atommüll" bezeichnet. In Wirklichkeit sind aber das gesamte enthaltene Uran und Plutonium (weit über 95 %) vollständig zur Energiegewinnung nutzbar. Gerade aus dem wertvollsten Material — dem Plutonium — wird wegen dessen langer Halbwertszeit der Bedarf eines Endlagers und dessen "sicherer Einschluß über Millionen von Jahre" konstruiert. Selbst die Spaltprodukte — als tatsächlicher Abfall der Energieerzeugung durch Kernspaltung — sind (wirtschaftlich) nutzbar.

Man geht heute von einer Erstbeladung eines schnellen natriumgekühlten Reaktors mit einem Gemisch aus Uran und knapp 20% Plutonium aus. Das Plutonium gewinnt man aus den abgebrannten Brennelementen der Leichtwasserreaktoren. Die abgebrannten Brennelemente eines solchen schnellen Reaktors werden nach angemessener Zwischenlagerung in einem elektrochemischen Prozeß (wie z. B. bei der Kupfer- und Aluminiumproduktion) wieder aufbereitet. Bei diesem Wiederaufbereitungsverfahren liegt der Schwerpunkt in der Gewinnung möglichst reiner (kurzlebiger) Spaltprodukte. Alle langlebigen Aktinoiden werden wieder in den neuen Brennelementen weiter verwendet. Das "verbrauchte" Uran und Plutonium wird dabei durch "Atommüll" aus Leichtwasserreaktoren ergänzt. Ein solcher Reaktor gleicht also einer "Müllverbrennungsanlage", in der ja auch "gefährliche Stoffe" unter gleichzeitiger Stromerzeugung beseitigt werden.

Natriumgekühlte Reaktoren können in beliebiger Größe gebaut werden. Lediglich wenn man Brennstoff erbrüten will (d. h. mehr Plutonium produzieren als man verbraucht) muß der Reaktor geometrisch groß sein, um Neutronenverluste zu vermeiden. Gerade "Aktinoidenbrenner" können sehr klein und kurzfristig gebaut werden. Die Entwicklung bezieht sich auf die Kombination aus Brennstoff (oxidisch, metallisch, karbidisch und Nitride möglich) und die Wiederaufbereitung (naßchemisch, pyrotechnisch). Es gilt die optimale Kombination aus Werkstoffen und Verfahren zu finden. Ferner sind homogene Brennstoffe und spezielle heterogene Anordnungen zur Verbrennung von Minoren-Aktinoiden denkbar. Diese Anordnungen koppeln wieder auf die Neutronenphysik, die Regelung und damit letztendlich auf die Sicherheit zurück.

Reaktor mit überkritischem Wasser (SCWR)

Wird Wasser oberhalb des kritischen Punktes (374,12 °C bei 221,2 bar) verwendet, ändert es radikal seine chemischen und physikalischen Eigenschaften. Entscheidend ist die kontinuierliche Änderung der Dichte. Es gibt nicht mehr das gleichzeitige Auftreten von Dampf und Flüssigkeit (z. B. Blasen) in einem Behälter.

Ziel von "überkritischen Kesseln" ist die Steigerung des Wirkungsgrades. So sind heute in modernen Kohlekraftwerken Wirkungsgrade von 46 % möglich. Für den Supercritical-water-cooled reactor (SCWR) ist ein Wirkungsgrad von 44 % angestrebt. Die leidvolle Entwicklungsgeschichte bei konventionellen Kraftwerken hat jedoch gezeigt, daß die Steigerung von Druck und Temperatur mit erheblichen Werkstoffproblemen und damit Kosten verbunden ist. Solange Kernbrennstoff so billig wie heute sind, scheint dieser Weg bei Reaktoren zumindest wirtschaftlich nicht sinnvoll.

Die gesamte Sicherheitstechnik muß neu durchdacht und experimentell bestätigt werden. Es gibt keine lokale Selbstregelung durch Dampfblasenbildung mehr. Die Gefahr von überhitzten Stellen im Kern muß schon im Normalbetrieb sicher beherrscht werden. Die Notkühlsysteme müssen bei einem Druckabfall sowohl im überkritischen Zustand, als auch im Zwei-Phasenbereich voll wirksam sein. Man kann sich nicht mehr auf den Wasserstand als Stellgröße verlassen, sondern muß auf den Durchfluß übergehen, was wesentlich schwerer zu realisieren ist. Die Wasserchemie ist im überkritischen Zustand wesentlich anders und schwerer zu beherrschen.

Bisher wurden nur Tests mit Komponenten ausgeführt. Man hofft auf dieser Basis in den nächsten fünf Jahren eine Entscheidung für den Bau eines Prototyps fällen zu können. Bis zu einem kommerziell nutzbaren Reaktor dürften noch weit über 20 Jahre vergehen.

Hösttemperaturreaktor (VHTR)

Der Very-High-Temperature Reactor (VHTR) ist eine Weiterentwicklung eines mit Helium gekühlten Reaktors mit thermischem Neutronenspektrum. Es gibt die — ursprünglich in Deutschland entwickelte — Anordnung der Brennelemente als Kugelhaufen oder eine prismatischer Anordnung. Ziel war immer das Erreichen von Betriebstemperaturen von nahezu 1000 °C. Dieser Reaktortyp sollte primär als Wärmequelle in der Verfahrenstechnik (Kohleveredlung etc.) dienen. In diesem Sinne war ein Meilenstein immer das Erreichen einer Temperatur von 950 °C, bei der eine rein thermische Zerlegung von Wasser über einen Schwefel-Jod-Prozeß möglich ist. Dies war als Fundament einer "Wasserstoffwirtschaft" gedacht. In Deutschland wurde das Konzept einer "kalten Fernwärme" entwickelt, in dem Methan im Kreislauf läuft und beim Verbraucher lediglich chemisch zerlegt wird und die Bestandteile anschließend wieder mit der Hilfe der Wärme des Kernreaktors wieder zusammengesetzt werden. Der Charme dieses Konzepts liegt in der Fähigkeit, Energie über große Entfernungen mit geringen Verlusten (wie ein Erdgasnetz) transportieren und auch speichern zu können. Stellt man das "Erdgas" synthetisch aus Kohle her, kann man dieses Gas in das vorhandene Erdgasnetz einspeisen. Interessanterweise wird dieser Gedanke in China aus den gleichen Gründen, wie damals in Deutschland, wieder aufgegriffen: Luftverschmutzung durch Kohle, bei (noch) geringen eigenen Erdgasvorkommen.

Die Entwicklung von Höchsttemperaturreaktoren ist im wesentlichen ein Werkstoffproblem. Wobei nicht übersehen werden darf, daß mit steigender Temperatur der Aufwand und die Kosten exponentiell ansteigen. Allerdings kann diese Entwicklung evolutionär durchgeführt werden. China scheint offensichtlich diesen Weg eingeschlagen zu haben. Ausgehend vom (Nachbau) des deutschen Kugelhaufenreaktors begibt man sich schrittweise vorwärts.

Im Rest der Welt, dürfte die Entwicklung durch die "Shale-Gas-Revolution" nur schleppend vorankommen, wenn nicht sogar eingestellt werden. Die Gasindustrie ist einfach cleverer. Man hat Millionenspenden in die Werbung für Sonnen- und Windenergie investiert. Wohl wissend, daß für jedes Windrad und jeden Sonnenkollektor die gleiche Backup-Leistung noch einmal in konventionellen Kraftwerken bereitgestellt werden muß. Gaskraftwerke sind aber mit Abstand die Kraftwerke, mit den geringsten Investitionskosten. Der bereits erfolgte Zubau kurbelt den Gasabsatz gewaltig an. Sollte das Gas durch die erhöhte Nachfrage zu teuer werden, bleibt den Energieversorgern (wie schon einmal) die Flucht in Kern- und — vor allem — Kohlekraftwerke. Deshalb investiert die Gasindustrie bereits konsequent in "Klimaschutz". Die Krönung wird die "Wasserstoffwirtschaft" sein. Man nutzt die frei werdenden Gasmengen zur Erzeugung von Wasserstoff. Das dabei anfallende CO2 läßt man sich möglichst durch eine CO2-Abgabe vergüten, um es anschließend in der Ölförderung zum dritten Mal zu verkaufen. Wer will, kann dieses Dreieckgeschäft aus Windenergie, Wasserstoffproduktion für Raffinerien und CO2 zur Ölförderung, schon in Texas studieren. Die Ironie der Geschichte könnte sein, daß gerade die "Alternativindustrie" mit ihrem Propagandafeldzug für "Klimaschutz" sich selbst den Ast absägt, auf dem sie (noch) so profitabel sitzt. Niemand hat z. B. mit China gerechnet, die ein atemberaubendes Tempo beim Ausbau der Kernenergie vorlegen. Das Märchen von Wind und Sonne, könnte sich auch hier bald als solches erweisen.

Klaus Dieter Humpich;

der Beitrag erschien zuerst bei NUKE Klaus am 25.04.14




Svensmark kosmische Theorie und Darstellungen der Wolkenbedeckung in Kunstwerken der Kleinen Eiszeit

Durch rigorose [aber vergebliche] Versuche, den kosmischen Effekt in bester wissenschaftlicher Manier zu widerlegen, ist dieser Effekt jetzt etabliert.

Herausforderung des IPCC

Abbildung 3: IPCC-Abbildung 7c

Eine wesentliche Objektive des 3. Zustandsberichtes des IPCC (TAR) war es, den Beweisen in Abbildung 7c aus dem 1. Zustandsbericht 1990 zu begegnen. Sie war ärgerlich, zeigte sie doch signifikante Temperaturvariationen während der letzten 1000 Jahre. Dies widersprach der IPCC-Behauptung, dass die Erwärmung im 20. Jahrhundert einmalig und anomal war. Der Schwerpunkt lag auf der Darstellung der Mittelalterlichen Warmzeit MWP von etwa 950 bis 1350. Aber auch die Kaltzeit von 1350 bis 1850, bekannt als die Kleine Eiszeit LIA, war Gegenstand von Gedanken. Lamb hat in einer persönlichen Bemerkung darauf hingewiesen, dass das Einsetzen und die Dauer dieser Perioden regional variiert hat, manchmal um Jahrzehnte.

Künstler-Gemälde der LIA

Wir alle sehen die Welt auf unterschiedliche Weise mit unterschiedlichen Gefühlen und unterschiedlichem Bewusstsein. Klassischerweise ist das meiste davon Natur, besonders mit bestimmten Fähigkeiten wie Mathematik, Musik oder Kunst. Künstler sehen Farben, Licht und Abbildungen der Welt unterschiedlich. Es gibt eine Grundlage für Landschaftsmaler, weil sie malen, was sie vor sich sehen, wenn auch mit artistischer Brillanz je nach Gelegenheit. Ihre Werke liefern Beweise für Bedingungen wie den Schnee und die Kälte der Kleinen Eiszeit von Breughel (Abbildung 4) oder Grifier (Abbildung 5). Eine Ausstellung dieser Werke gab es von Hendrick Avercamp mit dem Titel „the Little Ice Age“ in der National Gallery in Washington von März bis Juli 2010.

Abbildung 4: Pieter Breughel the Elder, Hunters in the Snow*

Diese Künstler betrachteten diese Bedingungen als relativ normal, vor allem, wenn ihre Lebensspanne innerhalb der LIA lag. Als Landschaftsmaler würden sie jedoch sich ändernde atmosphärische Bedingungen vor allen anderen bemerken, was ihre Werke beeinflussen würde.

Abbildung 5: Jan Grifier, The Great Frost 1683 (River Thames)*

[*Diese Untertitel habe ich absichtlich nicht übersetzt! A. d. Übers.]

Sich veränderndes Himmelsbild ist Beweis für ein sich änderndes Klima

Abbildung 6: John Constable, englischer Künstler

Der US-Bundesstaat Montana ist bekannt unter der Bezeichnung „Big Sky Country“, und folglich sind die dominanten Features in Bildern Himmel und Wolken. Dies gilt für jedes Flachland-Gebiet, wie z. B. Saskatchewan oder Norfolk in Ostengland. Künstler malen diese Himmelsbilder natürlich, aber nur wenige mit größerer Aufmerksamkeit als John Constable (Abbildung 6). Er wurde so sehr auf die Wolken aufmerksam, dass er im Jahre 1821 ein ganzes Album fertigte ausschließlich mit Wolken und Wolkenformen (Abbildung 8). Es gibt viele Bücher, die diese Malereien analysieren. Eines davon mit dem Titel John Constables Himmel [skies] trägt den Untertitel A Fusion of Art and Science [etwa: „Fusion von Kunst und Wissenschaft]. Darin wird die Frage gestellt: Und waren seine Himmelsbilder wissenschaftlich korrekt gemalt? Es wurde 1999 veröffentlicht und ging der Bestätigung von Svensmarks Arbeiten über Sonnenflecken und Wolkenbedeckung voraus.

Constables Werke unterstützen nicht aus sich selbst heraus Svensmarks Arbeiten, aber wenn man sie mit einer 1970 erschienenen Studie von Neuberger vergleicht (die als Nachdruck am 30. April 2012 in Weather erschienen war), stellen sie eine unabhängige Bestätigung dar. Die Schönheit von Neubergers Arbeit Climate in Art besteht darin, dass sie 29 Jahre vor dem Beginn der Untersuchung einer Verbindung zwischen Sonnenflecken und Temperatur erschienen war, die Friis-Christensen und Knud Lassen in einem Science-Artikel im Jahre 1991 umrissen haben. Titel: Length of the Solar Cycle: An Indicator of Solar Activity Closely Associated with Climate [etwa: Länge eines solaren Zyklus’: Ein Indikator für eine enge Beziehung zwischen Sonnenaktivität und Klima].

Neubergers Hypothese lautete: …eine statistisch ausreichende Menge von Malereien von vielen Malern, die in einer gegebenen Periode in einer gegebenen Region gelebt haben, sollte meteorologische Features zeigen, die sich signifikant von jenen einer ähnlichen Menge von Malereien unterscheiden, die in der gleichen Epoche in einer klimatisch anderen Region entstanden sind.

Er untersuchte über 12.000 Gemälde in 41 europäischen und amerikanischen Kunstmuseen. Die untersuchte Zeitperiode erstreckte sich von 1400 bis 1967. Verschiedene Definitionen wurden aufgestellt, um die Kategorien zu standardisieren einschließlich des Codes im US-Flugverkehr, der aus vier Kategorien besteht:

clear (weniger als 10% des sichtbaren Himmels ist mit Wolken bedeckt)

scattered (10 bis 50% Wolkenbedeckung)

broken (60 bis 90% Wolkenbedeckung)

overcast (über 90% Wolkenbedeckung)

Er unterteilte den Zeitraum von 1400 bis 1967 in drei Epochen, dargestellt in Abbildung 7 (Abbildung 12 im Originalartikel).

Abbildung 7: Neubergers Bildunterschrift: Epochale Änderungen verschiedener gemalter Features.

Die Epochen definierte er so:

1400 bis 1549: die Periode vor dem Höhepunkt der Kleinen Eiszeit

1550 bis 1849: Die Periode des Höhepunktes der LIA, die „Jahre ohne Sommer“ enthält

1850 bis 1967: Die Periode nach dem Höhepunkt, gekennzeichnet durch Gletscherrückzug und substantieller atmosphärischer Erwärmung.

Als er diese Zeiträume auf 50-Jahres-Epochen herunterbrach, zeigten die Prozentzahlen der mittleren Bewölkung dramatische Unterschiede, die von 29% im Zeitraum 1400 bis 1449 bis zu 77% im Zeitraum 1550 bis 1599 reichten. Dazu schrieb er:

Die Häufigkeit tiefer und konvektiver Wolken zeigt auch eine starke Änderung von der ersten zur zweiten Epoche. Dies spiegelt die Verschlechterung des Wetters in ganz Europa.

Abbildung 8: Aus einer Wolkenstudie von Constable (1821).

J. M. W. Turner, ein Zeitgenosse von Constable, hat ebenfalls Landschaften mit einer extensiven Darstellung der Wolken gemalt. Ihn haben mehr die wechselnden Lichtbedingungen angesprochen, vor allem nach dem Ausbruch des Tambora im Jahre 1815. Deswegen werden seine Werke als früher englischer Impressionismus angesehen.

Schlussfolgerung

Ein kritischer Punkt bei der Rekonstruktion des Klimas ist die Beschaffung bestätigender Informationen aus unabhängigen Quellen. Diese frühe Studie von Neuberger stützt Svensmarks Hypothese, dass die sich ändernde Sonnenaktivität verstärkt die Bildung tiefer Wolken verursacht, die wiederum zu Änderungen der Temperatur führt.

Link: http://wattsupwiththat.com/2014/04/24/svensmarks-cosmic-theory-and-cloud-cover-depictions-in-little-ice-age-art/

Übersetzt von Chris Frey EIKE




Die Vereinigten Staaten des Gases – warum die Schiefer-Revolution nur in den USA möglich war

Erdgas war ein Gottesgeschenk für die USA [und es schickt natürlich keine Rechnung! A. d. Übers.]. Bereits jetzt hat Gas eine Renaissance der Manufakturen ausgelöst, haben doch Investoren Hunderte Milliarden Dollar für neue Fabriken wie Chemie-, Stahl- und Aluminiumwerke verplant und diese gebaut. Der Schiefer-Boom hat hunderttausende neue und gut bezahlte Arbeitsplätze geschaffen, und jetzt arbeiten über eine Million Amerikaner in der Öl- und Gaserzeugung – eine Zunahme um etwa 40% zwischen 2007 und 2012. Außerdem sparen die US-Verbraucher durch den Boom hunderte Milliarden Dollar pro Jahr, macht doch Erdgas gegenwärtig 25% der in den USA verbrauchten Gesamtenergie aus – ein Anteil, der noch rapide zunimmt. Zusammen mit den anderen Vorteilen haben diese Einsparungen den USA einen längerfristigen ökonomischen Vorteil gegenüber seinen Konkurrenten verschafft, und sie haben dem Land geholfen, sich von der großen Rezession zu erholen.

So sehr andere Länder auch diesen Katalysator für heimisches Wachstum beneiden, sind sie doch nicht in der Lage, dieses zu reproduzieren, weil nur die USA die Zutaten besitzen, um Schiefergas-Reserven in großem Umfang zu erschließen. Ein System, das Privatbesitz von Ländereien und den Ressourcen im Untergrund darunter legalisiert, hat zusammen mit offenen Kapitalmärkten und vernünftigen Vorschriften zum Wachstum tausender unabhängiger Öl- und Gasunternehmen geführt, die alle in intensivem Wettbewerb untereinander stehen. Folge: fast vier Millionen Öl- und Gasbohrungen wurden in den USA niedergebracht; in der gesamten übrigen Welt waren es 1,5 Millionen. Die Bohraktivitäten in den USA haben auch zu weiteren Innovationen innerhalb der Industrie geführt, und zwar mit einer Größenordnung, von der andere Länder nur träumen können.

Obwohl es auch in anderen Gebieten wie z. B. in China und Europa, substantielle Schiefer-Ressourcen gibt, gibt es dort nicht das unternehmerfreundliche System, das erforderlich ist, diese Ressourcen rasch und produktiv zu erschließen. Solange die Politiker dort nicht entsprechend die Weichen stellen, werden die USA noch Jahrzehnte lang von der Schiefer-Revolution profitieren.

Hintergründe des Booms

Die Geschichte der amerikanischen Schiefer-Revolution ist ein Musterbeispiel an Einfallsreichtum – doch hat Big Oil keinen Anteil daran. Seit den siebziger Jahren nahm die Produktion aus den Öl- und Gasfeldern auf dem US-Festland ab, weil diese Felder der Erschöpfung entgegen gingen. Also waren die großen Ölunternehmen gezwungen, die Erschließung neuer Ressourcen in den USA aufzugeben. Um riesige neue Ölfelder zu finden, haben sie ihre Bemühungen in die Seegebiete vor den Küsten verlagert. Diese Investitionen waren enorm teuer und machten oftmals Jahrzehnte lange Verhandlungen und Entwicklungen nötig. Um die Kapitalreserven und die globale Reichweite sicherzustellen, die für Verhandlungen mit nationalen Regierungen und die Vervollständigung von Mammutprojekten erforderlich waren, begannen die großen Ölunternehmen, sich zusammenzuschließen. Sie erkannten, dass es gewöhnlich billiger war, Öl in Wall Street zu kaufen als es aus dem Boden zu holen.

Während der folgenden Jahrzehnte wurden diese Unternehmen jedoch exzessiv bürokratisch und haben einen Tunnelblick entwickelt. Prinzipiell nur auf ihre schwindenden Ölvorräte fixiert, haben sie ihr Kapital in riesige ausländische Projekte gesteckt wie z. B. das Kashagan-Feld in Kasachstan, in dem geschätzt 13 Milliarden Barrel förderbares Rohöl liegen. Die erste Phase an Investitionen hat bereits 50 Milliarden Dollar verschlungen.

Inzwischen waren kleinere, unabhängige Unternehmen – die den Löwenanteil ihres Umsatzes mit der Herstellung von Bohrköpfen und anderem Zubehör machten – gezwungen, entweder Neuerungen einzuführen oder unterzugehen. Seit Ende der neunziger Jahre sind die Erdgaspreise gestiegen, und die Unternehmen mussten lernen, dass die Schieferformationen unter den USA riesige Mengen Gas enthielten. Also haben derartige Unternehmen wie GHK Companies (deren Gründer und geschäftsführender Direktor ich bin) versucht, den Schiefer aufzubrechen und das Gas freizusetzen, indem Sand, Wasser und Chemikalien in den Fels gepresst wurden – ein Prozess, der bekannt ist als hydraulisches Brechen oder Fracking. Aber das war einfach nicht profitabel.

Dann war George Mitchell, ein unabhängiger Ölunternehmer, der Probebohrungen in der Barnett-Formation in Texas durchgeführt hatte, der Durchbruch gelungen. Seine Innovation war die horizontale Bohrung im Schiefer, was tausende Meter Gas enthaltenden Gesteins erreichte, während in vertikalen Bohrlöchern lediglich 100 Fuß [ca. 30 m] (oder auch nur 10 bis 20 Fuß [ca. 3 bis 6 m]) erschlossen werden konnten. Kurzfristig stiegen die Gaspreise sogar noch stärker, und Mitchells Technik wurde immer besser. Schließlich begann er, kommerziell erfolgreich zu sein. Im Jahre 2002 kaufte Devon Energy, wo man die Revolution kommen sah, Mitchells Unternehmen und vervollständigte die erforderlichen Innovationen, um die Barnett-Formation zu erschließen. Chesapeake Energy und andere unabhängige Unternehmen sprangen bald auf den Zug auf, und der US-Schieferboom nahm seinen Lauf. Innerhalb eines Jahrzehnts überholte Chesapeake ExxonMobil als größter US-Erdgaslieferant, und nur wenig später überholten die USA Russland als der weltgrößte Gaserzeuger.

Unabhängige Unternehmen haben nicht nur die Erdgasindustrie transformiert, sondern Gleiches auch mit Öl getan. Die neu gefundenen Gasvorräte verursachten einen Preissturz bei Erdgas von über 13,50 Dollar pro 1000 Kubikfuß im Jahre 2008 auf etwa 3 bis 4 Dollar pro tausend Kubikfuß 2009. Erdgas wurde so billig, dass die unabhängigen Unternehmen erneut zu Innovationen gezwungen waren, um zu überleben. Während Gas mit einem Äquivalent von weniger als 25 Dollar pro Barrel Öl verkauft werden konnte, das Öl selbst aber 100 Dollar pro Barrel kostete, begannen sie die so erfolgreich bei Gas angewandten Technologien für Öl weiter zu entwickeln, und zwar in Schieferformationen mit geringer Durchlässigkeit, in der Industrie bekannt als „dichte“ Reservoire. Und die Ergebnisse waren genauso eindrucksvoll – die USA werden Russland als den zweitgrößten Ölerzeuger bis zum Ende dieses Jahrzehnts überholen, und sie könnten – jedenfalls der International Energy Agency zufolge – sogar auch Saudi-Arabien überholen und zum größten Ölerzeuger der Welt aufsteigen.

Nichts davon hätte geschehen können ohne das einheitliche gesetzliche Rahmensystem der USA. Dieses garantiert Landbesitzern die Rechte nicht nur an der Oberfläche ihres Eigentums, sondern auch an allem, was darunter liegt – alles, theoretisch bis zum Mittelpunkt der Erde. In der übrigen Welt sind diese Abbaurechte praktisch allen gehörend oder werden streng kontrolliert durch souveräne Regierungen. In den USA kann jedes Unternehmen ein Leasing-Abkommen mit einem willigen Landbesitzer schließen und mit dem Bohren beginnen. Dies hat zu einem Darwinistischen Wettbewerb zwischen den Unternehmern geführt. Und so gibt es in den USA inzwischen über 6000 unabhängige Öl- und Gasunternehmen sowie eine gleich große Zahl damit verbundener Service-Unternehmen, verglichen mit der Handvoll unabhängiger und Service-Unternehmen in Übersee.

An jedem dieser Bohrfelder der amerikanischen Unternehmen arbeiten dutzende Gehirne an jedem Teil des Entwicklungsprozesses. Mit Hilfe von 3D-Modellen der seismischen Aktivität im Untergrund finden die Ingenieure oftmals mit Fernerkundung und in Echtzeit die genauen Bohrstellen, wo dann in den reichsten Zonen der Schieferformation gebohrt wird. Sie optimieren die Größe der durch das Fracking geöffneten Spalten, so dass diese weder zu groß noch zu klein sind. Es ist so, als ob jedes einzelne Bohrloch sein eigenes Mini-Silicon Valley hat. Nachdem man dies tausende Male wiederholt hatte, haben diese und andere Techniken es den Unternehmen erlaubt, die Produktivität zu maximieren, die Kosten zu senken und ein Bohrloch in der Hälfte der Zeit fertigzustellen wie zu Beginn.

Jetzt betrachte man einmal, was sich alles in nur einem Jahr ändern kann. Im Jahre 2013 hat ein einziges großes unabhängiges Unternehmen über 100 horizontale Bohrungen durchgeführt, und zwar in Oklahoma, wo die GHK-Unternehmen Beteiligungen an 150 Quadratmeilen [ca. 390 km²] halten. Hätte man diese Bohrungen vertikal niedergebracht, hätte man nur etwa 1000 Fuß Schiefer [ca. 300 m] erschließen können, während man mit horizontalen Bohrungen fast 100 Meilen [ca. 160 km] erschließen konnte. Die Ingenieure der Unternehmen haben sich auch Variablen vorgenommen wie die Art von Bohrköpfen, das während der Bohrungen angebrachte Gewicht, die Rotationsgeschwindigkeit des Bohrers und Anzahl und Größe der Fracking-Vorgänge. Dank dieses fortgesetzten Experimentierens plus dank der Rabatte durch Großbestellungen (z. B. Stahlrohrgerüste) ist es den Unternehmen gelungen, die Kosten um 40 Prozent während der letzten 18 Monate zu senken und trotzdem die Produktivität zu steigern. Ergebnis: 2014 können sechs oder sieben Bohrstellen mehr Bohrungen durchführen und genauso viel Öl und Gas fördern als 12 Bohrstellen im Vorjahr.

Seit Beginn des Schieferbooms vor über einem Jahrzehnt haben die Unternehmen etwa 150.000 horizontale Bohrungen in den USA niedergebracht, ein monumentales Unterfangen, das etwa 1 Billion Dollar gekostet hat. In der übrigen Welt wurden jedoch nur insgesamt ein paar hundert horizontale Bohrungen durchgeführt. Und weil sich jedes Bohrloch horizontal über etwa 1 Meile (und manchmal sogar 2 Meilen) erstreckt und Gegenstand von zehn oder mehr Fracking-Injektionen ist, haben die US-Unternehmen etwa 150.000 Meilen [über 240.000 km] Schiefer etwa zwei Millionen mal erschlossen. Das ergibt in der Summe etwa 1000 mal mehr erschlossenes Schiefergestein innerhalb der USA als außerhalb.

Kleinere Rivalen

Es ist sehr unwahrscheinlich, dass andere Länder zu den USA aufschließen. Sicher, China und Europa sitzen auf riesigen Schiefer-Reserven (wobei diese in China noch größer sein könnten als in den USA). Aber diese Reserven werden in nächster Zeit sicher nicht extrahiert. Da es in anderen Ländern keine tausende unabhängige Öl- und Gasunternehmen gibt, müssen deren Ressourcen auf bürokratischem Wege ausgebeutet werden, und zwar durch schwerfällige nationale Unternehmen und internationale Riesen (die sich oftmals mit noch bürokratischeren Regierungen herumschlagen und ein Byzantinisches Gewirr von Vorschriften einhalten müssen). Es wird Jahrzehnte dauern, wenn große Schieferabkommen zwischen auswärtigen Ländern ausgehandelt und danach entsprechende Projekte gestartet werden können. Selbst in China, wo die Regierung eine nahezu vollständige Kontrolle des Landes sowohl über als auch unter Tage ausübt, planen nur einige wenige nationale und ein paar weitere auswärtige Unternehmen, Schiefergas zu erschließen. Und weil weniger kluge Köpfe an weniger Operationen beteiligt sind, wird es viel länger dauern, Erfahrungen zu sammeln, und Produktivitäts-Steigerungen werden geringer sein als in den USA. Das hat hohe Kosten und geringe Profite zur Folge.

In vielen Demokratien wird die Entwicklung auch durch das „Nicht-vor-meiner-Tür“-Syndrom verzögert. Anders als die Einwohner von Oklahoma und Texas, die zusammen mit der Öl- und Gasindustrie aufgewachsen sind, sind auswärtige Völker damit nicht vertraut; die meisten der 1,5 Millionen Öl- und Gasbohrungen außerhalb der USA befinden sich entweder in tiefen Gewässern offshore oder in entlegenen Gebieten auf dem Festland. Und weil Regierungen in anderen Ländern praktisch die gesamten Rechte an Bodenschätzen besitzen, haben Landbesitzer keine Trümpfe in diesem Spiel. Ohne an den ökonomischen Vorteilen teilhaben zu können und nur mit den Schattenseiten aufdringlicher Projekte vor ihren eigenen Haustüren tendieren sie verständlicherweise dazu, Widerstand gegen Bohrprojekte zu leisten.

Das ist in Europa so, wo das Problem durch eine hyperaktive grüne Bewegung noch erheblich vergrößert wird. Diese tut alles, um die Entwicklung von Schiefergas insgesamt zu verhindern. In Frankreich ist Fracking komplett verboten worden, und in Deutschland gibt es ein De-Facto-Moratorium. Ohne eine grundlegende Änderung dieser Haltung wird Europa sogar noch länger brauchen als China, seine Schiefergas-Reserven zu erschließen. Selbst wenn es dazu kommen sollte, werden die Ergebnisse viel weniger robust sein und nur sehr langsam kommen.

Europa ist auch mit einer fehlgeleiteten Energiepolitik belastet. Zu Beginn dieses Jahrhunderts haben europäische Politiker gesagt, dass ihr Kontinent bei der Hinwendung zu grüner Energie und der Reduktion von CO2-Emissionen führend sein sollte. Sie haben mit Zehner-Milliarden Dollar Steuergeld grüne Energieprojekte subventioniert, um grundsätzlich die Entwicklung von Solar- und Windenergie voranzutreiben, die jedoch nicht effizient oder zuverlässig genug ist, um im Wettbewerb bestehen zu können. Unglücklicherweise ist es sehr zweifelhaft, dass die europäische Hinwendung zu grüner Energie zu der utopischen Zukunft führen wird, die deren Befürworter vorhergesagt haben. Um die steigende Energienachfrage zu decken, findet schon jetzt in den USA überflüssig gewordene Kohle den Weg nach Europa. Realität ist, dass diese europäischen Länder sich selbst eine kostspielige und nicht sehr effiziente Energie-Infrastruktur aufgebürdet haben, die als starke Bremse des langfristigen wirtschaftlichen Wachstums wirkt. Während sich also die USA reindustrialisieren, könnte Europa ohne neue politische Führer, die die Ökonomie von Energie besser verstehen, sehr gut Jahrzehnte lang Deindustrialisierung und ökonomische Stagnation durchlaufen.

Das Geschenk, dass weiter wirkt

Die Schieferrevolution hat ihre Gegner, die auf die zyklische Natur der Erdgaspreise in der Vergangenheit verweisen und sagen, dass Preisspitzen in der Zukunft den Treibstoff unzuverlässig und teuer machen könnten. Aber die Volatilität der Vergangenheit resultierte aus stringenten Preiskontrollen der Regierung, denen ein komplexer Prozess der Deregulierung folgte sowie durch das hohe Risiko, neue Erdgasquellen zu erschließen. Mit anderen Worten, die Preise waren Gegenstand sowohl der Launen nationaler Politik als auch der Komplexität der Geologie im Untergrund.

Keines jener Probleme besteht heute noch, da Preiskontrollen schon vor langer Zeit aufgegeben worden sind und die US-Unternehmen inzwischen genau wissen, wo riesige Mengen Erdgas zugänglich sind. Daher ist die Extraktion von Gas ein zuverlässigerer Prozess als Glücksspiel. Der zukünftige Preis von Erdgas wird nicht so sehr durch die aufgefundenen Mengen bestimmt, wie es bei konventionellem Erdgas der Fall war, sondern durch die Kosten der Extraktion. Daher sollten die Preise langfristig stabil bleiben, möglicherweise sogar für das nächste halbe Jahrhundert. Sie könnten sogar noch weiter fallen, wenn die Industrie weiterhin Kosten senkt und die Produktivität verbessert. Zusätzliche Innovationen bei damit zusammenhängenden Dingen wie Transport, Verteilung und Verbrauchsbereichen haben noch nicht einmal angefangen. Sobald dies der Fall ist, werden Fortschritte bei der Effizienz den Verbrauchern weitere Einsparungen von Milliarden Dollar bringen.

Unter dem Strich: Dank der Schiefer-Revolution haben sich die USA schon jetzt von unvorhersagbaren Fluktuationen der globalen Gaspreise unabhängig gemacht, und sie kommen bald an den Punkt, wo dies auch für Öl gilt. Heimische Verknappungen von Öl durch Naturkatastrophen im Ausland oder politische Unruhen könnten eines Tages ein Ding der Vergangenheit sein, vor allem, wenn heimisches Erdgas anfängt, Autos und Lastwagen in den USA anzutreiben. Die steigende Energie-Unabhängigkeit wird Washington einen immer größeren Vorteil gegenüber seinen Konkurrenten verschaffen. Sollte der Ölfluss aus dem Nahen Osten durch irgendein Ereignis zum Erliegen kommen, wie beispielsweise dem Fall des Regimes in Saudi-Arabien, werden die USA in der Lage sein, diesen Sturm besser abzuwettern als jede andere große Wirtschaftsmacht.

Billiges und reichlich verfügbares Erdgas hilft der geopolitischen Lage der USA in noch direkterem Weg: die US-Wirtschaft wird signifikant gestärkt. Amerikaner zahlen nur einen Bruchteil des Preises für Erdgas als die übrigen Verbraucher der Welt mit Einsparungen bis zu 300 Milliarden Dollar jährlich im Vergleich mit Verbrauchern in China und Europa. Schon jetzt hat die Entwicklung der enormen Schieferöl- und –gasreserven das BIP in den USA bis zu 1 Prozent steigen lassen. Tatsächlich wäre die US-Wirtschaft ohne die Schiefer-Revolution wohl in die Rezession zurück gerutscht, und hunderttausende Arbeitsplätze wären nicht entstanden. Heute ist die Arbeitslosigkeit in den Staaten mit Schieferboom niedriger als im nationalen Durchschnitt: dank der Bohrungen in der Bakken-Formation zum Beispiel beträgt die Arbeitslosenquote in North Dakota nur 2,6 Prozent, das ist die niedrigste in den USA. Der wachsende ökonomische Vorteil der USA könnte noch bis zur Mitte dieses Jahrhunderts und darüber hinaus andauern.

Es sei denn, es wird alles verprasst. In California und New York, zwei der größten Ökonomien, ist es Anti-Fracking-Aktivisten und staatlichen Politikern gelungen, die Entwicklung von Schiefer-Reserven bis auf Schneckentempo zu verzögern. In beiden [US-]Staaten gibt es große Schiefer-Formationen (das Monterey-Feld in California und das Marcellus-Feld in New York). Die Erschließung dieser Felder würde der Ökonomie sowohl dieser beiden Staaten als auch der Nation zu starkem Wachstum verhelfen. Politiker müssen erkennen, dass Amerika heute eine beispiellose Gelegenheit für dauerhaftes wirtschaftliches Wachstum hat, das zu vielen guten Arbeitsplätzen der Mittelklasse führen kann, das die Große Rezession endgültig hinter sich lässt und das viele kommende Jahrzehnte lang geopolitische Vorteile über seine Konkurrenten verspricht. Es wäre eine Schande, diese Gelegenheit nicht zu ergreifen.

Link: http://www.foreignaffairs.com/articles/141203/robert-a-hefner-iii/the-united-states-of-gas

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Dieser Artikel kommt bisweilen arg nationalistisch daher, so dass ich schon überlegt habe, ob ich ihn weiter übersetzen soll. Aber aus zwei Gründen habe ich das dann doch getan. Zum Einen hat ja Nationalismus nur in Deutschland aus nachvollziehbaren Gründen einen negativen Beigeschmack. Und zum Anderen fand ich die Hintergründe des Schiefer-Booms in den USA und auch andere hier angesprochene Aspekte so interessant, dass ich diese hier bekannt machen wollte.

C. F.




Umweltgruppen erschauern, weil einige Gewerkschaften Öl- und Gasbohrungen sowie Pipelines unterstützen

„Die Schiefer-Rohstoffe sind zu einem Rettungsanker und zur Lebensgrundlage vieler Arbeiter-Familien geworden”, sagte Dennis Martire, Regionalmanager im Bereich Mittel-Atlantik des Internationalen Gewerkschaftsbundes LIUNA, der Arbeiter in zahlreichen Bauhandelsfirmen vertritt.

Martire sagte weiter, dass während der letzten fünf Jahre riesige Mengen Erdgas aus den riesigen Schieferreserven gewonnen worden sind. Pipeline-Jobs in Pennsylvania und West Virginia haben signifikant zugenommen. Im Jahre 2008 haben LIUNA-Mitglieder etwa 400.000 Stunden daran gearbeitet; 2012 waren es bereits 5,7 Millionen Stunden.

Im nationalen Maßstab sagt das Bureau of Labor Statistics, dass die Gesamt-Beschäftigung in der Öl- und Gasindustrie der Nation [= der USA] von 120.000 Anfang 2004 auf 208.000 im vorigen Monat gestiegen ist. Weniger als 10 Prozent aller Vollzeitarbeiter in der Öl- und Gasindustrie werden von den Gewerkschaften vertreten.

Alex Paris, Chef einer Baufirma im Gebiet um Pittsburgh, die von seinem Großvater 1928 gegründet worden war, sagte, dass viele Jobs während der Anfangszeit des Booms an Arbeiter von außerhalb gegangen waren, vielleicht weil die größten Bohrfirmen in Texas und Oklahoma ansässig sind. Inzwischen gibt es jedoch eine Hinwendung zu lokalen Mitarbeitern.

„Es gab immer mehr Arbeit in unserer Branche. Zum ersten Mal seit vielen, vielen Jahren gibt es hier in größerem Umfang neue Arbeitsplätze. Rechtmäßige, gut bezahlte Arbeitsplätze“, sagte Paris über eine Region, die besonders hart vom Rückgang der Stahlindustrie in den achtziger und neunziger Jahren betroffen war.

Die zunehmende Zustimmung von Arbeitnehmer-Vertretern hat den Energieunternehmen einen mächtigen Verbündeten beschert, wird doch über die Bohrungen in der ganzen Nation debattiert. Viele Republikaner waren für das Bohren, doch jetzt nutzen einige Gewerkschaften, die traditionell den Demokraten nahestehen, ihre politische Schlagkraft und drängen Politiker, Verbote gegen Pipelines oder Bohrungen aufzuheben.

Zum Beispiel hat LIUNA Mitglieder des Kongresses gedrängt, dem Export von verflüssigtem Erdgas zuzustimmen sowie einer Ausweitung des nationalen Pipeline-Netzes. Mitglieder planen außerdem, an einer Pro-Bohrungen-Demonstration in der Hauptstadt von Pennsylvania [= Pittsburgh] teilzunehmen.

„Die Gewerkschaften sind mächtig und einflussreich“, sagte David Masur, Direktor von PennEnvironment, der dem Bohr-Boom kritisch gegenübersteht.

Die Schieferfelder von Marcellus und Utica, reich an Erdgas und Öl, liegen tief unterhalb großer Gebiete von Pennsylvania, Ohio und West Virginia, und mehr als 6000 neue Bohrungen sind dort während der letzten fünf Jahre niedergebracht worden.

Zu Beginn des Schieferbohrungs-Booms gab es Klagen über die Anzahl lokaler Arbeitsplätze. 2010 hat ein Gewerkschaftsführer einem Pennsylvania House Labor Relations Committee gesagt, dass die Menschen vor Ort wenig oder gar keine Möglichkeit haben, eingestellt zu werden. Und selbst jetzt noch halten sich einige mächtige Gewerkschaften mit einem Urteil zurück. Anthony Montana, ein Sprecher von United Steelworkers, lehnte es ab zu kommentieren, wie vieler Bohrungen es bedarf, um jener Industrie zu helfen.

Andere jedoch sagen, dass der Trend in Richtung lokaler Arbeitsplätze eindeutig ist.

Mike Engbert vom Ohio Laborers District Council sagte: „Obwohl einige Unternehmen immer noch viel Arbeit nach außerhalb vergeben, sind in der gesamten Branche die Arbeitsplätze vor Ort wirklich gestiegen“.

Für Einige ist die mit den Bohrungen verbundene Arbeit eine große Verbesserung gegenüber Billiglohn-Arbeiten im Service-Bereich.

„Ich habe wahrscheinlich 15 Arbeitsverhältnisse gehabt, und kein einziges davon war ähnlich sicher wie der jetzige oder auch nur annähernd so interessant“, sagte Amy Dague, 38, aus der Ortschaft Wheeling in West Virginia. Sie arbeitete etwas mehr als ein Jahr für ein Konstruktions- und Wartungsunternehmen. „Damit hat sich mein Ausblick in meine Zukunft definitiv verändert. Ich sehe es inzwischen als eine dauerhafte Beschäftigung“, sagte Dague.

Einige Energieunternehmen haben verlauten lassen, dass sie auch mit Arbeitnehmern vor Ort glücklich sind.

Matt Pitzarella, ein Sprecher von Range Resources in Fort Worth, Texas, schrieb in einer E-Mail: „Wir brauchen dringend verlässliche, dauerhafte und qualifizierte Arbeit zu vernünftigen Preisen, und die lokalen Gewerkschaften haben einen signifikanten Schritt auf diesem Weg getan“.

Einige Umweltgruppen sorgen sich, dass das, was in der Region vor sich geht, eine Wiederholung der Schlacht um die Keystone XXL-Pipeline ist, als große Gewerkschaften und grüne Gruppen auf der Gegenseite standen. Penn Environment hat viel strengere Vorschriften sowie ein Verbot von Bohrungen in einigen Gebieten wie z. B. staatlichen Wäldern verlangt.

„Ich verstehe die Dynamik, die hier im Spiel ist. Es sieht ziemlich kurzsichtig aus“, sagte Masur zu der Art, wie Arbeiter und Gewerkschaften hinter den Öl- und Gasbohrungen stehen. „Dies könnte die gleiche Art Erbschaft hinterlassen wie Kohle“. Er rief nach mehr Investitionen – und damit Arbeitsplätzen – in Sonnen- und Windkraft.

Link: http://www.startribune.com/business/255929381.html

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: So viel zu der Frage, wer oder was hier Arbeitsplätze schafft. Das Ganze geht im Gegensatz zu Sonne und Wind ohne jede Subvention. Das hat der Sprecher Masur bei seinem Ruf im letzten Absatz natürlich unterschlagen.

Nützliche und kurz gefasste, einfach verständliche Informationen zum Thema Fracking gibt (video) es hier: erdgassuche-in-deutschland.de. Dort wird auch ausführlich die (ungiftige) Zusammensetzung der Frac-Flüssigkeiten beschrieben.

Das Ganze ist eine Site von ExxonMobile. Aber muss man bei  solchen Großfirmen immer böse Absichten vermuten? Haben sie nicht ein Interesse daran, gerade neutral zu informieren? Ist es nicht reine Ideologie, derartigen Firmen von vornherein böse Motive zu unterstellen?

C. F.




Können wir aus der Temperatur die Klimasensitivität ableiten?

Wie die meisten der der Klimapanik zugrunde liegenden Hypothesen ist auch diese mathematisch nicht überprüfbar. Der älteste aller globalen Temperatur-Datensätze – HadCRUT4 – beginnt erst im Jahre 1850, so dass das Ende des frühestmöglichen 125-jährigen Datensatzes im Jahre 1974 liegt, also deutlich später als 1950, dem Beginn eines potentiellen anthropogenen Einflusses.

Allerdings reicht der älteste regionale instrumentelle Datensatz, die Aufzeichnung aus Mittelengland (the Central England Temperature Record CET) zurück bis zum Jahr 1659. Hier könnte es ein paar Hinweise geben.

Die CET-Aufzeichnung hat ihre Nachteile. Sie ist regional und nicht global, und die frühesten Temperaturdaten darin haben eine Auflösung nicht besser als 0.5 bis 1,0 K. Allerdings liegt das damit abgedeckte Gebiet auf der richtigen geographischen Breite. Außerdem repräsentiert er während der letzten 120 Jahre zwei volle Zyklen der Pacific Decadal Oscillation, ihr Trend liegt innerhalb von 0,01 K des Trends der globalen Datensätze von GISS, HadCRUT4 und NCDC. Sie ist nicht völlig wertlos.

Ich habe Trends von 166 aufeinander folgenden 125-Jahres-Perioden genommen, und zwar von 1659 bis 1784 bis zur Periode 1824 bis 1949. Davon zeigten 57, oder 34% absolute Trends über |0.25| K (Tabelle 1)

Tabelle 1: Lineare Regression kleinster Quadrate der Trends (K) monatlicher regionaler Temperaturanomalien aus dem CET-Datensatz für 166 aufeinander folgende 125-Jahres-Perioden von 1659 bis 1784 bis zur Periode 1824 bis 1949. Davon zeigten 57, oder 34% absolute Trends über |0.25| K.

Die meisten der 125-Jahres-Perioden, die einen substantiellen absoluten Temperaturtrend zeigen, zeigen diesen am Anfang oder am Ende des getesteten Intervalls. Die Trends in den früheren Perioden zeigen die Erholung aus der Kleinen Eiszeit, die unabhängigen historischen Aufzeichnungen zufolge rapide war. In späteren Perioden kam die rapide Erwärmung on 1910 bis 1945 zum Ausdruck.

Gegenstand der Vorbehalte, mit denen man die von mir erwähnten Daten betrachten sollte, ist das Ergebnis, dass über ein Drittel aller 125-Jahres-Perioden vor Beginn des anthropogenen Einflusses auf das Klima beendet waren. Dies legt die Möglichkeit nahe, dass 125-Jahres-Perioden, die eine substantielle Temperaturänderung zeigen, mindestens dreimal so oft wie von Prof. Lovejoy vermutet auftreten.

Zusammen mit den vielen anderen Fehlern in der jüngsten Studie des Professors – vor allem seiner Vermutung, dass die Temperaturdatensätze, auf die er sich verließ, nur sehr kleine Fehlerintervalle aufwiesen, obwohl in Wirklichkeit große Fehlerintervalle vorhanden waren, die mit fernerer Vergangenheit immer mehr zunehmen – wirft seine Hypothese, dass rapide Temperaturänderungen selten sind, mehr als nur ein wenig Zweifel auf seine Behauptung, dass man die Klimasensitivität aus der jüngsten Temperaturaufzeichnung berechnen kann.

Wie können wir dann bestimmen, wie viel der Erwärmung im 20. Jahrhundert natürlichen Ursprungs war? Die Antwort lautet, ob man sie nun mag oder nicht, dass man das nicht kann. Aber wir wollen ad argumentum und per impossibile einmal annehmen, dass die Temperatur-Datensätze korrekt sind. Dann besteht eine Möglichkeit der Überprüfung der IPCC-Beweisführung darin, dessen Werte des Klimasensitivitäts-Parameters über verschiedene Zeitperioden zu untersuchen (Tabelle 2).

Tabelle 2: IPCC-Werte des Klimasensitivitäts-Parameters.

Grob gesagt ist der Wert des Klimasensitivitäts-Parameters unabhängig von der Ursache der direkten Erwärmung, die zu den Rückkopplungen führt, die dessen Wert verändern. Was auch immer der Grund für die Erwärmung ist, man macht nur einen geringen Fehler, wenn man annimmt, dass die Rückkopplungen als Reaktion darauf etwa gleich denen sind, die als Reaktion auf eine Erwärmung durch Antriebe ähnlicher Größenordnung aus irgendwelchen anderen Gründen auftreten.

Das IPCC sagt, dass es seit 1750 einen anthropogenen Antrieb von 2,3W/m² und einen geringen natürlichen Antrieb gegeben habe. In diesem Falle ist der Klimasensitivitäts-Parameter einfach der Quotient aus der Erwärmung um 0,9 K seit 1750 geteilt durch 2,3 W/m² oder 0,4 K m²/W. Da der größte Teil des Antriebs seit 1750 im vorigen Jahrhundert aufgetreten ist, liegt der Wert im richtigen Bereich und ist in etwa gleich dem Jahrhundert-Sensitivitäts-Parameter in Tabelle 2.

Als Nächstens brechen wir die Berechnung herunter. Dem IPCC zufolge betrug der gesamte anthropogene Antrieb seit 1950 0,6 W/m². Die Erwärmung von 1750 bis 1949 betrug 0,45 K. Daraus folgt, dass der Klimasensitivitäts-Parameter vor 1950 0,75 K m²/W betragen hatte, mehr auf der hohen Seite, was zeigt, dass einiges der Erwärmung vor 1950 natürlichen Ursprungs war.

Wie viel davon war natürlichen Ursprungs? Teilt man 0,45 K der Erwärmung vor 1950 durch den 200-Jahres-Sensitivitäts-Parameter 0,5 m²/W, ergibt sich 0,9 W/m². Falls das IPCC mit seiner Angabe von 0,6 W/m² als anthropogenem Anteil recht hat, waren 0,3 W/m² natürlichen Ursprungs.

Dem IPCC zufolge hatte der anthropogene Antrieb von 1950 bis 2011 1,7 W/m² betragen. Der lineare Temperaturtrend der Daten von 1950 bis 2011 beträgt 0,7 K. Man teile dies durch 1,7 W/m², um plausible 0,4 K m²/W zu erhalten, was erneut äquivalent zur Jahrhundert-Sensitivität des IPCC ist, dieses Mal jedoch unter der Hypothese, dass nichts von der Erwärmung seit 1950 natürlichen Ursprungs war.

Dieser Verlauf scheint plausibel. Aber die Plausibilität ist vollständig trügerisch. Sie wurde mit der einfachsten aller Methoden erreicht. Seit 1990 hat das IPCC den anthropogenen Strahlungsantrieb nichts weiter als halbiert, um den Anschein zu erwecken, dass dessen tote Theorie noch am Leben ist.

Im Jahre 1990 hat das IPCC vorhergesagt, dass sich der anthropogene Antrieb durch Treibhausgase seit 1765 bis zum Jahr 2014 auf 4 W/m² bei Business as Usual belaufen würde (Siehe Abbildung 1)

Abbildung 1: Projizierte anthropogene Treibhausgas-Antriebe 1990 bis 2100 (IPCC, 1990)

Jedoch – mit einer globalen Erwärmung von nur 0,9 K seit Beginn der industriellen Revolution würde der implizite Klimasensitivitäts-Parameter 0,9/4 = 0,23 m²/W betragen haben und damit deutlich selbst unter dem momentanen Wert liegen. Das ist nur die Hälfte der 0,4 bis 0,5 K m²/W, die man erwarten würde, falls die impliziten IPCC-Werte für den Parameter (Tabelle 2) für ein oder zwei Jahrhunderte korrekt wären.

Im Jahre 1990 gab es beim IPCC noch Momente der Ehrlichkeit. Es hat eingeräumt, dass die Größenordnung und sogar das Signal des Antriebs durch anthropogene Aerosol-Emissionen (Für Sie und mich Ruß) unbekannt war.

Allerdings befand es das IPCC graduell für angebracht, nicht nur einen Teil, sondern den gesamten CO2-Antrieb mit einem vermeintlichen negativen Antrieb durch Aerosol-Emissionen nicht mehr aufzurechnen. Nur durch diese Entscheidung konnte es fortfahren zu behaupten, dass seine sehr hohen Ein- und Zweihundert-Jahreswerte sowie die Gleichgewichts-Werte für den Klimasensitivitäts-Parameter plausibel waren.

Abbildung 2 zeigt das Ausmaß dieser Manipulationen. Der positive Antrieb durch CO2-Emissionen und der negative Antrieb durch anthropogene Aerosole sind sichtlich fast identisch:


Abbildung 2: Positive Antriebe (links) und negative Antriebe von 1950 bis 2008 (Murphy et al. 2009)

Als wäre das noch nicht schlimm genug, zeigt der Verlauf der globalen Erwärmung während der Instrumenten-Ära 60-jährige Zyklen, die der ~30-jährigen Abkühlungs- und der ~30-jährigen Erwärmungsphase der Pazifischen Dekadischen Oszillation folgen (Abbildung 3). Diese Oszillation scheint einen weitaus größeren Einfluss auf die globale Temperatur zu haben, zumindest kurz- und mittelfristig, als jedweder anthropogene Antrieb.

Die „settled Wissenschaft” des IPCC kann immer noch nicht erklären, was die Gründe für diese 60-jährigen Zyklen der PDO sind, aber deren Einfluss auf die globale Temperatur tritt in Abbildung 3 eindeutig hervor:


Abbildung 3: Monatliche globale Temperaturanomalien und –trends von Januar 1890 bis Februar 2014 als das Mittel der globalen mittleren Temperaturanomalien von GISS, HadCRUT4 und NCDC, zusammen mit Unter-Trends während der negativen oder Abkühlungsphase (grün) bzw. positiven oder Erwärmungsphasen (rot) der PDO. Die Daten der Phasen werden bereit gestellt durch dieses Institut. Anthropogene Strahlungsantriebe sind Aufteilungen des anthropogenen Antriebs von 2,3 W/m² von 1750 bis 2011, basierend auf dem IPCC (2013, Abbildung SPM.5.).

Überraschenderweise hat es in den gemessenen Aufzeichnungen seit 1659 nur drei Perioden mit einer globalen Erwärmung gegeben. Das waren die 40 Jahre von 1694 bis 1733, bevor die industrielle Revolution überhaupt begonnen hatte, mit einem Erwärmungstrend von +1,7 K nach dem dem Maunder-Minimum folgenden Anstieg der Sonnenaktivität; die 22 Jahre von 1925 bis 1946 mit einem Erwärmungstrend von +0,3 K und in Phase mit der PDO; und die 24 Jahre von 1977 bis 2000 mit einem Erwärmungstrend von +0,6 K, ebenfalls in Phase mit der PDO.

Tabelle 3: Perioden mit Abkühlung (blau) Erwärmung (rot) und ohne Trend (grün) seit 1659. Infolge von Unsicherheiten in der Temperaturaufzeichnung in Zentral-England könnte es in den 91 Jahren vor 1750 zu einer stärkeren Erwärmung gekommen sein als in den dreieinhalb Jahrhunderten danach.

Es gab nur eine einzige Periode mit Abkühlung, -0,6 K während der 35 Jahre von 1659 bis 1693 während des Maunder-Minimums. Die 191 Jahre von 1734 bis 1924, ob nun mit oder ohne industrielle Revolution, zeigten keinen Trend, ebenso wie während der negativen oder Kaltphasen der PDO während der 30 Jahre von 1947 bis 19786 oder während der 13 Jahre seit 2001.

Tabelle 3 fasst die Lage zusammen. Alles der globalen Erwärmung um 2 K seit 1750 kann einfach eine allmähliche und durch Unterbrechungen gekennzeichnete Erholung der globalen Temperatur nach der Kleinen Eiszeit sein.

Es gibt eine Diskrepanz zwischen dem fast-linearen projizierten anthropogenen Strahlungsantrieb (Abbildung 1) und den drei unabhängigen Perioden mit globaler Erwärmung seit 1659, wobei die stärkste Erwärmung vor der industriellen Revolution erfolgt und fast doppelt so stark wie die Gesamterwärmung seit 1750 war.

Kein zufriedenstellender Mechanismus ist bislang definitiv gezeigt worden, der erklärt, warum die PDO in Phasen agiert, und noch weniger, warum sich die gesamte globale Erwärmung seit 1750 nur während positiver bzw. warmer PDO-Phasen gezeigt haben soll.

Ein angemessenes Verständnis der Klimasensitivität hängt stark ab von der Größenordnung des anthropogenen Strahlungsantriebs, aber seit 1990 hat das IPCC diese Größenordnung fast halbiert, nämlich von 4 auf 2,3 W/m².

Um die Klimasensitivität aus der Temperaturänderung ableiten zu können, müsste man die Temperaturänderung mit hinreichender Präzision kennen. Allerdings, so wie der Strahlungsantrieb manipuliert worden ist, um ihn mit der Theorie in Einklang zu bringen, sind auch die Temperaturaufzeichnungen so manipuliert worden, dass sie zur Theorie passen.

Da nahezu jede Anpassung der globalen Temperatur mit der Zeit den Effekt hatte, dass die Erwärmung des 20. Jahrhunderts stärker aussah als sie tatsächlich war, wie oberflächlich auch immer die Erklärungen für die Anpassungen waren, sieht jetzt alles nicht gut aus.

In jedem Falle gilt aber: da das veröffentlichte Fehlerintervall Anfang des 20. Jahrhunderts von gleicher Größenordnung ist wie die gesamte globale Erwärmung seit 1750, ist offensichtlich, dass der Versuch, die Klimasensitivität aus globalen Temperaturtrends abzuleiten, sich selbst ad absurdum führt. Man kann es nicht.

Unter dem Strich: Die Verteilung der globalen Erwärmung, aufgeteilt in drei getrennte Perioden, wobei die erste und größte Erwärmung vor jedem möglichen anthropogenen Einfluss stattgefunden hatte, passt viel besser zu einer stochastischen natürlichen Variabilität als zu einer langsamen, unerbittlichen Zunahme des anthropogenen Antriebs, wie er vom IPCC vorhergesagt worden ist.

Das IPCC hat nicht nur seine Kurzfrist-Temperaturprojektionen kassiert (die möglicherweise immer noch exzessiv sind: es ist durchaus möglich, dass es auch während der nächsten 20 Jahre keine globale Erwärmung gibt), sondern es hat auch seine Schätzung des anthropogenen Strahlungsantrieb beim ‚Business as Usual‘ um fast die Hälfte reduziert. Zentimeter um Zentimeter befindet sich das IPCC auf dem Rückzug und hofft vergeblich, dass niemand das bemerken wird, während es weiterhin schreit: „Der Himmel fällt uns auf den Kopf!“.

Link: http://wattsupwiththat.com/2014/04/19/can-we-deduce-climate-sensitivity-from-temperature/#more-107800

Übersetzt von Chris Frey EIKE




Landesregierung Sachsen stimmt dem „Energiepolitischen Manifest“ weitgehend zu

Und später weiter:

Die festen 20 Jahre gesicherten Einspeisevergütungen bieten keinen Anreiz zur Entwicklung neuartiger Technologien und entfalten somit keine messbare Innovationswirkung. Darüber hinaus halten wir das EEG auch für kein kos­teneffizientes Instrument für den Klimaschutz.

Leider wird diese Erkenntnis nicht in politisches Handeln umgesetzt, denn Ministerialrat Jantsch kapituliert in folgenden vor den Nutznießern der Energiewende in dem er statt einer sofortigen und ersatzlosen Abschaffung, nur von notwendiger Strukturreform des EEG schreibt.:  

Es gilt das existierende EEG in seiner Struktur zu reformieren. Wir brauchen zeitnah eine echte marktorientierte Steuerung des Ausbaus der ErneuerbarenEnergien, die über den Wettbewerb sowohl Investitionen in neue Anlagen als auch Investitionen in Innovationen erzeugt. Insoweit sollte es nicht darauf ankommen, dass der Staat für einzelne Klientel auskömmliche Gewinne garantiert, sondern Rahmenbedingungen schafft, die eine versorgungssichere, umweltverträgliche und sozialverträgliche Ener­gieversorgung ermöglicht, die auch der Wirtschaft wettbewerbsfähige Energiepreise anbieten kann.

Und auch das ist s.M.n. derzeit eher unmöglich denn….

Eine solche strukturelle Reform des EEG scheint zurzeit in Deutschland nicht durch­setzbar zu sein.

Diese Erkenntnis, so plausibel Sie derzeit erscheint, darf dennoch kein Hinderungsgrund sein, die Anstrengungen aller Verantwortlichen zu verstärken,  das EEG samt EnEV sofort und ersatzlos abzuschaffen.

Denn es gilt nicht nur weiteren immensen Vermögensschaden von der deutschen Volkswirtschaft abzuwenden, sondern auch den Tod zigtausender Mitbürger zu vermeiden, die ein mehrtägiger Blackout zwangsläufig zur Folge haben würde. Und ein solcher wird mit jedem Tag, den das EEG noch rechtswirksam ist, immer wahrscheinlicher.

Related Files




Warum die Klima-Institute sich endlich ein anderes Volk wünschen …

Axel Stolz

Anfrage des Bürgers unter Bezugnahme auf folgende Internet-Informationsseite der ZAMG:

Sonntag, 23. Februar 2014 10:17

Anfrage zu: http://www.zamg.ac.at/cms/de/klima/informationsportal-klimawandel/klimasystem/umsetzungen/energiebilanz-der-erde

Frage zu der in Kapitel „Energiebilanz der Erde“,  Abb.1 rechts dargestellte Gegenstrahlung: Wenn die Atmosphäre Energie im Betrag von 324 W/m² ständig abstrahlt,  dann muss das nach den Gesetzen der Physik zu einer permanenten Abkühlung der Atmosphäre im Betrag von 324 W/m² führen.
Das widerspricht der Aussage, dass die Atmosphäre durch den Treibhauseffekt erwärmt wird.
Bitte um Aufklärung des Widerspruches.

Antwort der ZAMG: Montag, 24. Februar 2014 10:17

Lieber Herr Stolz,

vielen Dank für Ihre Nachricht und das damit gezeigte Interesse am Informationsportal Klimawandel. Mit atmosphä-rischer Gegenstrahlung ist nicht die Energie gemeint die von der Atmosphäre verloren geht, sondern die Energie die von Wolken und anderen Teilchen in der Atmosphäre Richtung Erdoberfläche zurückgestrahlt wird.

Demnach geht die Energie nicht verloren sondern wird nur umgelenkt.

Von den 342 W/m² einfallender Sonnenstrahlung, werden 107 W/m² reflektiert und zurück den Weltraum gestrahlt und 235 W/m² verlassen die Atmosphäre als langwellige Strahlung.

Ich hoffe dass ich den Widerspruch aufklären konnte.

Mit freundlichen Grüße,

Johanna Nemec

Erneute Anfrage des Bürgers: Montag, 24. Februar 2014 18:21

Sehr geehrte Frau Nemec,

vielen Dank für die prompte Antwort.
Wenn ich Sie richtig verstanden habe, sagen Sie, dass es sich bei der sogenannten Gegenstrahlung nicht um Eigen-Strahlung handelt, die von Treibhausgasen emittiert wird, sondern um von Wolken und Aerosolen reflektierte Bodenstrahlung?

Das widerspricht aber der weiter unten im Kapitel „Lebenswichtiger Treibhauseffekt“ folgenden Aussage: „Die dadurch verursachte atmosphärische Gegenstrahlung ist 324 W/m², die wieder in Richtung Erdoberfläche abgestrahlt wird. Hier ist eindeutig von Strahlung und nicht von Reflexion die Rede.
Bitte – um was handelt es sich denn nun: um Reflexion oder um Strahlung?

Mit freundlichen Grüßen

Axel Stolz

Antwort der ZAMG: Dienstag, 25. Februar 2014 09:18

Lieber Herr Stolz,

Sie haben recht! Die Gegenstrahlung ist keine reflektierte Bodenstrahlung. Umgelenkt war vermutlich das falsche Wort. Ich wollte es nur anschaulich formulieren.

Aber Strahlung bleibt Strahlung, egal ob sie nun reflektiert wurde oder absorbiert und später wieder emittiert wurde. Es ändert sich nur die Wellenlänge der Strahlung.

Als Gegenstrahlung ist jegliche Strahlung gemeint, welche von Treibhausgasen emittiert (abgestrahlt) wird. Dabei ist die Herkunft der Energie egal, das kann entweder absorbierte kurzwellige Strahlung von der Sonne direkt sein oder auch langwellige Strahlung, welche von der Erdoberfläche abgestrahlt wurde.

Ich hoffe das ist verständlicher,

Johanna Nemec

Antwort des Bürgers:  Dienstag, 25. Februar 2014 18.40

Sehr geehrte Frau Nemec,

vielen Dank, jetzt ist es klar und die Anfangsfrage stellt sich erneut: wenn die Atmosphäre Energie abstrahlt. dann muss sie sich nach den Gesetzen der Physik abkühlen. Das widerspricht der Aussage, dass die Atmosphäre durch den Treibhauseffekt erwärmt wird.
Können Sie mir diesen Widerspruch auflösen?

Mit freundlichen Grüßen

Axel Stolz

Erneute Antwort der ZAMG:  Mittwoch, 26. Februar 2014 09:14

Sehr geehrter Herr Stolz,

wenn die Atmosphäre nur Energie abstrahlt kühlt sie natürlich aus, das ist klar. Aber es kommt ja permanent Energie nach, sowohl von der Sonne als auch von der Erdoberfläche, welche von der Atmosphäre oder besser gesagt von Teilchen in der Atmosphäre zum Teil  absorbiert wird.

Ich finde am anschaulichsten sieht man das in folgender Abbildung:

Mit freundlichen Grüßen,

Johanna Nemec

Antwort des Bürgers:  Samstag, 1. März 2014 17:43

Sehr geehrte Frau Nemec,

auf der Info-Seite, die auch diese Grafik beinhaltet, steht:

Die Erdoberfläche strahlt 390 W/m² in Form von langwelliger Wärmestrahlung ab. Nur etwa 40 W/m² können ungehindert durch die Atmosphäre ins Weltall entweichen. Die restlichen 350 W/m² werden aufgrund der Absorptionseigenschaften der Atmosphäre und den darin enthaltenen natürlichen Treibhausgasen in dieser aufgenommen. Die Eigenschaft der Treibhausgase, kurzwellige Strahlung ungehindert durchzulassen, aber langwellige Strahlung zu absorbieren, hat den viel zitierten Treibhauseffekt zur Folge. Die dadurch verursachte atmosphärische Gegenstrahlung ist 324 W/m², die wieder in Richtung Erdoberfläche abgestrahlt wird.

Dann wird also die durch die Gegenstrahlung verursachte Abkühlung der Atmosphäre kompensiert durch eine gleich große Ausstrahlung von der Erdoberfläche her, wie es in der angehängten, von mir etwas abgeänderten Grafik dargestellt ist, oder?

Mit freundlichen Grüßen

Axel Stolz

Antwort der ZAMG: Samstag, 01. März 2014 18:26

Sehr geehrter Herr Stolz,

ich bin mir nicht sicher ob ich verstehen auf was sie hinaus wollen und ich verstehe auch nicht wieso sie langwellige Strahlung in 2 Kategorien einteilen wollen.

Die Atmosphäre unterteilt sich auch nicht in Teile mit Wolken und Teile mit Treibhausgasen.

Treibhausgase sind gut vermischt in der Atmosphäre.

Mit freundlichen Grüßen

Johanna Nemec

Antwort des Bürgers: Sonntag, 02. März 2014 15:05

Sehr geehrte Frau Nemec,

ich glaube nicht, dass sich die Atmosphäre in Teile mit Wolken und Teile mit Treibhausgasen unterteilt und bin überzeugt davon, dass die Treibhausgase gut in der Atmosphäre vermischt sind. Ich unterteile auch nicht die vom Boden abgegebenen 350 W/m² Langwellenstrahlung in zwei Kategorien, sondern versuche das Ergebnis unserer Diskussion, dass nämlich die durch die Gegenstrahlung hervorgerufene Abkühlung der Atmosphäre kompensiert wird durch eine gleich große Ausstrahlung von der Erdoberfläche her, grafisch darzustellen.

Mit freundlichen Grüßen

Axel Stolz

Mehrere Tage lang, keine Antwort der ZAMG

Daraufhin schrieb der Bürger an die ZAMG: Samstag, 08. März 2014 15:23

Sehr geehrte Frau Nemec,

nachdem ich nun seit einer Woche keine Antwort mehr von Ihnen bekommen habe, muss ich annehmen , dass Sie „von Oben“ die Order bekommen haben, die Korrespondenz mit mir einzustellen, da ich zu viele Fragen stelle.

Ihre  in der letzten e-mail geäußerte Vermutung. „dass ich auf etwas hinaus wolle“ ist absolut richtig.

Kurz gesagt, ich kritisiere dass auf der Informationsseite „Energiebilanz der Erde“ der ZAMG Aussagen zur Rolle der Treibhausgase beim Energieaustausch Erde /Sonne gemacht werden, die falsch sind und dass die Gesamtdarstellung des sogenannten „Treibhauseffektes“ nicht der Realität entspricht.

Diese Kritik begründe ich folgendermaßen:

Beginnen wir bei der Grafik „Geschätzte mittlere jährliche und globale Energiebilanz der Erde“ und ziehen die Energiebilanzen auf den einzelnen Ebenen. Alle Zahlenangaben in W/m².

Links Unten kommen an der Erdoberfläche 168 an. Abgestrahlt werden durch Konvektion 24, Verdunstung 78, verbleibender Rest, wenn man von den 350 die „Kompensationsstrahlung“ für die Gegenstrahlung abzieht 26, sowie 40 vom atmosphärischen Fenster. 24 + 78 + 26 + 40 = 168. 168 = 168. Bilanz ausgeglichen.
Weiter nach Rechts: „Kompensationsstrahlung“ 324, Gegenstrahlung 324. 324 = 324. Bilanz auch ausgeglichen.

Nun zur Atmosphärenmitte. Von der Solareinstrahlung absorbiert 67, aus Konvektion 24, aus Verdunstung 78, Reststrahlung 26. Die Strahlung des atmosphärischen Fensters geht durch.  67 + 24 + 78 + 26 = 195 eingehend.
Ausgehend aus der Atmosphärenmitte 165 und aus den Wolken  30. 165 + 30 = 195. 195 = 195 Bilanz ausgeglichen.

Am oberen Atmosphärenrand kommen 342 aus Sonneneinstrahlung an, 107 werden Reflektiert, damit verbleiben 235 Eingang. Ausgehend sind 165 + 30 = 195 aus Atmosphärenstrahlung und Wolkenstrahlung, sowie die 40 des atmosphärischen Fensters. 165 + 30 + 40 = 235. 235 = 235. Bilanz ausgeglichen.

Wenn wir nun den Bereich rechts Unten in der Grafik betrachten, wird ersichtlich, warum es für das Gesamtverständnis vorteilhaft war, die 350 W/m² Bodenstrahlung in 324 W/m² „Kompensationsstrahlung“ und 26 W/m² „Reststrahlung“ aufzuteilen.  Es lassen sich dadurch leichter einige  interessante Schlüsse ziehen.
Man sieht, dass Gegenstrahlung und entgegengerichtete „Kompensationsstrahlung“ als ein in sich geschlossener, im unteren Bereich der Atmosphäre stattfindender Energiekreislauf betrachtet werden kann, dessen Bilanzsumme Null ist.
Da die Bilanzsumme Null ist, hat dieser Energiekreislauf auch keinen Einfluss auf die Gesamtbilanz des Systems. Man kann ihn also bei Betrachtung der Gesamtenergiebilanz des Systems, wie wir es Oben schon gemacht haben, sozusagen „Außen vor lassen“.
Da Gegenstrahlung und „Kompensationsstrahlung“ immer die gleiche, aber entgegengesetzte Größe haben, muss die Bilanz aus Gegenstrahlung und „Kompensationsstrahlung“ auch dann Null sein, wenn die Gegenstrahlung einen anderen Wert als 324 W/m² annimmt.
Diese Feststellung lässt sich ableiten aus dem Umstand, dass die „Kompensationsstrahlung“ niemals größer sein kann als die Gegenstrahlung, da sie ja von dieser induziert wird und sie kann nicht kleiner sein als diese, da das zu einer Abkühlung der Atmosphäre führen würde.
Die Größe der Gegenstrahlung ist eine Funktion der Menge der Treibhausgase in der Atmosphäre. Da sie wie gezeigt die Gesamtenergiebilanz des Systems nicht beeinflusst, hat auch die Menge der Treibhausgase in der Atmosphäre  keinen Einfluss auf die Gesamtenergiebilanz des Systems. Das gilt selbstverständlich auch für die Menge des CO2 in der Atmosphäre. Somit lässt sich feststellen:
Die Behauptung „anthropogene CO2 Freisetzungen in die Atmosphäre haben einen Einfluss auf die Ener-giebilanz und damit auf das Klima der Erde“  ist FALSCH!
Eine Aussage im Abschnitt „Lebenswichtiger Treibhauseffekt“ lautet:

„Ohne den natürlichen Treibhauseffekt würde auf der Erde keine angenehme, mittlere Temperatur von 15°C vorherrschen, sondern eisige -18°C!“

Diese Aussage ist falsch! Warum?

In der Atmosphäre sind gigantische Wärmemengen gespeichert. Auf Grund der Gravitation sind die Gasmoleküle der Atmosphäre derart angeordnet, dass sich vom Rand der Troposphäre bis zur Erdoberfläche hin ein stetiger Anstieg der Moleküldichte und damit des Atmosphärendruckes einstellen. Parallel dazu stellt sich ein kontinuier-licher Temperaturanstieg vom Troposphärenrand hin zur Erdoberfläche ein. Die gemessenen 15 °C Durchschnitts-temperatur in Nähe der Erdoberfläche ergeben sich ausschließlich aus dem Wärmeinhalt der Atmosphäre sowie den Gesetzmäßigkeiten der Thermodynamik und haben mit Gegenstrahlung nichts zu tun.

Aus den gängigen  Erläuterung der Treibhausthese ergibt sich implizit die Vorstellung, dass die Energiebilanz des Systems primär von der Erdoberfläche aus ausgeglichen würde.
Das ist aber mit Ausnahme des atmosphärischen Fensters nicht der Fall, da einer 15 °C Bodentemperatur entsprechenden  Abstrahlungsleistung von 390 W/m² nur eine Sonneneinstrahlungsleistung von 168 W/m² gegenübersteht, würde dies zu einer permanenten Abkühlung führen.
Die Strahlungsgleichgewichtstemperatur zwischen Erde und Sonne beträgt –18 °C.
Eine solche Temperatur herrscht in einer Atmosphärenschicht am oberen Rand der Troposphäre in einigen Km Hö-he oberhalb der Erdoberfläche. Von dort aus erfolgt der wesentliche Anteil der natürlichen Abkühlung des Systems durch Wärmeabstrahlung in das Weltall. Das belegen Satellitenmessungen und ist auch aus unserer Grafik ersicht-lich. Die 165 W/m² Abstrahlung aus der Atmosphäre entsprechen etwa 70% der 235 W/m² Gesamtabstrahlung.
Die Energie-Austauschvorgänge unterhalb dieser Atmosphärenschicht  sind sozusagen „interne“ Energietransporte und werden dominiert von Konduktion, Konvektion. Verdunstung und Kondensation. Strahlung spielt dabei eine untergeordnete Rolle.  Das rührt daher, dass Treibhausgase die die von der Oberfläche abgehende Langwellenstrah-lung absorbieren und  sich dabei erwärmen, ihre aufgenommenen Energie sofort an benachbarte Moleküle weiter-geben, und zwar durch Molekülstöße und nicht durch Strahlung, weil das effizienter ist und Strahlung durch die ho-he Moleküldichte in Bodennähe behindert wird. Die erwärmten Luftmassen steigen infolge der Konvektion unver-züglich zum Troposphärenrand auf. Erst dort am oberen Troposphärenrand, bei annähernd vakuumähnlichen Bedin-gungen, können die Treibhausgase ihre Strahlungseigenschaften voll zur Entfaltung bringen.
Da etwa 70 % der natürlichen Abkühlung des Systems aus der Atmosphäre heraus durch Wärmeabstrahlung erfolgt und es ausschließlich die Treibhausgase sind, die zu Strahlung fähig sind, tragen die Treibhausgase die Hauptlast bei der Abkühlung des Systems. Man könnte sie daher trefflich auch als Kühlgase bezeichnen.

Sehr geehrte Frau Nemec, ich möchte Sie nun abschließend ersuchen, diese e-mail den für den Inhalt der Informationsseiten in Ihrer Institution zuständigen Personen zur Kenntnis zu bringen, wobei es mir ein Anliegen wäre, dass diese doch bitte die Inhalte der Seiten im Sinne der gemachten Richtigstellungen korrigieren mögen. Der ursprüngliche und einzig Sinn von Wissenschaft und Forschung kann doch wohl nur im Entdecken und Verbreiten der Wahrheit liegen, oder?

Mit freundlichen Grüßen

Axel Stolz

Seitdem hat der Bürger von seiner ZAMG nichts mehr gehört.




Klare Aussage von IPCC & OECD: wir können das Klima mit CO2 nicht ruinieren, wenn es eine Bevölkerungsexplosion gibt

Teilweise bringe ich diesen Punkt, um Sie Ostermontag aufzuheitern hinsichtlich der Aussichten für Ihre Urenkel, teils auch, um Sie zum Nachdenken anzuregen, wie die Welt wohl aussehen könnte, wenn es denn so kommt, und teils auch als Herausforderung für diejenigen, die unablässig das Lied von der schlimmen Zukunft singen wegen der Klimaänderung oder der Umweltzerstörung.

Das Komische hierbei ist, dass sie nur Katastrophen unter der Voraussetzung an die Wand malen, dass wir sehr viel reicher werden. Schon pervers: Je mehr Reichtum sie vorhersagen, umso größer die Chance (sagen sie auch vorher), dass wir unsere Umweltprobleme lösen werden.

Natürlich ist das Verhalten der Vergangenheit kein Maßstab für das Verhalten in Zukunft, und ein gut gezielter Asteroid könnte jede Projektion zerstäuben. Aber nicht ich führe die Extrapolation durch. Im Jahre 2012 hat das IPCC die Organisation for Economic Cooperation and Development (OECD) aufgefordert, fünf Projektionen der Weltwirtschaft sowie individueller Länder zu erstellen für die Jahre 2050 bzw. 2100 (siehe Abbildung).

Sie entwerfen faszinierende Szenarien. Das mittlere Pro-Kopf-Einkommen der Welt im Jahre 2100 wird zwischen drei- und zwanzigmal so hoch projiziert wie heute. Das „mittlere“ [medium] Szenario der OECD mit der Bezeichnung SSP2, auch bekannt als „mittlere Route“ [„middle of the road“] oder „durchwursteln“ [„muddling through“] klingt ziemlich uninteressant. Es ist eine Welt, in der sich nach den Worten der OECD „Trends, wie sie während der letzten Jahrzehnte üblich waren, fortsetzen werden“ mit „allmählicher Abnahme der Abhängigkeit von fossilen Treibstoffen“, ungleichmäßiger Entwicklung armer Länder, eines verzögerten Erreichens von Entwicklungszielen, enttäuschenden Investitionen in Bildung und „nur zeitweiligem Erfolg hinsichtlich Luftverschmutzung oder Verbesserung des Zugangs zu Energie für die Armen“.

Und doch ist dies eine Welt, in der bis zum Jahr 2100 das globale mittlere Einkommen pro Kopf um das 13-fache zugenommen hat auf 100.000 Dollar (des Jahres 2005), verglichen mit den heutigen 7800 Dollar. UK wird geringfügig unter diesem Mittelwert liegen, doch wird sich auch hier das Pro-Kopf-Einkommen verdreifacht haben. Diesem mittleren Szenario zufolge hat ein durchschnittlicher Bürger der Demokratischen Republik Kongo, der heute 300 Dollar pro Jahr verdient, dann eines von 42.000 Dollar, also in etwa das, was ein Amerikaner heute verdient. Der normale Indonesier, Brasilianer oder Chinese wird mindestens doppelt so reich sein wie heute ein Amerikaner.

Zur Erinnerung: Hierbei handelt es sich um heutiges Geld, inflationsbereinigt, aber die Menschen werden es für die Technologien von morgen ausgeben, von denen die meisten klüger, sauberer und freundlicher zur Umwelt sind als die heutigen Technologien – und alle für den gleichen Preis. Trotz dieser sehr moderaten Vermutungen ist es eine fast unvorstellbare Welt: Vorstädte von Kinshasa, die aussehen wie Abbildungen von Beverly Hills, wo Flugtaxis ohne Piloten gleiten (oder ähnlich futuristische Dinge). Außerdem glaubt die OECD, dass die Ungleichheit stark abgenommen haben wird, weil die Menschen in armen Ländern schneller reich geworden sind als Menschen in reichen Ländern, so wie es derzeit der Fall ist [es sei denn, die Menschen massakrieren sich alle gegenseitig. A. d. Übers.]. Alle fünf Entwicklungslinien erzeugen eine Konvergenz, jedoch mit unterschiedlichen Raten, zwischen den Einkommen in armen und in reichen Ländern.

Kann der Planet diese Art utopischer Plutokratie überleben? Tatsächlich wird es hier noch interessanter. Das IPCC hat seine eigenen Projektionen erstellt, um zu sehen, welche Art Treibhausgas-Emissionen in einer solchen Welt noch zustande kommen, und umgekehrt. Diejenige mit den geringsten Emissionen ist diejenige mit den höchsten Einkommen pro Kopf im Jahre 2100 – eine 16-fache Zunahme des Einkommens, aber mit niedrigeren Emissionen als heute: Klimaänderung umgangen. Diejenige mit den höchsten Emissionen ist diejenige mit dem niedrigsten GDP – lediglich eine Verdreifachung des Einkommens pro Kopf. Wirtschaftliches Wachstum und ökologische Verbesserungen gehen Hand in Hand. Und der Hauptgrund hierfür ist nicht, dass Umweltschutz höheres Wachstum nach sich zieht, sondern es ist genau umgekehrt. Mehr Handel, mehr Innovation und mehr Wohlstand machen größere Investitionen in Low-Carbon-Energie sowie bessere Anpassungen an Klimaänderungen möglich. Das nächste Mal, wenn sie irgendwelche grünen Untergangspropheten sagen hören, dass der einzige Weg, Armageddon zu vermeiden eine Lebensweise wie die von Jeremia ist und zurückzugehen zum Verzehr selbstgezogener Linsen, gekocht über offenen Holzfeuern, dann fragen Sie ihn, wie es kommt, dass das IPCC das genaue Gegenteil annimmt.

Im IPCC-Alptraum-Szenario mit hohen Emissionen mit fast keinen Einschnitten bis zum Jahr 2100 glaubt es an eine Erwärmung von über 4 Grad. Allerdings hängt selbst das von Modellen ab, die eine viel höhere „Klimasensitivität“ von CO2 annehmen als derzeit nach dem Konsens von Wissenschaftlern überhaupt möglich ist.

Und weiter auf dieser Linie, im Jahr 2100 wird die Weltbevölkerung auf 12 Milliarden Menschen angewachsen sein, fast doppelt so viel wie im Jahr 2000. Den UN zufolge ist dies unwahrscheinlich: 10,9 Milliarden wird als wahrscheinlicher angesehen. Mit schleppendem Wirtschaftswachstum wird sich das mittlere Einkommen (lediglich) verdreifacht haben. Die Weltwirtschaft verbraucht eine Menge Energie, keine Verbesserungen der Energieeffizienz und die Hälfte davon durch Kohle erzeugt, deren Verbrauch sich verzehnfacht hat, weil Fortschritte in anderen Technologien wie Schiefergas, Solar- oder Kernkraft enttäuschend waren.

Diese Verlautbarungen des IPCC und der OECD sagen uns klar und deutlich, dass wir das Klima mit CO2 nicht ruinieren können, wenn wir viel zahlreicher und reicher werden. Und sie sagen uns auch, wenn wir noch erheblich reicher werden, werden wir wahrscheinlich Technologien zur Anpassung zur Verfügung haben und zur Reduktion unserer Emissionen, so dass es viel weniger wahrscheinlich wird, dass wir den Planeten ruinieren. Sehen Sie selbst!

Read the full article (subscription required)

Link: http://tinyurl.com/mtowqm7

Übersetzt von Chris Frey EIKE




Energiewende wirkt – Eingeständnis Gabriel:“Für die meisten anderen Länder in Europa sind wir sowieso Bekloppte.”

Erkenntnis Gabriel am 17.4.14 in Kassel:

“Für die meisten anderen Länder in Europa sind wir sowieso Bekloppte.”

Mit dieser ebenso bemerkenswerten, wie richtigen Aussage zur Energiewende machte sich Bundeswirtschaftsminister Siegmar Gabriel bei seinem Auftritt in der Kasseler Solar Firma SMA Solar sicherlich keine Freunde. Nach Aussagen des Teilnehmers  Rainer Hahne in „lokalo 24 Nachrichten“, fiel dieser Satz, aber es fielen noch andere, ebenso richtige Sätze, die wir hier als wörtliche Zitate aus seiner Rede vom 17.4.14 in Kassel wiedergeben[1]: „Die Energiewende steht kurz vor dem Aus“

Update: Siegmar Gabriel feiert bei einem Vortrag am 5. März 2012 die „gesamten Erneuerbaren“ als deutsche Erfolgsgeschichte die mehr als „350.000 neue Jobs mit Zukunft“ „geschaffen“ hätte…mit Dank an Spürnase Reiner Hoffmann Solarkritiker der ersten Stunde jetzt im Exil. 

…..und weiter in seinem Vortrag sagte Gabriel:

“Die Wahrheit ist, dass die Energiewende kurz vor dem Scheitern steht.”

“Die Wahrheit ist, dass wir auf allen Feldern die Komplexität der Energiewende unterschätzt haben.”

Den anwesenden Verantwortlichen der hessischen Photovoltaik-Firma SMA Solar und allen sonstigen EEG Gewinnlern fiel fast die Kinnlade  herunter, als sie dieses sehr späte, dafür unverblümtere Eingeständnis vernahmen.

Hier ein paar Ausschnitte aus der Hessenschau vom 17.4.14 – mit einigen aber kaum den wesentlichen Zitaten aus der denkwürdigen Rede des Bundeswirtschaftsministers. Mit Dank an Spürnase den Solarkritiker im Exil R. Hoffmann

Auch im nordhessischen lokalen Sender von SAT 1 werden diese Teile seiner Rede gebracht. Anschauen lohnt.

Der streitbare Diskutant im Sat1 Film in welchem über diese Tagung berichtet wird, der mit Gabriel über den Kohlepfennig diskutiert, heißt übrigens Stefan Grüger und  ist im Vorstand des Solarlobby Verein „Eurosolar Deutschland“. Er ist ein ehemaliger Spezi des verstorbenen Gründers von „Eurosolar“, des SPD Bundestagsabgeordneten Hermann Scheer, der es fast zum hessischen Wirtschaftsminister gebracht hätte. Grüger hat es jetzt über die Landesliste der SPD in den hessischen Landtag geschafft. Dort wird er weiter im Sinne seiner Lobby wirken. Zu diesem Lobbyverein gehört oder gehörte übrigens auch die heutige Grünenvorsitzende Simone Peter.

Zu dieser ministeriellen Bankrotterklärung passt es, dass nun auch die Verbraucherzentrale für Kapitalanleger die Deutsche Bank vor weiteren Windkraftengagements warnt.

In einer Presserklärung heißt es dort:

Berlin. 30.03.2014 – Die Verbraucherzentrale für Kapitalanleger (VzfK) hat heute in einem offenen Brief an Jürgen Fitschen, den Vorstandssprecher der Deutsche Bank AG, vor Engagements im Bereich der Erneuerbaren Energien gewarnt. Insbesondere bat die VzfK um eine kritische Überprüfung der Kundenbeziehung zum kontroversen Projektentwickler juwi AG aus dem pfälzischen Wörrstadt.

Die VzfK argumentiert, dass nach den spektakulären Insolvenzen von Prokon, Windwärts, Windreich, Solar Millennium AG und vielen anderen dubiosen Renewable-Unternehmen weitere Schädigungen von Kapitalanlegern, aber auch Aktionären von Kreditinstituten, angesichts krasser Missstände im Bereich Renewables zu erwarten seien. Die VzfK bittet den Deutsche Bank-Vorstand daher, durch geeignete Portfoliomaßnahmen und Kreditentscheidungen sicherzustellen, dass der Schaden für die Deutsche Bank AG, ihre Aktionäre und Kunden minimiert wird. Insbesondere bittet man um eine kritische Prüfung des Kreditengagements bei der aufgrund eines Korruptionsskandales in Thüringen sowie umstrittener Windkraftprojekte insbesondere im Naturpark Hochtaunus in die Kritik geratenen Projektentwicklers juwi AG.

Unter Verweis auf den Sachverständigenrat der Bundesregierung geht die VzfK davon aus, dass das EEG-System kollabieren müsse und dass volkswirtschaftliche Verluste in mindestens dreistelliger Milliardenhöhe zu erwarten seien. Bereits heute ächzten Verbraucher und die deutsche Industrie unter einer im europäischen und internationalen Vergleich aberwitzig hohen Kostenbelastung…

Für uns und unsere Leser stellt sich damit umso dringender die Frage, wann endlich die Regierung Merkel mit ihrem hyperaktiven Bundeswirtschaftsminister und Vizekanzler Gabriel nun die Wende von der Energiewende einleitet, nachdem die Erkenntnis ihrer praktischen Undurchführbarkeit offensichtlich nun auch die höchste Regierungsmitglieder erhellt hat.

Dort beginnt man wohl einzusehen, dass man zwar Politik gegen jede Vernunft, auch gegen die eigenen Landsleute machen kann, aber  niemals gegen geltende Naturgesetze, seien es physikalische oder ökonomische.

Oder wird diese dringend notwendige Wende von der Wende deshalb solange hinausgezögert, bis keine Bestrafung durch den Wähler – dank seiner Vergesslichkeit- oder durch entsprechende Wirtschaftsstrafkammern wegen vorsätzlichem Wuchers wg, Verjährung, zu erwarten ist?

Wir vermuten, dass es auch deshalb solange dauert, weil keiner der derzeit Verantwortlichen in Bund und Ländern in diesem Zusammenhang eine weiße Weste hat. Denn niemand von denen kann sagen: Wir wussten es nicht besser! Sie alle, von ganz wenigen -namentlich bekannten- Ausnahmen abgesehen, haben zusammen mit ihren Parteifreunden in Bund- und Länderparlamenten, inklusive der „Opposition“, fröhlich lachend, diesem verwerflichen und schädlichen Gesetzeswerken zugestimmt. Sie haben damit keine Möglichkeit gesichtswahrend herauszukommen.  Es müssen wohl neue Gesichter her, die diesen Albtraum für unser Land beenden könnten.

Ergänzung: Auf Klimaretter.info finden wir diesen passenden Grabgesang:

Nächster Solarpionier pleite

Das hessische Solarpionier-Unternehmen Wagner & Co. Solartechnik GmbH ist insolvent. Die hessische Firma hatte sich auf Solarstrom und -wärme spezialisiert und Solarthermie-Kollektoren hergestellt. 1979 von acht Studenten und Mitgliedern der Anti-Atom-Bewegung gegründet, hatte Wagner in seinen besten Zeiten 400 Mitarbeiter.


[1] http://www.1730live.de/sigmar-gabriel-nimmt-in-kassel-stellung-zur-energiewende/ Hier sind nur wenige Ausschnitte zu hören, aber die haben es auch in sich.




Das Rätsel der Eiszeiten, Teil VI: Hypothesen im Überfluss

science of doom

Man findet allgemein Blogs und Artikel aus einer Ecke, die wir die „Klimakonsens-Ecke“ nennen können, mit dem Inhalt, dass wir die Gründe kennen, die die Eiszeiten verursacht haben. Diese Gründe waren Änderungen der Sonneneinstrahlung in höheren Breiten durch die orbitalen Änderungen, die in den Teilen IV und V beschrieben worden sind. Das Ganze läuft unter der Rubrik „Milankovitch-Theorie“. Während diese Auffassung in vielen Studien der Klimawissenschaft vorherrscht, wird der Fall immer klarer. Oder, vielleicht sollte ich besser sagen: Es wird immer klarer, dass der Gegenstand von Klarheit eigentlich weit entfernt ist. Er ist im Gegenteil höchst verschwommen.

Smith & Gregory (2012) schreiben beispielsweise:

Allgemein wird akzeptiert, dass das Timing der Eiszeiten mit Änderungen der Sonneneinstrahlung, die aus dem Erdorbit um die Sonne resultieren (Hays et al. 1976 ; Huybers und Wunsch 2005), verbunden ist. Diese solaren Strahlungs-Anomalien müssen durch Rückkopplungs-Prozesse innerhalb des Klimasystems verstärkt worden sein, einschließlich der Änderungen der atmosphärischen Treibhausgas-Konzentrationen (Archer et al. 2000) und dem Wachstum von Eisschilden (Clark et al. 1999). Während es von Hypothesen hinsichtlich der Details dieser Rückkopplungen nur so wimmelt, bleibt keine von Kritik verschont. Wir können also keinesfalls behaupten zu wissen, wie das System Erde die Klimata geschaffen hat, die wir in zahlreichen Proxy-Aufzeichnungen finden.

So weit Smith & Gregory (2012).

Immer noch gibt es in jedem Bereich Ausreißer. Ein einzelnes paper demonstriert noch keinen Konsens – zu was auch immer. Unternehmen wir also einen Spaziergang durch diese von Smith & Gregory angesprochenen Unsicherheiten.

Einstrahlung im Winter der Nordhemisphäre in hohen Breiten

Kukla (1972) schreibt:

Die Verbindung zwischen dem Milankovitch-Mechanismus und dem Klima bleibt unklar. Sommerliche Verläufe der halbjährlichen Einstrahlung auf 65°N werden normalerweise zusammen mit der Hypothese angeboten, dass die einfallende Strahlung direkt den Rückzug oder die Vorstöße von Gletschern beeinflusst und somit das globale Klima kontrolliert.

Schon vor langer Zeit wurde diese Hypothese in Frage gestellt, und zwar von Croll (1875) und Ball (1891). Heutige Satellitenmessungen rechtfertigen Crolls Konzept der Klimaformation in vollem Umfang, wobei die Meeresströmungen eine grundlegende Rolle bei der Verteilung von Wärme und Feuchtigkeit über den Kontinenten spielen. Das vereinfachende Modell von Koppen und Wegener muss daher definitiv aufgegeben werden.

…Es zeigte sich, dass die prinzipiell kalten Perioden innerhalb der Genauigkeitsgrenzen radiometrischer Datierungen genau parallel mit Intervallen abnehmender Einstrahlung auf der Nordhemisphäre auftraten und umgekehrt. Große Klimaänderungen nahmen ihren Anfang in den Wintern auf den Kontinenten der Nordhemisphäre.

Interessehalber für Geschichts-Freaks: Kukla schreibt auch noch:

Zwei Fakten sind sehr wahrscheinlich:

(1) Im Jahre 2100 wird der Globus kälter sein als heute (Bray 1970), und

(2) eine vom Menschen verursachte Erwärmung wird im globalen Maßstab zu jener Zeit kaum erkennbar sein.

So weit zu Kukla.

Eigenoszillationen des Klimasystems

Broecker & Denton (1990) schreiben:

Obwohl wir davon überzeugt sind, dass das Erdklima in gewisser Weise auf orbitale Zyklen reagiert, weisen wir den Standpunkt einer direkten Verbindung zwischen Saisonabhängigkeit und Größe der Eisschilde mit der Konsequenz eines sich ändernden Klimas in weit entfernten Gebieten zurück. Eine solche Verbindung kann synchrone Klimaänderung gleicher Größenordnung in beiden polaren Hemisphären nicht erklären. Auch kann sie nicht als Erklärung für die Schnelligkeit des Übergangs von voll eiszeitlichen in voll zwischeneiszeitliche Bedingungen dienen. Falls die globalen Klimata wirklich von Änderungen der Saisonabhängigkeit getrieben werden, muss es eine andere Verbindung geben.

Wir schlagen vor, dass Eiszeitzyklen im Quartär von abrupten Neuanordnungen des Systems Ozean-Atmosphäre angetrieben werden durch orbital induzierte Änderungen im Transport von Süßwasser, die die Salzverteilung im Ozean beeinflussen. Diese Neuanordnungen markieren Änderungen zwischen stabilen Zuständen der Wechselwirkung des Systems Ozean-Atmosphäre. Obwohl wir glauben, dass Eiszeitzyklen durch orbitale Änderungen getrieben werden, sehen wir keine Grundlage für die Zurückweisung der Möglichkeit, dass die Zustandsänderungen Teil einer sich selbst erhaltenden internen Oszillation sind, die selbst noch beim Fehlen von Änderungen der Erdorbit-Parameter funktionieren würde. Falls das so sein sollte, wie von Saltzman et al. (1984) gezeigt, können orbitale Zyklen lediglich ein selbstoszillierendes Klimasystem modulieren.

Bestehende Daten vom Gletschersystem der Erde implizieren folglich, dass der jüngste Rückzug simultan und abrupt in beiden polaren Hemisphären eingesetzt hat. Dies trotz der Tatsache, dass die sommerlichen Einstrahlungs-Signale in den Breiten der zentralen Eiszeitaufzeichnungen außer Phase waren. Obwohl Änderungen der orbitalen Geometrie der Erde sehr wahrscheinlich der Grund für Eiszeitzyklen sind (Hays et al. 1976, Imbrie et al. 1984), bleibt die Natur der Verbindung zwischen jahreszeitlicher Einstrahlung und dem globalen Klima eine im Wesentlichen unbeantwortete Frage.

So weit Broecker & Denton (1990).

Streng genommen ist dies eine „Nicht-Ganz-Milankovitch-Theorie” (und es gibt Nebenaspekte dieser Theorie, die hier nicht behandelt werden). Ich habe diese Studie in den Vordergrund gerückt, weil Wallace S. Broecker ein sehr einflussreicher Klimawissenschaftler auf diesem Gebiet ist, und weil sein paper die thermohaline Zirkulation (THC) im Klima der Vergangenheit angesprochen hat. Er hat viele papers geschrieben und scheint allgemein an einem „Milankovitch-Aspekt“ bei seinen Theorien festzuhalten.

Temperaturgradient zwischen niedrigen und hohen Breiten

George Kukla, Clement, Cane, Gavin & Zebiak  (2002) schreiben:

Obwohl allgemein angenommen wird, dass die Verbindung zwischen Einstrahlung und Klima in hohen nördlichen Breiten im Sommer zu suchen ist, zeigen unsere Ergebnisse, dass der Beginn der jüngsten Vereisung mit einer Änderung der Einstrahlung während der Übergangsjahreszeiten in den niedrigen Breiten verbunden war.

Ein einfaches Ozean-Atmosphäre-Modell zeigt, dass Änderungen im jahreszeitlichen Zyklus der Einstrahlung die Variabilität der El Nino Southern Oscillation (ENSO) verändert haben können, so dass es etwa doppelt so viele ENSO-Warmereignisse zu Beginn der Eiszeit gegeben hat wie während der letzten Zwischeneiszeit. Dies zeigt, dass die Eisbildung in den kühler gewordenen hohen Breiten durch einen sich erwärmt habenden tropischen Pazifik beschleunigt worden sein könnte. Seit Anfang des 19. Jahrhunderts wurde die Verbindung zwischen Einstrahlung und Klima in den hohen Breiten der Nordhemisphäre gesehen, wo die sommerliche Einstrahlung signifikant variiert.

Die Einstrahlung an der Obergrenze der Atmosphäre (TOA) während der Sommersonnenwende bei 65°N wird gewöhnlich herangezogen, um den solaren Antrieb globaler Klimaänderungen zu belegen. Dies steht im Widerspruch zu den Ergebnissen von Berger et al. (1981), die die variierende monatliche Einstrahlung an der TOA in verschiedenen Breiten auf beiden Hemisphären mit den maritimen Sauerstoffisotopen von Hays et al. (1976) korrelierten. Die höchste positive Korrelation fand sich nicht im Juni, sondern im September, und auch nicht in hohen Breiten, sondern in den drei Bändern geographischer Breiten, die die Tropen repräsentieren (25°N, 5°N und 15°S).

Auf den ersten Blick scheinen die Implikationen unserer Ergebnisse nicht eingängig zu sein. Dies zeigt, dass die frühe Bildung von Gletschereis nicht mit einer Abkühlung einhergegangen war, sondern mit einer relativen Erwärmung der tropischen Ozeane. Jüngste Analogien zeigen, dass das sogar mit einer vorübergehenden Zunahme der global gemittelten jährlichen Mitteltemperatur einhergegangen sein könnte. Falls das stimmt, wäre der Hauptauslöser für Vereisungen nicht die Ausdehnung der Schneebedeckung in den subpolaren Gebieten, sondern eher die Zunahme des Temperaturgradienten zwischen niedrigen und hohen Breiten.

So weit George Kukla, Clement, Cane, Gavin & Zebiak  (2002).

Ein Puzzle I

George Kukla et al. (2002) schreiben:

Am Ende der letzten Zwischeneiszeit vor über 100.000 Jahren sind die Umweltbedingungen auf der Erde, ähnlich wie heute, abrupt in einen ausgeprägt kälteren Zustand gewechselt. Gletscher wuchsen, der Meeresspiegel sank und die Wüsten dehnten sich aus. Die gleichen Veränderungen gab es auch davor schon viele Male, verbunden mit periodischen Verschiebungen des Erdorbits um die Sonne. Der Mechanismus dieser Änderung, das wichtigste Puzzlesteinchen der Klimatologie, bleibt unbekannt.

So weit George Kukla et al. (2002).

Gradient der Einstrahlung von niedrigen zu hohen Breiten

Maureen Raymo & Kerim Nisancioglu (2003) schreiben:

Auf der Grundlage von Klimaproxy-Aufzeichnungen der letzten 0,5 Millionen Jahre hat sich ein allgemeiner wissenschaftlicher Konsens gebildet, dass Variationen der sommerlichen Einstrahlung in hohen nördlichen Breiten zehntausende Jahre lang einen dominanten Einfluss auf das Klima haben. Die Logik hinter fast einem Jahrhundert währenden Überlegungen zu diesem Thema lautet, dass sich in Zeiten mit reduzierter sommerlicher Einstrahlung etwas Schnee und Eis von Jahr zu Jahr haben halten können – auch während der Schmelzsaison. Eine leichte Zunahme von Jahr zu Jahr zusammen mit einer positiven Schnee-Albedo-Rückkopplung könnte eventuell zu Bedingungen mit voller Vereisung führen. Gleichzeitig wird angenommen, dass die kühlen Sommer von milden Wintern begleitet werden, die mittels Temperatur-Feuchte-Rückkopplung zu einer größeren winterlichen Schnee-Akkumulation führen. Beide Effekte, also geringere Schneeschmelze über den Sommer und größere Schnee-Akkumulation über den Winter, scheinen eine logische und physikalisch haltbare Erklärung für das Wachsen und Schrumpfen von Eisschilden zu sein, wenn sich die Einstrahlung in hohen Breiten ändert.

Dann verweisen sie auf die Probleme mit dieser Hypothese und kommen zu ihrer eigenen Theorie:

Wir sagen, dass der Gradient der Einstrahlung zwischen hohen und niedrigen Breiten die dominante Rolle hinsichtlich des Klimas vor 3 bis 1 Million Jahren spielt, und zwar durch dessen Einfluss auf den polwärts gerichteten Fluss von Feuchtigkeit, die der Treibstoff für das Wachstum der Eisschilde ist.

Und sie schließen mit einem bedeutsamen Kommentar:

Falls es gelänge, ein Modell zu konstruieren, das die Eigenschaften erster Ordnung hinsichtlich der Geschichte der Eiszeiten auf der Erde während des Plio-Pleistozäns abbilden kann, wäre dies ein wichtiger Schritt vorwärts für das Verständnis der dynamischen Prozesse, die die globale Klimaänderung treiben.

So weit Maureen Raymo & Kerim Nisancioglu (2003).

Wir werden in einem späteren Artikel auf die Ergebnisse schauen, die die GCMs (Global Circulation Models) hinsichtlich Beginn und Ende von Eiszeiten liefern.

Sommerliche Einstrahlung in hohen Breiten der Nordhemisphäre

Roe (2006) schreibt.

Die Milankovitch-Hypothese wird weithin als einer der Eckpfeiler der Klimawissenschaft angesehen. Überraschenderweise bleibt die Hypothese  trotz umfangreicher Forschungen bzgl. der Verbindung zwischen der globalen Eismenge und Änderungen der Einstrahlung infolge Variationen des Erdorbits nicht klar definiert. In dieser Studie wird eine spezifische Hypothese formuliert, wobei grundlegende physikalische Gesetze herangezogen werden, um zu zeigen, dass es viel informativer ist, die zeitliche Rate der Änderungen des globalen Eisvolumens zu betrachten als sich auf das absolute globale Eisvolumen zu konzentrieren. Mit dieser einfachen und dynamisch-logischen Änderung der Perspektive zeigen wir, dass die verfügbaren Aufzeichnungen eine direkte gegenphasige und verzögerungsfreie Beziehung der Rate der Änderung des globalen Eisvolumens und der sommerlichen Einstrahlung in hohen nördlichen Breiten stützen.

So weit Roe (2006), der es mit sehr hübschen, an die Hypothese angepassten Graphen versieht.

Sommerlänge auf der Südhemisphäre

Huybers & Denton (2008) schreiben:

Wir zeigen, dass die Dauer des Sommers auf der Südhemisphäre eher das antarktische Klima als die Intensität des Sommers der Nordhemisphäre prägt, mit der es sich (oftmals irreführend) mit variiert. Unserer Ansicht nach stammt die fast interhemisphärische Klimasymmetrie im Zeitmaßstab der Bahnschiefe und der Präzession aus einer Reaktion des Nordens auf die lokale Sommerintensität und einer südlichen Reaktion der lokalen Sommerlänge.

So weit Huybers & Denton (2008), die es mit sehr hübschen, an ihre Hypothese angepassten Graphen versehen.

Erwärmung in der Antarktis verändert den atmosphärischen CO2-Gehalt

Wolff et al. (2009) schreiben:

Der Übergang von einem eiszeitlichen zu einem zwischeneiszeitlichen Klima wird gebremst durch Variationen des Erdorbits. Allerdings wird die detaillierte Abfolge von Ereignissen, die zum Ende eiszeitlicher Bedingungen führen, kontrovers diskutiert. Vor allem ist unklar, ob die nördliche oder die südliche Hemisphäre dieses Ende bestimmen. Hier präsentieren wir eine Hypothese für den Beginn und die Fortsetzung eiszeitlicher Verhältnisse, die sich auf die Beobachtung stützt, dass die ursprünglichen Stadien des Endes einer Vereisung nicht unterscheidbar sind von Ereignissen in der Antarktis, die unter der Bezeichnung "Antarktische Isotopische Maxima" bekannt sind. Zu denen kommt es in Eiszeiten häufig. Derartige Erwärmungen in der Antarktis  beginnen im Allgemeinen sich mit dem Einsetzen eines warmen Dansgaard-Oeschger-Ereignisses in der Nordhemisphäre umzukehren.

Allerdings folgt der Erwärmung in der Antarktis in den Frühstadien der Abschwächung einer Eiszeit nicht eine abrupte Erwärmung im Norden. Wir zeigen, dass das Fehlen einer antarktischen Klima-Umstellung die Erwärmung im Süden ermöglicht und der damit verbundene Anstieg des atmosphärischen CO2-Gehaltes einen Punkt erreicht, an dem der volle Eisrückgang unvermeidlich wird. Unserer Ansicht nach geht das Ende von Eiszeiten zusammen mit anderen Erwärmungen, die nicht zum Ende der Eiszeit führen, von der Südhemisphäre aus, aber nur spezielle Bedingungen auf der Nordhemisphäre ermöglichen es dem Klima, seine Änderung hin zu zwischeneiszeitlichen Bedingungen abzuschließen.

So weit Wolff et al. (2009).

Ein Puzzle II

In einem paper zum Strahlungsantrieb während Eiszeiten und dem Versuch, die Klimasensitivität zu berechnen, stellen Köhler et al. (2010) fest:

Natürliche Klimavariationen während des Pleistozäns sind immer noch nicht zur Gänze verstanden. Auch wissen wir nicht, wieviel sich die mittlere jährliche Temperatur im Detail ändert oder welche Prozesse für die Größenordnung der Temperaturvariationen verantwortlich sind.

Noch eine Perspektive

Abschließende Kommentare von dem immer wieder faszinierenden Carl Wunsch:

Die schon lange im Raum stehende Frage, wie ein geringer Milankovitch-Antrieb derartig gewaltige Änderungen zwischen Eiszeiten und Zwischeneiszeiten auslösen kann, wird dadurch beantwortet, dass er das nicht macht.

Der Reiz, Zyklen von Eiszeiten und Zwischeneiszeiten mit dem Milankovitch-Antrieb zu erklären, ist eindeutig: es ist eine deterministische "Story"….

Beweise, dass der Milankovitch-Antrieb die Aufzeichnungsdaten „beherrscht“, vor allem in der Eiszeit/Zwischeneiszeit von 100 ka-Jahren, sind sehr dünn und irgendwie nicht plausibel unter dem Umstand, dass die größte hochfrequente Variabilität irgendwo anders liegt. Diese Ergebnisse sind kein Beweis für die stochastische Steuerung der Pleistozän-Vereisungen und auch nicht dafür, dass deterministische Elemente auch nur teilweise ein Faktor sind. Aber die Hypothese des stochastischen Verhaltens sollte nicht einfach so verworfen werden, hat sie doch zumindest eine ähnlich starke Grundlage wie orbitale Effekte. Es ist allgemein die Ansicht in der paläoklimatischen Gemeinschaft, dass die Beschreibung eines Systems als ‚stochastisch‘ gleichbedeutend ist mit ‚unerklärlich‘.

Nichts könnte weiter von der Wahrheit entfernt liegen (z. B. Gardener 1985): stochastische Prozesse enthalten reichlich Physik und Kinematik, die beschrieben und verstanden und sogar vorhergesagt werden können.

Résumé

Dies ist keine erschöpfende Liste von Hypothesen, weil ich definitiv einige nicht gesehen habe (Carl Wunsch beispielsweise nennt in einer anderen Studie mindestens 30 Theorien). Es ist auch möglich, dass ich einige Schlüsselpunkte von mindestens einer Hypothese oben falsch interpretiert habe (und entschuldige mich bei den jeweiligen Autoren, falls das so sein sollte). Der Versuch, die Eiszeiten zu verstehen und der Versuch, die Denkansätze der Klimawissenschaft bzgl. Eiszeiten zu überblicken, sind beides abschreckende Aufgaben.

Was nach all dem klar sein sollte, ist der Umstand, dass es keine „Milankovitch-Theorie“ gibt. Es gibt viele Theorien mit einer gemeinsamen Prämisse: solare Strahlungs-Veränderungen via orbitaler Änderungen „erklären“ den Beginn und das Ende von Eiszeiten. Aber dann kommen sie alle mit jeweils sich widersprechenden Theorien daher, wie diese Änderungen beeinflusst werden. Daher ist höchsten eine dieser Theorien richtig. Und meine gegenwärtige Perspektive – und einer offensichtlichen gemäß der Lektüre von über 50 Studien zu den Gründen der Eiszeiten – ist: die Anzahl der irreführend „Milankovitch-Theorien“ genannten Theorien, die korrekt sind, ist gleich Null.

Link: http://scienceofdoom.com/2013/11/11/ghosts-of-climates-past-part-six-hypotheses-abound/

Die bisherigen Teile:

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/




Irland: Windparkbetreibern werden 10 Millionen Euro gezahlt, damit sie keine Energie erzeugen

Update der Redaktion: Da wir in Deutschland die Energiewende sehr sehr ernst nehmen und auch sonst deutlich größere Summen in Wind und Sonne investiert haben sind auch die Kompensationssummen hier um mehrere Größenordnungen höher. Im Handelsblatt vom 26.4.14 finden wir die Schlagzeile

Abgeklemmte Windparks kosten Verbraucher Millionen

Es sind wohl bis zu 760 Millionen Euro Schadensersatz, die in diesem Jahr an Betreiber von nicht angeschlossenen Windparks zu zahlen sind. An den Kosten bleibt der Verbraucher hängen – über die Stromrechnung.

Bild rechts: Windpark. Photo Arthur Ellis/Press22

EirGrid zufolge hatte die Summe 2013, gezahlt von Bord Gais, ESB und anderen Versorgern, bis zu 10 Millionen Euro betragen.

Allerdings sieht es so aus, als würden diese Kosten noch rasant steigen, da die Drosselungs-Rate [the power-down rate] 2013 3 Prozent betrug, in diesem Jahr 2014 aber voraussichtlich auf 10 Prozent steigen wird. Dies bringt den konventionellen Energieunternehmen Kosten über 30 Millionen Euro und einen Kostenschub auf die Stromrechnungen der Verbraucher. Eine Graphik von EirGrid zu Kürzungen bei der Windenergie-Erzeugung zeigt, dass bis 2016 ein weiterer Anstieg um 50 Prozent droht, was bei den Versorgern mit 40 Millionen Euro zu Buche schlägt.

Irische Windparkbetreiber erhalten Zahlungen von anderen Stromversorgern hinsichtlich der „Hemmnisse“ oder „Kürzungen“, wenn eine Übertragungs- oder Verteilungsleitung wegen Wartung oder einer lokalen Panne nicht in Betrieb ist; oder auch bei starkem Wind zu einer Zeit mit sehr geringer Energie-Nachfrage (z. B. mitten in der Nacht), und wenn Turbinen wegen Überkapazitäten abgeschaltet werden. Die gleiche Politik wird international angewendet.

Die europäischen Energie-Regulatoren haben im vorigen Jahr beschlossen, dass Windparks Kompensationszahlungen aus dem Energiemarkt für diese Schließungen erhalten sollen, und das ist Teil der Regierungspolitik zur Stimulierung des Windenergie-Marktes.

[Da sage noch einer, Windkraft rechnet sich nicht! A. d. Übers.]

Link: http://www.independent.ie/business/irish/windfarm-owners-were-paid-10m-not-to-produce-energy-30200656.html

Übersetzt von Chris Frey EIKE

Der Übersetzer bedankt sich bei Herrn Jürgen Uhlemann für den Hinweis auf diesem Artikel in einem Kommentar.




Fakten, nichts als Fakten! Globale Erwärmung oder globale Verblödung der Menschen? von Otto Hahn

„Die Weitergabe meiner  Erkenntnisse an die jeweils zuständigen Stellen blieb unbeachtet und somit erfolglos. Doch die Endverbraucher, welche alles bezahlen müssen, gehören informiert und aufgeklärt! So entstand dieses auf Fakten beruhende Buch. Und das ganz bewusst zu einem für jeden erschwinglichen Preis!

In einem schlagwortartigem Text mit kurzen Sätzen breitet der Autor die gängigen Behauptungen zum menschgemachten Klimawandel aus und stellt ihnen eine große Fülle  von faktenbasierten Widerlegungen gegenüber.

 

Die behandelten Themen und Thesen umfassen u.a.

Photosynthese und Sauerstoff, woher kommt er wirklich – der CO2-Klimaschwindel – der CO2-Ablasshandel – alternative Energien und  die daraus resultierende EEG-Abzocke der Endverbraucher –  Schildbürgerstreich Energiewende – Windenergie und Photovoltaik,  der teuerste Strom der Welt – ANDASOL das weltgrößte  solarthermische Kraftwerk – das Kyoto-Protokoll – die CO2-Petition  von 31.478 US- Wissenschaftlern (Global Warming Petition Project) – das Wasserstoffauto – Natur- und Umweltschutz ja, Klimaschutz  nein, weil unmöglich und völlig sinnlos – die Aktivität der Sonne  und das Universum steuern unser Klima – der Svensmark-Effekt –  Eisfläche der Arktis hat um 50 Prozent zugenommen – Definition von Wetter und Klima – Eiszeiten und Warmzeiten – CO2-Düngung  in Gewächshäusern – Wahnsinn Wärmedämmung – Kernkraftwerke  in Europa, allein 60 in Frankreich.

Das Buch ist eine kühle Abrechnung mit dem herrschenden Klimaschutz-Paradigma und besticht durch sein einfache Sprache, die es erlaubt auch kompliziertere Sachverhalte zu verstehen.

Wegen der vielen authentischen Zitate bleibt es nicht aus, dass gelegentlich auch Widersprüchliches vermeldet wird. So werden z.B. in einem davon, Kohlekraftwerke als „Dreckschleudern par Excellence“ bezeichnet. Offensichtlich hat der so zitierte keines dieser Kraftwerke von innen gesehen, denn sonst hätte ihm auffallen müssen, dass es in der Industrie nur sehr wenige vergleichbare Prozesse gibt, die derart sauber in allen  Teilprozessen ablaufen. Denn bei der Stromerzeugung durch Kohle wird jedes Zwischenprodukt zu fast 100 % abgetrennt und in gut eingeführten Verwertungsketten zu marktüblichen Preisen verwertet. Und nur die gewünschten Hauptprodukte – nämlich stabiler, billiger Strom zu jedem gewünschten Zeitpunkt, und bei vielen inzwischen auch Prozess- und Fernwärme-  werden erzeugt, und natürlich, dass bei jeder sauberen optimalen Verbrennung zwangsläufig anfallende CO2. Dass dies keinen erkennbaren Einfluss auf die globale Mitteltemperatur hat, zeigt der Autor an sehr vielen Beispielen auf, und man kann diesen Ausrutscher übersehen.

Daher tut es der Freude dieses Büchlein zu lesen oder jemandem Intelligenten auf den Gabentisch zu legen, keinen Abbruch.

Das  Buch ist im Wittgenstein Verlag erschienen mit der ISBN: 978-3-944354-19-4

Zum von Preis: 8,90 €; Details  hier www.wittgenstein-verlag.de




330 Jahre lang Messung des Meeresspiegels

Wie in meinem letzten Artikel Rebound beschrieben, macht PGR für die Nordischen Länder und andere Häfen der Ostsee Messungen des Meeresspiegels zu einer Messung von PGR, nicht des Meeresspiegels. Glücklicherweise wurden GPS-Messungen des PGR an allen Tiden-Messstellen in der Welt durchgeführt, und diese Messungen kann man dazu benutzen, die Messungen des Meeresspiegels an Pegelständen zu korrigieren.

15 Aufzeichnungen an Pegel-Messstellen in der Welt wurden vom PSMSL Explorer heruntergeladen und eine vom Amsterdam NAP. Diese wurden nach Qualität ausgewählt: schlechte/keine Qualität (rote Flaggen), Länge (vorzugsweise über 100 Jahre), gute Kontinuität, geringe PGR, geringe tektonische Aktivität in dem jeweiligen Gebiet. Diese wurden zu ihrem mittleren Niveau der Jahre 1960 bis 1980 normalisiert und dann für PGR  korrigiert. Das Ergebnis zeigt Abbildung 1.

Abbildung 1 zeigt die normalisierten Daten von 16 langzeitlichen Tidenmessungen mit guter Qualität.

Abbildung 2 zeigt das Mittel der Tidenmessungen aus Abbildung 1:

Dies sind die Mittelwerte von 15 Messungen des mittleren Meeresspiegels seit 1958, 11 von 1948 bis 1958, mindestens 10 seit 1900 und mindestens 7 seit 1885, mindestens 5 seit 1864, 4 seit 1849 und 2 während fast des gesamten Zeitraumes seit 1807.

Abbildung 3 ist eine Graphik aus climatedata.info. Dies wird als eine Validierung von Abbildung 2 gezeigt.

Wir erkennen hier, dass der Meeresspiegel seit 1855 bis 1860 gestiegen ist. Davor war der Meeresspiegel gleich geblieben oder gefallen. Hier folgt eine Darstellung mit den Trends in 30-Jahres-Intervallen:

Abbildung 4: Darstellung der Trends des Meeresspiegels seit 1810 aus den gemittelten Daten der Abbildung 2.

Der Meeresspiegel blieb fast unverändert im gesamten 19. Jahrhundert mit einem Aufwärtstrend von 0,4 mm/Jahr in der ersten und dann 0,9 mm/Jahr in der zweiten Hälfte dieses Jahrhunderts mit dem Ende der kleinen Eiszeit zur Mitte des Jahrhunderts. Im gesamten 20. Jahrhundert hatte der Trend weniger als 1,7 mm/Jahr betragen. Insgesamt ist der Meeresspiegel während der letzten 150 Jahre um 25 cm gestiegen. Der Trend verlangsamte sich während der Kaltphase von 1950 bis 1980, um dann mit der Erwärmung zum Ende des Jahrhunderts auf 2,25 mm/Jahr zuzunehmen. Die Satellitenmessungen beginnen zum Zeitpunkt der stärksten Abkühlung seit dem Pinatubo-Ausbruch. Darum zeigt diese Aufzeichnung in Kombination mit der künstlichen GIA/PGA-„Korrektur“ von 0,3 mm/Jahr in der Auflistung der University of Colorado einen Trend von 3,2  ± 0.4 mm/Jahr.

Abbildung 5a: Meeresspiegel-Trend seit 1890. Abbildung 5b: Der Meeresspiegel-Anstieg der letzten 33 Jahre.

Der jüngste Sprung nach oben während der Jahre 2012 und 2013 infolge der Erholung nach dem La Niña 2011 währt gerade mal zwei Jahre lang und ist nicht annähernd so dramatisch wie zahlreiche andere kurzfristige Änderungen des Meeresspiegels in beide Richtungen zuvor. Sie alle sind verbunden mit kurzen Erwärmungs- und Abkühlungsperioden im Zuge von El Niños, La Niñas und vulkanischer Ereignisse. Die Abkühlung nach den Vulkanausbrüchen des El Chichon 1983 und des Pinatubo 1992 treten in Abbildung 5b besonders deutlich hervor.

Es gibt eine gute Aufzeichnung des Meeresspiegels aus der Zeit vor dem Jahr 1800. Die Holländer waren lange Zeit sehr besorgt wegen des Meeresspiegels, liegt doch ein Drittel ihres Landes unter dem Meeresspiegel [siehe Bild oben rechts!]

Abbildung 6: siehe oben rechts!

Die Abbildung oben rechts zeigt einen Huddestenen, benannt nach dem Amsterdamer Bürgermeister Hudde, ein Marmorblock, der im Jahre 1684 gesetzt worden ist, 2,67 Meter über dem Meeresspiegel bei Amsterdam.

Nach einer schweren Flut im Jahre 1675 kam der Bürgermeister von Amsterdam zu der Erkenntnis, dass nur die Sicherstellung einer ausreichenden Höhe der Deiche zur Verhinderung von Überschwemmungen führen würde. Zu diesem Zweck war die präzise Kenntnis darüber erforderlich, wo die Deichkronen relativ zur normalen Hochwassermarke lagen. Zu diesem Zweck wurde von September 1683 bis September 1684 ein ganzes Jahr lang täglich die Tide gemessen und eine mittlere Hochwassermarke berechnet. Seit dieser Zeit wurden Messungen des Meeresspiegels an dieser Stelle durchgeführt, und zwar fast kontinuierlich von 1700 bis 1925. Diese Aufzeichnung trägt die Bezeichnung „Normaal Amsterdams Peil” (NAP) oder Amsterdam Ordinance Datum Meeresspiegel-Aufzeichnung. Diese Aufzeichnung sieht folgendermaßen aus, nach Korrektur  bzgl. PGR (oder GIA), normalisiert und im Vergleich geplottet zu dem Mittel der Abbildung 2:

Abbildung 7 zeigt 300 Jahre gemessene Daten des Meeresspiegels.

Der Meeresspiegel-Anstieg während der letzten 200 Jahre von 1807 bis 2007 beträgt nicht mehr als 27 cm. In den 125 Jahren davor gab es überhaupt keinen Anstieg.

Was also wird in Zukunft geschehen? Falls sich die von den Anhängern des solaren Klimatreibers vorhergesagte Abkühlung einstellt, wird es während der nächsten 30 Jahre eine Verzögerung des Meeresspiegel-Anstiegs ähnlich der Periode von 1950 bis 1980 geben. Ein großer Teil der während der Kleinen Eiszeit angesammelten Eismassen ist bereits geschmolzen, so dass nur die großen Eisreservoire in Grönland und der Antarktis zum Anstieg des Meeresspiegels beitragen können. Der größte Teil des Anstiegs durch Abpumpen von Grundwasser und Drainage von Seen auf dem Festland hat eine Grenze erreicht. Die thermische Ausdehnung durch Erwärmung der Ozeane hat wegen der verstärkten Verdunstung in tropischen Meeresgebieten ein Limit erreicht. Betrachtet man all dies, kann der Anstieg des Meeresspiegels im restlichen 21. Jahrhundert nicht denjenigen des vorigen Jahrhunderts übersteigen, also 1,7 mm/Jahr; vermutlich ist er geringer. Dies zeigt, dass der Meeresspiegel bis zum Jahr 2100 kaum 15 cm betragen dürfte.

In Gebieten mit einer Erholung der Vergletscherung wird man überhaupt keinen Anstieg des Meeresspiegels bemerken. In Gebieten mit Absinken sollte dieses Absinken Gegenstand von Belang sein. In den wenigen Gebieten, wo nichts dergleichen geschieht, werden normale Deichhöhen und –wartung sowie normale Infrastrukturmaßnahmen ausreichen. Koralleninseln können mit 1 cm/Jahr wachsen, so dass sie kein Problem mit einem Meeresspiegel-Anstieg von einem Sechstel dieses Wertes haben dürften. Wenn die Vergangenheit ein Wegweiser für die Zukunft ist, gibt es vom Anstieg des Meeresspiegels wenig zu befürchten.

Mehr: http://notrickszone.com/2014/04/18/long-term-tide-gauge-data-show-21st-century-sea-level-rise-will-be-approximately-as-much-as-the-20th-century/#sthash.O24Zg4po.dpuf

Link: http://notrickszone.com/2014/04/18/long-term-tide-gauge-data-show-21st-century-sea-level-rise-will-be-approximately-as-much-as-the-20th-century/

Blog-Betreiber Pierre Gosselin kommentiert diesen Sachverhalt so: „Langzeitliche Tidenmessungen: Meeresspiegel wird im 21. JHD etwa so stark steigen wie im 20. JHD“. Dies wählt er auch als Überschrift zu diesem Beitrag auf seinem Blog.

Übersetzt von Chris Frey EIKE




Strahlenschutzkommission will Sicherheitszonen um KKW erweitern – und fördert so nur die Strahlenangst der Deutschen

Was sagt die Strahlenschutzkommission?

Es wurden Rechnungen mit Freisetzungen von 3,1*1017Bq Jod-131 und 2,9*1016Bq Cs-137 gemacht, das sind etwa doppelt so große Werte als wie sie von Japan berichtet worden sind. Als berechnete Häufigkeit des Ereignisses wird mit 2,1*10-7 pro Jahr angegeben, das bedeutet, daß einmal in 5 Millionen Jahren mit dieser Freisetzung zu rechnen ist. Die Rechnungen wurden für die Wetterverhältnisse der Kernkraftwerke Unterweser, Grohnde und Philippsburg durchgeführt. Das Kriterium zur Evakuierung war 100mSv innerhalb von 7 Tagen bei angenommenem ungeschütztem Daueraufenthalt im Freien. Es wurde berechnet, bis zu welcher Entfernung vom KKW mit schwerwiegenden deterministischen Effekten zu rechnen ist, wenn bestimmte Schwellendosen überschritten werden. Bei den Schwellendosen handelt es sich um Werte, die bei 99% der exponierten Personen noch KEINE Effekte hervorrufen.

Die SSK kommt zu der Empfehlung, die Planungsgebiete rund um ein KKW für den Fall der schlimmsten Katastrophe (GAU, INES 7) zu erweitern, und zwar

·       die „Zentralzone“ mit den vorgesehenen Maßnahmen „Evakuierung“, „Einnahme von Jodtabletten“ und „Aufenthalt in Gebäuden“ von 2km auf ca. 5km. Die Maßnahmen sind vor einer absehbaren Freisetzung von Nukliden durchzuführen, eine Evakuierung soll nach 6 Stunden abgeschlossen sein.

·       die „Mittelzone“ soll auf 20km Entfernung ausgedehnt werden. Die Maßnahmen sind identisch mit denen der Zentralzone, jedoch bleibt zur Durchführung der Evakuierung 24 Stunden Zeit.

·       Die „Außenzone“ reicht bis 100km Entfernung. Dort sollen die Maßnahmen „Aufenthalt in Gebäuden“, Verteilung von Jodtabletten und Warnung vor dem Verzehr frischer Lebensmittel vorbereitet werden.

Was ist dazu zu sagen?

·       Die Freisetzungen in Japan stammen von den Kernschmelzen dreier Reaktoren, diese hatten zusammen eine elektrische Leistung von 2028MW. Die deutschen Vergleichsreaktoren haben jeder eine geringere Leistung um 1400WM. Obwohl also die deutschen Reaktoren im Vergleich zu denen in Japan kleiner sind, wurden höhere Freisetzungen als in Japan angenommen, es wurde von der SSK also ein schlimmeres Ereignis als in Japan angenommen. Ein Grund dazu wird nicht genannt.

·       Deutsche Reaktoren besitzen Filter, in denen eventuell austretende radioaktive Nuklide aufgefangen werden und abklingen können. Diese gab es in Fukushima nicht, nur deshalb gab es die Freisetzungen. Die hohen angenommen Freisetzungen kann es bei deutschen Reaktoren nur ohne Filter geben. Ist das möglich?

·       Im März 2011 konnte man aus den täglich veröffentlichten online-Berichten mit den Aufzeichnungen zur Ortsdosisleistung auf dem Kraftwerksgelände von Fukushima schließen, daß außerhalb des Kraftwerksgeländes kein Mensch einen gesundheitlichen Schaden durch Strahlung erleiden wird. Diese Schlußfolgerung wurde ein Jahr später bei den Vorträgen der Fachtagung [2] bestätigt.

·       UNSCEAR hat in seinem kürzlich veröffentlichten Bericht [3] vom 2.4.2014 festgestellt, daß auch in Zukunft keine gesundheitlichen Schäden durch Strahlen für Menschen (Krebs) in Japan zu erwarten sind.

·       Der Fukushima-Unfall wurde als INES 7-Ereignis eingestuft. Zur Definition von INES 7 heißt es: „Auswirkungen außerhalb der Anlage: Schwerste Freisetzung, Auswirkungen auf Gesundheit und Umwelt in einem weiten Umfeld, Gesundheitliche Spätschäden über große Gebiete, ggf. in mehr als einem Land.“ Folglich stehen die Einstufung als INES 7 und der Bericht von UNSCEAR im Widerspruch zueinander.
Dazu ist zu bemerken, daß die Reaktoren in Fukushima etliche Mängel hatten: zu kleines Containment, unzureichender Tsunamischutz, keine Wasserstoffrekombinatoren, keine Filterstrecken, und dennoch ist KEIN Mensch zu Schaden gekommen. Also trotz der Mängel kein Schaden, das kann als grandioser Erfolg der weltweit verfolgten Sicherheitsphilosophie im Reaktorbau angesehen werden.

Worin liegt die Gefährlichkeit bei der Kernenergie?

Bei der friedlichen Nutzung der Kernkraft gibt es eine Gefahr, die bei Nutzung der fossilen Energien nicht vorhanden ist, das ist die Strahlung. Diese Gefahr konnte man im Anfang (1953, „Atome für den Frieden“) noch nicht richtig einschätzen, weil die Wirkung der hochenergetischen Strahlung auf Lebewesen nur wenig erforscht war. Man hatte daher aus Vorsicht damals recht niedrige Grenzwerte für die erlaubte Exposition von Menschen angesetzt [4]. Diese Werte flossen in die Gesetzgebung ein und wurden in späteren Jahren immer nur herab gesetzt. Die Vorsicht hatte letztendlich zur Folge, dass es von 1945 bis 2007 weltweit nur ca. 147 Todesopfer durch Strahlung gegeben hat, dabei sind die Opfer des Tschernobyl-Unfalles und Unfälle durch Fehler im medizinischen Bereich eingeschlossen [3]. Es gibt Erläuterungen zu diesen Unfällen in [5]. Man kann festhalten:

Die friedliche Nutzung der Kernenergie war von Anfang an eine einzigartige Erfolgsgeschichte mit einer Sicherheit, wie sie in keinem anderen technischen Bereich erreicht worden ist.

Heute ist die Gesetzgebung zum Schutze vor Strahlung durch Radioaktivität sehr streng. Sie verlangt, jede noch so kleine Strahlendosis zu vermeiden. Der Grund für diese Vorgabe ist die Annahme, dass jede noch so kleine Strahlendosis unabhängig von der Zeit der Einwirkung schädlich sei (Konjunktiv!!!). Das ist die LNT-Hypothese (linear-no-threshold). Man weiß, dass diese Hypothese nicht die Realität beschreibt. Im Niedrigdosisbereich ist genau das Gegenteil der Fall, dort ist Strahlung der Gesundheit förderlich. Es gibt sehr viel Literatur darüber [6]. In der Fachzeitschrift „StrahlenschutzPRAXIS“ wird zuweilen über diese Dinge berichtet. Allerdings waren früher gesundheitsfördernde Effekte von Niedrigdosisstrahlung oft schwach, Zweifel kamen auf. Neuerdings gibt es mit dem Co-60-Ereignis von Taiwan [7] ein sehr deutliches Zeichen auf die Nützlichkeit von Strahlung an einem großen Kollektiv von Menschen. Es ist ein unfreiwilliger Großversuch mit Ganzkörper-Langzeitbestrahlung von Menschen mit harter gamma-Strahlung, wo die Krebsrate fast auf NULL sank. Daraus sollten Konsequenzen gezogen werden: Diese Effekte sollten von den internationalen und nationalen Strahlenschutzauthoritäten nicht mehr ignoriert, sondern in alle Überlegungen einbezogen werden.

Was nützt eine Evakuierung bei Unfällen?

Die Evakuierung in Japan hat Todesfälle zur Folge gehabt, das wird von der SSK berichtet: Entwurzelung der Evakuierten, Suff, Suizide sind die Folge. Es wurden an verschiedenen Stellen Zahlen um 1000 Opfer genannt, was plausibel erscheint. Ähnliches ist aus den weitreichenden Evakuierungen nach dem Tschernobyl-Unfall bekannt, die IAEA kritisierte 1991 die überzogenen Evakuierungsmaßnahmen und Lebensmittelrestriktionen. Allerdings hatte die ganze Welt nichts aus der IAEA-Kritik gelernt. Die Maßnahmen der Regierung in Japan sind noch weitgehender als diejenigen beim Tschernobyl-Unfall.

Durch die beim Strahlenschutz ignorierte nützliche Wirkung von Niedrigdosisstrahlung kommt ein weiterer Gesichtspunkt hinzu, denn durch die Evakuierungen hat man den Menschen eine nützliche Strahlendosis vorenthalten. Schon beim Tschernobyl-Unfall wurde eine um 15% bis 30% niedrigere Krebsrate unter den „emergency workers“ und 5 bis 17% weniger Krebs bei den Bewohnern der Gegend von Bryansk festgestellt [8], so daß bei NICHT-Evakuierung einige tausend bis vielleicht sogar 10 000 Menschen vor Krebs bewahrt worden wären. Ein ähnliches ist in Japan zu sagen, bei NICHT-Evakuierung wären viele Menschen vor Krebs bewahrt worden.

Was ist zu tun?

Die weltweit seit einem halben Jahrhundert gültige Strahlenschutzphilosophie sollte geändert werden. Das ist in der Fachwelt bekannt, aber es wird offenbar nicht darüber geredet. So fanden die Leser der Fachzeitschrift „StrahlenschutzPRAXIS“ dort 2006 in einem Bericht von Prof. Becker die Schlußfolgerung:

Aus diesen und Gründen wissenschaftlicher Korrektheit und intellektueller Redlichkeit ist ein baldiger Paradigmenwechsel im Strahlenschutz erforderlich.“

Prof. Becker erhielt für einen Aufsatz mit ähnlichem Inhalt in Nuclear Europe Worldscan 1998 in London den Preis der European Nuclear Society für die beste Publikation des Jahres 1998. Die Erkenntnisse vom Co-60-Ereignis von Taiwan waren darin noch NICHT eingeflossen, ein überaus wichtiger Grund für erforderliche Änderungen also noch nicht bekannt.

Die SSK hat die Erkenntnisse zu den nützlichen Effekten von Strahlung im Niedrigdosisbereich nicht beachtet. Evakuierungen könnten im engen Nahbereich eines Kernkraftwerkes nützlich sein, nicht jedoch im Fernbereich.

Alle Erkenntnisse, Meinungen, Gesetze werden von Menschen gemacht, und Menschen können irren. Die Geschichte hat dazu Beispiele parat. Die Strahlenschutz-Fachwelt sollte den Mut besitzen, zum Wohle der Menschen die Politik auf Irrtümer aufmerksam zu machen und auf Korrektur zu drängen.

Literatur

[1] http://www.ssk.de/SharedDocs/Beratungsergebnisse_PDF/2014/Planungsgebiete.pdf?__blob=publicationFile

[2] Fachsymposium „Strahlenschutz – Ein Jahr nach Fukushima“ des Deutsch-Schweizerischen Fachverbandes für Strahlenschutz e.V. (FS), 8. und 9.März 2012 in Mainz

[3] http://www.unscear.org/

[4] Paul Laufs, „Reaktorsicherheit für Leistungskernkraftwerke“, Springer-Vieweg 2013, Abschnitt 3.2.2. „Gefahrenpotenzial und Reaktorsicherheit“

[5] http://www.kernfragen.de/kernfragen/documentpool/strahlenexpo_03_2014.pdf

[6] http://www.energie-fakten.de/pdf/hormesis.pdf; Berichte in www.buerger-fuer-technik.de unter 5. Radioaktivität, Strahlung; ein exzellentes Buch ist kostenlos unter http://tinyurl.com/nlsm4wm zu finden

[7] http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2477708/ , oder: http://www.eike-klima-energie.eu/climategate-anzeige/die-dosis-macht-das-gift-auch-bei-strahlung/

[8] Z. Jaworowski in http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2889503/

[9] StrahlenschutzPRAXIS 2/2006, Seite 44 bis 48; auch in www.buerger-fuer-technik.de mit der Überschrift „LNT or not LNT, that ist he question“