1

Wärmste Monate seit Aufzeichnung? Der größte wissenschaftliche Betrug aller Zeiten!

Betrachten wir zuerst die Satellitenaufzeichnungen (die bis zum Jahr 1975 zurück reichen). Dabei finden wir den Juli als mittleren Monat. Man beachte, dass diese Satellitenmessungen weltweit gelten. Sie stammen aus der unteren Troposphäre, wobei jedes gleiche Luftvolumen gleich gezählt wurde. Joe D’Aleo von der Website ICECAP übermittelte mir freundlicherweise die folgende Tabelle, die zusammengestellt wurde mit den UAH-Satellitendaten. Gelistet sind die Juli-Monate der letzten 20 Jahre vom wärmsten bis zum kältesten Monat; der Juli 2015 rangiert an neunter von zwanzig Stellen, blieb also ziemlich weit hinter dem wärmsten Juli zurück, der im Jahre 1998 aufgetreten war:

Als nächstes schauen wir auf die Daten des US-Historical Climate Network (HCN), die bis zum Jahre 1895 zurückreichen und nur die USA abdecken. Dabei zeigt sich der Juli 2015 ebenfalls als etwa in der Mitte der Rangliste liegend. Diese Daten stammen von einem Netzwerk von Thermometern nur in den USA. Tony Heller von der Website Real Climate Science [eine klimarealistische Website! Anm. d. Übers.] hat die Daten in der folgenden Graphik zusammengestellt, wobei 2015 an 51.Stelle von 120 Jahren liegt:

So weit, so gut – wollen wir es jetzt mal wagen, mit der NOAA aufzunehmen? Deren Veröffentlichung der Temperaturen im Juli 2015 steht hier. Diese Daten gelten weltweit, ebenfalls von einem Netzwerk von Thermometern, deren räumliche Dichte jedoch von einem Gebiet zu einem anderen erheblich variiert. Diese Daten sind „adjustiert“ worden durch so genannte „Homogenisierungs“-Algorithmen, welche im Detail offenzulegen die zuständigen Bürokraten ablehnen. Der Schlüsselsatz daraus:

Der Juli 2015 war der wärmste Monat auf dem Globus jemals. Die globalen Ozeane zeigten im Juli Rekordwärme, ebenso wie der Zeitraum von Januar bis Juli 2015.

Es ist der wärmste Monat jemals, HURRA! Und man erinnere sich, die gleichen Burschen [guys], die zuvor lauthals verkündet hatten, dass Mai 2015 und März 2015 jeweils die wärmsten März- und Mai-Monate jemals waren.

Da fragt man sich: wie ist es möglich, dass diese unterschiedlichen Datensätze nicht nur irgendwie geringe Unterschied zeigen, sondern DRASTISCH unterschiedliche Ergebnisse?

Die zunehmende Divergenz zwischen den Satellitenaufzeichnungen von UAH/RSS einerseits und die NOAA/GISS/HadCRUT-Thermometeraufzeichnungen andererseits war Gegenstand eines langen Kommentars des Physikers Robert Brown von der Duke University, den er im Juni bei WUWT gepostet hatte. Dieser Kommentar ist es wert, ausführlicher zitiert zu werden:

Die beiden Datensätze sollten nicht divergieren, Punkt! Es sei denn, alles, was wir über die thermische Dynamik der Atmosphäre wissen, ist falsch … Die wachsende Differenz ist ein starker Beweis des Bias‘ bei der Berechnung der Thermometerwerte … Jede neue Version von HadCRUT und GISS hatte den Gesamteffekt, dass die Vergangenheit kühler und die Gegenwart wärmer gemacht worden ist. Dies ist genauso unwahrscheinlich wie das Werfen einer Münze zehn oder zwölf mal und jedes Mal ,Zahl‘ oben liegt. … Falls die Divergenz der beiden Datensätze noch weiter wächst, möchte ich vorhersagen, dass das gegenwärtige Geraune zwischen den Anomalien zu einem absoluten Aufschrei anwachsen wird. Dieser wird nicht verstummen, solange die Anomalie-Anomalie nicht gelöst ist.

Kurz gesagt, zum jetzigen Zeitpunkt ist diese Divergenz einfach nicht plausibel. Das einzige, wo ich nicht ganz mit Brown übereinstimme ist seine zu verharmlosende Bezeichnung ,Bias‘ zur Beschreibung dessen, was mit den NOAA/GISS/HadCRUT-Datensätzen vor sich geht. Tut mir leid, aber man kann es nicht anders bezeichnen als absichtliche Verfälschung, um einen künstlichen Erwärmungstrend zu erzeugen. Was die Divergenz wirklich bewirkt ist, jedem, der es wagt, eine Untersuchung des gesamten Trends der von NOAA/NASA gemeldeten zunehmenden Temperaturen zu verlangen klarzumachen, dass diese Erwärmungstrends ausschließlich durch deren „Adjustierungen“ zustande gekommen waren, die zu erklären sie sich standhaft und resolut weigern.

Wie also wird hierüber in den Nachrichtenmedien berichtet? CNN:Juli heißester Monat jemals…“ ohne jede Erwähnung von Satellitenaufzeichnungen oder einer Divergenz. The Weather Network: Die Erde hat gerade den heißesten ALLER Monate jemals durchlaufen“ ohne jede Erwähnung von Satellitenaufzeichnungen oder einer Divergenz. Science Daily: „Juli 2015 war der wärmste Monat jemals weltweit“ ohne jede Erwähnung von Satellitenaufzeichnungen oder einer Divergenz. USA Today: „Juli war der heißeste Monat auf der Erde jemals“ ohne jede Erwähnung von Satellitenaufzeichnungen oder einer Divergenz. Slate: Juli war der wärmste jemals registrierte Monat“ ohne jede Erwähnung von Satellitenaufzeichnungen oder einer Divergenz. LA Times: „NOAA: Juli war der wärmste Monat auf der Erde seit 136 Jahren“ ohne jede Erwähnung von Satellitenaufzeichnungen oder einer Divergenz. UN Climate Change Newsroom (OK, wir wissen, dass man diesen Burschen nicht trauen kann): Juli 2015 wärmster Monat jemals“ Time: „Juli war der wärmste Monat jemals“ ohne jede Erwähnung von Satellitenaufzeichnungen oder einer Divergenz. CBS News: „Juli war der heißeste Monat der Erde seit Beginn von Aufzeichnungen“ ohne jede Erwähnung von Satellitenaufzeichnungen oder einer Divergenz. Fortune: „NOAA: Juli war der heißeste Monat im heißesten Jahr jemals“ ohne jede Erwähnung von Satellitenaufzeichnungen oder einer Divergenz. BBC: „Juli war der heißeste Monat jemals“ ohne jede Erwähnung von Satellitenaufzeichnungen oder einer Divergenz. ABC (Australia): „Globale Erwärmung: die Welt schwitzt unter dem alle Rekorde brechenden heißen Juli im bislang heißesten Jahr der Erde“ ohne jede Erwähnung von Satellitenaufzeichnungen oder einer Divergenz. Washington Post: „Juli war der heißeste Monat im heißesten Jahr auf der Erde jemals“ ohne jede Erwähnung von Satellitenaufzeichnungen oder einer Divergenz. AP: „Man fühlt die Hitze: Der Juli war auf der Erde der heißeste Monat jemals“ ohne jede Erwähnung von Satellitenaufzeichnungen oder einer Divergenz. Reuters: „US-Wissenschaftler: Juli war weltweit der heißeste Monat jemals“ ohne jede Erwähnung von Satellitenaufzeichnungen oder einer Divergenz. The Independent (UK): „Klimawandel: Juli war der heißeste Monat auf der Erde jemals – während 2015 das wärmste Jahr jemals werden könnte, sagen Wissenschaftler“ ohne jede Erwähnung von Satellitenaufzeichnungen oder einer Divergenz. Bloomberg News: „Juli war der wärmste Monat weltweit seit Beginn von Aufzeichnungen im Jahre 1880“ ohne jede Erwähnung von Satellitenaufzeichnungen oder einer Divergenz.

[Sehen die diesbezüglichen Schlagzeilen in „Süddeutscher & Co.“ nicht genauso aus? Anm. d. Übers.]

Also wirklich, man kann diese Liste buchstäblich so lange fortsetzen, wie man will. Für wie dumm halten uns diese Leute eigentlich? [Tja – auch in D? Anm. d. Übers.].

Brown prophezeite, dass das gegenwärtige „Gemurmel“ über die „Anomalie zwischen den Anomalien“ demnächst zu einem Aufschrei werden wird. Das sollte es mit Sicherheit auch. Aber nicht vergessen: Alle Klimareporter bei all jenen Mainstream-Medien wissen ganz genau um die Satellitenaufzeichnungen und um die Divergenz der Satellitenmessungen einerseits und den „adjustierten“ NOAA/NASA-Aufzeichnungen andererseits. Und jeder Einzelne unterdrückt absichtlich jedwede Erwähnung der Satellitenaufzeichnungen oder der Divergenz. Es ist bemerkenswert, aber genau so funktioniert Gruppendenken. Jeder, der die tatsächlichen Fakten erwähnt, ist Schikanen ausgesetzt und wird aus dem Beruf gedrängt. Siehe auch bei Larry Tribe. Die gesamte Affäre ist eine Schande für den Beruf des Journalisten.

[Gibt es keine Möglichkeit, dies auch den Redakteuren der „Süddeutschen“ mal um die Ohren zu schlagen? Oder dem ZDF? Anm. d. Übers.]

—————————

Die Teile 1 bis 6 dieser Reihe stehen hier.

Link: http://manhattancontrarian.com/blog?tag=Scientific+Fraud

Übersetzt von Chris Frey EIKE




Entsorgung von deutschem „Atommüll“ in russischen Schnellen Brutreaktoren

„Es sollte die Chance genutzt werden, den deutschen „Atommüll“ in Rußland aufzuarbeiten und das dort gewonnene spaltbare Material in den Brütern BN-800 und Folgeanlagen einzusetzen statt die Endlagersuche in Deutschland weiter zu führen. Dafür sind entsprechende Verträge mit Rußland abzuschließen.

Grundlagen für den Betrieb von Kernreaktoren

Das natürliche Uran besteht zu 99,3 % aus dem nicht spaltbaren Isotop  238U  und nur zu 0,7 % aus dem spaltbaren Isotop 235U. Für den Betrieb der Leichtwasserreaktoren muss es vor Herstellung der Brennelemente auf etwa 3 bis 4 % 235U angereichert werden.

Das Isotop 235U wird mit sog. thermischen Neutronen gespalten, wobei 2-3 weitere Neutronen  gebildet werden. Für den Betrieb in Leichtwasserreaktoren müssen diese schnellen Neutronen in thermische Neutronen abgebremst werden. Das erfolgt mit sog Moderatoren, wie z.B. vollentsalztem Wasser.

Beim Betrieb eines Kernreaktors wird ein Teil des vorhandenen 238U durch Neutroneneinfang in 239U umgewandelt. Dieses geht von selbst durch zwei aufeinander folgende β−-Zerfälle in das spaltbare 239Pu über, das teilweise parallel zum 235U noch im Reaktor unter Energiegewinnung wieder gespalten wird.

        

Halbwertszeiten        23,5 min     2,355 d     24.000 a

Schneller Brüter (1)“ Siehe Bild rechts Quelle hier

Ein Schneller Brüter ist ein Reaktor, der mit schnellen Neutronen arbeitet und mehr spaltbares Material (Plutonium) erzeugt als bei der Spaltung von 235U. verbraucht wurde.  So kann das eigentlich nicht spaltbare  238U in spaltbares Material umgewandelt werden. Desgleichen können nicht spaltbare Transurane durch Neutroneneinfang  in spaltbare Transurane umgewandelt werden. Damit bleiben als „Atommüll“ nur noch die Spaltprodukte übrig.
Von den entstehenden Spaltprodukten sind 80 % nach einigen Jahren unschädlich, der Rest nach 300 Jahren und wäre damit auf dem Aktivitätsniveau von Granit. Damit wäre das Argument : „Endlager für 300.000 Jahre“ vom Tisch. Niemand kann über so lange Zeit für die Sicherheit eines Endlagers garantieren. Siehe dazu der Flyer „Wohin mit dem Atommüll“ bei http://nuklearia.de/atommuell (3).

Aufbau eines Schnellen Brüters“ (1)

Der Schnelle Reaktor besteht aus einer Spaltzone und einem Brutmantel.

Schnelle Neutronen lösen neue Kernspaltungen mit wesentlich geringerer Wahrscheinlichkeit aus als thermische Neutronen. Deshalb muss im Vergleich zu Leichtwasserreaktoren die Spaltstoffkonzentration in der Spaltzone erhöht werden. Der Spaltstoff ist Mischoxid aus 15 bis 20 % Plutoniumoxid und 80 bis 85 % Uranoxid. Als Kühlmittel –verwenden die meisten Brutreaktoren flüssiges Natrium.

Schneller Brutreaktor in Becken-Bauweise (links) und in Schleifen-Bauweise (rechts)

Quelle: Siehe Bildnachweis

Der Brutmantel ist um die Spaltzone herum angeordnet und umgibt diese vollständig. Er ist mit abgereichertem Uranoxid aus der Brennelementherstellung, geschätzter Vorrat 85.000 t , Reichweite 1200 Jahre (Vortrag Rainer Klute) als Brutstoff gefüllt. Abgereichertes Uran ist der beim Uran-Anreicherungsprozess zwangsläufig anfallende Reststoff. (mehr als 99,7% 238U).

Das „Brüten“ erfordert, daß die Spaltung eines Atomkerns durchschnittlich mehr als zwei Neutronen freisetzt, denn ein Neutron wird zum Auslösen der nächsten Spaltung benötigt und ein weiteres Neutron  trägt dazu bei, ein nicht spaltbares Atom(238U)  in ein spaltbares (239Pu) umzuwandeln.

Die bei der Spaltung eines 235U -Kerns entstehenden Spaltprodukte tragen mit 87 % den größten Anteil vom Energiegewinn der Reaktion, als kinetische Energie. Sie werden im umgebenden Brennstoffmaterial abgebremst und erhitzen dieses. Der primäre Natriumkühlkreis nimmt die Wärme auf und gibt sie über einen Wärmetauscher an einen Sekundärnatriumkühlkreis weiter. Dieser Sekundärkreislauf produziert in einem Dampferzeuger Frischdampf, der – wie in einem konventionellen, kohle- oder ölbefeuerten Kraftwerk – die Turbine antreibt.

Der Wärmeträger Natrium schmilzt bei 98 °C und siedet bei 883 °C. Wegen dieses hohen Siedepunkts ist im Natriumkreislauf ein Druck von nur etwa 10 bar notwendig. Zwischen dem Natriumkreislauf, der die Brennelemente kühlt (Primärkreislauf) und dem Wasser-Dampf-Kreislauf ist als Sekundärkreislauf noch ein 2. Natriumkreislauf installiert. Das ist aus Sicherheitsgründen notwendig, damit im Fall einer Dampferzeuger-Leckage nur nichtradioaktives Natrium mit dem Wasser reagiert.“

Technischer Betrieb von Brutreaktoren

Derzeit werden weltweit mit dem BN-600 (600MW) und seit 2014 mit dem BN-800 im Kernkraftwerk Belojarsk zwei stromerzeugende Brutreaktoren in Russland betrieben. In der Volksrepublik China und in Indien sind Anlagen im Bau.

Der erste deutsche natriumgekühlte Versuchsreaktor KNK-I (Kompakte Natriumgekühlte Kernreaktoranlage Karlsruhe) wurde in den Jahren 1971 bis 1974 im Kernforschungszentrum Karlsruhe gebaut. Die Anlage wurde 1977 zu einem Schnellen Brüter mit der Bezeichnung KNK-II umgerüstet und war bis 1991 in Betrieb.

Der Schnelle Brüter Phenix in Frankreich war in kommerziellen Betrieb zwischen 1973 und 2010 mit einer elektrischen Leistung von 250MW.

Am Niederrhein bei Kalkar wurde ab 1973 ein industrielles deutsch-belgisch-niederländisches Brutreaktor-Prototypkraftwerk mit der Bezeichnung SNR-300 gebaut. Nach zahlreichen Protesten und dem Reaktorunfall bei Tschernobyl 1986 kam es nie zur Inbetriebnahme oder gar Stromerzeugung, die für 1987 vorgesehen war. Im wesentlichen verantwortlich für die Fehlentscheidung war der damalige NRW-Ministerpräsident Johannes Rau.

In Indien soll 2015 der PFBR in Betrieb genommen werden, mit einer Leistung von 500MW, welcher Thorium statt abgereichertes Uran im Brutmantel enthält. Indien hat die größten Thoriumvorräte weltweit.“

Weitere Schnelle Reaktoren in der Entwicklung

Schnelle Reaktoren wie der IFR (Integral Fast Reactor)  oder PRISM, die Atommüll als Brennstoff  nutzen können, sind fertig entwickelt und warten nur auf ein politisches Signal. GE-HitachiNuclear Energy möchte 2 PRISM-Reaktoren in Großbritannien bauen und damit die Plutoniumvorräte des Landes entsorgen. (2)

Der IFR war in den 1980er und frühen 90er Jahren in den USA fast fertig entwickelt, nachdem die Brütertechnik 30 Jahre lang an der Versuchsanlage EBR-II mit großem Erfolg getestet wurde. 1994 mußte die Forschung unterbrochen werden, da die Clinton-Administration die Fördermittel einstellte. Inzwischen ist das Projekt von mehreren Firmen und dem Argonne Laboratory wieder aufgegriffen worden, um den Reaktor unter dem Namen PRISM (Power Reactor Innovative Small Module)zur Marktreife zu

entwickeln (3)

Flüssigsalzreaktoren: Trotz einiger Vorteile von Flüssigsalzreaktoren wurden bis heute weltweit nur zwei kleinere Forschungsreaktoren gebaut. Für die kommerzielle Energiegewinnung im großen Stil werden sie – neben fünf anderen Konzepten – im Rahmen des Generation IV International Forum für zukünftige Kernkraftwerke untersucht. Ein privates deutsches Forschungsinstitut (IFK Institut für Festkörperphysik Berlin) bringt seit 2011 einen Dual Fluid Reaktor (DFR) mit Flüssigkern (bevorzugt Chloridsalze, aber auch flüssiges Metall) und Bleikühlung sowie schnellem Neutronenspektrum und kombinierter Online-Hochtemperatur-wiederaufarbeitung in die Diskussion und bewirbt ihn mit herausragenden Sicherheitseigenschaften, extrem niedrigen Kosten sowie der Fähigkeit, nicht direkt spaltbare Transurane in kurzen Zeiträumen zu vernichten. Es wird behauptet, schnelle Reaktoren wie der DFR könnten innerhalb von 300 Jahren sogar die natürliche Radioaktivität vermindern.[ Das exakte Zitat lautet "Schon nach 100 Jahren sind 90 Prozent der Reststoffe harmlos, und nach 300 Jahren ist die restliche Aktivität niedriger als die des geförderten Uranerzes und gilt damit als abgeklungen. Kernreaktoren reduzieren damit sogar die natürliche Radioaktivität". Für das DFR-Konzept wurde 2012 ein Patentantrag beim Deutschen Patentamt eingereicht. Stand März 2015: Patenterteilung steht noch aus.

Das IFK-Team hatte sich 2013 um den Greentec Award, Europas größten Umweltwettbewerb beworben. Daraus wurde nichts , trotz des klar gewonnenen online-Votings.. Offizielle Begründung: Das Projekt propagiere die Abkehr von einem zentralen Endlager. Damit schloß die Jury den Beitrag vom Wettbewerb aus. (4,5,6)

In der Republik Korea befindet sich der Prototyp eines natriumgekühlten Schnellen Reaktors (SFR) mit 150 MWe Leistung in der Entwicklung. Der Entwickler plant, die Genehmigung für den Bau dieser Anlage bis zum Jahr 2020 zu erhalten. (7)

In Belgien wird zurzeit ein Forschungsreaktor der sogenannte MYRRHA-Reaktor, eine „subkritische“ Transmutationsanlage, konzipiert. Dabei wird ein unterkritischer, durch Blei-Wismut passiv gekühlter Reaktorkern durch einen Protonenstrahl von 600 MeV angetrieben. Der Reaktor wird Uran-Plutonium-Mischoxid-Brennstäbe enthalten. Zweck dieser Anlage wird es sein, neben anderen Forschungsgebieten die Technologie der Transmutation im Protonenstrahl-getriebenen Reaktor im Piloteinsatz zu testen. In der Anlage sollen die langlebigen Produkte wie Plutonium und weitere Transurane wie Neptunium, Americium und Curium in kürzerlebige Produkte umgewandelt werden und damit der Betrieb eines Endlagers auf mehrere 100 Jahre verkürzt werden.  Myrrha soll seine volle Leistung etwa 2025 erreichen.                                                                       Im Februar 2012 wurde in diesem Zusammenhang erstmals eine Anlage, die einen Teilchenstrahl mit einem bleigekühlten Reaktorkern koppelt, in Betrieb genommen. Mit der „GUINEVERE” genannten Anlage sollen Erfahrungen für MYRRHA gesammelt werden. (8,9,10.11). 

                                                                                                                                        

Näheres zu den Brutreaktoren in Rußland.

Mit 35 Jahren Betriebszeit und einer Verfügbarkeit von über 74% ist der BN-600 in Belojarsk (in der Ural-Region) neben dem französischen Reaktor Phenix einer der erfolgreichsten Brutreaktoren der Welt, die ans Netz angeschlossen wurden. Seit 2012 wird der BN-600 zur Verbrennung von Plutonium aus den russischen Kernwaffen verwendet. (12)

Der Brutreaktor BN-800 ging 2014/2015 in Betrieb. (13) Der BN-800-Reaktor ist ein Natrium-gekühlter Schneller Reaktor  gefüllt mit Oxiden von Uran und Plutonium. Natrium als Kühlmittel hat den Vorteil, daß die schnellen Neutronen nicht abgebremst werden und daß das aktivierte Na-24 nur eine Halbwertszeit von 14,96 h hat. Die schnellen Reaktoren überführen das U-238 und die nicht spaltbaren Transurane durch Neutroneneinfang in spaltbare Transurane und spalten sie. Der BN-800 ist der momentan größte Brutreaktor der Welt. Das Besondere des BN-800: Das, was bei Leichtwasserreaktoren in irreführender Weise als „Atommüll“ bezeichnet wird, ist für den BN-800 Brennstoff. Schnelle Brüter können den weltweit angefallenen sog. „Atommüll“ aus den konventionellen Druckwasserreaktoren der letzten 60 Jahre vollständig verwerten und in wertvolle Energie verwandeln. Als Kernbrennstoff können 97 % der abgebrannten Brennelemente eingesetzt werden, natürlich muß dazu vorher eine Wiederaufbereitung durchgeführt werden, um die Spaltprodukte abzutrennen. Und es kann das abgereicherte Uran aus der Urananreicherungsanlage im Brutmantel des BN-800 eingesetzt werden. Der BN-800 kann Waffen-Plutonium , Reaktorplutonium und alle Transurane verarbeiten. (14,15,16) Mit dem BN-800 sollen Betriebserfahrungen und technologische Lösungen für den BN-1200gewonnen werden.

Rußland plant bis Mitte 2020 mit dem größeren Reaktor BN-1200 in Betrieb zu gehen, der zu den Generation IV-Reaktoren gerechnet wird.  Somit kann das Natururan effizienter als in herkömmlichen Reaktoren ausgenutzt werden  (17).

Rußland entwickelt auch einen anderen schnellen Reaktor, der mit geschmolzenem Blei gekühlt wird. Bleikühlung ist chemisch inert gegenüber Wasser und Luft. Es wurde bisher noch nicht in Kraftwerken angewandt, aber die Reaktoren in Rußlands nuklearen U-Booten wurden lange mit einer Bleilegierung gekühlt. Rosatom plant einen 300 MW bleigekühlten Demonstrationsreaktor, der in Belojarsk um 2020 in Betrieb gehen könnte.(18)

Beistellung Einsatzstoffe für den BN-800                                                                       Neben dem abgereicherten Uran aus der Urananreicherung(19)  kommen weitere Nuklide aus der

Wiederaufbereitungsanlage, die nach dem sog. Purex-Verfahren arbeitet (Plutonium-Uranium-Recovery-Extraction) (20,21). In dieser Anlage werden die Brennstäbe in kleine Stücke zersägt und in siedende Salpetersäure gegeben. Es entstehen Uranylnitrat UO2(NO3)2, Plutonium(IV)-Nitrat Pu(NO3)4 , sowie die Nitrate der Spaltprodukte und sonstigen „Transurane“. Die Abtrennung der Spaltprodukte und „Transurane“ erfolgt mithilfe des Extraktionsmittels TBP (Tri-n-Butyl-Phosphat, verdünnt mit 70% Kerosin), welches in Anwesenheit von Salpetersäure die Nitrate des Plutoniums und Urans unter Komplexbildung löst. Die Nitrate der Spaltprodukte und „Transurane“ verbleiben dagegen in der wässerigen Phase. Mit Abtrennung der organischen Phase können so Uran und Plutonium gemeinsam abgetrennt werden. Durch mehrmaliges Hintereinander-schalten dieses Prozesses wird eine möglichst vollständige Trennung von Plutonium+Uran von den Spaltprodukten + „Transuranen“ erreicht.

Uranylnitrat UO2(NO3)2, Plutonium(IV)-Nitrat Pu(NO3)4 verbleiben in der organischen Phase, die Spaltprodukte und „Transurane“ bleiben als Nitrate in der in der wässrigen HNO3-Phase.

Wiederaufbereitungsanlagen werden betrieben in Frankreich (La Hague (22,23), Majak

Rußland (24), Sellafield(GB) , Rokkasho (Japan) u.a. (25).

Anschließend werden Uran und Plutonium von einander getrennt, wie auch die „Transurane“ von den Spaltprodukten. Uran und Plutonium sowie die „Transurane“ werden dann nach entsprechender Weiterverarbeitung für den Einsatz im BN-800 konditioniert.(26) . Die Spaltprodukte werden in Glas eingeschmolzen.

Literatur:

(1)https://de.wikipedia.org/wiki/Brutreaktor

(2) PRISM-Reaktor: http://www.nukeklaus.de/home/prism-das-modere-entsorgungszentrum

(3) http://nuklearia.de/atommuell

(4)Flüssigsalzreaktor: https://de.wikipedia.org/wiki/Flüssigsalzreaktor

(5) IFK :Dual Fluid Reaktor. Heutige Kernenergie ist umweltfreundlich. Der DFR noch viel mehr. http://dual-fluid-reaktor.de/technik/brennstoff

(6) Neue Osnabrücker Zeitung 27.6.2013: http://www.noz.de/deutschland-welt/politik/artikel/294/2806-atommuell-serie

(7) Schneller Reaktor in Südkorea atw, Vol.60 (Jan.2015) S.27

(8) http://myrrha.sckcen.be/

(9) https://wikipedia.org/wiki/rubbiatron

(10) http://www.heise.de/newsticker/meldung/Transmutation-soll-Atommuell-entschaerfen-1563790.html

(11) http://www.energie-fakten.de/ Partitionierung  Transmutation (PT) 2.3.2011

(12) https://de.wikipedia.org/wiki/BN-Reaktor

(13) http://www.eike-klima-energie.eu/news-cache/atommuell-verwertender-brutreaktor-bn-800-ging-in-betrieb/

(14) http://www.blu-news.org/2015/07/19/brutreaktor-bn-800-ist-kritisch/

(15) Russia bets ist energy future on waste-free fast breeder nuclear reactors http://www.extremetech.com/extreme/186023-russia-bets-its-energy-future on-waste..

(16) Fast Neutron reactors: http://www.okbm.nnov.ru/english/npp.

(17) Russia postpones BN-1200 in order to improve fuel design http://www.world-nuclear-new.org/NN-Russia-postpones-BN-1200in-order-to-improve..

(18). China, Russia and India are pushing forward with fast neutron nuclear reactors http://nextbigfuture.com/2013/03/china-russia-and-india-are-pushing.html

(19) Urenco: http://www.buerger-fuer-technik.de/Kurzinfo427.pdf Punkt 6

(20) http://daten.didaktikchemie.uni-bayreuth.de/umat/plutonium/plutonium.htm

(21) https://de.wikipedia.org/wiki/Plutonium

(22)Wiederaufbereitungsanlage La Hague https://de.wikipedia.org/wiki/Wiederaufbereitungsanlage_La_Hague

(23) www.buerger-fuer-technik.de/body_wiederaufbereitungsanlage____.html

Exkursion des VAA-IWT (VAA Interessenkreis für Wissenschaft und Technik) zur Wiederaufbereitungsanlage der COGEMA in La Hague.

(24) Wiederaufarbeitung in Majak Rußland  https://de.wikipedia.org/wiki/Kerntechnische_Anlage_Majak

(25) Wiederaufarbeitung: https://de.wikipedia.org/wiki/wiederaufarbeitung

(26) Status of Minor Actinide Fuel development –  5.Fabrication processes for fuels containing Minor Actinides http://www-pub.iaea.org/MTCD/publications/PDF/Pub1415_web.pdf

Bildnachweis

1. Schneller Brutreaktor in Becken-Bauweise (links) und in Schleifen-Bauweise (rechts)

Wikipedia: https://commons.wikimedia.org/wiki/File:LMFBR_schematics2.svg

Copyright: Attribution-ShareAlike 3.0 Unported; CC BY-SA 3.0

www.

  




PIK vergleicht eigene willkürliche Nullklimawandel-Szenarien mit realen Klimadaten und wird natürlich fündig! Extremregenfälle nehmen danach zu!

Die Sintflut wird in den mythologischen Erzählungen verschiedener antiker Kulturen als eine göttlich veranlasste Flutkatastrophe beschrieben, die die Vernichtung der Menschheit und der Landtiere zum Ziel hatte. Als Gründe für die Sintflut nennen die historischen Quellen zumeist Verfehlungen der Menschheit. Die Idee findet im Rahmen des aktuellen Klimakatastrophismus eine Rennaissance. Durch unser frevelhaftes Tun steige der Meeresspiegel und schlimme Regenfälle lassen die Flüsse über die Ufer treten und schwemmen alles Sündige hinfort.

Anmerkung der EIKE Redaktion

Nun wird es nur noch wenige Tage dauern bis u.a. das ZDF aufgeregt und warnend über neue Sintflutartige Regenschauermärchen – wissenschaftlich vom PIK prognostiziert- berichtet und sein Klimaaktivist Volker Angres, die Welt zur Buße auffordern wird, indem man sofort das Umverteilungsprogramm von Paris unterzeichnet 

Da passt es ganz gut, dass der Leiter des Potsdam-Instituts für Klimafolgenforschung (PIK), Hans-Joachim Schellnhuber kürzlich bei der päpstlichen Enzyklika als Ghostwriter mitgeschrieben hat. Am 8. Juli 2015 befeuerte sein Institut mit einer Pressemitteilung das Sintflut-Thema:

Klimawandel: Immer mehr Rekord-Regenfälle
Weltweit haben extreme Regenfälle in den vergangenen dreißig Jahren zu immer neuen Rekorden geführt. Bis 1980 lassen sich Schwankungen in der Häufigkeit von Starkregen mit natürlichen Faktoren erklären,– für die jüngste Zeit aber haben Wissenschaftler vom Potsdam-Institut für Klimafolgenforschung einen klaren Aufwärtstrend solcher zuvor nie dagewesener Regenfälle entdeckt. Diese Zunahme passt zum Anstieg der globalen Mitteltemperatur, die verursacht wird von Treibhausgasen aus dem Verbrennen von Kohle und Öl. Sturzbachartige Regenfälle können zu folgeschweren Überschwemmungen führen.

Die These: Die Häufigkeit extremer Regenfälle hätte sich in den letzten 35 Jahren im globalen Maßstab so weit gesteigert, dass der Bereich der natürlichen Schwankungsbreite nun verlassen wurde. Das dazugehörige Paper stammt von einem PIK-Forschertrio um Jascha Lehmann und erschien in der Juli 2015-Ausgabe des Fachblatts Climatic Change. Das PIK beschreibt die wichtigsten Ergebnisse in seiner Pressemitteilung wie folgt:

Eine statistische Analyse von Regendaten aus den Jahren 1901-2010, gewonnen aus Tausenden von Wetterstationen weltweit, zeigt für den Zeitraum seit 1980 einen Anstieg solcher Rekord-Regen-Ereignisse um 12 Prozent verglichen mit einem Szenario ohne Klimawandel. „Weil der Trend nach oben weist, beträgt die Zunahme von Rekord-Regenfällen im letzten der untersuchten Jahre sogar 26 Prozent“, so Lehmann. Diese Rekorde brechende Abnormität ist auf den verschiedenen Kontinenten der Erde unterschiedlich ausgeprägt; feuchte Regionen erleben eine stärkere Zunahme, trockene eine weniger starke. In den Ländern Südost-Asiens wurde eine Zunahme von Rekord-Regenfällen um volle 56 Prozent verzeichnet, in Europa um 31 Prozent. Andere Regionen hingegen beobachten eine Abnahme von Rekord-Regen. Im Mittelmeer-Raum beträgt diese Abnahme 27 Prozent, im Westen der USA 21 Prozent. Beide Regionen sind von Trockenheit bedroht.

Die komplizierte Formulierung lässt aufhorchen: ein Anstieg “verglichen mit einem Szenario ohne Klimawandel”. Die Stationsdaten wurden offenbar nicht mit einer Referenzperiode der Vergangenheit verglichen, so wie es in der Meteorologie normalerweise üblich ist. Weshalb so kompliziert? Haben Lehmann und Kollegen die natürliche Variabilität extremer Regenfälle voll im Griff, die in das “Szenario ohne [anthropogenen] Klimawandel” zwingend einfließen müsste? Ergibt sich der proklamierte Anstieg von 12% vor allem aus dem Unterschied zwischen tatsächlicher Datenbasis und dem PIK-Klimamodell? Weshalb verwenden die Autoren nicht einfach die simplen, harten Messdaten und überprüfen, ob es einen Trend in der Häufigkeit extremer Regenfälle gibt?

Genau dies hatte ein australisches Team um Fubao Sun von der National University in Canberra getan und die Ergebnisse 2012 in den Geophysical Research Letters publiziert. Das Ergebnis: Trotz globaler Erwärmung  sind die globalen Niederschläge in den letzten 70 Jahren  weniger extrem geworden, und dies sowohl in zeitlicher wie auch räumlicher Hinsicht. Trockene Gebiete wurden feuchter, und feuchte Gebiete wurden trockener. Eine Temperaturabhängigkeit der Niederschlagsvariabilität war nicht festzustellen. Die Forscher vermuten, dass Aerosole eine viel wichtigere Rolle spielen.

Wundert es Sie auch ein bisschen, dass das PIK-Forschertrio diese wichtige Studie einfach ignoriert? In der Literaturliste der neuen Arbeit sucht man das Paper der Australier jedenfalls vergeblich. Weshalb haben die Reviewer nicht auf eine Diskussion der abweichenden Ergebnisse bestanden? Auch in anderen Fallstudien aus verschiedenen Teilen der Erde findet sich kein Hinweis auf eine Verschärfung der Extremregengefahr:

Deutschland:
Klimabericht des Umweltbundesamtes (UBA) zu Deutschland: Kein statistisch gesicherter Anstieg extremer Niederschläge oder von Trockenperioden

England & Wales:
Simpson & Jones 2013

Frankreich:
Extremregen war in den Französischen Alpen während der Kleinen Eiszeit häufiger als heute

Italien:
Kein Anstieg der extremen Niederschläge in Norditalien während der vergangenen 90 Jahre

Marokko:
Extreme Regenfälle in Marokko während der letzten 50 Jahre nicht häufiger geworden

USA:
Extremregen in den USA war Anfang des 20. Jahrhunderts häufiger als heute

Natürlich gibt es auch Gebiete, in denen eine Zunahme extremer Regenfälle zu verzeichnen ist. Der IPCC fasste in seinem letzten Klimabericht (AR5) die globale Situation wie folgt zusammen:

Precipitation extremes also appear to be increasing, but there is large spatial variability.

Man gibt sich beim IPCC also überaus vorsichtig. Aus gutem Grund, denn die Datenlage ist alles andere als eindeutig, wie auch der Deutsche Wetterdienst (DWD) in der Welt vom 9. Juli 2015 zu bedenken gibt:

Beim Deutschen Wetterdienst (DWD) möchte man der Schlussfolgerung des PIK mit Blick auf Deutschland nicht komplett folgen. “Das stellt sich für uns noch nicht eindeutig dar und müsste durch weitere Arbeiten belegt werden”, sagt der Klima- und Extremwetter-Experte des DWD, Thomas Deutschländer. Anders als bei den steigenden Jahresmitteltemperaturen sei beim Starkregen ein Zusammenhang mit dem Klimawandel schwieriger herzustellen – und die bisherige Beobachtungsphase zu kurz. “Wir haben in Deutschland derzeit gewisse Indizien für eine Zunahme im Winter, jedoch nicht für Sommer oder Herbst”, sagt Deutschländer. “Das sind noch keine markanten Trends.” Zwischen 1980 und 2000 habe es in Deutschland eine Art Starkregen-Loch gegeben. “Seit 2000 zieht die Zahl der Ereignisse wieder an. Aber auch zwischen 1950 und 1980 hat es eine Phase mit relativ vielen Starkregen gegeben.”

Übernommen von "Die kalte Sonne" hier




Gletschersterben: Schmilzt das Eis, warten blühende Landschaften

«Die Gletscher in Grindelwald leiden derzeit täglich», titelte SRF. Stets folgen düstere Mahnungen von «Fachleuten», endlich dem Klimawandel Einhalt zu gebieten.

Welch ein Unsinn!

Seit Jahrtausenden stösst die Gletscherbedeckung vor oder zieht sich ­zurück. Noch bis ins 19. Jahrhundert beteten Bergbewohner zu Gott, er möge die Gletscher stoppen. Ihre Sorgen waren berechtigt, überfuhren doch wachsende Eiszungen regelmäs­sig wertvolles Weideland oder machten ganze Siedlungen platt. Schmelzende Gletscher aber bedrohen nichts und niemanden. Selbstverständlich verändern sich, übers Jahr gesehen, die Pegelstände von Bächen und Flüssen, wenn in höheren Regionen Eismassen verschwinden. Das kann heissen, dass die Wasserversorgung in landwirtschaftlichen Gebieten angepasst werden muss oder dass die Bedingungen für die Gewinnung von Energie wechseln. Doch es bleiben Jahrzehnte für entsprechende Veränderungen.

Wären fehlende Gletscher eine Bedrohung, wie es ständig suggeriert wird, müssten in Regionen ohne Eis Notstände herrschen – schon seit Jahrhunderten. Aber die Teile der Alpen, in denen schon heute Gletscher fehlen, sind weder verödet, noch leiden deren Bewohner Durst.

Eindrückliches Naturspektakel

Natürlich kann man es bedauern, wenn die majestätischen Gletscher allmählich verschwinden. Doch nach und nach werden sich Bergwälder ausbreiten, wo heute Schutt und Geröll dominieren. Wer die atemberaubende Herrlichkeit alpiner Arven- und Föhrenwälder unter der Baumgrenze kennt, weiss, dass allenfalls Schönheit durch Schönheit abgelöst wird. Es warten «blühende Landschaften», um einen von Altkanzler Helmut Kohl in ganz anderem Zusammenhang geprägten Begriff zu bemühen. Kommt dazu, dass der Gletscherschwund so oder so weitergehen wird. Auch wenn der Klimawandel stoppt und die Temperaturen wie in den letzten achtzehn Jahren stagnieren, wird das Schmelzen noch Jahrzehnte anhalten.

Der Rückzug der Gletscher ist keine Katastrophe, sondern vielmehr ein eindrückliches Naturspektakel.

=================================================================

)* Anmerkung der EIKE-Redaktion http://www.eike-klima-energie.eu/  :

Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich:

Umwelt: Gletschersterben | Die Weltwoche, Ausgabe 35/2015 | Mittwoch, 26. August 2015

http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Alex Reichmuth für die Gestattung des ungekürzten Nachdrucks.

==================================================================

Übersicht über WELTWOCHE :   Artikel zur "Klima-Skepsis"  seit 2002 :  

http://vademecum.brandenberger.eu/themen/klima-1/presse.php#weltwoche

==================================================================




Eine windige Stromversorgung – zum Energiepolitischen Manifest II

Von Günter Keil

Eine windige Stromversorgung

Das Ende der Windmühlen als Erzeugungsmaschinen von mechanischer Energie kam vor 125 Jahren. Lange genug hatten sich die Wasserbauexperten in Holland über die mangelhafte Leistung der für die Entwässerung der Polder verwendeten Windmühlen geärgert. Lange genug hatte sich auch der Hochsee-Schiffsverkehr auf den Windantrieb verlassen müssen, der keineswegs romantisch, sondern vielmehr langwierig, schwer berechenbar und gefährlich war. Ebenso hatten auch alle anderen Anwender der Windkraft die gleichen Probleme: Der Grund dafür war der gravierende Nachteil der Windkraft: Ihre wetterabhängige Unberechenbarkeit, ihre starken Leistungsschwankungen, ihre häufigen Stillstandzeiten und damit ihre grundsätzliche Nichteignung für jede Nutzung, die Dauerleistung und Zuverlässigkeit benötigt. Weder bei Flaute und Schwachwind noch bei Starkwind lieferten sie eine brauchbare Leistung ab und ihre  Unzuverlässigkeit störte jegliche davon abhängige Aktivität.

Dann kam James Watt, der die Dampfmaschine erfand. Von nun an gab es Maschinen, die die benötigte Leistung sofort, jederzeit  und in der benötigten Höhe lieferten. Das brachte das Aus für die Windkraft und leitete eine industrielle Revolution ein.

Es gehört zu den Treppenwitzen der Technikgeschichte, dass gegen Ende des 20. Jahrhunderts diese uralte und von schweren Nachteilen gekennzeichnete Methode der Energiegewinnung  ausgerechnet in den angeblich aufgeklärten Industrieländern auf der Nordhalbkugel mit einer massiven staatlichen Förderung als  Stromquelle wiederbelebt wurde.

Dies geschah durchaus in Kenntnis der Gründe, wegen derer eben diese  Technik nach 1880 in kürzester Zeit durch die weitaus überlegene Dampfmaschine  buchstäblich ausgerottet wurde. Nichts hat sich an diesen „inhärenten“ Nachteilen geändert; schließlich gibt es immer noch das gleiche Wetter wie 1880 und auch die Physik ist immer noch die gleiche. Man kennt das Wetter, aber die geradezu vernichtende Wirkung physikalischer Gesetze der Aerodynamik auf die Brauchbarkeit der Windkraft ist weithin unbekannt:

Die von einer Windkraftanlage (WKA) erzeugte Leistung hängt von der 3. Potenz der Windgeschwindigkeit ab. Es bedeutet, dass eine WKA, die bei einer Windstärke vmax ihre maximale Leistung Pmax erzeugt, bei der halben Windgeschwindigkeit vmax/2 nur noch ein Achtel von Pmax erzeugen kann; das sind klägliche 12,5 % ihrer Spitzenleistung. Dabei stellt die halbe Windgeschwindigkeit vmax/2 immer noch eine sehr kräftige Brise dar; die Windmühle dreht sich auch schön, nur leistet sie kaum noch etwas. Sinkt die Windgeschwindigkeit noch weiter ab, liefert die Mühle nahezu nichts mehr – obwohl sie sich auch dann noch dreht.

Das ist der Grund dafür, dass selbst kleine Änderungen der Windstärke, wie sie ununterbrochen auftreten, geradezu riesige Schwankungen in der abgegebenen Leistung hervorrufen. Und genau so sehen dann auch die Leistungskurven von Windparks und auch die von allen WKA Deutschlands zusammen aus: Eine Abfolge von hohen Spitzen und tiefen Tälern – ohne die geringste Tendenz zu einer wenigstens entfernt gleichmäßigen Leistungsabgabe. Nicht einmal einen Mittelwert kann man sinnvoll berechnen.

Damit hier gleich der nächste Irrglaube ausgeräumt wird: Schaltet man viele Windräder zusammen, so gleichen sich Leistungsspitzen und –täler keinesfalls aus. Im Gegenteil: Die Spitzen werden immer höher. Und wenn über Europa wieder einmal ein nahezu windfreies Hochdruckgebiet liegt, dann stehen nicht nur in ganz Deutschland die WKA still. Dann gibt es immer wieder für zwei oder sogar drei Wochen überhaupt keinen Windstrom von den Tausenden in der Landschaft herumstehenden Anlagen.

Dieses für sämtliche WKA-Typen geltende Gesetz bedeutet das Todesurteil für Windräder, die man außerhalb von Freizeitparks und Freilichtmuseen zur Energieversorgung einsetzen will. Und keine technische Entwicklung konnte daran etwas ändern. Die Anlagen sind nur ins Riesenhafte vergrößert worden und entsprechend stieg ihre maximale Leistung. Bei Flaute stehen auch sie still.

Es bleiben noch zwei weitere von der Lobby gepflegte Legenden bloßzulegen:

– Auch in der Nordsee gelten die oben beschriebenen Gesetzmäßigkeiten. Die dortigen Windgeschwindigkeiten liegen gewiss über denen an Land; an ihren Schwankungen und den sich daraus ergebenden sehr viel stärkeren Schwankungen der elektrischen Leistung ändert das überhaupt nichts. Das Ergebnis sind riesige Netzstörungen, die den Netzbetreibern zunehmend große Probleme bereiten. Die bisherige Praxis, diese Stromspitzen in das benachbarte Ausland zu exportieren – teilweise sogar mit Zuzahlungen – stößt inzwischen auf den Widerstand der dortigen Netzbetreiber. Man installiert an den Grenzen der Nachbarländer bereits Sperranlagen, sog. Phasenschieber.

– Die zweite Legende verweist auf die Möglichkeit, nicht nutzbaren Überschuss-Strom zu speichern und später abzugeben. Was verschwiegen wird: Diese Speicher gibt es nicht; man müsste dafür viele Hunderte, evtl. sogar 2.000 neue Pumpspeicherkraftwerke in Deutschland bauen. Man hat aber größte Schwierigkeiten, auch nur fünf davon zu errichten; die Bürgerinitiativen sind auf der Hut.

Weit über 100 Bürgerinitiativen kämpfen inzwischen gegen die Errichtung von immer neuen Windparks. Viele von ihnen heißen „Gegenwind“ und bei www.vernunftkraft.de sowie www.epaw.org (die europaweite Organisation der Anti-WKA-Bürgerinitiativen) kann man sich über ihre Aktivitäten informieren.

Dabei werden sowohl die Gefährdung und Vernichtung von Naturräumen, die Verschandelung von Landschaften, die Bedrohung von Greifvögeln, aber auch die Gesundheitsgefährdung für Menschen thematisiert.

Dazu und zu vielen weiteren Themen der sog. Energiewende steht Ihnen das Papier „Energiepolitisches Manifest 2“ im Anhang zur Verfügung.

Es bleibt die Frage, welche Leute es waren, die diesen gigantischen, hochproblematischen Windmühlenausbau allen Ernstes als Stromversorgung eines Industrielandes geplant haben. Welche Politiker dem zugestimmt haben, ist jedoch bekannt.

 

Related Files




Hoch subventionierter Flatterstrom treibt fossile Kraftwerke ins Aus – 57 Kraftwerke zur Abschaltung angemeldet

Grüner aber Dunkler?

Sprecher der Energiewirtschaft haben davor gewarnt, dass eine schwerere Abhängigkeit von Wind- und Sonnenenergie in Deutschland die Energieversorgungssicherheit gefährden könnte.

Hildegard Müller, Hauptgeschäftsführerin des Bundesverbands der Energie- und Wasserwirtschaft (BDEW), zu BILD: „Moderne Kraftwerke sind eine Versicherung gegen Stromausfälle und verdienen als solche finanziell kompensiert zu werden. … Die Situation für bestehende Kraftwerke wird immer schlimmer. … Eine Eiszeit droht für den Bau neuer Anlagen. Die Planung jeder zweiten Anlage hängt an einem Haar ".

Höhere Kosten

Vier Jahre nach der Entscheidung der deutschen Bundeskanzlerin Angela Merkel für den Atomausstieg, im Zuge der Katastrophe von Fukushima, haben die Kosten für das mehr Erneuerbare Energien zur Energieversorgung der größten Volkswirtschaft Europas, erste Schätzungen weit übertroffen.

Unter Berufung auf eine aktuelle Schätzung des IW, [des führenden deutschen Instituts der deutschen Wirtschaft – nachgelesen, der Übersetzer], berichtete das Handelsblatt am Montag, dass die aktuellen jährlichen Kosten von 28 Milliarden Euro pro Jahr auf die deutschen Verbraucher für die Energiewende abgewälzt werden. Rechnerisch bedeutet das, dass ein durchschnittlicher Haushalt, oder einer, der rund 3.500 Kilowattstunden pro Jahr verbraucht, etwa 270 Euro pro Jahr für Deutschlands Dreh in Richtung grüne Energie zahlt [und trifft besonders die einkommensschwachen Haushalte – der Übersetzer]

"Die Energiewende begann mit der Annahme, dass die Energiekosten in diesem Land überschaubar und international wettbewerbsfähig bleiben. Nichts davon ist realisiert" sagte Barbara Minderjahn, Geschäftsführerin des Verbands der Energie- und Kraftwirtschaft Deutschland (VIK), dem Handelsblatt.

Erschienen auf Deutsche Welle International am 24.08.2015

Übersetzt durch Andreas Demmig

http://www.dw.com/en/renewables-shift-wallops-traditional-power-plants/a-18668018

Bei der Recherche nach den Originalbeiträgen in den angesprochenen Medien, fand ich u.a. folgende Einträge, hier aufgeführt für spätere Erinnerung.

Stuttgarter Nachrichten

http://www.stuttgarter-nachrichten.de/inhalt.energiewende-traumsommer-wird-ein-teurer-spass.c156fe20-ef9a-4116-9471-1f8517699b77.html

„Wir geben seit der Hitzewelle jeden Tag grob 2,5 Millionen Euro aus für grenzüberschreitende Eingriffe mit unseren Nachbarn, um das Netz stabil zu halten“, erklärt Biermann, der als Geschäftsführer bei 50Hertz für den Systembetrieb zuständig ist.“

T-Online

http://www.t-online.de/wirtschaft/energie/heizoelpreise/id_75165378/so-viel-zahlen-verbraucher-fuer-die-energiewende.html

Deutschland Today

http://www.dtoday.de/startseite/nachrichten_artikel,-Energieversorger-wollen-57-Kraftwerke-abschalten-_arid,437904.html

RP Online

http://www.rp-online.de/wirtschaft/unternehmen/energiewende-bdew-chefin-hildegard-mueller-im-interview-aid-1.5042721

Portal 21

http://www.portal-21.de/smart-grid/artikel/bdew-chefin-hildegard-mueller-dringt-auf-festlegung-eines-europaeischen-klimaziels-090692368/

Windkraft Journal

http://www.windkraft-journal.de/2011/07/09/hildegard-muller-bdew-historischer-tag-fur-die-energiewirtschaft-in-deutschland/




Dekarbonisiert euch erst mal selbst!

Höchstwahrscheinlich werden über 10.000 Regierungs- und UN-Repräsentanten, alle NGOs der Welt, einige Beobachter der Industrie und ein paar Andere aus allen Ecken der Welt teilnehmen. Selbst Papst Franziskus plant sein Kommen, um enzyklikale Führung zu geben. Für die Mehrheit der Gesegneten wird es das Ziel sein, die Schwachköpfe (wie Sie und ich) zum Glauben an den ,schlimmen Kohlenstoff-Fußabdruck‘ und die ,Notwendigkeit zur Dekarbonisierung‘ zu bekehren. Werden deren Ergüsse auf begierig lauschende Ohren treffen?

Ruderboot, Ruderboot, Ruderboot

Oh, diese Möchtegern-Weltenretter werden sehr wahrscheinlich nicht mit einem trans-atlantischen oder trans-pazifischen Ruderboot ankommen, und auch nicht mit einem viele Masten tragenden Segelclipper, die bereits vor einhundert Jahren aus der Mode gekommen waren. Natürlich gibt es für die Teilnehmer an der Paris-Konferenz keinerlei Notwendigkeit irgendwelcher Einsparungen von Kohlenstoff, welcher Art auch immer. Schließlich handelt es sich bei ihnen um die wenigen Auserwählten, die dem Rest der Welt vorgeben, was sie zu tun und zu lassen hat. Die „Neue Wissenschaft“, wie man die Erde rettet, gilt für sie nicht, sondern nur für die ungepflegten Massen wie Sie und mich.

Grundsätzlich wollen diese Gutmenschen Sie „dekarbonisieren“, koste es, was es wolle; alles und jeden und vorzugsweise Sie selbst. Wie sonst kann man eine 7 bis 8 Milliarden Köpfe starke Weltbevölkerung auf unter eine Milliarde drücken, was Professor H. J. Schellnhuber für notwendig erachtet? Er ist der Direktor des PIK, der alle Antworten hat. Oh, und selbst der Papst scheint diese zu billigen, oder warum sonst hätte er Schellnhuber an die 400 Jahre alte Institution der Pontifical Academy of Sciences (PAS) berufen?

Schellnhuber-Weisheiten

Schellnhuber ist zweifellos ein gebildeter Mann und Meister der Kommunikation, besonders hinsichtlich von Doppel-Standards wie die meisten anderen Fans eines Kohlenstoff-Fußabdrucks. Im Juni dieses Jahres 2015 hielt der Vatikan ein Workshop zu Themen der Welt ab (einschließlich Klima). Natürlich war auch die Nummer eins des PIK dort. Als allerdings Kardinal Peter Turkson auch einen Redner mit anders lautenden Ansichten sprechen lassen wollte, wie z. B. den französischen Wissenschaftler Philippe de Larminat, war Schellnhuber dem Vernehmen nach sehr erbost. Der Gedanke, dort jemanden zu hören, der eventuell seinen egalitären Ansichten widersprechen könnte, konnte nicht toleriert werden. Wie die Washington Post über Schellnhubers Wutanfall berichtete, wurde de Larminat wenige Tage vor dem Ereignis wieder ausgeladen.

Als erst jüngst berufenes Mitglied der PAS und auch als Mitglied der Earth League ist er ein Mitautor nicht nur der jüngsten päpstlichen Enzyklika, sondern auch des Earth Statement der League. In jenem Statement heißt es im Abschnitt 4: „Gleichheit ist kritisch. Jedes Land muss einen Fahrplan zur Reduktion von Emissionen vorlegen, der mit nachhaltiger Dekarbonisierung konsistent ist. Im Namen der Fairness können und sollten reiche Länder und fortschrittliche Industrien hierbei die Führung übernehmen und sich deutlich vor Mitte des Jahrhunderts dekarbonisiert haben“.

Vermutlich wollen die Mitarbeiter am PIK mit gutem Beispiel vorangehen – alle 320 Mitglieder jener Organisation.

Edenhofer-Weisheiten

Ein guter Führer hat Freunde und Zuarbeiter, die sich einmischen, wann und wo es erforderlich ist. Sie helfen, die Fakten zu verschleiern und verfolgen jeden, der impertinente Fragen stellt oder Erklärungen und Dokumentationen und so weiter verlangt. Natürlich bildet der gute Führer des PIK da keine Ausnahme. Zum Beispiel arbeiten S. Rahmstorf und O. Edenhofer Hand in Hand mit Schellnhuber zusammen in dem Versuch, diesen gegen jede Kritik welcher Art auch immer zu verteidigen: Ich selbst habe darin Erfahrungen aus erster Hand.

Beispiel: Edenhofer sagte kürzlich: „Die Atmosphäre, der Himmel über uns allen, ist ein globales gemeinsames Gut – und doch wird das als Müllhalde für Treibhausgase von den Wenigen benutzt“. Nun, Edenhofer ist Ökonom, und ÖKONOMEN WISSEN, was gut ist, vor allem für den eigenen Vorteil. Schließlich ist Edenhofer Chef-Ökonom am PIK und Direktor des Mercator Research Institute on Global Commons and Climate Change. Er möchte mehr Geld, besonders IHR Geld – man schaue nur auf seine Forderung, ihren Kohlenstoff-Fußabdruck zu besteuern.

„Wir müssen den Missbrauch der Atmosphäre begrenzen, indem wir für CO2-Emissionen eine Abgabe einführen“.

Edenhofer hat keinerlei Gewissensbisse, die Absicht des CO2-Betrugs bei der bevorstehenden Show in Paris kundzutun, der im Mittelpunkt des Ganzen steht. Im November 2010 stellte er fest: „Aber man muss klar sagen, dass wir de facto das Weltvermögen via der Klimapolitik umverteilen … man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Stattdessen geht es bei der Klimapolitik darum, wie wir diese Umverteilung des Wohlstandes der Welt bewerkstelligen…“ und „Das hat fast nichts mehr mit Umweltpolitik zu tun“.

Menschheit in Gefahr

„Menschheit in Gefahr: Schellnhuber spricht im Vatikan“, heißt es am 18. Juni 2015 in einer Presseerklärung des PIK. Tatsächlich ist die Menschheit in Gefahr durch Wissenschaftsbetrug sowie der Kontrolle von jedem Aspekt unseres Lebens durch Bürokraten und Aktivisten.

Vorschriften bzgl. Kohlendioxid via Quecksilber [?], Kohle und andere „betrügerische Anfangs-Erklärungen“ [„faux front-end-explanations”] sind nur der Anfang. Die EPA in den USA hat kürzlich die Definition von SCHIFFBAREM Wasser in den USA dahingehend geändert, dass jeder Regentropfen, der sich in einer Wasserpfütze jedweder Größe auf dem Festland sammelt, auch davon erfasst wird. Sie sind jetzt ein Schuft, falls Sie eine Vogeltränke aufstellen und Regentropfen diese Tränke ein wenig auffüllen, es sei denn, Sie haben alle Arten von Genehmigungen, dass dies zulässig ist.

Die Emission von CO2 wird natürlich als die Mutter aller Sünden kolportiert. Die 40.000 bis 50.000 ppm, die Sie mit jedem Atemzug ausatmen, müssen ebenfalls verurteilt werden. Schließlich hat der Club 350.org seit Jahren verlangt, die CO2-Emissionen auf 350 ppm in der Luft herunterzufahren. Direkt gesagt, es ist überraschend, dass die EPA Sie nicht längst auf ihrem sündigen Weg des Ausatmens von CO2 gestoppt hat.

Halten Sie aber jetzt trotzdem nicht den Atem an – es ist unwahrscheinlich, dass diese Herrschaften mit gutem Beispiel vorangehen und sich selbst zuerst dekarbonisieren.

Dr. Klaus L.E. Kaiser — Bio and Archives

Link: http://canadafreepress.com/article/74512

Übersetzt von Chris Frey EIKE




Wenn PolitologInnen „Klimastudien“ machen – zur „Klimastudie“ von Bündnis 90/Die Grünen

Eigentlich sollte damit das Thema abgeschlossen werden. Nachdem die Studie der Grünen [2]  aber danach ganz groß in „meiner“ lokalen Tageszeitungen als „Klimawandel-Studie alarmiert“ und in vielen anderen Zeitungen publiziert wurde, bringe  ich hiermit doch noch eine Ergänzung.

Seit wann schreiben Politik-Wissenschaftler sogenannte Klimastudien 

Dem Autor fällt seit längerem auf, dass inzwischen zunehmend Politik-Aktivisten Klimastudien verfassen. Al Gore ist mit seinem Klimafilm  wohl am bekanntesten. Auch Greenpeace macht es, Bsp. eine Studie zum Untergang der Südseeinseln[6], die vom Institut für Politische Wissenschaft der Uni Hamburg geschrieben  wurde, wobei der Co- Autor ein Campac-Aktivist ist, der vorher bei Attac aktiv war.

Die aktuelle Umweltstudie der Grünen wurde in deren Auftrag ebenfalls von einer Politikwissenschaftlerin verfasst. Deren Klimakompetenz wird in der Studie wie folgt ausgewiesen:

[2] Seit 2009 ist Stefanie Groll in der Klima- und Energiebewegung engagiert. Fachliche Expertise hat sie also durch berufliche und private Beschäftigung mit politischen, wirtschaftlichen, ökologischen und sozialen Aspekten von Klimawandel erworben.

Eine Beschäftigung mit dem Fach Klima ist außer dem ihrem entsprechenden Politaktivismus nicht gelistet.

Man kann nur vermuten, dass viele Klimawissenschaftler vom Fach nicht mehr bedenkenlos bereit sind, Klimastudien nach politischer Orientierungen zu erstellen. Diese benötigt man aber, um die Ziele umzusetzen. Denn dabei geht es nicht mehr wirklich ums Klima.

Beispiel: 

Interview mit Prof. Dr. Otmar Edenhofer (PIK), Vizechef des IPCC, in der „Neue Zürcher Zeitung“ vom 14.11.2010:

·       (Auszug): Zunächst mal haben wir Industrieländer die Atmosphäre der Weltgemeinschaft quasi enteignet. Aber man muss klar sagen: Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik, mit Problemen wie Waldsterben oder Ozonloch, fast nichts mehr zu tun.

Christiana Figueres, Präsidentin UNFCC Während einer Pressekonferenz im Februar 2015 in Brüssel:

·       [16] [14] [15] At a news conference last week in Brussels, Christiana Figueres, executive secretary of U.N.’s Framework Convention on Climate Change, admitted that the goal of environmental activists is not to save the world from ecological calamity but to destroy capitalism.

Bevor wir zur Studie kommen, noch die aktuellen Daten
zu Erd-Maximaltemperaturen

Heißester Tag Deutschlands

Erhöhung der Spitzentemperatur  seit  1983 aktuell um 0,1°C (0,31°C in 100 Jahren(durch die Mess-Ungenauigkeit ist jedoch kein wirklicher Unterschied belegbar[7])

Erdtemperatur

Weltweiter Hitzerekord diesen Juli von der NOAA gemeldet: Erhöhung seit 1998 um 0,08°C (0,47°C in 100 Jahren)

Hierzu stellt sich die Frage, wie man 0,08 °C Welt-Temperaturdifferenz so genau messen kann, wenn dies auf 0,1 °C genau in Deutschland alleine technisch bedingt nicht möglich ist.

Die wirklich genauen, weil zu 90 % flächendeckenden Satellitenmessungen zeigen hingegen keinewegs den Juli als heißesten Monat an.

Trägt man die gemeldeten Maximaltemperaturen in die Klimakurve aus WIKIPEDIA ein, sieht man, dass es zwar wärmer wird, aber nicht wirklich heißer. Ausgerechnet Deutschland, welches gerade eine „Jahrhunderthitze“ erlebte, ist sogar deutlich hinten dran. Betrachtet man die Mess-Unsicherheit alleine der Temperatur-Erfassung, dann gab es in beiden Fällen gar keine belegbare Erwärmung.

 

Bild1 Relativer Temperaturverlauf nach WIKIPEDIA, Rubrik: Globale Erwärmung. Mit Ergänzungen durch den Autor (Anm.: Das Fehlerband einer Temperatur-Messstation beträgt +-0,2 °C[20])

Zurück zur Studie:

Brennpunkte des Klimawandels in Deutschland

Anspruch der Studie und Intention (Hervorhebung durch den Autor):

[2] Die Studie konzentriert sich auf die negativen Folgen des Klimawandels, sie erhebt damit keinen Anspruch auf Vollständigkeit. Sie trägt lediglich Eindrücke und Geschichten vom Klimawandel vor Ort zusammen.

…Die Übersicht fokussiert die negativen Folgen des Klimawandels. Vom Ansatz her ist

diese Übersicht also selektiv, sie bildet nicht Chancen des Klimawandels für Regionen

und Sektoren ab.

…Die vorliegende Studie ist eine kompakte Darstellung über mögliche Auswirkungen des

Klimawandels auf Regionen und Sektoren in Deutschland bis zur Mitte bzw. bis zum Ende des Jahrhunderts.

Die Studie suchte und betrachtet also vorwiegend regional begrenzte „Klima-Warnhinweise“, welche  dann über Klima-Simulationsszenarien in die Zukunft projiziert werden. In den folgenden Darlegungen werden deshalb diesen lokalen Aussagen die globalen Daten für Deutschland gegenübergestellt.

Beim Klima und Wetter war es bisher immer so, dass es gleichzeitig Regionen mit negativen und positiven Wetterauswirkungen gab und gibt. Der Klimawandel gilt aber als ein global wirkendes Ereignis. Führt er zur gemeldeten Klimakatastrophe, müssen die Auswirkungen auch global negativ sein.

Als Vergleichs-Datensatz wird vorwiegend der Monitoringbericht 2015 des Umwelt-Bundesamtes angezogen, denn dieser beinhaltet sicher die umfangreichste Globalerfassung von Klimadaten für Deutschland. Zudem stehen Publizierungen des UBA bestimmt nicht im Verdacht, den Klimawandel nicht ausreichend zu berücksichtigen[21]. Nicht alle (aber fast alle) in der Studie gelisteten Auswirkungen wurden betrachtet, sondern nur solche, für die dem Autor ausreichend Daten vorlagen. Auf Kommentierungen wird weitgehend verzichtet. Jeder Leser soll sich selbst ein vergleichendes Bild machen.

In der Studie[2] gelistete Klimaauswirkungen für Deutschland

Niederschlag

Studie[2]

mehr und heftigere Niederschläge im Sommer als derzeit im Sommer weniger Niederschläge im Winter als derzeit im Winter

UBA Monitoringbericht 2015[8]

Im Gegensatz zur Temperatur weisen die Änderungen des Niederschlags in Deutschland insbesondere jahreszeitlich, aber auch räumlich deutliche Unterschiede auf.

Während die mittleren Regenmengen im Sommer weitestgehend unverändert geblieben sind, ist es insbesondere im Winter signifikant feuchter geworden.

 

Bild2 [8] Deutschland: mittlerer Niederschlag im Sommer.

 

Bild3 [8] Deutschland: mittlerer Niederschlag im Winter

 

Bild4 [8] Vom Autor aus dem DWD-Datensatz generiert Langfristgrafik zum Niederschlags-Jahresmittel

[2] Hitzestress in Städten

Studie[2]

…An heißen Sommertagen verwandeln sich Großstädte in Glutöfen. Selbst in der Nacht kühlt es sich nicht richtig ab. Die dichte Bebauung und das hohe Aufkommen am motorisierten Individualverkehr führen in den Innenstädten zu einer immensen Wärmeproduktion. Gebäude und Straßen speichern die Tageswärme. Die Städte bleiben heiß und im Vergleich zum Umland kann der Temperaturunterschied bis zu 10°C betragen. Ein so starker „Wärmeinseleffekt“ wurde zum Beispiel für Kölner Innenstadt und Außenbezirke nachgewiesen. Anhaltende Hitze führt gerade bei älteren und chronisch zu körperlichen Belastungen. Verschiedene Untersuchungen deuten darauf hin, dass steigende Temperaturen bis zum „Hitzetod“ führen können. Für Berlin konnte nachgewiesen werden, dass rund 5% aller Todesfälle in den Jahren von 2001 bis 2010 statistisch mit erhöhten Lufttemperaturen korreliert sind.

Abgesehen von der nicht unerheblichen Tatsache, dass eine Korrelation mit einer 5 %igen Kohorte absolut nichts aussagt, sind auch enge Korrelationen keinerlei Ersatz für eine begründete Ursache-Wirkungsbeziehung. Das gehört eigentlich zur Allgemeinbildung, nicht jedoch bei manchen Poltik-Wissenschaftlern.

Uba Monitoringbericht 2015[8]

 

Bild5[8]  Gebietsmittel heiße Tage und Tropennächte Hitzebelastung

[8]  Zur Ermittlung hitzebedingter Todesfälle gibt es eine Reihe offener methodischer und datentechnischer Fragen. Deshalb stehen vorerst nur Berechnungen für das Bundesland Hessen zur Verfügung.

 

Bild6[8]  Hitze-Mortalität

Zusatz zum Thema Hitzetote

In einem EIKE Blogartikel [10] wurde das Thema ausführlich behandelt. Dabei zeigte sich, dass weiterhin wesentlich mehr Personen an Kälte sterben und es in Deutschland zudem keine Datensätze gibt, um Hitzemortalität global quantifizieren und belegen zu können (wie es in [8] ebenfalls gelistet ist).

Anbei noch eine Grafik, welche der Autor aus dem DWD-Datensatz erstellt hat. Man sieht, dass die Winter (zum Glück) nicht mehr so extreme Kältewerte wie zwischen 1930 – 1960 aufweisen und dass sowohl die Sommer- wie Wintertemperatur aktuell den Stand von 1900 haben.

 

Bild7 Langfrist-Verlauf der Sommer- und Wintertemperaturen in Deutschland 1882 – 2014. Temperatur auf den Stand 1880 normiert.

[2] Stromnot im Schwabenland

Studie[2]

Baden-Württemberg: Hitze beeinträchtigt Energieversorgung

Oberrheingraben und Ballungsgebiete am Neckar heizen überdurchschnittlich auf

Kühlwasserproblematik für Atom- und Steinkohlekraftwerke nimmt zu, Betrieb von Wasserkraftwerken wird eingeschränkt.

UBA Monitoringbericht 2015[8]

 

Bild8[8]  Auswirkung von Temperatur auf die Stromproduktion

Bild9[8]  Auswirkung von Wetter auf die Stromversorgung

[2] Extremwetter könnten „Stromautobahnen“ zerstören

Studie[2]

Extremwetterereignisse wie Hagel und Orkane könnten die „Stromautobahnen“ zerstören. die mittelfristig erneuerbaren Strom aus dem Norden in den Süden bringen sollen.

UBA Monitoringbericht 2015[8]

Netzbetreiber haben vor allem die Wirkungen von Winterstürmen zu spüren bekommen. Beispiele sind die stundenlangen Stromausfälle infolge des Orkans Kyrill im Januar 2007 oder der großflächige Stromausfall im Münsterland im November 2005, als einige veraltete, aus versprödetem Thomasstahl gefertigte Hochspannungsmasten einknickten, die für das ungewöhnliche Zusammentreffen von Eislast, starkem Schneefall und Sturm quer zur Trassenführung technisch nicht ausgelegt waren. Insgesamt schätzt die Branche die physischen Risiken des Klimawandels aber als technisch beherrschbar ein.

 

Bild10[8]  Auswirkung von Extremereignissen auf die Stromversorgung

Bild11[8]  Auswirkung von Extremereignissen auf Verfügbarkeit von Strom

UBA Monitoringbericht 2015[8]

Der UBA-Bericht bietet für Deutschland über Unwetterereignisse keine Daten und behilft sich deshalb mit Versicherungsschäden. Er macht aber einzelne Aussagen:

Der Zusammenhang zwischen Klimawandel und steigenden Schäden durch Unwetter gilt noch nicht als gesichert, allerdings sprechen viele Indizien dafür.

Hochwasser

Der Anteil der Pegel, an denen mindestens einmal in einem Jahr ein markanter Hochwasserabfluss gemessen wurde, zeigt bislang keinen signifikanten Trend.

 

Bild12[8] Hagelschäden in der Landwirtschaft

Climate Service Center Deutschland

In einer Publikation des Climate Service Center Deutschland steht zum Hagel

[17] Hagel

Das Gebietsmittel der Anzahl der Tage mit Hagel (Mai bis September) in Deutschland nimmt im langfristigen Trend seit 1950 um -0.01 Tage pro Jahr auf 0,67 ab.

Und allgemein

[17] Extremwetterereignisse  verschiedenster  Art kommen in Deutschland relativ selten vor, daher ist es nach wie vor sehr schwierig, genaue Aussagen zu Veränderungen in der Häufigkeit ihres Auftretens oder ihrer Intensität zu machen.

Munich RE sagt zu Unwetterschäden weltweit

Aktionärsinfo der Munich Re von 2013

·       Die MR rechnet in den nächsten Jahren mit weniger Schadensereignissen, weshalb die Aktionäre mit  steigenden Renditen rechnen können

·       Die einzige Häufung von Umweltschäden weltweit! der letzten Jahre passierte im mittleren Westen der USA, sind also lokal begrenzt

·       Weltweit kann die MR keine Häufungen feststellen

Pressemitteilung vom 11. November 2013 | Rückversicherung

Wetterrisiken (Auszug)

Neben Überschwemmungen geht von Taifunen die größte wetterbedingte Naturgefahr aus, sie zählen zu den schadenintensivsten Wetterereignissen. Davon sind vor allem die Ballungsräume in Südostasien betroffen, vornehmlich in Japan, Vietnam, Taiwan und auf den Philippinen sowie die schnell wachsenden Megastädte im Osten Chinas.

Das Auftreten von Taifunen wird durch eine periodische Klimaschwankung mit Phasen von ca. 30 Jahren beeinflusst. „In den vergangenen zehn Jahren lag die Taifunaktivität unter dem langjährigen Mittel.

In einer ganz aktuellen Grafik der Munich RE (13) sind die weltweit wetterbedingten Schadensereignisse dargestellt. Der Autor hat sich die Mühe gemacht, die grünen Gesamt-Schadensbalken in rot auf die 0-Linie zu setzen. Und dann erkennt man, dass seit ca. 1993 keine Zunahme erfolgte und seit 2005 eine deutliche Abnahme. Die Versicherung mit der größten Schadens-Datenbank der Welt zeigt damit, dass es keine Klimawandel-bedingte Unwetter-Schadenszunahmen gibt.

 

Bild13 [19] Wetterbedingte Schadensereignisse weltweit. Rote Balken und schwarze Linie vom Autor zugefügt. Rote Balken: Gesamtschäden (grüne Balken auf die 0-Linie gesetzt)

[2] Thüringen: Wälder in Gefahr

Studie[2]

Das Thüringer Becken und die Thüringer Wälder werden am stärksten vom Klimawandel betroffen sein.

Die Zahlen der Waldschadenserhebung von 2012 erscheinen beunruhigend: 32% der Waldfläche gelten als „deutlich geschädigt“, 45% als schwach geschädigt, weniger als ein Viertel, nämlich nur 23% der Waldfläche, weisen keine Schadensmerkmale auf. Immerhin ging der Flächenanteil deutlicher Schäden um 4% gegenüber der Erhebung von 2011 zurück. (Thüringer Ministerium für Landwirtschaft, Forsten, Umwelt und Naturschutz 2012, 35f.).

UBA Monitoringbericht 2015[8]

Leider listet der UBA Monitorinbericht 2015 dazu keine Angaben

Aber in einem EIKE Blogartikel[9]  ist mit aktuellen Daten gezeigt, dass der Wald nicht unter dem Klimawandel leidet. 

Anbei eine Grafik daraus:

 

Bild14 [9]  Globaler Waldzustand in Deutschland. Alle Schadstufen-Daten als Einzelkurven und normiert auf den Stand von 2014 dargestellt

[2] Zentral-Bayern / Hallertau: Hopfen in Gefahr

Studie[2]

Unkalkulierbare Kosten für Hopfenlandwirtschaft

Angesichts der wissenschaftlichen Klimaprojektionen für Bayern ist es plausibel die ungewöhnliche Häufung und Intensität der Hagelunwetter als Klimawandelereignisse einzuordnen.

In [3] (Teil 1 dieser Rezension) wurde vom Autor gezeigt, dass die Hopfenerträge in Deutschland seit Beginn des Klimawandels deutlich zunehmen. Unbestritten ist, dass alle Hopfen-Anbaugebiete in typischen Hagel-Problemgebieten liegen, weil wohl das vom Hopfen benötigte Klima extrem hagelträchtig ist. Anbei die Grafik des Hopfenertrags Deutschland daraus.

 

Bild 15 [3] Mittlerer Hopfenertrag Deutschland

[2] Schneefreie Alpen – Abschied vom Wintersport absehbar.

Bayern: Abschied vom Wintersporttourismus in den Alpen

Studie[2]

Es ist nicht unwahrscheinlich, dass in den Alpen bis zur Mitte des Jahrhunderts eine Erwärmung von 2°C eintritt, bis 2080 ist ein Anstieg von 4°C möglich (jeweils gegenüber dem Referenzzeitraum 1961-1990). Für den Wintersport in den bayerischen Alpen hat dies erhebliche Konsequenzen. Die dortigen Skiregionen liegen vergleichsweise niedrig.

Bei einem Temperaturanstieg um 2°C sind nur noch die höchst gelegenen Skigebiete Zugspitze und Nebelhorn natürlich schneesicher.

Abschied von „Schneebayern“

Investitionen in Wintersportinfrastruktur (etwa in komfortablere Liftanlagen und Beschneiung) werden sich für Kommunen und Privatbetriebe nicht mehr lohnen. Langfristig müssen sich alle bayerischen Wintersportgebiete umstellen, auf Sommertourismus, auf sanfteren Tourismus und ressourcenschonende Freizeitangebote.

UBA Monitoringbericht 2015[8]

 

Bild16 [8]  Schneebedeckungen der Skiregionen Deutschlands im Langfrist-Verlauf

Weitere Quellen zur Skisituation in den Alpen

Es gibt mehrere Publizikationen, die ausweisen, dass der Schnee in den Nordalpen – zunimmt.

So unwahrscheinlich ist das nicht. Gerade der vergangene Winter 2014 / 15 war trotz gemeldeter Extremtemperaturen in Oberbayern sehr schneereich und lang. Als Anmerkung noch, dass am 13.12.2013 in Kairo das erste Mal seit 112 Jahren wieder Schnee fiel[22] .

Der Autor hat dazu extra aktuell und  fundiert recherchiert [4] [5] [12]. Vor allem [4] dürfte dazu die umfassendste Arbeit über den gesamten Alpenraum darstellen, [12] bietet die meisten Grafiken und eine gute Übersicht. 

 Allgemein gilt: Die Nordseite der Alpen wird schneereicher, auf der Südseite nimmt der Schnee ab.

Im folgenden Bild eine Grafik der Temperaturdaten von Oberstdorf seit 1936, vom Autor generiert aus dem DWD-Datensatz. Man sieht, dass die Temperatur in Oberstdorf keinen Klimawandel kennt. Nicht einmal die Winter werden wärmer, wie im Rest von Deutschland.

 

Bild17 DWD Daten der Temperatur von Oberstdorf von 1936 – 2014 in Tagesauflösung

Und weiter beispielhaft eine Grafik des DWD zur Schneelage um Berchtesgaden. Eigentlich ist man  beim Zustand um 1970 angelangt, als die bekannte  Kälteperiode mit Vorhersage der Eiszeit herrschte.

 

Bild18 Gegoogeltes Bild mit Angabe DWD,  leider ohne detaillierte Fundstelle

Auch in Österreich wurde festgestellt, dass der Schnee zunimmt. In einer auf realen Daten basierenden und  umfassenden Studie steht: 

[12] Die Winter auf der Schmittenhöhe sind in den vergangenen 30 Jahren kälter geworden. Im linearen Trend (rote Linie) sinkt die Temperatur von minus 3,8 auf minus 4,7 Grad Celsius, das heißt um 0,9 Grad.

Und das ist nicht lokal begrenzt:

[12]  Auch am Arlberger Skiberg Galzig (2.079 m), am Rauriser Sonnblick (3.106 m) und am Innsbrucker Patscherkofel (2.252 m) wurde ein winterlicher Temperaturabfall beobachtet. Messreihen aus Deutschland (Zugspitze, Feldberg u.a.) und der Schweiz (Jungfraujoch, Weissfluhjoch, Säntis u.a.) untermauern den Trend. Dies bestätigen der Klimaexperte Dipl.-Met. Gerhard Hofmann vom Deutschen Wetterdienst und der Klimatologe Dr. Stephan Bader von MeteoSchweiz.

 „Dies bedeutet, dass sich für einen heute 50-jährigen Skisportler, der seit seinem 6. Lebensjahr auf der Schmittenhöhe Ski fährt, hinsichtlich der Wintertemperaturen insgesamt keine nachhaltige Veränderung ergeben hat.“

 

Bild19 [12] 

[12]  Auch in den Tallagen haben sich die Winter abgekühlt, allerdings moderater als auf den Bergen.

Der deutsche Klimaexperte Dipl.-Met. Gerhard Hofmann, Leiter des Klimabüros München des Deutschen Wetterdienstes (DWD), schreibt im Sommer 2014 auf Anfrage von www.zukunft-skisport.at zum winterlichen Temperatur-Plateau auf den Bergen: „Die Wintermonate sind in den vergangenen Jahren auf den Bergen, auf deutscher Seite beispielsweise anhand der Daten der Zugspitze und am Feldberg nachweisbar, aber auch im übrigen Alpenraum tatsächlich im Mittel etwas zurückgegangen oder zumindest gleich geblieben, je nachdem welcher Zeitabschnitt betrachtet wird.

 

Bild20 [12]  

Eine Studie des Alpenvereins von 2013 wies aus, dass der Schnee in den Voralpen abnimmt [13]. Die Studie wurde damals von der Uni Innsbruck erstellt. Das Ergebnis gewann man, indem mit IPCC-Szenarien immer höhere Zukunftstemperaturen simuliert wurden. Ergebnis: Falls es wärmer wird, wird der Schnee abnehmen. Die Fakultät hatte damit den Auftrag wunschgemäß erfüllt, nichts Falsches gesagt und noch etwas Geld eingenommen.

Kurz darauf publizierte eine andere Fakultät der Uni Innsbruck die gegenteilige Aussage. 

Studie „Schnee und Schneesicherheit in Deutschland“ des Instituts für interdisziplinäre Gebirgsforschung der Uni Innsbruck:

„Kein eindeutiger, großräumiger Trend

Die Auswertung der meteorologischen Aufzeichnungen der letzten Jahrzehnte ergibt nur geringe Auswirkungen des bisherigen Klimawandels auf Schnee und Schneeproduktion deutscher Skigebiete. Dies gilt auch für niedrig gelegene Skigebiete.“

Meeresspiegel

Studie[2]

Meeresspiegelanstieg im Mittel um 30 Zentimeter, in einigen Regionen deutlich höher. Volkswirtschaft und betriebswirtschaftlich gesehen wird der Klimawandel auf jeden Fall zu Buche schlagen. Dramatische Katastrophen wie beispielsweise der Untergang Hamburgs und die Überflutung der schleswigholsteinischen Küsten durch steigende Meeresspiegel könnten wohl abgewehrt werden.

Die Studie belässt es bei diesen Schlagwörtern. Sie geht nirgends auf die Aussage,  Hintergrund oder Daten ein.

Weil aber auch das Thema (steigender) Meeresspiegel eine direkt mit dem Klimawandel verknüpfte Auswirkung ist, ein paar Daten aus [21] dazu.

Im folgenden 21 ist der Pegelverlauf der Nordsee gezeigt. Nicht entfernt ist ein (anthropogen) Klimawandel-bedingter Einfluss erkennbar. Im Bild 22 sieht man, dass das höchste Hochwasser 1962 war und diese seitdem abnehmen.

 

Bild21  [21]  Pegelverlauf Cuxhaven (aus einer Dissertation)

Bild22  [21]  Sturmflutmarken Nordsee

Wie kommt die Politikwissenschaftlerin in der Studie für Bündnis 90/Die Grünen zu so vielen abweichenden  Ergebnissen?

Ganz einfach: Der wirkliche Zustand in der Natur hat nicht interessiert. Es sind in vielen Fällen  am Computer simulierte Zukunftsprojektionen, sowie sinnlose die eigene Meinung stützende aber relitätsferne Auslegungen beliebiger lokaler Trends.

·       Viele Angaben fußen auf Projektionen nach IPCC-Szenarien

·       Zudem beschränkt sie sich häufig auf lokale Ereignisse, um „Schadensprojektionen“ zu finden

Es ist das typische, moderne Klimawandel-Spiel:

Man nehme eine Klima-App . Darin gebe man immer höhere Forcing-Werte sowie CO2-Anstiege ein. Irgendwann bekommt der Wetterfrosch Fieber und zuletzt kocht er im Wasser.

Damit ist ein Klimaopfer „geboren“. Sogar das Jahr zeigt der Computer dazu genau an und die „confidenc“ (statistischer Vertrauensbereich des simulierten Ereignisses).

Nun nenne man den Spieler „Klimaexperten“ und eine neue Klimaexpertise ist geboren.

Warum wurde die Studie von Bündnis 90 / Die Grünen publiziert?

Bei n-tv steht es:

[11] Die Fraktion der Grünen im Bundestag hat die Studie "Brennpunkte des Klimawandels in Deutschland" bewusst im Vorfeld des Klimagipfels veröffentlicht, der am 30. November in Paris beginnt. Die Teilnehmer der UN-Konferenz sollen eine neue Klimaschutz-Vereinbarung verabschieden.

Es wird also frei nach Paulus gehandelt: 

Paulus, Römer 3:7: "Wenn aber die Wahrheit Gottes durch meine Lüge herrlicher wird zu seiner Ehre, warum sollte ich dann noch als ein Sünder gerichtet werden?"

Quellen

[1]

DIE WELT 21.08.15, Artikel: Warum der Klimawandel deutsches Bier teurer macht

 [2]

Studie im Auftrag der Bundestagsfraktion von Bündnis 90/Die Grünen, Dr. Stefanie Groll.: Brennpunkte des Klimawandels in Deutschland

[3]

EIKE 22.08.2015 Blogartikel: Grüne Abgeordnete Barbara Höhn durch Fakten widerlegt: Der Hopfenertrag steigt trotz Klimawandel

http://www.eike-klima-energie.eu/news-cache/gruene-abgeordnete-barbara-hoehn-durch-fakten-widerlegt-der-hopfenertrag-steigt-trotz-klimawandel/

[4]

Uni Wien Anita Jurkovic 07. Februar 2008 Dipomarbeit: Gesamtschneehöhe Vergleichende Zeitreihenanalyse

[5]

Eidg. Forschungsanstalt für Wald, Schnee und Landschaft WSL. Schneeklimatologie

http://www.wsl.ch/fe/schnee/permafrost/schneeklimatologie/index_DE

[6]

Greenpeace Studie März/2007: Klimaflüchtlinge, die verleugnete Katastrophe 

[7]

EIKE Blogartikel 28.07.2015: 5. Juli 2015, der bisher heißeste Tag Deutschlands?

[8]

UBA Monitoringbericht 2015 zur Klimaauswirkungen in Deutschland

[9]

EIKE Blogbeitrag 05.08.2015:  Nicht ewig leiden die Wälder- Wie der deutsche Wald innerhalb von drei Monaten genesen ist  http://www.eike-klima-energie.eu/klima-anzeige/nicht-ewig-leiden-die-waelder-wie-der-deutsche-wald-innerhalb-von-drei-monaten-genesen-ist/

[10]

EIKE Blogartikel 21.07.2015: Ruhestand im Süden kann tödlich sein – Wetterdienst glaubt Klimawandel tötet alte Menschen  21.07.2015

http://www.eike-klima-energie.eu/klima-anzeige/ernteertraege-und-klimawandel/

[11]

n-tv Freitag, 21. August 2015, Hompageartikel: "Phasen extremer Hitze"Klimawandel erreicht Deutschland

[12]

AIGNER, Günther (2014): Eine Analyse aktueller Temperatur- und Schneemessreihen  von der Schmittenhöhe und aus Zell am See. www.zukunft-skisport.at.

[13]

DAV Studie 2013: Auswirkungen des Klimawandels auf Skigebiete im bayerischen Alpenraum

[14]

investors.com 10.02.2015: U.N. Official Reveals Real Reason Behind Warming Scare

http://news.investors.com/ibd-editorials/021015-738779-climate-change-scare-tool-to-destroy-capitalism.htm

[15]

EIKE 23.07.2015: Zur Podiumsdiskussion über Klimawandel und Energiewende in der Bundeszentrale für politische Bildung (BPB) am 22.6.15 – Faktencheck Teil 3

http://www.eike-klima-energie.eu/news-cache/zur-podiumsdiskussion-ueber-klimawandel-und-energiewende-in-der-bundeszentrale-fuer-politische-bildung-bpb-am-22615-faktencheck-teil-3/

[16]

EIKE 15.02.2015: UN Offizielle enthüllt den wahren Grund der Erwärmungs-Panikmache

http://www.eike-klima-energie.eu/news-cache/un-offizielle-enthuellt-den-wahren-grund-der-erwaermungs-panikmache/

[17]

CSC Climate Sevice Center Deutschland, Publikation: Ergebnisse und Auswertungen der Recherche zur Entwicklung von Extremwetterereignissen in Deutschland

[18]

Munich RE Foliensatz: Naturkatastrophen in Deutschland – Schäden und Trends

[19]

Munich RE Foliensatz 2015: NatCatSERVICE Schadenereignisse weltweit 1980 – 2014

[20]

World Meteorological Organisation: WMO GUIDE TO METEOROLOGICAL INSTRUMENTS AND METHODS OF OBSERVATION WMO-No. 8 (2008 edition, Updated in 2010) Chapter 2 Measurement of temperature

[21]

EIKE Blogartikel 01.06.2015: In Deutschland kein Klimawandel in Sicht – das kann die SZ nicht auf sich sitzen lassen (Teil2) 

http://www.eike-klima-energie.eu/climategate-anzeige/in-deutschland-kein-klimawandel-in-sicht-das-kann-die-sz-nicht-auf-sich-sitzen-lassen-teil2/

[22]

EIKE Blogartikel 13.12.2013: Extremwetter einmal anders: In Kairo fällt nach 112 Jahren wieder Schnee

http://www.eike-klima-energie.eu/news-cache/extremwetter-einmal-anders-in-kairo-faellt-nach-112-jahren-wieder-schnee/




Unfair: Die Sonne will nachts nicht scheinen – zum Energiepolitischen Manifest II (hier Version 2)

Von Günter Keil 

Unfair: Die Sonne will nachts nicht scheinen

Die Sonne meint es ja grundsätzlich gut mit der Energiewende, denn sie schickt bekanntlich keine Rechnung. Diese schicken andere, zum Beispiel die Chinesen für die Photovoltaik (PV)– Paneele, die sie jetzt konkurrenzlos billig herstellen können, seit ihnen Deutschland mit großzügigen KfW-Krediten auf Kosten der Steuerzahler die gesamte Produktionstechnologie beigebracht hat. Für den Klimaschutz. Woraufhin dann leider die deutsche PV-Industrie, die eine Zukunftsbranche werden sollte, pleiteging.

Dennoch verhält sich die Sonne auch sehr unfair, denn sie scheint nachts nicht – zumindest nicht auf der Seite der Erde, auf der wir uns befinden. Genauer betrachtet, besteht das Problem also darin, dass sich die Erde dreht. Das hat die Regierung noch nicht im Griff. Aber das macht nichts, denn sie hat schließlich die Photovoltaik zu einer der Säulen der Energiewende ernannt.

Unfair ist es auch, dass die Sonne im Winter so gut wie gar nichts an PV-Strom erzeugen möchte. Weniger Tageslichtstunden, flacher und ungünstiger Einfallswinkel und dazu noch grauer Himmel, Nieselregen, Schnee und ähnliche Energiestopper verurteilen den Solarstrom in dieser Jahreszeit zu einem vernachlässigbaren Nischendasein. Auch das hat die Regierung noch nicht im Griff; aber sie konnte das auch nicht voraussehen.

Sie fördert entschlossen weiterhin die chinesische PV-Industrie und ihre deutschen PV-Monteure auf den Dächern mit gigantischen Subventionen, die sie den Stromkunden direkt per Stromrechnung abnimmt.

Zu den Zahlen: Im Juli 2015 betrug die installierte Leistung aller PV-Anlagen bereits enorme 39.000 MW. Die aus den oben beschriebenen Gründen kläglichen Jahres-Volllaststunden sorgten aber dafür, dass nur relativ wenig Strom für die immensen Kosten erzeugt wurde. Und das absolut nicht bedarfsgerecht, weil wetterabhängig.  Im Jahre 2014 hatte die PV gerade einen Anteil von 5,8 % an der Stromerzeugung, aber bekam dafür 53 % der EEG-Umlage – gut 10 Milliarden Euro – von den Stromkunden.

Die Erfinder und Erfinderinnen der Energiewende haben allerdings auch bei diesem Thema die Kollateralschäden und Nebenwirkungen nicht bedacht: Die Sonne, die ja grundsätzlich schuld ist, scheint nämlich nicht nur nachts nicht; sie wartet mit ihrer vollen Einstrahlung auch noch bis in den späten Vormittag, um sie dann gegen Ende des Nachmittags wieder herunter zu regeln.                           Die Folge: Bei wolkenarmem Himmel (die Wolken sind ja auch noch so ein Problem) und um die Mittagstunden liefert die geballte PV-Installation in Deutschland kurzzeitig eine riesige Strommenge in das Netz – und weil diese Stromeinspeisung gesetzlich (per Erneuerbare Energien-Gesetz PAGE   * MERGEFORMAT1EEG) Vorrang hat, darf kein Netzbetreiber diese Erzeuger abschalten. Weitere Folge: Der Preis an der Strombörse bricht dann regelmäßig ein. Damit wird den bisherigen Spitzenlast-Kraftwerken – das sind Gaskraftwerke – ihre wichtigste Verdienstmöglichkeit genommen. Sie gehen jetzt reihenweise in die Pleite und werden stillgelegt.

Das spektakulärste Beispiel ist das Gaskraftwerk Irsching 4, das 2011 in Betrieb ging, weltweit das modernste ist und mit seiner inzwischen legendären riesigen 578 MW Siemens-Gasturbine SDT5-8000H und seinem bisher unerreichten Wirkungsgrad von 60,75 % im Jahre 2014 noch keine einzige Sekunde Strom geliefert hat.  Es ist nach alter Rechnung hochrentabel und es wurde durch das EEG zum Dasein als modernste Kraftwerksruine verurteilt. Die beiden Blöcke Irsching 4 und 5 sollen nun mit Zustimmung der Bundesnetzagentur am 31.3.16 „vorläufig“ stillgelegt, also erst ein Jahr nach der Antragstellung durch E.ON und Partner, wie es das Gesetz will.

Wir erinnern uns: Die Gaskraftwerke sollten doch der umweltfreundliche Ersatz für die Kernkraft- und auch die Kohlekraftwerke werden. Bereits dieser Plan war reiner Blödsinn, weil Erdgas der mit Abstand teuerste Brennstoff für Kraftwerke ist, weshalb es nur für diese Spitzenlast und für die ertragreiche Kraft-Wärme-Kopplung eingesetzt wird. Nun werden die Gaskraftwerke durch die Energiewende ausgerottet.  Bitter ist das vor allem  für die Stadtwerke, die häufig Gaskraftwerke in Kraft-Wärme-Kopplung betreiben, also damit auch Fernwärme verkaufen. Sie verdienen mit  diesen Anlagen kein Geld mehr; die Stadtwerke Gera z.B. mussten  deshalb vom Land vor dem Bankrott gerettet werden.

Es ist nur logisch, dass inzwischen niemand mehr in den Neubau von Kraftwerken investiert; Stilllegungen sind das Thema.

Wer nun an den menschengemachten Klimawandel und an die maßgebliche  Wirkung des Spurengases CO2 glaubt und daher meint, dass mit der Photovoltaik in diesem Punkte eine Verbesserung erzielt werden kann, den müssten neuere Erkenntnisse über die Auswirkungen der PV-Produktion sehr irritieren. Die Fabriken sind alles andere als umweltfreundlich, denn sie emittieren eine Gruppe höchst problematischer Fluorverbindungen, insbesondere Hexafluorenäthan C2F6, Stickstofftrifluorid NF3 und Schwefelhexafluorid SF6. Wer sich für Treibhausgase interessiert: C2F6 ist 12.000-mal wirksamer als CO2 – bei 10.000 Jahren Verweilzeit in der Atmosphäre; NF3 kommt auf 17.000-mal und SF6 ist 23.000-mal wirksamer als CO2. Diese Gase sind laut NOAA (die US-Umweltbehörde für Ozeane und die Atmosphäre) bereits in der Atmosphäre messbar; der SF6-Anteil wächst exponentiell.

Damit ist diese Säule der Energiewende eine ineffiziente Stromerzeugungs-Technik, eine Netzstörung, ein Mittel zur Ruinierung der Kraftwerkswirtschaft, ein riesiger Geld-Aderlass für die Stromkunden – und dazu noch umweltschädlich. Aber ein gutes Geschäft für die Lobby.

Aber an allem ist irgendwie die Sonne schuld.

Die Natur selbst ist leider unfair.   

Dies ist ein kleines Stück aus der einzigartigen Geschichte der deutschen Energiewende.  Die ganze Story können Sie unten lesen.

Günter Keil,  23.8.2015

Sankt Augustin           

Related Files




Globale Überschwemmung vor Paris ? … oder eben 200 Jahre später ? …oder eben NIE ?

Gleichermaßen nicht zu stören scheint es, daß selbst der Klimarat im AR5 2013/14 für die nächsten 100 Jahre lediglich 26-82 cm anbietet. Wir hatten auf EIKE unlängst über die aktuellen Trends berichtet [E]. Die wesentlichen Ausführungen werden hier nochmals unten dargelegt.

====================================================

[A]: http://tinyurl.com/nlnt4fu   [B]: http://tinyurl.com/odxrocd  [C]: „… Fifteen-year-long hiatus periods are common in both the observed and CMIP5 historical GMST time series“; IPCC, AR5, Climate Change 2013: Technical Summary, p.61; http://tinyurl.com/oxtcp4j   [D]: Coverage of Extreme Events in the IPCC AR5 ; 03 October 2013 ; http://tinyurl.com/owwppfo [E]: http://tinyurl.com/qxe6uug  und http://tinyurl.com/oc9sc2q

======================================================

Video der ZDF Propaganda Meldung am 27.8.15 in 19.00 Uhr heute. Ihr Zweck: Stimmung für die große Umverteilungskonferenz unter dem Vorwand des „Klimaschutzes“ in Paris zu machen, wie der ZDF Klimaaktivist Volker Angres am Ende des Clips auch zugibt

Säkularer und Aktueller Meeres-Anstieg: Pegel (1.6 mm/Jahr) oder SAT-Altimeter (3.2 mm/Jahr) – WAS ist richtig ?

von Klaus-Eckart Puls

Zahlreiche Auswertungen von Küsten-Pegel-Messungen über 200 Jahre sowie neuerdings von Schwere-Messungen der GRACE-Satelliten ergeben immer wieder einen Meeres-Anstieg von etwa 1,6 mm/yr. Dagegen stehen die seit 1992 publizierten Altimeter-Messungen mit den Satelliten-Systemen TOPEX/POSEIDON/JASON mit doppelt so hohen Werten von 3,2 mm/yr. Die erhebliche Diskrepanz ist bis heute ungeklärt. Dabei stimmen jedoch immerhin die Trends überein: Der Meeres-Anstieg verläuft seit wenigstens 100 Jahren linear, es gibt keine Beschleunigung des Anstieges. Ein Signal durch anthropogenes CO2 (AGW) ist nirgends erkennbar. Das alles steht in krassem Widerspruch zu den Verlautbarungen und insbesondere zu den alarmistischen Prognosen des Klimarates IPCC und einiger Klima-Institute.

(1) Meeres-Anstieg an der Deutschen Nordsee-Küste seit 10.000 Jahren

Es ist das große Verdienst des Wilhelmshavener Küstenforschers Karl-Ernst BEHRE vom Niedersächsischen Institut für Historische Küstenforschung (NIHK), daß wir gute Kenntnisse über die Trans- und Regressionen an der deutschen Nordsee-Küste seit dem Ende der letzten Eiszeit haben [1], vgl. Abb.1 :

                                      Abbildung 1 [1c, S.21]

         Meeres-Anstieg für die südliche Nordsee seit 10.000 Jahren   

                                         Abbildung 2  [1a (2003), S.35]

               Meeres-Anstieg für die südliche Nordsee der letzten 3.000 Jahre

Aus den Abbildungen 1 und 2 ergibt sich: Der Meeres-Spiegel ist in den letzten 10.000 Jahren um mehr als 50 Meter gestiegen. Der Anstieg hat sich immer mehr verlangsamt, wenn man den übergreifenden Trend auch über die Trans- und Regressionen der letzten 3.000 Jahre betrachtet. In den „jüngsten“ 400 Jahren (1600-2000) hat es (ohne GIA-Korrektur) einen Anstieg von 1,35 m gegeben, in den vergangenen 100 Jahren nur einen solchen von 25 cm, folglich eine weitere Verlangsamung.

Bezüglich der säkularen Abschwächung des Meeres-Anstieges in den letzten Jahrhunderten kommen andere umfangreiche Untersuchungen [2] zum ähnlichen Ergebnis wie BEHRE:

„The last detailed regional study was by Shennan and Woodworth (1992). They used tide gauge and geological data from sites around the North Sea to infer 20thcentury and late Holocene secular trends in MSL. They concluded that a systematic offset of 1.0 ± 0.15 mm/yr in the tide gauge trends compared to those derived from the geological data could be interpreted as the regional geocentric rate of MSL change in the 20th century. They also constructed a sea level index to represent the coherent part of sea level variability in the region and found no evidence for a statistically significant acceleration in the rates of SLR over the 20th century. These results were in agreement with those of Woodworth (1990), who found a significant acceleration in the order of 0.4 mm/yr per century when focusing on time scales longer than a century (up to 300 years), but not for the 20th century.“

Dieses alles gilt insbesondere auch für die Deutsche Nordsee-Küste, wie der Niedersächsische Landesverband für Wasser, Küsten- und Naturschutz NLWKN in 2013 erneut bestätigte [3] :

„Bislang, betont Heyken (Anm.: Sprecherin NLWKN), gebe es aber keine Anzeichen, daß die Fluten schlimmer werden. ‚Wir messen die Hochwasserstände seit 100 Jahren. Während dieser Zeit ist das mittlere Hochwasser um 25 Zentimeter gestiegen. Daß der Meeresspiegel in den letzten Jahrzehnten schneller steigt, können wir nicht bestätigen.‘ Auch gebe es keine Belege für häufigere Fluten.“

F a z i t :
Der Meeres-Anstieg hat sich verlangsamt, über Jahrtausende und auch im letzten Jahrhundert. Ein „CO2-Klima-Signal“ ist nicht auffindbar !

(2)  Pegel als Bilanz-Messer: Küsten-Senkung und/oder Meeres-Anstieg ?

Weltweit wird die Veränderung des Meeres-Spiegels an Küsten mit etwa 1.000 Pegeln gemessen, wovon einige (wenige) sogar über 200 Jahre zurück reichen, die Mehrzahl weniger als 100 Jahre.  Die direkten absoluten Ablesungen und Trends sind zunächst immer nur eine Bilanz-Messung:

Anstieg oder Absinken des Meeres gegenüber Hebung oder Senkung der Küsten. Dafür gibt es mehrere Ursachen, insbesondere Platten-Tektonik, Vulkanismus und Eiszeit-Prozesse (Isostasie und Eustasie).

Für die Deutsche Nordsee-Küste hat BEHRE [1a] sich auch damit beschäftigt: „Das Nordseebecken ist bereits seit sehr langer Zeit ein Senkungsgebiet, und diese tektonische Senkung hält auch heute noch an“ ….u.w.a.a.O.: „Die deutsche Küste liegt im oberen Bereich dieses Senkungsgebietes. Zur genaueren Abschätzung der Vertikalbewegung eignet sich hier die Oberkante mariner Sedimente des Eem-Meeres …. Damit kommt man für den Bereich der Deutschen Bucht zu einer tektonisch bedingten mittleren Absenkung zwischen 0,64 cm/Jh. im Westen und 0,54 cm/Jh. im Osten, mithin zu einem geringen Betrag.“

Darüber hinaus diskutiert BEHRE (a.a.O.):

„Zu der früher stark diskutierten Frage eines möglichen tektonischen Absinkens der deutschen Nordseelüste wurden in den Jahren 1928-31, 1949-55 und 1980-85 drei sehr genaue Nordseeküsten-Nivellements durchgeführt ….“.

Unter der Berücksichtigung aller dieser bis 2003 bekanten Fakten kommt BEHRE zu dem Ergebnis:

„Danach erscheint für die Gegenwart ein tektonisch verursachtes Absinken von < 1,0 cm/Jh. wahrscheinlich….“.

Diese Zahlen sind nach neuere Untersuchungen zu gering abgeschätzt.

Im Jahre 2011 wurde eine Arbeit zu den Trends von 15 Küsten-Pegeln in der Deutschen Bucht publiziert [4].  Darin werden auch Abschätzungen zum Glacial Isostatic Adjustment (GIA) angegeben:

„This, initially, gives estimates of rates of vertical land movement for the three tide gauges providing the longest records ( -0.7 ± 0.2 mm/a for Cuxhaven, -0.5 ± 0.1 mm/a for Lt. Alte Weser and  -0.9 ± 0.2mm/a for Norderney; negative values denote land subsidence).“

Für diese drei Langzeit-Pegel wird also im Mittel eine Küsten-Absenkung von 0,7 mm/yr angegeben, was einen säkularen Absenkungs-Trend von 7 cm/Jh. bedeutet.

Im gleichen Jahre 2011 erschien eine umfangreiche Arbeit [5], die sich mit den postglazial anhaltenden vertikalen Landbewegungen des letzten Jahrtausends in Südskandinavien und Jütland beschäftigt. Die Null-Linie („Drehpunkt“) verläuft danach von den Nordfriesischen Inseln in einem nach Süden ausgreifendem Bogen über Dänemark in die mittlere Ostsee (Abb.3).

Für den Bereich der Deutschen Nordseeküste ergibt sich daraus ein tektonischen Absinken von etwa 10 cm/Jh.

                      Abbildung 3 [5, dort Fig.9] (blaue Erläuterungen ergänzt)

       Present-time isostatic uplift rates (mm/yr) of Denmark and surroundings.

In einer soeben publizierten Arbeit von MÖRNER werden auch drei Pegel im Kattegat analysiert, also in Nähe des tektonischen Nullpunktes („Drehpunktes“):

„In the Kattegatt Sea, the glacial isostatic component factor is well established and the axis of tilting has remained stable for the last 8000 years. At the point of zero regional crustal movements, there are three tide gauges indicating a present rise in sea level of 0.8 to 0.9 mm/yr for the last 125 years. Daraus ergibt sich ein säkularer absoluter Meeres-Anstieg (ASLR) von nur etwa 7 cm.

Die Pegel in Cuxhaven und Norderney zeigen einen relativen säkularen Anstieg von 25 cm, wozu die Landesregierung Niedersachsen unlängst feststellte [6]:

„Klimawandel nicht bemerkbar:  Für einen steigenden Meeres-Spiegel an Niedersachsens Nordseeküste als Folge des Klimawandels sieht die Landesregierung keine Anzeichen. Auch ein Trend zu höherer Sturmflut-Häufigkeit sei nicht erkennbar, teilte Umweltminister Hans-Heinrich Sander im Landtag mit. Danach liegt der Trend des Anstieges bei unverändert 25 cm je Jahrhundert.  Ein schnellerer Anstieg sei nicht zu beobachten.“

Dabei wären die von BEHRE genannten 1 cm/Jh. vernachlässigbar, wogegen die von HANSEN genannten 10 cm/Jh. zu einer bedeutsamen Schlußfolgerung führt: Der bilanzierte „Absolute Sea Level Rise“ (ASLR) beträgt dann nur etwa 15 cm/Jh.

F a z i t :
Der mit Pegeln gemessene Meeres-Anstieg an der Deutschen Nordsee-Küste beträgt in den letzten 100 Jahren 25 cm. Eine Beschleunigung ist nicht zu erkennen. Berücksichtigt man natürliche tektonische Küsten-Absenkungen (GIA), so beträgt der ASLR sogar nur etwa 15 cm. Ein CO2-AGW-Klima-Signal ist so oder so nicht erkennbar.

(3) Auswertung von 15 Küsten-Pegeln in der Deutschen Bucht

Von einem internationalen Autorenteam unter der wissenschaftlichen Leitung des Instituts für Wasserbau und Hydromechanik der Universität Siegen wurden 2011 Auswertungen aller verfügbaren Pegel für die Deutsche Bucht publiziert [7], im Einzelfall zurück reichend bis zu 166 Jahre v.h.

Dabei wird auch über Isotstasie-Abschätzungen diskutiert:

„Rates of vertical land movement are estimated from the sea level records using a simple approach and are compared with geological data and modelled GIA (Anm.: GIA: Glacial Isostatic Adjustment) estimates.“ [7a]

Die in Abb. 4a übergreifend gemittelte geglättete Auswertung zeigt, daß im Zeitraum von 166 Jahren abwechselnd Perioden mit beschleunigtem und verlangsamten Meeres-Anstieg auftreten:

„An accelerated sea level rise is detected for a period at the end of the nineteenth century and for another one covering the last decades.“ [7a].

Das verdeutlichen insbesondere auch die Abb. 4b dargestellten, sich dekadal ändernden jährlichen Anstiegs-Raten.

                                                   Abbildung 4 a+b [7a]

                                  Trends von 15 Küsten-Pegeln Deutsche Bucht 

Betrachtet man den Gesamtzeitraum mit einem Polynom 2. Grades [8], so ergibt sich ebenfalls keine säkulare Beschleunigung des Anstieges, eher eine Abschwächung:   vgl. Abb. 5:

            Abbildung 5 (Daten: F.ALBRECHT, Th.WAHL et al. [7] ; Graphik: Puls/EXCEL)

              Polynomischer Trend von 15 Küsten-Pegeln in der Deutschen Bucht

Auch die Autoren [7]  finden keinen Trend:

„Provided local sea level variations in Cuxhaven are unaffected by local effects and represent the large scale signal in the German Bight we would expect these residuals to be small and oscillating around zero with no long-term trend or discontinuity.“ (a.a.O.; Fig.6)

Ergebnis:

„The estimated long-term trend (1843 – 2008) for the Cuxhaven station is 2.3 mm/a.“ [7a]

Und w.a.a.O.: „For the period 1951-2008, for which data are available from all gauges, the trends vary between 1.0 mm/a (Bremerhaven) and 2.8 mm/a (Norderney).“ [7a]

Diese Daten sind ohne GIA-Korrektur. Dafür müßten folgende Korrekturen angebracht werden (a.a.O.):

„This, initially, gives estimates of rates of vertical land movement for the three tide gauges providing the longest records ( -0.7 ± 0.2 mm/a for Cuxhaven, -0.5 ± 0.1 mm/a for Lt. Alte Weser and  -0.9 ± 0.2mm/a for Norderney; negative values denote land subsidence).“

Danach beträgt der ASLR in der Deutschen Bucht im Mittel für das 20.Jh. nur etwa 13 cm!

F a z i t :
Der über alle 15 Pegel – mit unterschiedlichen Registrier-Zeiträumen – gemittelte Relative Meeres-Anstieg (RSLR) für die Deutsche Bucht beträgt von 1843-2008 etwa 32 cm, der säkulare Anstieg im 20. Jahrhundert rund 20 cm. Die GIA-korrigierten Werte (vgl. auch Kap.3) ergeben für die o.a. Zeiträume einen ASLR von etwa 22 bzw. 13 cm. Es existiert keine säkulare Beschleunigung, das Polynom in Abb.5 zeigt demgegenüber sogar eine leichte säkulare Abschwächung des Anstieges. Ein CO2-Klima-Signal (AGW) ist nicht auffindbar.

(4) Auswertung von 30 Küsten-Pegeln rund um die Nordsee

Ein Internationales Autoren-Team hat 2013 eine Auswertung von 30 Küsten-Pegel (1880-2011) rund um die Nordsee publiziert [9], vgl. Abb. 6+7 :

                                         Abbildung 6 [9; dort Fig.1]

                Abbildung 7 [9; dort Fig.10] (GIA: Glacial Isostatic Adjustment)

Das zusammengefaßte Ergebnis (mit GIA-Korrektur) :

„The long-term geocentric mean sea level trend for the 1900 to 2011 period is estimated to be 1.5 ± 0.1 mm/yr for the entire North  Sea region.“

Folglich:  Der säkulare lineare Trend im 20. Jh. beträgt 15 cm.

„In summary the long term trends in the North Sea are not significantly different from global sea level trends …“ u.w.a.a.O. :„The recent rates of sea level rise (i.e. over the last two to three decades) are high compared to the long-term average, but are comparable to those which have been observed at other times in the late 19th and 20th century.“

Für die alarmistischen Meeres-Szenarien im Rahmen der Klima-Debatte ist auch dieses Ergebnis nahezu ein Desaster, denn es wird – auch anhand einer umfangreichen Literatur-Übersicht – festgestellt, daß es überhaupt keinen Trend zu einer Beschleunigung des Anstieges gibt, weder säkular noch in den letzten Dekaden, im krassen Gegensatz zu den Klima-Modellen:

„… found little or no evidence for on-going positive sea level acceleration for the tide gauges located in the North Sea between 1870 and the late 1980’s of the sort suggested for the 20th century itself by climate models.

F a z i t :

Der über alle 30 Pegel gemittelte und mit GIA-Korrektur versehene Absolute Meeres-Anstieg (ASLR) für die gesamte Nordsee im Zeitraum 1900-2011 beträgt 15 cm. Eine Beschleunigung wurde nicht gefunden, daher auch kein AGW-CO2-Klima-Signal.

(5) Auswertung von 182 Pegeln global

NIEL-AXEL MÖRNER legte in zwei 2013 erschienen Arbeiten [10] globale Auswertungen von Pegeln (NOAA 2012) vor, von denen einige (wenige) sogar bis in das 18. Jahrhundert zurück reichen:

„Removing outliers of obvious uplift or subsidence, there are 182 records left, which

forms a nice Gaussian distribution around a mean value of +1.65 mm/yr.“

Die in Abb. 7 dargestellten Pegel-Daten sind nicht GIA-korrigiert, stellen folglich den RSLR (Relative Sea Level Rise) dar:

„Because many tide gauge stations are affected by local subsidence, this value should rather be considered an overestimate, however.“

                                Abbildung 8: GAUSS-Verteilung 182 Pegel [10]

(RSLR: ohne Glacial Isostatic Adjustment GIA;  „key sites: i.e. sites of special importance like the Maldives, Bangladesh, Tuvalu, Kiribati and Vanuatu …Venice“ )

Kritisch äußert sich MÖRNER auch hier zu den hohen Satelliten-Werten(vgl.Kap.8):

„Satellite altimetry is a new and important tool. The mean rate of rise from 1992 to 2013 is +3.2 ±0.4 mm (UC, 2013). This value is not a measured value, however, but a value arrived at after much “calibration” of subjective nature (Mörner, 2004, 2011a, 2013a).

The differences between the three data sets  <  ±0, +1.65 and +3.2 mm/yr >  are far too large not to indicate the inclusions of errors and mistakes.“

F a z i t :
Die Auswertung von weltweit 182 Pegeln ergibt im Mittel einen säkularen Meeres-Anstieg von 16 cm, ohne GIA-Korrektur. Eine säkulare Beschleunigung des Anstieges wurde nicht gefunden, daher auch kein AGW-CO2-Klima-Signal.

(6) Auswertung von 1200 Pegeln global

Ein internationales Autorenteam legte 2013 die Auswertung von 1277 Pegeln für dem Zeitraum  1807-2010 vor [11]. Das globale Gesamtmittel zeigt Abb.9.

Dabei wurden GIA-Korrekturen vorgenommen:

„The large uncertainties (up to 0.30.6 mm/yr) in our global sea level reconstruction are due to choice of GIA corrections, with difference up to 8 mm/yr in rate of sea level rise in individual locations, such as the Arctic, Baltic and Antarctic regions. The GIA correction adds up to 0.3 mm/yr trend in the global sea level reconstruction, with large differences between GIA datasets.“

                                                          Abbildung 9

                         Meeres-Trend 1807-2009; 1277 Pegel [11; dort Fig.3]

In die Graphik (Abb.9) ist zwar von den Autoren weder eine Regressions-Gerade eingefügt noch ein Polynom, aber auch so ist „durch Augenschein“ erkennbar:

()  In der ersten Hälfte des 19. Jh. ist der Meeresspiegel um ca. 15 cm abgesunken;

()  Seit ca.1860 steigt der Meeresspiegel – bis heute;

()  Seit 1860 sind dekadale Phasen rascheren und verlangsamten Anstieges erkennbar, eine Trend- Beschleunigung über den Gesamtzeitraum seit 1860 nicht; für die letzten 10 Jahre seit ca. 2000 sogar nur noch ein Plateau !?

Zu diesen Betrachtungen passen zunächst auch diese Aussagen der Publikation (Abstract):

„The new reconstruction suggests a linear trend of 1.9 ± 0.3 mm·yr− 1 during the 20th century, with 1.8 ± 0.5 mm·yr− 1 since 1970.“ (Anm.: 1970-2009).

Woraus folgt:

Die Anstiegsrate für den Teil-Zeitraum ab 1970 ist geringer als die Anstiegsrate für das gesamte 20. Jahrhundert! Es hat folglich eine Verlangsamung des Anstieges im 20. Jahrhundert bis heute statt gefunden.

Demgegenüber steht in der Publikation wenige Sätze weiter unten, ebenfalls im Abstract:

„We calculate an acceleration of 0.02 ± 0.01 mm·yr− 2 in global sea level (1807–2009)“.

WOW ! Für 100 Jahre ergäbe das 2 mm, Küsten-Überflutung voraus ?

Hierzu stellt sich zudem doch die Frage :

Wie kann der in der Publikation analysierte säkularer „linear trend (vgl.w.o.) eine Beschleunigung aufweisen ?

Das ist ein Widerspruch in sich. Ein linearer Trend wird durch eine Regressions-Gerade beschrieben, kann also u.E. keine Beschleunigung aufweisen !?

Das ist auch nicht der Fall, wie die Regressions-Gerade zu den SAT-Altimeter-Daten von AVISO in Abb.10 zeigt:

                                                          Abbildung 10

                         SAT-Altimeter-Daten [12; AVISO] (POSEIDON/TOPEX/JASON)

Es finden sich jedoch noch weitere Widersprüche in den Aussagen der JEVREJEVA-Publikation.

Zunächst und einerseits:

„… a linear trend of 1.9 ± 0.3 mm·yr− 1 during the 20th century“ (Abstract), und: GSL12 shows a linear trend of 1.9 ± 0.3 mm·yr1 during the 20th century …“ (Conclusion).

Das ist nur wenig mehr als die Hälfte der Altimeter-Messungen von 3.3 mm/yr in den AVISO-Daten (Abb.10).

Demgegenüber heißt es – u.E. im Widerspruch dazu – unmittelbar im Satz davor in „Conclusion“: „There is an excellent agreement between the linear trends from GSL12 and satellite altimetry sea level since 1993, with rates of 3.1 ± 0.6 mm·yr1 and of 3.2 ± 0.4 mm·yr1 respectively“.

WIE denn nun (?) :

3.1 mm/yr oder 1,8 mm/yr –  denn: die hier genannte Pegel-Periode 1970-2008 enthält doch auch die Altimeter-Messungs-Periode seit 1993 ! D a h e r  müßte ein solcher „Daten-Sprung“ ab 1993 auch in der Abb.9 (Fig.3) auffindbar sein, ist er aber nicht! Stattdessen findet man in Abb.9 ab etwa 2000 eine Art Plateau – „Null-Anstieg“ !

Gänzlich rätselhaft wird die Sache, wenn man dazu noch die Fig.7 in der JEVREJEVA-Publikation [11] anschaut: Dort verlaufen zwei Regressions-Geraden Pegel & Altimeter 1993-2009 nahezu kongruent:

„Dashed red and blue lines represent linear trends for satellite altimetry (3.2 mm·yr1) and tide gauge (3.1 mm·yr1)…“. wovon sich in Fig.3/Abb.9 im Vergleich mit den SAT-Daten von AVISO (Abb.10) keine Spur finden läßt !?

Es ist nicht nachvollziehbar, wie eine solche umfangreiche Publikation voller Widersprüche ein „Peer Review“ passieren kann.

F a z i t :
Die Arbeit von  JEWREJEVA et al. schafft bezüglich einer Klärung der großen Diskrepanz zwischen den Daten der Pegel und der Satelliten u.E. keine Klarheit, sondern eher zusätzliche Verwirrung. Das Gleiche gilt für die widersprüchlichen Trend-Aussagen zum Meeres-Anstieg in der Arbeit.

(7)  GRACE-Satelliten bestätigen die Pegel: 1.7 mm/yr !

Eine aktuelle Auswertung [13] der Schwerefeld-Messungen mit den GRACE-Satelliten bestätigt die zahlreichen Publikationen von Pegel-Auswertungen:

Eine aktuelle Auswertung [13] der Schwerefeld-Messungen mit den GRACE-Satelliten bestätigt die zahlreichen Publikationen von Pegel-Auswertungen:

„Neue Studie mittels GRACE-Daten: Meeresspiegel steigt um weniger als 17 cm pro Jahrhundert“Eine neue Studie, erstellt mit den GRACE-Daten (Gravity Recovery And Climate Experiment) zeigt, dass der Meeresspiegel während der letzten 9 Jahre mit einer Rate von nur 1,7 mm pro Jahr gestiegen ist. Das ergibt ein Äquivalent von 6,7 Inches (fast 17 cm) pro Jahrhundert. Dies paßt gut zu Messungen an Pegeln.

… nämlich (a.a.O.) :

Aus dem IPCC FAR Abschnitt 5.5.2: Holgate und Woodworth (2004) schätzten eine Rate von 1,7 ± 0.4 mm pro Jahr, und zwar gemittelt entlang der globalen Küstenlinie während des Zeitraumes 1948 bis 2002 und basierend auf Messungen von 177 Stationen (Anm.: Pegeln), eingeteilt nach 13 Regionen.

Church et al. (2004) berechneten einen globalen Anstieg von 1,8 ± 0.3 mm pro Jahr während der Periode 1950 bis 2000, und Church und White (2006) berechneten eine Änderung von 1,7 ± 0.3 mm pro Jahr im 20. Jahrhundert.“

…und w.a.a.O. :

„Bedeutung dieses Ergebnisses :

Das Geocenter-korrigierte Schlußergebnis von Baur et al. ist höchst ermutigend, wenn Chambers et al. (2012) zeigen, dass der Meeresspiegel im Mittel um 1,7 mm pro Jahr während der letzten 110 Jahre gestiegen ist, wie es sich auch aus den Analysen von Church und White (2006) sowie Holgate (2007) ergibt.

Gleichzeitig ist die CO2-Konzentration in der Luft um fast ein Drittel gestiegen. Und immer noch hat dieser Anstieg nicht die Rate des globalen Meeresspiegel-Anstiegs beeinflusst !“

F a z i t :
Die beiden extrem unterschiedlichen Methoden der Pegel- und der Schwerkraft-Messungen (GRACE-Satelliten) stimmen mit jeweils 1,7 mm/yr erstaunlich gut überein, auf ein Zehntel Millimeter!  Das wirft allerdings erneut die in der Literatur immer wieder kritisch gestellte Frage auf, wieso die Satelliten-Meßverfahren TOPEX/POSEIDON/JASON – als einzige aller Meßmethoden – nahezu doppelt so hohe Werte ergeben (s. Kap.(8) ) :

(8) Pegel versus SAT-Altimeter

Weltweit publizierte Pegel-Messungen (vgl. Abb. 4-9, und weitere Publikationen [14] ) sowie gleichermaßen die Schwerkraft-Messungen der GRACE-Satelliten zeigen global einen mittleren jährlichen Meeres-Anstieg von 1,5 – 1,7 mm/yr, also säkular 15-17 cm, wogegen von den erst seit 1992 verfügbaren Altimeter-Messungen  anderer Satelliten (Abb. 10 + 11) doppelt so hohe Anstiegs-Raten publiziert werden [15]: 3,2 mm/yr.

Zu Beginn der SAT-Altimeter-Ära (1992) lagen die zunächst publizierten Messungen sogar deutlich unter 1 mm/yr, also auch noch deutlich unter den Pegel-Meßwerten. Im Laufe der folgenden Jahre wurden dann die SAT-Daten mehrfach zu höheren Werten hin korrigiert. Die Gründe bleiben unklar, wie eine dazu sehr ausführliche Historie von RUDOLF KIPP dokumentiert [16] :

„Nur durch zahlreiche Korrekturen, die auf Annahmen beruhen die nicht weiter ausgeführt werden, ergibt sich der “offizielle” Wert von zur Zeit 3,1 mm pro Jahr.“

Es ist aufschlußreich, hier einige weiteren Passagen aus dieser Dokumentation zu zitieren:

„Der “Environmental Satellite” (Envisat; 2002-2012) ist so etwas wie das Prunkstück der European Space Agency (ESA). … Zu den Aufgaben dieses Satelliten gehört unter anderem … die Vermessung des Meeresspiegels. Allerdings hat die Auswertung letzterer Daten bislang zu Ergebnissen geführt, die weder mit den Aussagen (Anm.: IPCC) eines beschleunigten Meeresspiegel-Anstiegs, noch mit den Messungen der amerikanischen Jason-Satelliten in Einklang standen. …

Der von Envisat gemessenen Anstieg des Meeresspiegels betrug im Zeitraum von Ende 2003 bis Ende 2011 lediglich 0,48 mm/Jahr, was 4,8 cm in 100 Jahren entsprechen würde. Die Messungen des Jason-1 Satelliten haben für den gleichen Zeitraum einen Anstieg von 2,05 mm pro Jahr gefunden. … Um diesem Umstand zu begegnen wurden bei der ESA bereits im letzten Jahr Methoden diskutiert, wie man die Envisat Daten rechnerisch an die Ergebnisse der Messungen der Jason Satelliten angleichen kann. Diese Anpassung wurde jetzt beim Umstellen auf die neueste Version der Envisat Daten (Version 2.1) offensichtlich vorgenommen. Aus dem bisherigen minimalen Anstieg von 0,48 mm/Jahr wurde dadurch quasi über Nacht ein Anstieg von 2,32 mm/Jahr. Wer nach einer Begründung für diese Maßnahme sucht, der wird auf der Aviso-Homepage unter “Processing and corrections”  fündig. Dort heißt es: ’sign of instrumental correction (PTR) corrected via external CLS input (impact of +2 mm/year drift)‘ Man hat also einen Abgleich an externen Daten vorgenommen. Es findet sich allerdings kein Wort dazu, was für Daten das sind oder welcher Umstand diesen radikalen Eingriff notwendig gemacht hätte.“

…und w.a.a.O.:

Und auch die aktuell bei den Daten des europäischen Envisat Projektes vorgenommenen Korrekturen folgen nicht nur dem altbekannten Schema, dass diese Maßnahmen ausnahmslos in eine Richtung weisen, und zwar zu höheren Werten.“ …

Auch die Begründung, welche die Wissenschaftler anbieten, trägt mehr zur Verschleierung bei, als dazu aufzuklären, warum ein so fundamentaler Eingriff in die Daten vorgenommen werden musste. Was bleibt ist der Eindruck, dass hier Daten systematisch “hochgerechnet” werden. Schließlich steht der nächste Zustandsbericht des Weltklimarates (IPCC) für das Jahr 2014 an. Und dieser kann seine volle Wirkung nur entfalten, wenn alles sich noch viel schlimmer darstellt, als man im letzten Report 2007 bereits gesichert wusste. Ein seit Jahren langsamer werdender Anstieg des Meeresspiegels wäre hierzu ganz sicher nicht hilfreich.“

Und diese nahezu prophetischen Worte von RUDOLF KIPP im Jahre 2012 haben sich schon 2013 „erfüllt“, denn – genau so ist es gekommen: der Klimarat IPCC hat seine Meeres-Prognose im AR 2014 für 2100 erstmals wieder erhöht, nachdem IPCC in den drei Vorberichten (AR’s 1995, 2001, 2007) schrittweise eine „Herunter-Stufung“ der Prognosen Richtung Meß-Realität vorgenommen hatte: vgl. Abb. 12 !

D a z u  einige Äußerungen von namhaften Meeres-Forschern [17]:

„Ich halte es für unwahrscheinlich, dass sich der Meeresspiegel-Anstieg ausgerechnet in dem Jahr beschleunigt haben sollte, als Satelliten in Dienst gestellt wurden“, ergänzt SIMON HOLGATE, Meeres-Spiegel-Forscher am National Oceanography Centre in Liverpool.“ …

„Ob wir seit 1993 eine Beschleunigung haben, ist nicht klar„, sagt JOHN CHURCH vom australischen Klimaforschungsinstitut CSIRO.“

NILS-AXEL MÖRNER [18] (Univ. Stockholm, Paleogeophysics & Geodynamics) dazu:

„Satellite altimetry is a new and important tool. The mean rate of rise from 1992 to 2013 is +3.2 ±0.4 mm (UC, 2013). This value is not a measured value, however, but a value arrived at after much “calibration” of subjective nature (Mörner, 2004, 2011a, 2013a). The differences between the three data sets  < ±0, +1.65 and +3.2 mm/yr >  are far too large not to indicate the inclusions of errors and mistakes.“

In einer Graphik wurde das alles so zusammen gefaßt (Abb. 11 a+b) :

                Abbildung 11 a+b: Gegenüberstellung der Pegel- und Sat-Daten

[19] (Textfelder in Abb.11a ergänzt )

In den jüngst erschienen, schon unter den Abschnitten (3)+(4) zitierten umfangreichen Arbeiten zu den Nordsee-Pegeln [WAHL, ALBRECHT et al. 2011, 2013] wird zwar übereinstimmend fest gestellt, daß der säkulare Anstieg in der Nordsee bei etwa 13-18 cm liegt – ohne(!) Beschleunigung, aber über die krasse Diskrepanz dieser Daten gegenüber den Altimeter-Messungen wird dort kaum ein Wort verloren, sieht man einmal von einer solchen lapidaren Anmerkung ab:

„For the period 1993 to 2009, the estimated global MSL trend from altimetry records is 3.2 ± 0.4 mm/yr, almost double that observed from 1900 to 2009 (Church and White, 2011).“

Eine wissenschaftlich kritische Diskussion oder gar Bewertung dazu fehlen hier völlig – seltsam.

F a z i t :
Die erhebliche Diskrepanz zwischen Sat-Altimeter-Daten und Pegeln ist bis heute u.E. nicht geklärt [20] :
„Trotz der neuen Satellitenmessungen wurden die Pegelmessungen natürlich weitergeführt. Und die ließen sich nicht beirren und blieben stur bei ihrem alten Kurs von deutlich unter 2 mm/Jahr. Anstatt die Satellitendaten nun an die real am Boden gemessenen Daten anzupassen und nach unten zu korrigieren, besteht die Diskrepanz zwischen Pegel- und Satellitenmessungen aber leider bis heute weiter. Und es scheint irgendwie auch niemanden zu stören. Ein mysteriöser Fall.“

(9)  SPIEGEL: „Feilschen wie auf dem Basar“

Bemerkenswert ist u.E. noch, was DER SPIEGEL [21] unter dem Titel „Klimarat feilscht um Daten zum Meeresspiegel-Anstieg“ über die Art und Weise der „Entstehung“ von Meeres-Spiegel-Prognosen beim IPCC über eine diesbezügliche Tagung  der Meeresspiegel-Forscher (Juli 2011) berichtet :

„Viele Milliarden Euro stehen auf dem Spiel: Ein Uno-Gremium entscheidet über die Prognose zum Anstieg der Ozeane – sie bestimmt, wie viel Steuergeld  die Staaten in den Küstenschutz pumpen müssen. Hunderte Studien werden verhandelt, es geht zu wie auf einem Basar.“

Und weiter a.a.O. :

„Das Feilschen um die Ergebnisse gleicht dem Handel auf einem Basar:

Auf der einen Seite haben Forscher alarmierende Meeresspiegel-Prognosen veröffentlicht, die die Angaben des letzten Uno-Klimareports weit übertreffen.

Demgegenüber stehen tatsächliche Messungen des Meeresspiegels: Sie lassen bislang keinen extremen Anstieg erkennen.„4000 Experten diskutierten auf der IUGG-Tagung von Ozeanforschern im australischen Melbourne ihre Ergebnisse. Mitunter lautet dabei die Maxime: „Wer bietet mehr?“ „Der Klimaforscher James Hansen von der Nasa zum Beispiel warnt in einem aktuellen Papier vor einem Anstieg der Meere um fünf Meter in den nächsten 90 Jahren – er verneunfacht damit die Schätzung des Höchstszenarios aus dem letzten Uno-Klimareport. Der Nasa-Forscher riskiere mit der Extremprognose seine Glaubwürdigkeit, meinen manche Klimatologen.“

Bei dieser Art von „BASAR“ gibt es allerdings auch nüchterne sachliche Stimmen (a,a,O.):

„Die höheren Anstiegsraten seit 1993 seien nichts Außergewöhnliches, meint Guy Wöppelmann von der Université de La Rochelle in Frankreich. Im 20. Jahrhundert habe sich der Meeresspiegel-Anstieg zuvor schon mal ähnlich beschleunigt; doch dann verlangsamte er sich wieder.“

„Ähnliches geschehe nun wieder, sagt Eduardo Zorita vom GKSS-Institut für Küstenforschung: In den vergangenen acht Jahren habe sich der Anstieg der Ozeane abgeschwächt; wie es weitergehe, sei ungewiss.“

…und weiter a.a.O.:

“ Die Geoforscher Jim Houston vom Engineer Research Center in Vicksburg und Bob Dean von der University of Florida in Gainsville in den USA legten im Fachblatt „Journal of Coastal Research“ überraschend dar, dass der Meeresspiegel während des vergangenen Jahrhunderts ziemlich gleichbleibend angestiegen sei – eine Beschleunigung sei nicht zu erkennen.“

Dieses alles hat den Klimarat nicht davon abgebracht, gegen alle früheren und aktuellen Meßdaten nun im IPCC-Bericht 2013/14 wieder eine Beschleunigung des Meeres-Anstieges für die nächsten 100 Jahre zu prognostizieren, nachdem man in den Berichten davor (AR’s 1995, 2001, 2007) Schritt um Schritt eine weitgehende Herunterstufung in Richtung der Meß-Realität vorgenommen hatte (Abb. 12) :

                                         Abbildung 12 [IPCC/AR’s 1990-2013]

                                       IPCC-Prognosen zum Meeres-Anstieg 

F a z i t :
Die Erstellung von IPCC-Prognosen zum Meeres-Anstieg haben mit sachlicher Wissenschaft kaum noch etwas gemein [ SPIEGEL-ol. 14.07.2011] : „Das Feilschen um die Ergebnisse gleicht dem Handel auf einem Basar.“

(10)  Vertrauens-Krise der IPCC-Institute auch beim Meeres-Spiegel-Alarm

Mit dem „Climate-Gate-Skandal“ begann 2009 für das IPCC eine schwere Vertrauens-Krise [22], die bis heute anhält.

Dieser Vertrauens-Verlust in die IPCC-Prognosen zeigt sich immer wieder auch bei den von einigen Instituten verbreiteten Phantastereien zu gigantischen Meeresspiegel-Anstiegen [23]:

„4000 Experten diskutierten auf der IUGG-Tagung von Ozeanforschern im australischen Melbourne ihre Ergebnisse. Mitunter lautet dabei die Maxime: „Wer bietet mehr?“ (vgl. Kap.9).

So kann es nicht verwundern, daß Planer beim Küstenschutz derartigen Prophezeiungen keinen Glauben mehr schenken. Daher werden z.B. auch Stefan Rahmstorf und das PIK mit derartigen Extrem-Prognosen zum Meeres-Spiegel international kaum noch ernst genommen [24]:

„Unter sorgfältiger Abwägung aller verfügbaren Informationen entschied der Senat von North Carolina im Juni 2012 mit 35 zu 12 Stimmen, dass bei Küstenschutzplanungen zukünftig mit der historisch gut dokumentierten Meeresspiegel-Anstiegsrate kalkuliert werden muss. Eine Beschleunigung wie sie von der Rahmstorf-Gruppe für die Zukunft postuliert wird, soll nicht eingerechnet werden. (Siehe Berichte auf junkscience, Climatewire, WUWT, John Droz Jr.).

Das Gesetz wurde Anfang Juli 2012 auch vom Repräsentantenhaus von North Carolina abgesegnet. … Die republikanische Politikerin Pat McElraft hatte sich für die beschlossene Regelung eingesetzt und erklärte, dass sie eine zukünftige starke Beschleunigung des Meeresspiegel-Anstiegs als unrealistisch ansieht und dies lediglich Vermutungen darstellt.“

Die Vertrauenskrise des IPCC ist mittlerweile sogar in den sonst überwiegend Klima-katastrophilen deutschen Medien [25] angelangt:

„Wenn bald über die Verlierer des Jahres nachgedacht wird, stehen die Klimaforscher auf vielen Listen si­cher weit oben. … Stocker [26] war schon einige Wochen vorher bei der Vorstellung seines IPCC-Berichts prak­tisch baden gegangen, weil er der Öf­fentlichkeit und Politik vergeblich zu vermitteln versuchte, dass die jahrelan­ge Quasi-Stagnation der Welttempera­tur, der „Hiatus“, von der Klimapolitik ausgeklammert werden sollte. … Die Lo­gik der Politik ist aber eine andere:  Wenn die Klimaforschung schon so gravierende Schwankungen der Gegen­wart nicht auf ihrer Rechnung hat, wie sollen wir ihr dann die Prognosen für die nächsten hundert Jahre abneh­men?“

DER SPIEGEL [27] macht bereits einen „Abgesang“ auf den Klimarat IPCC:

„Der Ehrentag des Klimarats der Vereinten Nationen (IPCC) wurde am Freitag mit einer spärlich besuchten Pressekonferenz in der georgischen Stadt Batumi (Anm.: 18.10.2013) begangen … Zum 25. Geburtstag kamen kaum Gäste, es wurde nur Wasser gereicht … Es wirkte wie ein Abgesang auf jene Organisation, die 2007 immerhin mit dem Friedens-Nobelpreis geehrt wurde.  Einen weiteren großen Klimareport wird es womöglich nicht mehr geben.“

====================================================================

Z u s a m m e n f a s s u n g :
Die ständigen Alarm-Meldungen zu angeblich dramatischen Meeres-Spiegel-Anstiegen in Gegenwart und Zukunft können durch Messungen nicht bestätigt werden, sondern werden durch die Meß-Daten sogar widerlegt. Weltweit zeigen weder die Pegel-Daten (200 Jahre) noch die Satelliten-Daten (20 Jahre) eine Beschleunigung des Meeres-Anstieges. Dazu in krassem Widerspruch stehen alle bisherigen und derzeitigen Aussagen vom Klimarat IPCC, von einigen Klima-Instituten sowie die der Klima-Modelle. Darüber hinaus gibt es Anhalts-Punkte dafür, daß die Satelliten-Daten zu höheren Beträgen hin erheblich „über-korrigiert“ wurden [28]: „Anstatt die Satellitendaten nun an die real am Boden gemessenen Daten anzupassen und nach unten zu korrigieren, besteht die Diskrepanz zwischen Pegel- und Satellitenmessungen aber leider bis heute weiter. Und es scheint irgendwie auch niemanden zu stören. Ein mysteriöser Fall.“

       Klaus-Eckart Puls

===============================================================
Q u e l l e n :

[1] BEHRE, K.-E.: (a) Eine neue Meeresspiegel-Kurve für die südliche Nordsee, Probleme der Küstenforschung im südlichen Nordseegebiet, Band 28, (2003), Isensee-V.; (b) A new Holocene sea-level curve for the southern North Sea; Boreas, Vol. 36, pp. 82102. Oslo. ISSN 0300-9483, 2007 (January); (c) Landschaftsgeschichte Norddeutschlands, Wachholz-Verlag Neumünster, (2008), 308 S.

[2] Shennan, I., Woodworth, P.L., 1992. A comparison of late Holocene and twentieth century sea-level trends from the UK and North Sea region. Geophys. J. Int. 109, 96–105; nachzitiert nach: T. WAHL et al.: „Observed mean sea level changes around the North Sea coastline from 1800 to present“ ; Earth-Science Review; Vol. 124, Sept. 2013, 51-67

[3] NLWKN; NZ, 16.11.2013, S.25, in: „Superdeich schützt die Küste“

[4] Wahl, T., Jensen J., Frank, T. and Haigh, I.D. ; (2011) Improved escmates of mean sea level changes in the German Bight over the last 166 years, Ocean Dynamics, May 2011, Vol. 61, Issue 5, 701-715

[5] J.M. HANSEN et al.: Absolute sea levels and isostatic changes of the eastern North Sea to central Baltic region during the last 900 years ; BOREAS, DOI 10.1111/j.1502-3885.2011.00229.x (2011)

[6]  NZ, 04.02.2010, S.4; Klima-Wandel nicht bemerkbar

[7]  (a) Wahl, T., Jensen J., Frank, T. and Haigh, I.D. ; (2011) Improved escmates of mean sea level changes in the German Bight over the last 166 years, Ocean Dynamics, May 2011, Vol. 61, Issue 5, 701-715; (b) Albrecht, F., T. Wahl, J. Jensen and R.Weisse (2011); Determinig sea level change in the German Bight, Ocean Dynamics, doi:2010.1007/s10236-011-0462-z

[8] Wir bedanken uns bei den Autoren F.ALBRECHT, Th.WAHL et al. [7] für die Überlassung der Original-Daten für die Abb.5

[9] T. WAHL et al.: „Observed mean sea level changes around the North Sea coastline from 1800 to present“ ; Earth-Science Review; Vol. 124, Sept. 2013, 51-67

[10]  NILS-AXEL MÖRNER: (a) Sea Level Changes Past Records And Future Expectations, ENERGY &ENVIRONMENT, VOL. 24 No. 3 & 4 (2013) (b) Sea Level Changes; A short comment; (2013); Paleogeophysics & Geodynamics, Stockholm, The Global Climate Status Report (GCSR) © is a product of the Space and Science Research Corporation, (SSRC), P.O. Box 607841, Orlando, Florida

[11] JEVREJEVA, S., et al.: Global Sea Level Behavior of the Past Two Centuries; Global and Planetary Change 113: 11-22; (2014); http://kaares.ulapland.fi/home/hkunta/jmoore/pdfs/Jevrejevaetal2013GPChange.pdf

[12] www.aviso.altimetry.fr/en/data/products/ocean-indicators-products/mean-sea-level.html

[13]  http://www.eike-klima-energie.eu/news-cache/neue-studie-mittels-grace-daten-meeresspiegel-steigt-um-weniger-als-17-cm-pro-jahrhundert/   09.07.2013 ; und http://sealevel.colorado.edu/content/continental-mass-change-grace-over-2002%E2%80%932011-and-its-impact-sea-level   08.07.2012

[14]  (a) http://wattsupwiththat.com/2012/05/16/issea-levelriseaccelerating/  und: (b) http://www.kaltesonne.de/?p=4429

[15] http://www.aviso.altimetry.fr/en/data/products/ocean-indicators-products/mean-sea-level.html

[16]  (a) http://www.science-skeptical.de/blog/was-nicht-passt-wird-passend-gemacht-esa-korigiert-daten-zum-meeresspiegel/007386/ ; 13. April 2012 | Von Rudolf Kipp (b) Nachträgliche Korrekturen der Satelliten-Meeresspiegeldaten: Was nicht passt wird passend gemacht? 14. Juli 2012 ;  http://www.kaltesonne.de/?p=4544

[17] SPIEGEL-ol.; 25.08.2011:  http://www.spiegel.de/wissenschaft/natur/ozeane-wetterumschwung-senkt-globalen-meeresspiegel-a-782324.html

[18]  Nils-Axel Mörner: Sea Level Changes; A short comment; (2013); Paleogeophysics & Geodynamics, Stockholm, The Global Climate Status Report (GCSR) © is a product of the Space and Science Research Corporation, (SSRC), P.O. Box 607841, Orlando, Florida

[19]  http://climatesanity.wordpress.com/2011/06/06/deception-from-nasa-satellites-are-true-cause-of-sea-level-rise/

[20]  http://www.kaltesonne.de/?p=4544 ; 14. Juli 2012

[21] SPIEGEL: „Klimarat feilscht um Daten zum Meeresspiegel-Anstieg“ ; 14.07.2011 ; http://www.spiegel.de/wissenschaft/natur/0,1518,774312,00.html

[22]  http://laufpass.com/ausgaben/eBook/eBook_0210/flash.html ; Nr.24 (2010), S. 8-13 ;   u n d

http://www.eike-klima-energie.eu/climategate-anzeige/vertrauen-in-welt-klima-rat-im-freien-fall-die-irrungen-wirrungen-und-manipulationen-des-ipcc-ein-update/ ; 08.06.2010

[23]  http://www.spiegel.de/wissenschaft/natur/0,1518,774312,00.html ; 14.07.2011

[24]  http://www.kaltesonne.de/?p=4506 ; 12. Juli 2012

[25] FAZ, 27.11.2013, „Durchhaltemodelle“

[26] THOMAS STOCKER, Sitzungsleiter beim IPCC auf der Tagung in Stockholm, Sept. 2013

[27] SPIEGEL: Uno-Forscher wollen große Klimaberichte abschaffen ; 18.10.2013 ;

http://www.spiegel.de/wissenschaft/natur/umbau-des-uno-klimarats-klimabericht-des-ipcc-arbeitsgruppe-2-a-928717.html

[28]  Nachträgliche Korrekturen der Satelliten-Meeresspiegeldaten: Was nicht passt wird passend gemacht? ; http://www.kaltesonne.de/?p=4544 ; 14. Juli 2012

[29]  NilsAxel Mörner: Deriving the Eustatic Sea Level Component in the Kattaegatt Sea; Global Perspectives on Geography (GPG) Volume 2, (2014), p.16-21

===================================================

Anmerkung EIKE-Redaktion:

Die vorstehende Publikation kann in der Anlage hier als PDF runter geladen werden, sowohl in Deutsch als auch in einer Englisch-sprachigen Version; mit jew. besserer Qualität der Abbildungen als hier vorstehend im WEB-Artikel; s.w. unten.

====================================================

Related Files




Sommer 2015- nur gefühlt sehr warm und schön?

Bild rechts: Kleiner Traktor, große Staubwolke, das war im Sommer 2015 nur zeitweise zu beobachten. Foto: Stefan Kämpfe

2015- (k)ein Dürre- Sommer?

Besonders in der Mitte Deutschlands fiel schon zwischen Februar und Mai zu wenig Regen. Zeitweise verursachte diese Dürre eine vorübergehende Welketracht selbst bei robusten Pflanzen wie dem Zaun-Giersch; in Weimar war das schon im ersten Junidrittel gut zu beobachten. Doch um den 20.Juni gab es das erste Mal ergiebigere Niederschläge; alle Pflanzen erholten sich rasch. Teilweise ergiebige Gewitterschauer unterbrachen die folgende Juli-Hitze; die ganz große Trockenheit blieb aus. In einigen Regionen fehlte dann aber zwischen dem 30. Juli und dem 13. August jeglicher Regen, was die Dürre nochmals verschärfte, ehe sie ab dem 14. August von ergiebigen Gewitterschauern und Landregen beendet wurde. Im Jahr 2003 hatte es im Thüringer Becken jedoch zwischen dem 30. Juli und dem 28. August nur ganz seltene, unbedeutende Regenfälle gegeben, nachdem der Zeitraum von Februar bis Juli nur etwas feuchter, aber besonders im Mai/Juni viel wärmer war, so dass mehr Wasser verdunstete. Am 14. August 2015, wenige Stunden vor dem Ende der Dürre, war der Nordhang des Hundsberges bei Weimar grün; die Ästige Graslilie blühte noch, während dieser von Steppenrasen bewachsene Berg Mitte August 2003 völlig ausgebrannt war. In weiten Teilen Nordwest- und Süddeutschlands verzeichnete man durchschnittliche bis reichliche Niederschlagsmengen. Doch selbst im diesjährig zu den trockensten Regionen gehörenden Erfurt gab es seit 1952 mindestens 13 trockenere Sommer als 2015, darunter 1952, 62, 73, 76, 80, 82, 83, 89, 2003 und 2013. Die folgende Grafik illustriert das jegliche Fehlen der oft vorhergesagten Niederschlagsabnahme.

Abb. 1: In Erfurt- Bindersleben, wo halbwegs verlässliche DWD- Daten seit 1952 vorliegen, zeigt sich bei enormen Schwankungen kein Trend zur sommerlichen Niederschlagsabnahme (2015 inklusive 26. August geschätzt). Der Sommer 2015 war hier nicht extrem trocken.

Für langfristigere Betrachtungen eignet sich die Station Potsdam-Telegrafenberg. In der Hauptstadt des ebenfalls recht niederschlagsarmen Landes Brandenburg übertraf der 2015er Sommer mit mehr als 215 mm den vieljährigen Mittelwert (LJM 1883 bis 2014) von 197mm. Die immer wieder vorhergesagte Versteppung des Ostens von Deutschland aufgrund von Niederschlagsmangel ist auch im Sommer 2015 nicht eingetreten:

Abb. 2: Sommerliche Niederschlagsentwicklung in Potsdam seit 1883 (2015 bis inklusive 26. August). Das vieljährige Mittel von 197mm wurde schon vor dem Ende des Augusts deutlich überboten. Die geringe, vieljährige lineare sommerliche Niederschlagsabnahme von knapp 5mm liegt im Zufallsbereich und ist daher unwesentlich (nicht signifikant).

Fazit: Auch wenn viele Landwirte und Gärtner von der zeitweiligen Trockenheit genervt waren, sprechen die offiziellen Zahlen eine andere Sprache. Der abgelaufene Sommer brachte uns, bei großen regionalen und zeitlichen Schwankungen, meist durchschnittliche, gebietsweise gar überreichliche Regenmengen. Trotzdem ist das Empfinden der Landwirte und Gärtner nicht ganz falsch. Durch Versiegelungen und Drainagen wird unsere Landschaft jedoch immer trockener, nicht durch einen „CO2- bedingten Klimawandel“. Das leider in den letzten Jahrzehnten sehr massive Ausräumen der Landschaft (Roden von Feldgehölzen und Bäumen in der Feldflur) begünstigt den austrocknend wirkenden Wind. In Thüringen hat sich für diese monotonen, artenarmen, wind- und dürregeplagten Agrarlandschaften der Begriff „Kultursteppe“ eingebürgert.

Trotz zeitweiliger Hitze kein neuer „Rekordsommer“ im Deutschland- Mittel

In mehreren kürzlich bei EIKE erschienenen Beiträgen zum Juli und zum Sommer 2015 wurde schon ausführlich über die meteorologischen und die sonstigen Ursachen des sehr wechselhaften „Schaukelsommers“ berichtet. Näheres unter http://www.eike-klima-energie.eu/klima-anzeige/der-steppensommer-2015-gut-oder-schlecht-fuer-die-natur/ und http://www.eike-klima-energie.eu/klima-anzeige/2015-dritter-deutlich-zu-warmer-juli-in-folge-k-ein-menetekel-des-klimawandels/ sowie http://www.eike-klima-energie.eu/klima-anzeige/bemerkungen-zu-den-hitzewellen-2015-in-mitteleuropa/

Im Wesentlichen bestimmen die Großwetterlagen den Charakter der Sommerwitterung. Bei den häufigen südöstlichen, südlichen und südwestlichen Strömungen gelangte oft Heißluft, teilweise aus der Sahara, nach Deutschland. Diese Lagen wurden aber immer wieder von maritimen Kälteeinbrüchen, meist aus Nordwest, unterbrochen; im Juni herrschten diese gar vor. Eine hohe, aber im Vergleich zu 1994 oder 2003 keinesfalls rekordverdächtige Sonnenscheindauer wirkte zusätzlich erwärmend. Der in Norddeutschland zu kalte Juni und die von Sonnenscheinarmut begleiteten kälteren Phasen im Juli und Mitte August verhinderten ein höheres Temperaturmittel. Das sehr hohe Deutschland- Mittel der Sommer 2003 (19,7°C), 1947 (18,5°C) und 1826, 1834 sowie 1994 (jeweils 18,4°C) wurde nicht erreicht. Die Abbildung 3 verdeutlicht anhand des Verlaufs der Maximum- Temperaturen in Erfurt den sehr wechselhaften Charakter dieses Sommers:

Abb. 3: Verlauf der Maximum- Werte in Erfurt vom 31.05. bis zum 23.08.2015 (Quelle: wetteronline.de, nachbearbeitet von Stefan Kämpfe). Im Juni/Juli wechselten sehr kühle mit sehr warmen Abschnitten, wobei im Juni die Kälte überwog. Nur in der ersten Augusthälfte gab es- mit kleinen Abstrichen- über längere Zeit beständiges, sehr warmes Wetter. In der ersten Sommerhälfte wurden ungewöhnlich häufig Bodenfröste gemeldet, im Juni mehrfach in Norddeutschland, am 10. Juli in der Eifel.

Fazit: Trotz mehrerer, kräftiger Hitzewellen erreichte der sehr wechselhafte 2015er Sommer die Mittelwerte der Rekord- Sommer von 2003 und 1994 nicht; er schaffte es nicht einmal unter die 5 wärmsten Sommer seit 1761 in Deutschland. Im unmittelbaren Norden Deutschlands war der Sommer sogar nur durchschnittlich.

Was kann uns der warme, aber sehr wechselhafte Sommer 2015 über die zukünftigen Sommertemperaturen in Deutschland verraten?

Seriöse Klimatologen stellen den langjährigen, leichten sommerlichen Temperaturanstieg nicht in Abrede. Doch der sich daraus ergebende Trend trifft nur Aussagen über die gewesene, nicht über die künftige Temperaturentwicklung! Bei Betrachtung der letzten 26 Jahre zeigt sich zwar in Deutschland (noch) eine leichte sommerliche Erwärmung, doch in Zentralengland eine gleichzeitige Abkühlung:

Abb. 4: unterschiedliche sommerliche Temperaturentwicklung in Deutschland (braun, Erwärmung) und in Zentralengland (dunkelgelb, Abkühlung)

Über die wesentliche Ursache dieser unterschiedlichen Temperaturentwicklung (Zunahme der Häufigkeit von Tiefdruckgebieten auf dem Ostatlantik mit warmen Südströmungen über Mittel- und kälterer Atlantikluft über Westeuropa) hatten wir schon in unserem Juli- Beitrag berichtet.

Schauen wir nochmals auf die Abbildung 3 und die dort erkennbaren sehr kühlen Abschnitte des Sommers 2015 mit Maxima unter 20°C. Wie hätte der Sommer wohl ausgesehen, wenn die kalten nordwestlichen Luftströmungen häufiger aufgetreten wären? Statt über Hitze und Dürre hätte man dann über Nässe und Kälte, einhergehend mit leeren Freibädern, Eisdielen und Stränden sowie über Pilzerkrankungen des Getreides, schlechte Druschbedingungen und eine mangelhafte Qualität bei Obst und Wein geklagt. Wahrscheinlich weisen diese noch kurzen, aber sehr markanten Kälteeinbrüche des 2015er Sommers mit Bodenfrösten in der Eifel und in Norddeutschland auf eine bereits begonnene Abkühlungsphase hin. Eine wesentliche Einflussgröße auf die Häufigkeitsverteilung der Großwetterlagen, die AMO (Atlantische Multidekadische Oszillation, eine Schwankung der Wassertemperaturen im zentralen Nordatlantik) unterliegt einer etwa 60ig- bis 80ig jährigen Schwankung und hatte zwischen 1995 und 2010 ihre „Warmphase“; momentan beginnen die AMO- Werte wieder zu fallen. Immer am Ende dieser AMO- Warmphasen traten die Wärme bringenden Süd- und Südwestlagen besonders häufig auf (Abb. 5):

Abb. 5: Am Ende der AMO- Warmphasen (Ende 19. Jahrhundert, um 1950 und gegenwärtig) traten im Sommer Großwetterlagen mit südlichem Strömungsanteil (rot), darunter auch die Südwestlagen (orange) gehäuft auf. Die Südwestlagen werden bereits wieder etwas seltener. Bei der Betrachtung des Gesamtjahres zeigen sich ähnliche Verhältnisse.

Diese Häufung südlicher Luftströmungen wirkte erwärmend. Ein schönes, aktuelles Beispiel einer Südwestlage findet sich für den 26. August 2015:

Abb. 6: Südwestliche Strömung am 26. August 2015 (Datenquelle: UKMO, ergänzt von Stefan Kämpfe). Eine typische Situation für diesen „Schaukelsommer“ mit Kühle über Irland und Großbritannien bis ins nordwestliche Deutschland und zeitweiliger Hitze über dem südöstlichen Mitteleuropa. Hohem Luftdruck (H) über Südosteuropa steht tiefer (L) bei und nordwestlich der Britischen Inseln gegenüber. Die Grenze zwischen dauerhafter Wärme im Südosten und Kälte im Nordwesten „pendelt“ hin und her und ist mal mehr, mal weniger wetteraktiv; von einem kleinen Wind- und Temperatursprung bis hin zu schwersten Unwettern mit Tornados kann alles passieren; räumlich- zeitlich unmöglich genau vorhersagbar. Für Vorhersagemeteorologen ist eine so labile Großwetterlage daher ein Alptraum. Je blauer die Pfeile, desto kühler ist die Luftmasse, je roter, desto wärmer.

In den AMO- Warmphasen beziehungsweise an deren Ende traten wegen der Häufung solcher Süd- und Südwestlagen höhere sommerliche Lufttemperaturen auf, was sich sehr schön am Beispiel von Potsdam zeigen lässt (Abb. 7):

Abb. 7: Tendenziell waren die Sommer in Potsdam (rotbraun, Mitte) in den AMO- Warmphasen (spätes 19. Jahrhundert, 1930er bis 1950er Jahre, 1990er Jahre bis Gegenwart) wärmer als in den AMO- Kaltphasen. Auch die Sonnenscheindauer (gelb, unten) ist in diesen AMO- Warmphasen tendenziell mit gewissen Abstrichen höher.

Falls die bisherige Rhythmik der AMO erhalten bleibt (wovon auszugehen ist), so steht eine Kaltphase mit niedrigeren Wassertemperaturen bevor, was seltenere Südströmungen und sinkende Sommertemperaturen zur Folge hätte. Kehren wir nochmals kurz zur langfristigen Entwicklung der Sommertemperaturen zurück. Diese lässt sich ganz ohne CO2- Anstieg nahezu fast gänzlich mit der verzögert wirkenden, sehr hohen Sonnenaktivität im späten 20. Jahrhundert erklären. Gegenwärtig profitieren wir also noch von der gewesenen, sehr aktiven Sonnenphase (Abb. 8):

Abb. 8: Sowohl in Zentralengland (rot, Mitte) als auch in Deutschland (braun) folgten die Sommertemperaturen bei langfristiger Betrachtung der Anzahl der Sonnenflecken (unten, gelb), welche ein grobes Maß für die Sonnenaktivität darstellt. Weil die Sonnenaktivität vor allem langfristig und mit größeren Verzögerungen auf das Klimageschehen einwirkt, wurden 31ig- jährige Gleitmittel gebildet. Die Reihen beginnen daher 1791 (Mittelwert aus 1761 bis 1791) und enden 2015 (Mittelwert aus 1985 bis 2015). Den Gleitmitteln wurden Polynome zweiten Grades angepasst, um den langfristigen Trend zu verdeutlichen.

Den guten Sommer 2015, der besonders im August wärmer als von uns erwartet ausfiel, hat Raimund Leistenschneider zusätzlich mit der in diesem Jahr relativ hohen magnetischen und Röntgenaktivität der Sonne begründet, welche die kosmische Strahlung von der Erde fernhält und zu mehr Sonnenscheinstunden geführt hat. siehe: http://www.eike-klima-energie.eu/news-cache/sommerhitze-2015-klimawandel-oder-normales-wettergeschehen-teil-1/

Bei Würdigung des erheblichen Einflusses der Sonnenaktivität und des darauf verzögert reagierende Temperaturverhaltens ist eine moderate Abkühlung oder zumindest eine längerfristige Stagnation der sommerlichen Temperaturen sehr wahrscheinlich. Die gegenwärtig noch oft warmen Sommer sind im Wesentlichen eine Folge der nachwirkenden hohen Sonnenaktivität des späten 20. Jahrhunderts. Anhand kürzerer Zeiträume lassen sich die rückläufigen Trends der Sommertemperaturen bereits erkennen.

Die Jahrestemperaturen Deutschlands fallen schon seit 1998 leicht. Die Winter eilen den Jahrestemperaturen um 10 Jahre voraus, sie werden also seit 1988 wieder kälter. Da liegt es nahe, die drei Sommermonate Juni, Juli, August („meteorologischer Sommer“) richtig einzuordnen. Die Medien hatten bereits seit Anfang August mit einem wahren Feuerwerk an Erwärmungstrommeln auf eine drohende Gefahr der Überhitzung Deutschlands hingewiesen. Auf Literaturangaben können wir verzichten, denn jeder von uns kennt diese fast täglichen Schreckensmeldungen, mit denen man uns die Freude am schönen Sommer vermiesen wollte. Alle Klimawissenschaftler wären sich angeblich über „die gerade in den letzten Jahren immer heißeren Sommer“ einig. Und oftmals die Aussage: Alles wäre nun viel schlimmer gekommen, als man vorhergesagt hätte.

Diese Schreckensmeldungen lassen sich leicht anhand der Original-Sommertemperaturen des Deutschen Wetterdienstes überprüfen. Beginnen wir mit dem ersten Jahr im neuen Jahrtausend, also ab Sommer 2001, und enden 2015.

Abb. 9: Seit dem Jahre 2001, also in der Gegenwart haben die drei Sommermonate in Deutschland einen deutlich fallenden Trend. Die Grafik ist nach den Originalangaben des Deutschen Wetterdienstes (DWD) in Offenbach gezeichnet. (Der Sommer 2015 ist von uns geschätzt.)

Diese Daten sind nicht wärmeinselbereinigt und diesen Sommer war der WI- Effekt aufgrund der intensiven Sonneneinstrahlung, der zunehmenden Betonierung und Bebauung sowie der Trockenlegung der Landschaft besonders groß. Die Abkühlung der drei Sommermonate ist auch ohne WI- Bereinigung deutlich erkennbar, daran kann auch der Sommer 2015 nichts ändern. In diesem Zeitraum des neuen Jahrtausends sind natürlich die CO2-Konzentrationen der Luft weiter gestiegen. Man könnte fast schon fragen: Haben die steigenden CO2- Werte etwa zur Abkühlung der letzten 15 Sommer beigetragen? Oder wirkt der „Treibhauseffekt“ im neuen Jahrtausend etwa abkühlend?

Ergebnis: Die Schreckens- und Panikmeldungen der deutschen Medien über die angeblich immer heißer werdenden Sommer entbehren jeder Grundlage. Überhaupt nichts ist Schlimmer gekommen als vorhergesagt. Auch der nächste Sommer dürfte die fallende Trendlinie des Kälterwerdens weiter bestätigen.

Die nächste Frage wäre nun, bei welchem Jahr sind wir nach der 15-jährigen Abkühlung der Sommermonate wieder angekommen? Antwort: vor 25 Jahren.

Abb. 10: n1 = 1991. Seit 1991 zeigen die Daten des Deutschen Wetterdienstes eine fast ebene Trendlinie. Der leichte Anstieg lässt sich leicht mit dem zunehmenden Wärmeinseleffekt bei den deutschen Messstationen erklären. WI-bereinigt hätten die Sommermonate der letzten 25 Jahre eine ebene bis sogar leicht fallende Trendlinie.

Ergebnis: Unter Berücksichtigung des Wärmeinseleffektes stagnieren seit 25 Jahren die deutschen Sommertemperaturen. WI-bereinigt hätten wir eine ebene Trendlinie. Der steigende Wärmeinseleffekt bei den Messstationen ist der eigentliche menschengemache Anteil der gemessenen Temperaturen.

Gesamtergebnis: Seit 25 Jahren stagnieren die Sommertemperaturen in Deutschland, seit 15 Jahren werden die Sommer in Deutschland kälter. Daran kann auch der schöne und vor allem in Süden Deutschlands warme Sommer 2015 wenig ändern. Man kann davon ausgehen, dass der leichte Abkühlungstrend auch zukünftig weiter anhalten wird.

Wir fordern unsere Leser auf, dies den deutschen Medien genauso zu vermitteln.

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, unabhängiger Natur- und Klimaforscher




Radioaktivität – nichts Genaues weiß man nicht?

Politiker glauben, schon Bescheid zu wissen. So sagte die atompolitische Sprecherin der Grünen Bundestagsfraktion, Frau Sylvia Kotting-Uhl (Kunsthistorikerin): „Er (der Atommüll) ist da und stellt für die heutige und zukünftige Gesellschaften eine existenzielle Bedrohung dar.“ (Loccumer Protokoll 25/12). Wenn die weitere Existenz der Menschheit allein durch den bisher produzierten Atommüll fraglich ist, so muss man doch annehmen, dass es zuerst die Länder mit vielen Kernkraftwerken erwischt. Dass es in 100 Jahren noch Franzosen gibt, müsste danach unwahrscheinlich sein.

Solche Politiker sind natürlich beratungsresistent, zumal sie mit diesem Quatsch Wählerstimmen gewinnen. Dabei leistet sich der Deutsche Bundestag Wissenschaftliche Dienste, welche eine Beratung jedenfalls versuchen sollten. Wäre da zum Thema Radioaktivität eine Fachperson geeignet? Nur, wenn es die richtige ist. Wie soll aber ein biederes MdB Fachleute von Scharlatanen unterscheiden? Zu Ansichten wie der von Frau Kotting-Uhl gibt es Bücher, Zeitschriften, Filme und Leute, die tatsächlich ein wissenschaftliches Studium abgeschlossen haben, jedoch auf dem Gebiet der Strahlenkunde finstersten Aberglauben verbreiten. Ihnen geht es nicht um Wahrheit, sondern um Geld und Geltung. 

Insofern wäre es nicht verkehrt, würde eine Mathematikerin versuchen, in die unübersichtliche Literatur, angefangen mit seriöser strahlenbiologischer Wissenschaft bis hin zum letzten Unsinn, Ordnung zu bringen. Das hat Frau Dr. Christine Steinhoff, Mathematikerin, im WD2 des Deutschen Bundestages, in ihrem Infobrief WD2-3010-164/14 leider nicht getan.

Mathematiker stellen sonst erst einmal die Voraussetzungen klar und versuchen, mit möglichst wenigen Voraussetzungen auszukommen. In der seit über 100 Jahren betriebenen strahlenbiologischen Forschung sind dies:

  1. Die verschiedenen Strahlenarten wirken verschieden stark, es ist auch ein Unterschied, wie sie in den menschlichen Körper gelangen, aber es gibt keine prinzipiellen Unterschiede in ihrer Wirkung. Daher kann die biologische Wirkung jeweils durch eine eindeutige Zahl dargestellt werden, mit der Einheit Sievert. Man nennt die Einwirkung Dosis.
  1. Es gibt eine Dosis-Wirkungs-Beziehung. Gleiche Dosen erzeugen gleiche Wirkungen. Diese können statistischer Art sein, d.h. von einer Gruppe von Individuen ist nur ein bestimmter Prozentsatz betroffen.
  1. Unterhalb von 0,033 Sievert = 33 Millisievert (mSv) sind keine biologischen Veränderungen zu finden (signifikante Erhöhung der Zahl dizentrischer Chromosomen bei Untersuchungen von 100.000 Zellen, M. Bauchinger, Mutation Research 339 (1995)). Beeinträchtigungen der Gesundheit, sofort oder durch Spätschäden wie Krebs, konnten unter 100 mSv nie gefunden werden. Dies gilt für kurzzeitige Bestrahlungen.
  1. Im Flachland sind die Menschen von Natur aus einer Dosis im Bereich von 2 mSv pro Jahr ausgesetzt. In vielen Ländern der Welt leben große Bevölkerungsgruppen bei jährlichen Dosen von 20 mSv und darüber. Es wurden keine Abweichungen bei Krebs- und Mutationshäufigkeit gefunden.

Nun kann man diese Voraussetzungen ablehnen, z. B. die Dosis-Wirkungs-Beziehung, und behaupten, Strahlung wirkt mal so und mal anders. Im Hexenglauben hat man ja auch keine Proportionalität zwischen Anzahl der Hexen und Anzahl unerklärlicher Todesfälle angenommen. Frau Steinhoff hätte aber klarstellen müssen, welche Voraussetzungen sie zugrunde legt, oder ob sie, anders als in ihrem Fach, Voraussetzungen ablehnt. Nach obigen 4 Kriterien fällt die Studie von IPPNW heraus. Auch die Erwähnung von Radionukliden in Seefischen vor der kalifornischen Küste ist nur zu rechtfertigen, wenn man die Möglichkeiten heutiger Messtechnik darstellen will. Wie weit dieser Nuklidgehalt relevant ist, lässt sich doch nur beurteilen, wenn man ihn mit der natürlichen Radioaktivität der Fische vergleicht.

Eine abschließende Risikobewertung des Unfalls von Fukushima wäre nach den vorliegenden Daten, auch des UNSCEAR-Berichtes, nicht möglich, schreibt Frau Steinhoff. Aber nur, wenn man Voraussetzung 3 nicht anerkennt, dass man nämlich unter 100 mSv keine gesundheitlichen Wirkungen findet, schon gar nicht, wenn diese 100 mSv auf ein ganzes Jahr gestreckt sind.

Frau Steinhoff kennt sicherlich die Abgeordneten und weiß, dass diese mit Zahlen nichts anfangen können. Daher kommt in ihrer Arbeit kein Dosiswert, keine Zahl betroffener Anwohner, keine Zahl von Krankheitsfällen vor. 

So ist diese Arbeit doch aufschlussreich. Sie zeigt in erschreckender Weise, von was für Leuten wir regiert werden.

Die Berichte können im Anhang als pdf heruntergeladen werden.

Related Files




Protestaktionen im rheinischen Braunkohlerevier am 15.08.2015 wurde auch von kirchlichen Hilfswerken unterstützt

Am 15.08.2015 drangen 805 „Klimaaktivisten“ in den Braunkohlentagebau Garzweiler II südlich von Mönchengladbach ein. 30 von ihnen besetzten den Bagger 261. Um keine Menschenleben zu gefährden stellte der Betreiber RWE Power den Betrieb vorübergehend ein. Auch die nahe Autobahn 61 musste für mehrere Stunden vollständig gesperrt werden, als sich einige Protestler von einer Autobahnbrücke in das Betriebsgelände abseilten.

Die Polizei war in dem weitläufigen Abbaugebiet mit 1.200 Kräften und drei Hubschraubern im Einsatz. Die Bilanz:

  • 797 Strafanzeigen wegen Hausfriedensbruch (§123 StGB), Landfriedensbruch (§125 StGB), Störung öffentlicher Betriebe (§ 316 StGB) und Verstoß gegen das Waffengesetz.
  • 36 Verletzte, davon 15 Polizisten. Bereits in der Nacht des 13.08. schlugen vermummte Aktivisten im benachbarten Tagebau Hambach die Scheibe eines Werksschutzfahrzeuges ein, wobei einem der Insassen ein Splitter ins Auge drang.

Die Aktionen waren von langer Hand vorbereitet worden. Bereits in der Woche vom 07.08. bis 14.08.2015 fand auf einer Wiese bei Immerath, unweit des Tagebaus, ein sog. Klimacamp mit angeschlossener Sommerschule statt. Die Teilnehmer wurden dort im Sinne des Veranstalters, dem Leipziger „Think Tank Neue Ökonomie“, eingestimmt. Aus dem Programmheft:

„Weite Teile der Klimabewegung meinen, dass unser Zusammenleben ohne Herrschaft besser funktionieren würde. Ohne „Herrschaft“ könnte RWE nicht veranlassen, dass zehntausende von Menschen für den Braunkohleabbau umgesiedelt werden. Wenn Wälder kahlgeschlagen werden, und noch die letzten Reste von Ressourcen aus der Erde rausgekratzt werden, dann steckt dahinter das Prinzip der Herrschaft des Menschen über die Natur. Darum soll das Camp möglichst herrschafts- und hierarchiefrei sein – wie die Gesellschaft, für die wir kämpfen.

Und übrigens: Herrschaft ist nicht zu verwechseln mit Macht. Das Camp will ein Ort sein, der Mut gibt, sich der eigenen Macht bewusst zu werden. Ermächtigen wir uns dazu, Dinge zu tun, die wir noch nie getan haben, zum Beispiel Klimaschutz und Gesellschaftsgestaltung selbst in die Hand zu nehmen; Kohle zu stoppen und unsere Teller selbst zu spülen. … Wenn die Klos schmutzig sind: schnappt euch das Putzzeug. Wenn Euch ein Thema im Programm fehlt: bietet im Open Space einen Workshop an.

(Zum Stopp des Braunkohleabbaus ist) ein unkonventionelles Zusammenwachsen von Bürger*inneninitiativen, antikapitalistischen Linken, Umweltverbänden, Wachstumskritiker*innen, Anarchist*innen und vielen Anderen politisch notwendig.“

Eine Podiumsdiskussion zum Thema „Ziviler Ungehorsam: Notwendig und legitim für den Kampf um Klimagerechtigkeit und Degrowth?“ fragt: „Ist die Überschreitung des rechtlichen Rahmens beim Widerstand gegen fossilen Kapitalismus legitim?“

Hintergrundwissen vermittelt der 14-jährige (!) Klimaschutzaktivist Leonard Hepermann mit seinem Vortrag „Klimawandel, Kapitalismus und alternative Wirtschaftsformen“.

Die Politologin Friederike Habermann beschäftigt sich mit „Parallelen in der Ausbeutung natürlicher Ressourcen und der primär von Frauen geleisteten Reproduktionsarbeit“.

Ein Workshop im „Queer-fem. Barrio“ ergründet die Zusammenhänge zwischen Klimawandel und Geschlechtergerechtigkeit. Anmerkung dazu: Das Camp war nach Themen in sog. Barrios -Stadtviertel- unterteilt: Queer feministisches, landwirtschaftliches, Degrowth usw.

Für gewöhnliche Ohren klingt das alles etwas skurril und noch irgendwie harmlos. Ab Mittwoch geht es aber zur Sache. Jetzt wird täglich ein mehrstündiges sog. „Aktionstraining“ angeboten:

„In diesem Basistraining wollen wir uns fit machen für die Massenaktion des Zivilen Ungehorsams und darüber hinaus. Auf dem Programm stehen Bezugsgruppen, Konsens, Durchfließen von Polizeiketten und weitere praktische Fähigkeiten.“

Die Aktion wurde von den Veranstaltern in Pressemitteilungen und bei Facebook als „nachhaltiger Erfolg“ gefeiert, mit den üblichen wechselseitigen Schuldzuweisungen zwischen Polizei und Demonstranten für die eingangs geschilderten Eskalationen.

Und auch der gesetzestreue Bürger und Steuerzahler, der ja wiederum die Kosten dieses enormen Polizeieinsatzes zu tragen hat, wird von der Aufzählung der Unterstützer dieser „Sommerschule“ nachhaltig verstört:

Partner*innen und Unterstützer*innen der Sommerschule

Partner*innen

afrique-europe-interact

attac

ausgeco2hlt

Brot für die Welt – Evangelischer Entwicklungsdienst

BUND

BUNDjugend

Campact

Friedrich-Ebert-Stiftung

Heinrich-Böll-Stiftung

Misereor

Selbach Umwelt Stiftung

Research & Degrowth

Rosa-Luxemburg-Stiftung

Medienpartner*innen

Greenpeace Magazin

klimaretter.info

Le Monde diplomatique, deutsche Ausgabe

Unterstützer*innen

Aktionsgemeinschaft bäuerliche Landwirtschaft

Arbeitsstelle Eine Welt

hinkelsteindruck – sozialistische GmbH

junge Aktionsgemeinschaft bäuerliche Landwirtschaft

SERI – Sustainable Europe Research Institute

Transition Netzwerk

Transition Town Köln

World University Service

Wuppertal Institut für Klima, Umwelt, Energie GmbH

Wer wird wohl auf die Idee kommen, dass eine derartige gesetzeswidrige Aktion von großen gesellschaftlichen Organisationen finanziert wird, die mit Steuermitteln und Spenden finanziert werden und nach allgemeiner Ansicht über alle Zweifel an ihrer Verfassungstreue erhaben sind?

Was haben solche Proteste mit den Zielen von „Misereor“ und „Brot für die Welt“ zu tun, deren satzungsgemäße Aufgabe es ist, den Hunger, die Armut und die physische Not in der Welt u.a. mit dem Klingelbeutelgeld der Kirchenbesucher zu lindern?

Link zum Programm der „Sommerschule“: http://www.degrowth.de/wp-content/uploads/2015/03/KS_RZ_Programmheft_deutsch.pdf 

(Karsten Simon 23.08.2015)

Related Files




Auf halbem Weg zur Hölle? – Alarmisten werden immer verzweifelter in ihren Bemühungen, die öffentliche Meinung zu beeinflussen

Politiker aus der ganzen Welt werden in diesem Jahr erneut zusammenkommen in dem aussichtslosen Versuch, ein Abkommen zu erzielen darüber, wie man jenes Ziel der Begrenzung der globalen Erwärmung auf das von Ökonomen gesetzte Limit erreichen kann. Um die Aufmerksamkeit der Öffentlichkeit für dieses Spektakel sicherzustellen, wird diese folglich wöchentlich bombardiert mit Spekulationen des bevorstehenden Untergangs infolge der globalen Erwärmung. Ein Beispiel hierfür war ein kürzlich erschienener Artikel mit der Schlagzeile [übersetzt] „Erde jetzt auf halbem Weg zur von den UN gesetzten Grenze der globalen Erwärmung“ (hier) im New Scientist. Darin fand sich auch eine Graphik mit dem Titel „Halfway to Hell“, meine Abbildung 1, erstellt von dem Chemiker Kevin Cowtan. Die Graphik zeigte, dass die Werte der meisten Temperatur-Rekonstruktionen im Jahre 2015 wahrscheinlich über eine Anomalie von 1,0°C hinaus steigen würden.

Abbildung 1

Eine Bemühung, Newcomern beim Verständnis zu helfen

Was ist so neu an dieser Graphik? Die Anomalien (Ableitungen vom „Normalen“) werden auf vorindustrielle Zeiten bezogen. Die Erzeuger globaler Temperatur-Rekonstruktionen beziehen ihre Anomalien normalerweise eher auf jüngere Bezugszeiträume. GISS verwendet 1951 bis 1980, das UKMO 1961 bis 1990 und die NOAA oftmals den Zeitraum 1901 bis 2000. Die WMO schreibt einen Bezugszeitraum von 1981 bis 2010 vor. Der Blogger Rob Honeycutt hat jene Cowtan-Graphik in seinem Beitrag The 1C Milestone bei SkepticalScience angeführt und forderte, präindustrielle Zeiten zu verwenden als Bezugszeit für Anomalien, weil dies die besten Möglichkeit sei, Personen, für die die globale Erwärmung etwas Neues ist, davon zu überzeugen, dass „wir gegenwärtig relativ zu präindustriellen Zeiten bei einer Erwärmung um 2°C liegen“.

Offensichtlich übersehen Cowtan und Honeycutt etwas sehr Wichtiges. Ihre Graphik zeigt, dass es deutlich länger als ein Jahrhundert dauern wird, bis die Temperatur die halbe Strecke von 1.0°C geschafft hat. Viele Newcomer werden die Graphik betrachten und sich fragen, worum es bei dem ganzen Tamtam eigentlich geht.

Cowtan und Honeycutt mussten etwas präsentieren, das stärker ins Auge fällt, das noch alarmierender ist, falls sie ihre Botschaft an den Mann bringen wollten, aber das haben sie nicht. Die „Halfway to Hell“-Graphik war die einzige Graphik im Artikel des New Scientist, und Honeycutt fügte seinem Blogbeitrag lediglich eine Graphik der CO2-Emissionen hinzu für unterschiedliche Szenarien, was für die meisten Neulinge bedeutungslos ist.

Der einzige Weg für sie zu zeigen, dass wir uns rasch dem Limit nähern, wäre die Präsentation von Klimamodell-Simulationen der globalen Temperaturen. Aber komischerweise erscheinen die Outputs von Klimamodellen nicht in jenen Artikeln.

Die Präsentation von Klimamodell-Outputs mit Bezug auf vorindustrielle Zeiten würde wahrscheinlich bei den Newcomern Skeptizismus hervorrufen.

Die Zeitreihen-Graphik in Abbildung 2 enthält 81 Klimamodell-Simulationen der globalen Temperaturanomalien in einem Zeitraum, der im Jahre 1880 beginnt und im Jahre 2059 endet, wobei die modellierten globalen Temperaturanomalien auf die vorindustrielle Zeit von 1880 bis 1899 bezogen werden. Langzeitliche Temperatur-Rekonstruktionen von GISS und NOAA beginnen 1880, und 2059 ist das Jahr, wenn das letzte Klimamodell das 2°C-Limit erreicht hat, jenseits dessen imaginäre schlimme Dinge passieren sollen. Die Modelle werden durch historische Antriebe bis 2005 getrieben, und die Antriebe für das projizierte Worst-Case-Szenario (RCP8.5) beginnend im Jahre 2006. Enthalten sind 81 unabhängige Läufe der Klimamodelle von einer Vielzahl von Modellierer-Gruppen rund um den Globus. (Die Auflistung der 81 Klimamodell-Läufe werden in der Legende der erweiterten Fassung der Abbildung 2 hier gezeigt).

Abbildung 2

Das Hervorstechende in dieser Abbildung ist die 40-Jahres-Streuung zu der Zeit, zu der die Klimamodell-Simulationen der globalen Temperaturanomalien die auf Phantasie basierende 2,0°C-Grenze erreichen, jenseits derer schlimme Dinge passieren sollen. Das langsamste Modell erreicht diese Grenze im Jahre 2059 und das schnellste Modell bereits in 5 Jahren von heute an. Klimamodelle sind nicht sehr hilfreich, wenn es darum geht, uns zu sagen, wann dieses 2.0°C-Limit erreicht wird.

Vielleicht ist das der Grund, warum der New Scientist und SkepticalScience die Klimamodelle den Newcomern nicht gezeigt haben mit Bezug der Modellergebnisse auf die vorindustrielle Zeit. Während es mehr als ein Jahrhundert dauerte, bis die gemessene globale Temperatur um 1.0°C gestiegen war, sagen uns die Klimamodelle, dass der nächste Anstieg um 1.0°C innerhalb von 5 bis 44 Jahren vonstatten gehen soll. Das könnte verwirrend sein für jemanden, der sich bislang nicht um die globale Erwärmung gekümmert hat. Dann müsste jemand wie ich den Newcomern erklären, dass Klimamodelle nicht das Erdklima so simulieren, wie es in der Vergangenheit war, im Moment existiert oder in Zukunft existieren wird.

Die Newcomer könnten ihre Aufmerksamkeit dann auf das Jahr 2005 richten, weil es das letzte Jahr der ,Nachhersage‘ war. Es scheint eine sehr große Streuung zu geben bei den modellierten Temperaturen im Jahre 2005, wenn man die Modell-Outputs mit der vorindustriellen Zeit in Beziehung setzt. Und das können wir in Abbildung 3 bestätigen.

Abbildung 3

Dann würden die Newcomer zur globalen Erwärmung erkennen, dass das Verhalten der Klimamodelle ziemlich schlecht ist, wenn sie Temperaturen der Vergangenheit simulieren sollten. Die globale Temperaturanomalie im Jahre 2005 ist in einem Modell um 1,17°C größer als in einem anderen. Mit anderen Worten, es gibt eine Streuung von 1,17°C bei der simulierten Temperaturänderung von vorindustrieller Zeit bis 2005. Diese ist größer als der gemessene Anstieg von 1,0°C, die in der Graphik von Kevin Cowtan gezeigt wird (meine Abbildung 1).

Und falls ein Newcomer so neugierig wäre, wie ich es war … und nichts Besseres zu tun hätte … hätte sie oder er alle über 80 Klimamodell-Outputs der globalen Temperaturen herunterladen können mit den historischen und den Worst-Case-Antrieben (RCP8.5) in der Absicht, die Modelle mit den höchsten und den geringsten Erwärmungsraten zu finden. Dann könnte jener Newcomer einfach jene Modelle mit der Erwärmungsrate des von Alarmisten bevorzugten GISS Land-Ocean Temperature Index vergleichen mit der neuesten new NOAA ERSST.v4 pause-buster sea surface temperature reconstruction (siehe Abbildung 4). Man beachte, dass ich die GISS LOTI-Rekonstruktion und die Klimamodell-Outputs so verschoben habe, dass die Trendlinien allesamt im Jahre 1880 beginnen.

Abbildung 4

Die Streuung von 0,079°C pro Dekade in den Erwärmungsraten der Nachhersage-Modellergebnisse von 1880 bis 2005 ist ebenfalls größer als die gemessene Erwärmungsrate von 0,06°C pro Dekade.

Ein letzter Punkt

Während die Präsentation der Temperaturänderung nach Art von Kevin Cowtan in Ordnung ist (siehe Abbildung 1), verlässt sich die klimawissenschaftliche Gemeinschaft normalerweise auf lineare Trends, um Änderungen einer Maßzahl mit der Zeit auszudrücken. Auf der Grundlage der Rekonstruktion des linearen Trends von GISS LOTI sind die globalen Temperaturen seit 1880 lediglich um 0,9°C gestiegen, siehe Abbildung 5. Es wird noch etwas länger dauern (vielleicht ein weiteres Jahrzehnt auf der Grundlage des linearen Trends von 1880 bis 2014), bis wir den Halbzeitwert des 2°C-Limits erreicht haben.

Abbildung 5

Nur falls Sie sich fragen – schauen wir mal auf die Rekonstruktionen der linearen Trends der globalen Temperatur von Berkeley Earth (BEST), Cowtan und Way, NOAA NCEI und UKMO HadCRUT4. Nur der Wert der Trendlinie im Jahre 2014 von Berkeley Earth kommt dem Wert von 1,0°C nahe. Die anderen zeigen Erwärmungen im Bereich zwischen 0,9°C bis 0,85°C (auf der Grundlage ihrer Erwärmungsraten von 1880 bis 2014).

Abbildung 6

Schlussbemerkungen

Verwendet man vorindustrielle Zeiten als die Grundlagen für Anomalien, kann man Newcomern hinsichtlich der globalen Erwärmung etwas sehr Wichtiges zeigen: Klimamodelle können die globale Erwärmung der Vergangenheit nur sehr unzulänglich simulieren, wenn überhaupt. Warum sollten Newcomer dann den von der politischen Agenda finanzierten Klimamodell-Prophezeiungen einer zukünftigen globalen Erwärmung glauben, die auf Spekulationen beruhen über noch zu erwartende auftretende Emissionen von Treibhausgasen?

Quellen

Die folgenden Links führen zu den Daten der langzeitlichen globalen Temperaturrekonstruktionen:

* Berkeley Earth

*Cowtan and Way

*GISS LOTI

* HADCRUT4

*NOAA NCEI (Click on the “Anomalies and Index Data” link)

Die Outputs der Klimamodelle gibt es hier: KNMI Climate Explorer.

Link: http://wattsupwiththat.com/2015/08/14/halfway-to-hell-alarmists-are-growing-desperate-in-their-efforts-to-influence-public-opinion/

Übersetzt von Chris Frey EIKE




Wunder der Klimawissenschaft- Ein Selbstversuch zum Nachmachen

Gegeben sind die Kurven a und b. (Bild rechts) Sie stellen den Verlauf verschiedener Sachverhalte (y) über der Zeit (x) dar. Die Maßstäbe sind willkürlich. Die Kurve b ist eine Mittelwertkurve, gebildet aus jeweils 5 Einzelpunkten (1 Balken entspricht 1 Einzelwert).

 

Ja

Nein

Vergleich nicht möglich

Weiß nicht

Ist a ableitbar aus b?

 

 

 

 

Ist b ableitbar aus a?

 

 

 

 

  

Gesucht:
Welche Zusammenhänge bestehen zwischen den Kurven a und b?
Kreuzen Sie zutreffendes an (max. 1 Kreuz pro Zeile).

Zusätzliche Kommentare bzw. Anmerkungen bitte auf der Rückseite eintragen.

Die Ge­schich­te die­ses Blat­tes ist fol­gen­de:

Vor ca. 15 Jah­ren sah ich erst­ma­lig die Kur­ve b. Es ist die Ori­gi­nal‐Ko­pie der IPCC‐Kur­ve für Durch­schnitts­tem­pe­ra­tur T der Erde von 1860 bis 2000. Der T‐An­stieg be­trägt 0,8 Grad. Hin­zu­ge­fügt habe ich die da­mals we­ni­ger be­kann­te CO2‐Kur­ve mit den End­wer­ten 280ppm – 390ppm. Heu­te sieht man bei­de Kur­ven sel­ten zu­sam­men. Als (nur) In­ge­nieur habe ich ge­lernt, Kur­ven zu ver­glei­chen und zu in­ter­pre­tie­ren. Mir war bald klar, zwi­schen bei­den Kur­ven gibt es kei­nen Zu­sam­men­hang.

Da­mals gab es, wie auch heu­te die simple Schluss­fol­ge­rung: CO2 ist ges­tie­gen durch Men­schen­werk, T ist ges­tie­gen, folg­lich ist CO2 Schuld am T‐An­stieg. Die Fra­ge, wie sieht es zwi­schen 1860 und 2000 aus, wur­de und wird über­haupt nicht ge­stellt. Dass man die­se Fra­ge aber stel­len muss für ver­ant­wor­tungs­vol­les Han­deln, ist den Hand­eln­den (Ju­ris­ten, The­o­lo­gen, Jour­na­lis­ten) we­gen Feh­lens na­tur­wis­sen­schaft­li­cher Kennt­nis­se gar nicht be­wusst (Ma­the, Phy­sik, Che­mie hat­ten Sie ab­ge­wählt). Wer da­von lebt, Ge­set­ze zu än­dern, aus­zu­le­gen, zu in­ter­pre­tie­ren, zu um­ge­hen und so zu hand­ha­ben, wie es sei­ne Macht­be­fug­nis­se zu­las­sen, der ver­steht über­haupt nicht, war­um das mit Na­tur­ge­setz­ten nicht geht. So ha­ben wir es ge­schafft, dass der größ­te volks­wirt­schaft­li­che Nut­zen der der „Er­neu­er­ba­ren Ener­gi­en“ ein­tritt bei Wind­stil­le um Mit­ter­nacht und Neu­mond (denn dann fal­len die we­nigs­ten Sub­ven­ti­o­nen an).

Aber wei­ter mit den Kur­ven. Wie sieht es nun zwi­schen den End­punk­ten aus? Zwi­schen den Kur­ven gibt es zwei gra­vie­ren­de Un­ter­schie­de.

1                 Wäh­rend CO2 mo­no­ton und vo­raus­be­re­chen­bar steigt (die Ent­kar­bo­ni­sie­rung wür­de bei ei­nem deut­schen CO2‐An­teil von 2,4% nichts än­dern), zeigt die T‐Kur­ve ei­nen stu­fen­för­mi­gen Cha­rak­ter mit Ho­ri­zon­ta­len 1860 – 1920 und 1940 – 1980 und Stei­gun­gen 1920 – 1940 und 1980 – 2000. Im Be­trach­tungs­zeit­raum von 140 Jah­ren gab es nur 40 Jah­re An­stieg, aber 100 Jah­re Still­stand. (Ende 1970 ha­ben ame­ri­ka­ni­sche Wis­sen­schaft­ler vor ei­ner neu­en Eis­zeit ge­warnt.) Die Stei­gun­gen der An­stie­ge sind na­he­zu gleich, aber wäh­rend der 2. An­stieg lautstark dem CO2‐An­stieg an­ge­las­tet wird, herrscht selt­sa­mes Schwei­gen in der Fach­welt, wo­her der An­stieg 1920 – 1940 kommt. Die Ho­ri­zon­ta­le 1940 – 1980 wird mit ei­ner Schmutz­wol­ke er­klärt. Aber war­um ist ab 1980 da­mit Schluss?

2                 Wäh­rend die CO2‐Kur­ve „glatt“ ist (au­ßer Jah­res­zeit­schwan­kun­gen), zeigt die T‐Kur­ve kräf­ti­ge Aus­schlä­ge von meh­re­ren Zehn­tel Grad, ein Auf und Ab von Jahr zu Jahr. Die­ser gra­vie­ren­de Un­ter­schied reicht al­lein schon aus als Be­weis, dass es kei­nen Zu­sam­men­hang gibt. Da­für muss es ganz an­de­re Grün­de ge­ben, aber nie­mand fragt da­nach. Der lo­gischs­te ist die va­ri­ie­ren­de Wol­ken­be­de­ckung bzw. Son­nen­schein­dau­er. Wenn 3% Wol­ken­än­de­rung zu 1 Grad T‐Än­de­rung füh­ren soll, so ist das eine glaub­haf­te Er­klä­rung. Aber Svens­mark hat in Deutsch­land schlech­te Kar­ten.

3                 Die ein­zi­ge für mich ab­leit­ba­re Schluss­fol­ge­rung war (ich kann­te da­mals kei­ne Zu­sam­men­hän­ge): Wenn in der Stu­fig­keit der T‐Kur­ve eine Ge­setz­mä­ßig­keit ste­cken soll­te, dann könn­te/müss­te nach 2000 wie­der eine Ho­ri­zon­ta­le fol­gen (und die könn­te 40 Jah­re an­hal­ten). Nun ist es ge­nau­so ge­kom­men. Eine schö­ne Be­stä­ti­gung für mich und die Ver­tre­ter von 65‐jäh­ri­gen Schwan­kun­gen von Meer­es­strö­mun­gen. Mei­ne da­ma­li­gen Brie­fe an Kli­maex­per­ten blie­ben un­be­ant­wor­tet. Nur Ran­ga Yo­gesh­var schrieb mir, er ver­ste­he nichts von der Ma­te­rie, ich möge mich an Fach­leu­te wen­den.

Wie ging das Gan­ze wei­ter? Ich habe im Be­kann­ten­kreis ver­sucht, mei­ne Über­le­gun­gen zu ver­brei­ten. Das Er­geb­nis war er­nüch­ternd. Ich muss­te er­ken­nen, es gibt die the­o­lo­gi­sche Skat­re­gel: Glau­be sticht Vers­tand. Trotz­dem ließ mich der Ge­dan­ke nicht los, dass ein denk­fä­hi­ger Mensch doch er­ken­nen müss­te, was die Kur­ven aus­sa­gen.

Und da kam mir die Idee: Aus dem Prob­lem muss die Ide­o­lo­gie ent­fernt wer­den, ich muss zu ei­ner un­ver­fäng­li­chen, neu­tra­len, ma­the­ma­ti­schen Form der Fra­ge kom­men und das schaf­fe ich, wenn ich alle er­läu­tern­den Be­zeich­nun­gen an den Kur­ven und Ach­sen weg­las­se. Das Er­geb­nis ist das Kur­ven­blatt am An­fang des Bei­tra­ges. Nun muss ich nur noch ver­meint­lich denk­fä­hi­ge Leu­te zu ei­ner Be­fra­gung ge­win­nen. Als ers­te Grup­pe fand ich eine Abi­tur­klas­se (20 Schü­ler) des Kreuz­gym­na­si­ums in Dres­den. Eine wei­te­re Grup­pe war eine Se­minar­grup­pe (25 Stu­den­ten) ei­ner Be­triebs­aka­de­mie in Dres­den. Die Zet­tel wur­den kom­men­tar­los aus­ge­ge­ben und nach ei­ner Wo­che ein­ge­sam­melt. Die zu­sam­men­ge­fass­ten Er­geb­nis­se mit 45 Teil­neh­mern zeigt fol­gen­de Ta­bel­le.

Ver­gleich

Ja

Nein

Vergleich nicht möglich

 Weiß nicht

Ist a ableitbar aus b?

26

5

5

4

Ist b ableitbar aus a?

0

30

6

6

(Anmerkung Nicht alle Probanden machten in jeder Zeile ihr Kreuz, deswegen ist die Gesamtsumme der Antworten ungleich der Zahl der Befragten)

Für mich be­son­ders be­glü­ckend:

Im un­te­ren Feld links (Zei­le 2, Spal­te 1) kein ein­zi­ges Kreuz. Die Men­schen sind zum Den­ken fä­hig!

Be­mer­kens­wert war al­ler­dings auch, kein ein­zi­ger hat­te ge­wusst, was die Kur­ven be­deu­ten.

An die­ser Stel­le ist die Kar­di­nal­fra­ge zu stel­len: Das IPCC kommt zu kon­trä­ren Aus­sa­gen bei der Deu­tung der Ur‐Da­ten, war­um und wer hat Recht? Wie sieht die Lage heu­te aus? Die Men­schen wer­den wei­ter ver­dummt und durch mas­si­ve ten­den­zi­el­le Dar­stel­lun­gen in den Me­di­en vom Selbst­den­ken ab­ge­hal­ten.

In­zwi­schen ist der „Kli­ma­schutz“ mit päpst­li­chen Se­gen und deut­scher Mit­hil­fe zur 6. Welt­re­li­gi­on auf­ges­tie­gen. Trotz­dem mei­ne klei­ne Bit­te: Neh­men Sie das Kur­ven­blatt bei je­der sich bie­ten­den Mög­lich­keit im Be­kann­ten­kreis und bei Ver­an­stal­tun­gen, um den Test zu wie­der­ho­len. Mein gro­ßer Wunsch: Wie ist es zu schaf­fen, den wahr­schein­lich mehr als 15.000 De­le­gier­ten und Kli­ma­tou­ris­ten zur Pa­ri­ser Kli­ma­kon­fe­renz im De­zem­ber die­sen Test zu­zu­spie­len und das Er­geb­nis bei EIKE zu prä­sen­tie­ren. Das wür­de die schöns­te Be­sche­rung zum Fest wer­den.