1

Kernenergie: 100 Gründe und 100 gute Antworten, Fortsetzung #16 bis #19

Nun die Fortsetzung Gründe und Antworten #16 bis #19. Die bisher behandelten Gründe und Antworten #1 bis #15 können Sie  hier, hier, hier, hier nachlesen. Der Originalartikel findet sich wie immer unter KRITIKALITÄT, insbesondere die MOTIVATION sollte gelesen werden.

Hundert gute Antworten #16 – #19

#16: Tritium

Behauptung: Radioaktive Abfallstoffe aus Atomkraftwerken bauen sich sogar in die DNA ein.

Die EWS behaupten

Atomanlagen geben große Mengen radioaktiven Wasserstoffs (Tritium) an Luft und Wasser ab. Menschen, Tiere und Pflanzen nehmen es über Atemluft und Nahrung auf. Der Körper baut Tritium und tritiiertes Wasser wie normalen Wasserstoff und normales Wasser in alle Organe ein, sogar direkt in die Gene. Dort kann ihre Strahlung Krankheiten und Erbschäden auslösen.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die Umweltbehörden des Landes Baden-Württemberg geben für ihre Kernkraftwerksblöcke Emissionen in das Wasser (in die Luft ist es viel weniger) von 10.000, maximal 20.000 Gigabequerel an – das ist 0,005% der von der Natur selbst ständig erzeugten Tritiummenge. Selbst alle Kernkraftwerke auf der Erde zusammen können nicht näherungsweise die natürliche Tritiumproduktion erreichen.

Tritium ist also fast ausschließlich natürlichen Ursprungs. Aber selbst von einem „Schluck” Tritium werden nur 3% tatsächlich auch von den Zellen aufgenommen, und nach 6 Wochen ist die Hälfte davon schon wieder ausgeschieden. Radioaktiver Kohlenstoff, ebenfalls natürlichen Ursprungs, befindet sich sogar in 150-facher Menge wie Tritium im Körper, in allen Organen und auch in den Genen. Und der strahlt auch noch mit zehnfacher Energie.

Schließlich noch ein interessanter Vergleich: Die in Deutschland zugelassene Höchstgrenze von Tritium-Leuchten, die man als Schlüsselanhänger verwendet, ist 1 Gigabecquerel, im Ausland sogar bis zu 80 Gigabecquerel. Das Kernkraftwerk Krümmel emittiert knapp 30 Gigabecquerel pro Jahr in die Luft.

Quellen von KRITIKALITÄT


#17: Heiße Flüsse

Behauptung: Das warme Abwasser aus Atomkraftwerken raubt den Fischen den Sauerstoff.

Die EWS behaupten

Atomkraftwerke sind Energieverschwender – mit ihrem bis zu 33 Grad warmen Abwasser heizen sie vor allem die Flüsse auf. Das raubt den Fischen gleich doppelt den Atem.

Erstens führt warmes Flusswasser weniger Sauerstoff mit sich als kühles. Und zweitens sterben in warmem Wasser mehr Pflanzen und Kleintiere ab, deren Biomasse beim Verrotten weiteren Sauerstoff verbraucht. Der fehlt dann den Fischen.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

In der Bundesrepublik Deutschland leitet nur noch das Kernkraftwerk Brokdorf warmes Kühlwasser ein – und zwar an der Nordsee-Mündung der Elbe.

Einige der mittlerweile stillgelegten deutschen Kernkraftwerke hatten einen relevanten Rückfluss ins Wasser, da es dort keine Kühltürme gab. Man muss sich eben entscheiden zwischen einem optisch wenig ansprechenden dampfenden Nasskühlturm oder einer minimalen Erhöhung der Flusstemperatur. 33 Grad warmes Abwasser heißt aber nicht, dass der gesamte Fluss diese Temperatur erreicht. Bei großen Flüssen steigt die Temperatur nur wenige Kilometer in der Nähe der Kraftwerke, in der sogenannten Kühlfahne, um weniger als ein Grad – keine Gefahr für den Fischlaich.

Es handelt sich hierbei übrigens nicht um „Energieverschwendung”, sondern um den technischen Wirkungsgrad. Genau so könnte man argumentieren, dass Wind- und Solarkraftwerke nur maximal 0,00000005% der von der Sonne abgestrahlten Energie nutzen können, während der Rest im All verschwindet bzw. die Erde aufwärmt. Thermische Kraftwerke können ihren Wirkungsgrad übrigens mit hohen Temperaturen erheblich steigern und damit die Abwärme reduzieren. Außerdem kann die Kühlung mit entsprechendem technischen Aufwand durch Trockenkühltürme auf die Luft verlagert werden, wie es z.B. beim deutschen Hochtemperaturreaktor umgesetzt wurde. Der wurde aber als politisch-emotionale Reaktion auf Tschernobyl im September 1989 abgeschaltet.

Warmes Abwasser aus Kernkraftwerken ist also in Deutschland nicht mehr relevant und andernorts technisch ohne große Kosten handhabbar. Zudem ist dies keine spezielle Eigenschaft von Kernkraftwerken, sondern jedes thermischen Großkraftwerks.

Quellen von KRITIKALITÄT


#18: Strahlende Jobs

Behauptung: Tausende atomarer Hilfsarbeiter erledigen die Drecksarbeit in den Atomkraftwerken – oft ohne ausreichenden Strahlenschutz.

Die EWS behaupten

Sie arbeiten bei Servicefirmen und müssen immer dann ran, wenn es »heiß« wird: Tausende von Hilfsarbeitern verdienen ihr Geld mit Putz-, Dekontaminations- und Reparaturarbeiten in den verstrahltesten Bereichen der Atomkraftwerke. Einer Statistik des Bundesumweltministeriums von 1999 zufolge bekommen diese Springer viermal so hohe Strahlendosen ab wie die Festangestellten des Atomkraftwerks. In Frankreich sagt man: ›Strahlenfutter‹.

Die Arbeiter berichten von aufplatzenden und staubenden Atommüllsäcken, von Kaffeepausen neben strahlenden Tonnen und von Einsätzen ohne Vollschutz mitten im Reaktorkessel. Manche legen vorher ihre Dosimeter ab. Denn wenn sie ihre Maximaldosis erreicht haben, dürfen sie nicht mehr in den Kontrollbereich. Und keiner will schließlich seinen Job verlieren.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Laut angeführter Quelle hat der an Krebs erkrankte Reinigungsarbeiter, der dies seiner Arbeit anlastet, 5.000 Euro netto verdient – diesen Job möchte man wirklich nicht verlieren. Eine erhöhte Krebshäufigkeit ist in dieser Berufsgruppe übrigens nie nachgewiesen worden.

Ansonsten handelt es sich hier nicht um unausgebildete „Hilfsarbeiter”, sondern um sehr kompetente und gut ausgebildete Leiharbeiter. Diese erhalten mit durchschnittlich 1,2 Millisievert (mSv) pro Jahr zwar mehr Strahlung als das Stammpersonal mit etwa 0,8 mSv/Jahr bei Wartungsarbeiten, aber immer noch weniger als Radiologen mit 1,3 mSv/Jahr und vor allem weniger als Flugpersonal mit durchschnittlich 2,3 mSv/Jahr. Ob man Piloten als „Strahlenfutter“ bezeichnen würde?

Alle Werte liegen im Schwankungsbereich des in Deutschland vorherrschenden, natürlichen Untergrundes von 2 bis 10 mSv/Jahr und sind ungefährlich. Zum Vergleich: Ein Ganzkörper-CT-Scan liefert etwa 20 mSv in 15 Minuten, was bislang keine negativen Auswirkungen auf die Gesundheit zeigte. Der Strahlenschutz für die Leiharbeiter in kerntechnischen Anlagen ist somit mehr als ausreichend, die Vorwürfe sind völlig haltlos.

Der Strahlenschutz lässt sich nur effektiv umgehen, wenn alle Arbeiter im gleichen Bereich gleichzeitig ihre Personendosimeter ablegen, sonst dürften die Unregelmäßigkeiten schnell auffallen. Überdies gibt es noch feste Ortsdosimeter und strenge Kontrollen des radioaktiven Materials, alles systematisch von der IAEO und EURATOM überwacht.

Quellen von KRITIKALITÄT


#19: Selbstschutz

Behauptung: Die Chefs der Atomstrom-Konzerne halten privat viel Abstand zu ihren Atomkraftwerken.

Die EWS behaupten

Beruflich streiten die Vorstandsvorsitzenden von EnBW, E.ON, RWE und Vattenfall vehement für Atomkraft. Privat halten die Konzernchefs lieber Abstand: Hans-Peter Villis, Jürgen Großmann und Tuomo Hatakka haben ihren Wohnsitz weitab von ihren Atomkraftwerken gewählt.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Hier handelt es sich offenkundig um Scheinkausalität, denn der suggerierte Zusammenhang ist in keiner Weise belegt. Idealerweise wählt man seinen Wohnort in der Nähe seines Arbeitsplatzes – bei den „Chefs” wären das also die Konzernzentralen in den Großstädten, nicht jedoch bei den Kraftwerken. Der Flächenbedarf eines Kernkraftwerks ist 1.000 mal kleiner als der eines Solar- oder Windparks gleicher Leistung – Fläche, die der Natur genommen und unnutzbar wird. Man muss sich also schon sehr anstrengen, neben einem Kernkraftwerk zu wohnen, während das bei Wind und Sonne kein Problem ist.

Schade, denn Kernkraftwerke können durch die gewonnene Fläche eine Menge bieten. Die französische Nuklearanlage Tricastin beispielsweise, wo ein Kernkraftwerk unter anderem Gewächshäuser auf 42 Hektar Fläche in dem kleinen Ort Pierrelatte versorgt. Der tropische Freizeitpark mit Krokodilen ist ein beliebtes Ausflugsziel für Familien. Stünde dies in Deutschland, würden die deutschen Vorstandsvorsitzenden der Energiekonzerne dort sicher gerne wohnen.

Die US-Amerikaner scheinen von Kernkraftwerken übrigens geradezu angezogen zu werden. Die Bevölkerung hat zwischen 2000 und 2010 um weniger als 10% zugenommen, im unmittelbarer Umgebung von KKWs hingegen um 17%. Die Grundstückspreise sind dort teilweise stark gestiegen.

Quellen von KRITIKALITÄT





Stellt die wahre Partei der „Besserverdienenden“ zur Rede!

Dafür wird er jedoch Gründe haben, war es doch Trittin selbst, der im Juli 2004 behauptete, dass „die Förderung erneuerbarer Energien einen durchschnittlichen Haushalt nur rund 1 Euro im Monat kostet – so viel wie eine Kugel Eis“ [BMU]. Heute wissen wir von seinem Nachfolger, dass es inzwischen um mehr als eine Billion Eiskugeln bzw. Euro geht – rund 12.000 Eiskugeln für jeden Einwohner der Bunderepublik. Hoffentlich hat Herr Trittin einen Sponsorvertrag mit der Fa. Mövenpick geschlossen…

Trittin Zitat in der Tagesschau.de vom 18.01.2004: Mit Dank an Leser R. Hoffmann

Auf jeden Fall ist gerade er, der andere politische Gruppen gerne als Vertreter von Wirtschaftsinteressen diffamiert, selbst einer der effizientesten Lobbyisten der letzten Jahre. Unter seiner Protektion sind etliche, teils recht windige Gestalten, inzwischen auf Kosten der Allgemeinheit zu Öko-Millionen, einige sogar zu Öko-Milliarden gekommen.

Die Grünen werden in diesem Bundestagswahlkampf sicherlich versuchen, die Verantwortung für die Konsequenzen ihrer Politik von sich wegzudiskutieren und anderen in die Schuhe zu schieben. Wie üblich werden diese Rattenfänger wieder vor allem idealistisch gesinnte junge Menschen mit ihrem Gerede von Klimarettung und sozialer Gerechtigkeit umgarnen. Doch inzwischen sollte es soweit sein, dass man sie mit ihren Sprüchen nicht mehr so wohlfeil davonkommen lässt. Der Wahlkampf hat gerade erst begonnen. Es ist Zeit, sie anzugehen: Geht zu ihren Veranstaltungen, diskutiert an ihren Ständen, besucht auch sonstige Anlässe wie Gründungsveranstaltungen für Bürgerwindparks. Konfrontiert sie dort mit den Folgen ihres Tuns, lasst nicht zu, dass sie ihre Lügen unwidersprochen unter das Volk streuen. Redet über Stromarmut, über die Ausplünderung der Werktätigen zugunsten der Öko-Profiteure und über die zunehmenden Betrugsfälle bei sogenannten Bürgerwindprojekten.

Und lasst nicht zu, dass diese Vertreter des millionenfachen Vogelmordes durch Windräder und der naturfeindlichen Monokulturwüsten für Biogas sich weiterhin als Naturschützer aufspielen (Beispiele hier). Druckt Bilder von Opfern ihres Treibens aus und tragt sie in der Brieftasche mit euch, um sie bei Bedarf vorzuzeigen.

Und an alle Blogbetreiber richte ich die Bitte: Stellt Download-Bereiche bereit, wo Aktivisten entsprechende lizenzfreie Bilder einstellen bzw. herunterladen können, damit man diese Argumente dann zur Hand hat, wenn man sie braucht.

Michael Limburg EIKE

Quellen:

[WELT] http://www.welt.de/politik/deutschland/article114828648/Energiewende-ploetzlich-schweigt-Juergen-Trittin.html

[BMU] http://www.bmu.de/bmu/presse-reden/pressemitteilungen/pm/artikel/erneuerbare-energien-gesetz-tritt-in-kraft/




NAEB Nachrichten vom 12. April 2013 in den EIKE-News

Die Themen

1. Bahn AG negiert Altmaiers Ökostrom-Kosten-Lamento

2. BP Vorreiter bei Windpower-Exodus.

3. Petitionen und Polls, Grundkurs in Demokratie

4. Hessen als Beispiel für die Länder-Windkraft-Anlagen-Intention.

5. Schimpf- und Schande-Mails von den Energiewendern an NAEB.

6. Bölkow-Stiftung/Energywatch (Fell) propagieren Ende von Öl und Gas.

7. Warum kommt die Energywatch-Group jetzt mit ihrer Studie.

8. Energiewender werden Shalegas-Boom nicht aufhalten können!

9. Das Bild passt, Offshore-Pläne Französischer Politiker.

10. April-Ente! Antarktis-Eiszuwachs endlich geklärt, Ursache CO2-Klimawandel.

11. Poltical Startups keine Bundestags-Wahl-Alternative.DPG weiterhin stramm auf Energiewende-Indoktrinationskurs.

12. In welchem "Reiche" sind wir momentan?

13. Eberharts Vers: Windräder irritieren Segelflieger

Der vollständige Nachrichtentext (hier).




„Energie und Klima: Chancen, Risiken, Mythen“, expert Verlag (2013)

Als Optimist halte ich die Gestaltung der deutschen Energiezukunft mit den Zielen konsequenten Umweltschutzes, Ressourcenschonung, Wirtschaftlichkeit und Bewahrung der deutschen Spitzenstellung im globalen Wettbewerb für möglich. Allerdings ist dabei technisch-wirtschaftliche Vernunft unabdingbar. Jeder Versuch, ökoideologische oder gesellschaftsverändernde Vorhaben mit „Klimaschutz“ und „grünen“ Stromerzeugungsmethoden zu verwirklichen, ist mit dem hier genannten Zielbündel nicht zu vereinbaren.

Inzwischen gibt es zahlreiche Sachbücher, die sich kritisch mit der deutschen „Energiewende“ (dem kein Land der Welt folgt) und dem „Klimaschutz“ auseinandersetzen. Die Veranlassung eine weitere Monographie hinzuzufügen, ergab sich aus Diskussionen im Anschluss an Vorträge von mir. Dabei wurde das Fehlen eines Buchs bedauert, das die Themen Energie und Klima zusammengehörig, sachlich korrekt und auf dem heutigen wissenschaftlichen Stand behandeln. Meldungen und Verlautbarungen seitens der deutschen Medien, der Politik und NGO’s (wie z.B. Greenpeace) werden von nachdenkenden Bürgern zunehmend kritisch beurteilt. Man wünscht dringend eine von Ökolobbyismus und Ökoideologie freie Sachinformation.

Im Energieteil des Buchs werden die Kriterien beschrieben, die eine umweltgerechte, kostengünstige und ressourcenschonende Versorgung mit elektrischem Strom ermöglichen, ein Zustand, dem Deutschland vor der Energiewende bereits einmal nahe kam. Leicht nachvollziehbare Abschätzungsrechnungen bieten die Möglichkeit, Medienaussagen auf ihren Wahrheitsgehalt zu überprüfen. Sie sind als Anleitung und Anregung zu weiteren, eigenen Rechnungen und Internet-Recherchen gedacht. Die in Deutschland auf einem medialen Tiefpunkt angekommene Kernenergie bildet ein eigenes Schwerpunktthema. Nirgendwo auf der Welt werden über die Kernenergie so viele Unwahrheiten verbreitet wie hierzulande. Daher ist eine nüchtern korrekte Schilderung der Fakten, Chancen und Risiken der Kernenergie, deren weltweiter Siegeszug nicht aufzuhalten ist, längst überfällig. 

Der Klimateil des Buchs werden Sie in eine spannende Geschichte der Klimaentwicklung entführt, die viele Millionen Jahre vor unserer Zeit beginnt, schwerpunktartig das 20. Jahrhundert sowie die jüngste Zeit behandelt und schließlich sogar einen Blick auf die Klimazukunft erlaubt. Hier fließen nicht zuletzt auch Ergebnisse eigener, begutachteter Klima-Fachveröffentlichungen ein (hier, hier, hier, hier). Über die wichtige Frage nach der sehr kleinen Erwärmungswirkung des anthropogenen (menschgemachten) CO2 gibt es freilich keine absolute Gewissheit, dies wird wohl auch zukünftig so bleiben.

Kann dennoch Entwarnung vor dem angeblich so klimagefährlichen Naturgas CO2 gegeben werden, oder müssen wir umgekehrt alle unsere Bemühungen konsequenter CO2-Vermeidung widmen? Was sagt der heutige wissenschaftliche Stand dazu aus? CO2 als Grundbestandteil der Photosynthese ist immerhin für unser aller Ernährung und Existenz unabdingbar. Der durch zunehmendes atmosphärisches CO2 verursachte Düngungseffekt hilft der wachsenden Erdbevölkerung bei der Nahrungserzeugung.

Ist das oft zu hörenden „Totschlagargument“ schlüssig, unsere Nachkommen müssten vor einer drohenden „Klima-Gefahr“, koste es, was es wolle, geschützt werden? Es gibt unzählige reale Zukunftsgefahren, angefangen von der fortschreitenden Zerstörung des Fischbestands der Weltmeere, über die Trinkwasserknappheit in Dürregebieten, den Rückgang der Tropenwälder bis hin zu drohenden Pandemien oder Zusammenstößen der Erde mit größeren Asteroiden. Ist es angesichts dieser Gefahrenfülle sachgemäß, unsere begrenzten Mittel fast ausschließlich der CO2-Vermeidung zu widmen, um eine weltweite Vorbildfunktion beanspruchen zu können? Diese Frage kann nur durch nüchterne Abwägung der Fakten, Risiken und Kosten sachgemäß beantwortet werden.

Im unten angefügten pdf findet sich, verfasst von Arnold Vaatz, MDB, das Geleitwort zum Buch, ferner die Inhaltsangabe des Buchs und seine Einleitung.

Prof. Dr. Horst-Joachim Lüdecke

Related Files




Ein vorläufiger Blick auf Compo et al. (2013)

Das Vertrauen in die Schätzungen anthropogener Klimaänderung ist aus bekannten Gründen hinsichtlich der Temperaturmessungen an Landstationen begrenzt. Die Lage der Station, Änderungen der Instrumentierung, sich ändernde Beobachtungspraktiken, städtische Effekte, Landschaft und Veränderungen derselben sowie statistische Prozesse wurden alle durch das IPCC und andere hypothetisch als die Trends beeinflussend dargestellt. Jedwedes Artefakt in den beobachteten dekadischen und hundertjährigen Veränderungen in Verbindung mit diesen Dingen könnte wichtige Konsequenzen für das wissenschaftliche Verständnis und die Klimapolitik haben. Wir führen hier einen ganz anderen Weg durch, um die globale Erwärmung auf dem Festland während es 20. Jahrhunderts zu untersuchen. Wir haben alle Messungen der Lufttemperatur ignoriert und sie stattdessen aus Messungen des Luftdrucks, der Wassertemperatur und der Meereis-Konzentration abgeleitet via einer physikalisch basierten Datenassimilation, genannt die 20. Jahrhundert-Realanalyse. Dieser unabhängige Datensatz reproduziert sowohl jährliche Schwankungen als auch Jahrhundert-Trends in den Temperatur-Datensätzen. Sie zeigen die Robustheit früherer Schlussfolgerungen hinsichtlich der globalen Erwärmung.

Kurz gesagt, Compo et al. (2013) haben global Lufttemperaturen über dem Festland kreiert ohne stationsbasierte Temperaturmessungen. Im Wesentlichen nutzten sie andere Variable als Input für eine Computer-Reanalyse, um daraus Temperaturanomalien abzuleiten.

Natürlich hat man bei SkepticalScience sofort einen Beitrag zu dieser Studie gepostet, wobei Dana1981 seine zwei Cent [?] über die Bedeutung von Compo et al. in den Ring wirft. SkepticalScience war so nett und hat die Abbildungen 1 und 2 aus Compo et al. (2013) abgebildet. Die Abbildung 1 bei Compo et al. ist auch hier Abbildung 1. Sie zeigt die Erwärmung der Temperaturen auf dem Festland von 1991 bis 2010 in der Breite von 60°S bis 90°N. Die blaue Kurve ist die Reanalyse von Compo et al. Die rote Kurve zeigt die neuen und verbesserten CRUTEM4-Daten vom UK-Met. Office. Und die schwarze Kurve ist das Mittel anderer Rekonstruktionen der Temperatur auf dem Festland einschließlich NCDC, GISS, JMA und UDEL.

Abbildung 1 (Abbildung 1 aus Compo et al (2013))

Was erkennen Sie in dieser Graphik?

Ich erkenne darin im Vergleich zu anderen Datensätzen, dass die Compo et al.-Realanalyse während der frühen und mittleren siebziger Jahre wärmere Anomalien aufweist und kühlere zum Ende des ersten Jahrzehnts in diesem Jahrhundert, was einen niedrigeren Trend während der jüngsten Erwärmungsperiode erzeugen würde. Die Compo et al.-Realanalyse zeigt auch eine Abflachung der Temperaturanomalien an Land seit dem Jahr 1995, während andere Datensätze dort fortgesetzte Erwärmung zeigen. Compo et al. zeigen auch eine übertriebene Spitze im Jahr 1943 im Zusammenhang mit einem mehrjährigen El Niño-Ereignis damals.

Die Wahl des Bezugszeitraumes 1981 bis 2010 als Basis für Anomalien ist auch eine Merkwürdigkeit. Während die WMO periodisch die Aktualisierung von Bezugsjahren verlangt, verwenden die Produzenten globaler Temperaturanomalien wie GISS, NCDC und UKMO individuell unterschiedlich ausgewählte Basisperioden.

Der reproduzierte Graph von der Compo et al.-Realanalyse

Unter Verwendung der Koordinaten-Funktion von MS Paint habe ich das Ergebnis der Reanalyse von Compo et al. (2013) reproduziert. Ich vergleiche sie mit den CRUTEM4-Daten in den Breiten von 60°S bis 90°N in Abbildung 2 mit der Bezugsperiode 1981 bis 2010 als Basis. (Die CRUTEM4-Daten werden durch den  KNMI Climate Explorer auf einer gerasterten [gridded] Basis zur Verfügung gestellt). Ich habe auch die linearen Trends eingezeichnet. Meine Reproduktion erzeugt einen linearen Trend, der vergleichbar ist mit dem Trend von 0,09°C pro Dekade, wie er im Beitrag bei SkepticalScience genannt wird.

Abbildung 2

Nun wollen wir also einmal die jüngste Erwärmungsperiode näher betrachten, und wir lassen die gegenwärtige Erwärmungsperiode im Jahr 1976 beginnen. In Abbildung 3 wird die reproduzierte Compo et al.-Realanalyse im kurzfristigen Zeitraum mit den CRUTEM4-Daten verglichen. Wie vermutet zeigen die CRUTEM4-Daten einen um 32% stärkeren Erwärmungstrend als die Rekonstruktion von Compo et al. Die Abflachung der warmen Spitzen in der Compo et al.-Reanalyse seit 1995 kommt ebenfalls viel deutlicher zum Ausdruck.

Abbildung 3

Verwendung unterschiedlicher Basisjahre

In den Abbildungen 4 und 5, langzeitlichen Vergleichen, habe ich die Realanalysen von CRUTEM4 und Compo et al. verglichen unter Verwendung des Standardbezugszeitraumes von UKMO und GISS. Abbildung 4 zeigt den Bezugszeitraum 1961 bis 1990 von UKMO und Abbildung 5 die Periode 1951 bis 1980 von GISS. Die Divergenz in letzter Zeit (Abflachung der warmen Spitzen in der Compo et al.-Realanalyse im Vergleich zur fortgesetzten Erwärmung der CRUTEM4-Datenspitzen) kommt ziemlich klar in beiden Graphiken zum Ausdruck. Ich überlasse es Ihnen zu kommentieren, warum Compo et al. die Anomalien im Vergleich zum Zeitraum 1981 bis 2010 präsentiert haben.

Abbildung 4

####################

Abbildung 5

Trendkarten

Meine Abbildung 6 ist die Abbildung 2 in Compo et al. (2013). Man beachte die Unterschiede in den Trends über Alaska und den mittleren bis höheren Breiten in Russland während des Zeitraumes 1952 bis 2010 (Zellen c und d). Compo et al. (2013) konnten die exzessiven Erwärmungsraten dort während dieses Zeitraumes nicht reproduzieren.

Abbildung 6 (Abbildung 2 aus Compo et al (2013))

Schlussbemerkung

Manchmal bekomme ich den Eindruck, dass SkepticalScience unfähig ist, Zeitreihen-Graphiken richtig zu deuten. Ich überlasse es Ihnen, den restlichen Beitrag bei SkepticalScience zu kommentieren.

Bob Tisdale

Link: http://wattsupwiththat.com/2013/04/08/a-preliminary-look-at-compo-et-al-2013/

Übersetzt von Chris Frey EIKE

Anmerkung der Redaktion: Diese Studie wird von den IPCC Jüngern derzeit benutzt um mächtig Reklame für diese Studie zu machen. Abgesehen von den Fragen die Bob Tisdale stellt, bleibt u.a. die Frage mit welchen Mitteln Non-Thermometer Daten wie oben genannt, zu Luft-Temperaturdaten (in 2 m Höhe), bzw. deren Abweichungen von einem Referenzwert umgemünzt wurden. Es ist gut vorstellbar, dass der Kalibrierungsprozess selber die Ergebnisse erzeugt hat. Wir bleiben dran.




Das Geschäftsmodell von EIKE – eine überfällige Enthüllung

Zunächst der Beitrag von Schwarz aus den „klimarettern“. Lesen Sie das Original „Klimakiller FDP im Lobbyfilz“ von Michael Schwarz, wundern und ergötzen Sie sich und staunen Sie über die neuen Geschäftsmodelle in Deutschland, insbesondere über das von EIKE und der FDP!

Klimakiller FDP im Lobbyfilz

Von Michael Schwarz, Biologe, Experte für globale Umweltveränderungen und Blogger bei klimaretter.info

Klimaschutz nervt – zumindest die Anhänger freier Märkte. Denn inzwischen wird immer klarer, dass das bisherige neoliberale Wirtschaftsmodell direkt in die Klimakatastrophe führt. Klimaschutz braucht Marktregeln. Das kapiert eigentlich jeder, wenn er es denn kapieren will. Es gibt aber auch durchaus ein Interesse, das Gegenteil zu glauben oder, noch konsequenter, gleich den ganzen Klimawandel als Unsinn, Schwindel oder kommunistische Verschwörung zu verteufeln. Vertreter dieser Weltsicht nennt man Klimaleugner oder Klimaskeptiker.

Die „Zeit“ publizierte am 28. November 2012 einen viel beachteten Artikel über professionelle Klimaleugner. Titel: „Die Klimakrieger“. Guardian-Kolumnist George Monbiot spricht in dem Zusammenhang von der „denial industry“, der Leugner-Industrie. Eine brandneue Studie australischer Wissenschaftler, publiziert in „Psychological Science“, konnte nun belegen, dass das Phänomen Klimaleugnung – neben anderen Verschwörungstheorien – signifikant häufiger bei Vertretern neoliberaler Überzeugungen auftritt. Bei klassischer FDP-Klientel also.

Ideologische Borniertheit gegen atmosphärische Gesetzmäßigkeiten, einzig, weil diese im „feindlichen“ Lager bei Grünen, Greenpeace und Co. verortet werden? Freilich! Gerade in Wahlkampfzeiten braucht es schließlich Abgrenzung, Profil, Sündenböcke. Destruktive Klimapolitik ist daher ein schlagkräftiges Thema im Kampf um öko-gestresste Wähler und Parteispenden von leidgeprüften deutschen Großkonzernen.

Zu Klimakriegern hält Brüderle nicht immer Distanz

Frontalpolitik gegen die wissenschaftlichen Fakten traut sich die FDP-Spitze dennoch bisher nicht. Zu erdrückend ist die Beweislage, um sich ganz offiziell auf die Seite der Klimaleugner zu schlagen. Der Fraktionschef der Liberalen Rainer Brüderle argumentiert daher lieber aus ökonomischer Sicht. Klimaschutz soll doch bitte der Markt selbst regeln, auf jeden Fall darf es nichts kosten. Vor EU-Kollegen riet er zu einer „sinnvollen Pause in der Klimapolitik“ und zum „Vorrang wirtschaftlicher Konsolidierung“.

Die Distanz zu waschechten Klimakriegern hält Brüderle dennoch nicht immer ein, wie bei einer gemeinsamen Buchvorstellung mit Günter Ederer in Hamburg. Ederer ist Journalist, Autor und Lobbyist und machte einst Schlagzeilen, indem er den „grünen“ US-Vizepräsidenten Al Gore mit Adolf Hitler verglich. Bei anderer Gelegenheit moderierte Ederer eine Podiumsrunde, bei der Fred Singer, ein Superstar der Klimaleugnerszene, Öl- und Tabaklobbyist, seine Überzeugungen zu Treibhauseffekt und Ökosteuern zum Besten geben durfte. Ort der Veranstaltung: Der deutsche Bundestag! Eingefädelt hatte die Veranstaltung Paul Friedhoff, Abgeordneter der FDP.

Die Klimaleugner aus der zweiten Reihe

Normalerweise organisiert die FDP ihre ideologisch-propagandistische Schlacht ums Klima aus der zweiten Reihe, zum Beispiel mit Hilfe von Holger Krahmer, Mitglied der liberalen Fraktion im EU-Parlament. Krahmer ist ausgerechnet umweltpolitischer Sprecher der Fraktion und gleichzeitig ein besonders aktiver Klimakrieger. Seine Homepage wimmelt nur so von Thesen und Vorschlägen, die ohne Abstriche aus den Federn der Fossilindustrie stammen könnten. So feiert er auf seiner Webseite die Aufweichung der Emissionsgrenzwerte für Pkw als „vernünftige Entscheidung“, wettert gegen das Verbot von Glühlampen und warnt vor einer Verschärfung des Emissionshandels. Und vieles mehr. Ein Sammelsurium gängiger Klimaleugner-Argumente. Schizophrenie à la FDP.

Argumentationshilfe holt sich der gelernte Bankkaufmann Krahmer bei einschlägig bekannten Klimaleugnern wie Benny Peiser vom berüchtigten US-Lobbykartell „Heartland Institute“. Krahmer und Peiser gaben erst kürzlich eine Broschüre heraus. Titel: „Unbequeme Wahrheiten über die Klimapolitik und ihre wissenschaftlichen Grundlagen“. Eine handliche Gebrauchsanweisung für den Klimakrieg.

Die FDP mit Krahmer als Strippenzieher organisierte außerdem diverse Veranstaltungen mit eindeutiger Zielstellung, unter anderem am 3. Juli 2012 im EU-Parlament. Unter dem Titel „Klimaschutz: die politische Überforderung“ referierten dort Fritz Vahrenholt und Sebastian Lüning über ihr umstrittenes Buch „Die kalte Sonne“

Man bleibt gern unter sich

Im Juni 2012 richtete Krahmer zusammen mit der FDP Sachsen eine „alternative“ Klimakonferenz in Dresden aus. Bei der Veranstaltung unter dem düsteren Titel „Sind wir noch zu retten? Zwischen Klimakatastrophe und Ökohysterie“ sollte geklärt werden, „ob es denn überhaupt einen Klimawandel, eine globale Erderwärmung gibt, und falls ja, ob diese dann auch tatsächlich durch uns Menschen verursacht wird“. Um gar nicht erst mit dem wissenschaftlichen Konsens in Berührung zu kommen, lud man denn auch keinen einzigen Klimawissenschaftler als Redner ein, dafür eine Handvoll der üblichen Verdächtigen aus der organisierten Leugnerszene wie den bereits erwähnten Benny Peiser oder den Zoologen Josef Reichholf, der bei CFACT unter Vertrag ist . CFACT steht für „Committee for a Constructive Tomorrow“. Dieser rechtskonservative US-Thinktank fällt durch besonders aggressive Anti-Klima-Rhetorik auf und erfreut sich großzügiger Finanzierung durch ExxonMobil und Co.

Ebenfalls bei CFACT unter Vertrag ist Steffen Hentrich, hauptamtlich verantwortlich für Umwelt- und Energiepolitik bei der FDP-nahen „Friedrich Naumann Stiftung für die Freiheit“. Hentrich ist außerdem Mitarbeiter beim Berliner Institut für Unternehmerische Freiheit (IUF) und Autor zahlreicher neoliberaler und klimaskeptischer Blogs wie „Ökowatch“ und „Freie Welt“. Sein 2011 publiziertes Buch „Realitätscheck für den Klimaschutz – Globale Klimapolitik zwischen Anspruch und Wirklichkeit: Vorschläge für neue liberale Ansätze“ ist Klimabelletristik vom Feinsten. Mitherausgeber des Buches: Holger Krahmer, unser Klimakrieger von den EU-Liberalen. Die Kreise schließen sich … doch der Filz wird noch dicker.

Seit fünf Jahren, zuletzt im November 2012 in München, findet regelmäßig eine „Klimakonferenz“ der ganz besonderen Art statt. In gemütlichen Ambiente eines schicken Hotels trifft sich die Elite der deutschen und internationalen Klimaleugnerszene. Die Redner – ein Panoptikum einschlägig bekannter Lobbyisten, Laienprediger und korrupter Wissenschaftler – rekrutieren sich größtenteils aus den Reihen der Veranstalter selbst. Man bleibt gerne unter sich.

Die Organisatoren sind die üblichen Lobbybuden wie Heartland Institute und CFACT, das unternehmensnahe Berlin Manhattan Institute (BMI) sowie das Europäische Institut für Klima und Energie (EIKE), ein Jenaer Briefkasten-Verein und bekannteste Adresse der deutschen „denial industry“. Die FDP-„Stiftung für die Freiheit“ war zumindest bis 2011 Sponsor der Veranstaltung.

EIKE-Chef Holger Thuß, Mitglied der CDU Jena, ist gleichzeitig Europachef von CFACT und Verleger klimaskeptischer Bücher mit martialischen Titeln wie „Öko-Nihilismus 2012 – Selbstmord in Grün“ von Edgar Gärtner oder „Öko-Imperialismus – Grüne Politik mit tödlichen Folgen“ von Paul K. Driessen. Beide Autoren sind ebenfalls auf der Gehaltsliste von CFACT. Holger Thuß´ Aktivitäten sind inzwischen selbst seiner eigenen Partei nicht mehr geheuer. Die Jenaer CDU-Gruppe jedenfalls distanzierte sich öffentlich von ihm.

Umso mehr dürfte sich Thuß über den Besuch von Thüringer FDP-Prominenz am Stand seines Verlages Thuß und van Riesen (TvR) auf der Leipziger Buchmesse 2010 gefreut haben. Medienwirksam hielt FDP-Mann Patrick Kurth ein Buch des Verlages in die Kamera. Titel: „Klimahysterie – was ist dran“, Autor: Michael Limburg, „Berater“ bei CFACT, Vize von EIKE.

Am folgenden Tag brachte die FDP eine Pressemitteilung heraus: „Der TvR Medienverlag veröffentlicht im politischen Bereich mit zum Teil gesellschaftskritischen Titeln. Kurth konnte sich dabei von dem tollen Einsatz und den interessanten Themen des Verlags überzeugen“. Alles klar?

Am Ende bleiben drei Erkenntnisse:

1. Klimaleugnung ist keine zufällige Verwirrung, sondern ein lukratives Geschäftsmodell.

2. Gerade für FDP-Hinterbänkler bietet ein entsprechendes „gesellschaftliches“ Engagement Zukunftschancen in der Lobbyindustrie und federt zudem gegen die Risiken volatiler Wählergunst und politischer Umschwünge ab.

3. Es ist unmöglich, dass der ganze Lobbyfilz aus FDP-Stiftung, CFACT, EIKE, Heartland Institute und einzelnen FDP-Funktionären ohne den Segen der Parteiführung existiert.

Insofern bleibt die FDP ihrem Image treu – als randständige Lobbypartei der Konzerne und Bosse. Ein Klimakiller eben.

So weit Schwarz. Was können wir von EIKE überhaupt noch zu dieser erschöpfenden Enthüllung sagen?

Zunächst unser Dank an Herrn Schwarz, der sogar mit einem Masterabschluss versehen ist. Mehr konnten wir auch im Internet nicht finden, aber Schwarz wird ohnehin über seine fleissige Bloggerei bei klimaretter.de hinaus berühmt werden. Solch ein journalistisches Talent muss und wird seinen Weg machen. Wir empfehlen als nächsthöhere journalistische Bewährung schon einmal die ZEIT, dort wird er sich zwanglos ins Team einpassen (s. die Klimakrieger). Die Süddeutsche Zeitung ist aber auch nicht übel. Wir wünschen Herrn Schwarz auf jeden Fall allen Erfolg und beglückwünschen ihn schon einmal im Voraus.

Bei aller Begeisterung stimmt uns Mitglieder von EIKE der Beitrag von Schwarz dennoch ein wenig traurig. Wohin nun nach dieser Enthüllung mit den vielen Millionen Euro aus unserem Geschäftsmodell? Als gemeinnütziger Verein dürfen wir diesen Geldsegen schließlich nicht einfach unter uns aufteilen, da wäre Schäuble vor! Wohin mit den unzähligen Spenden der Kohle-, Erdöl- und Kernkraftlobby? Ein EIKE-Mitglied hatte schließlich die rettende Idee: wir lehnen inzwischen Spenden unter 100.000 Euro von Gebern aus dem Reich des Bösen (Kohle, Erdöl, Uran, Gas) wegen Geringfügigkeit ab. Aber es nützt alles nichts, wie lange kann dieser Damm noch notdürftig halten? Wir wissen nicht mehr, wohin mit dem Geld. Vielleicht weiß Schwarz eine Lösung.

Glücklicherweise lässt uns wenigstens die FDP gewähren, die, von Schwarz völlig zutreffend analysiert, ein ebenso verwerflicher Verein wie EIKE ist. Dank der tiefgreifenden Recherche von Schwarz ist es nun endlich auch ans Licht gekommen, dass alle unsere Mitglieder bei CFACT auf der Gehaltsliste stehen. Es kann nicht mehr geleugnet werden, wir geben es freimütig, stolz, aber auch etwas verschämt zu. Aber das ist noch nicht alles. Unser Vorsitzender, Holger Thuß, ist gar Europachef von CFACT. Hat er uns nicht erzählt, dieser Schelm. Wir werden ihm eine Glückwunschkerze anzünden. Von der FDP wollen wir besser erst gar nicht reden, CFACT und FDP, das ist ja fast schon ein Begriff.

Für Leser, die sich in der Klima- und Energieunterwelt noch nicht auskennen, zur Info und Aufklärung: CFACT steht für „Committee for a Constructive Terror (Verzeihung, ein Schreibfehler, natürlich Tomorrow). Nur ganz ein wenig sind wir allerdings doch überrascht, dass gemäß der Enthüllung von Schwarz sogar der bekannte Zoologe Prof. Dr. Reichholf bei CFACT unter Vertrag ist. Von den FDPlern ist uns das natürlich längst geläufig, schließlich weiß das jedes Kind. Und außerdem: von denen kann man ja ohnehin nichts anderes erwarten. Die sind ja sogar neoliberal. Überhaupt „liberal“, pfui Teufel, liberal, das ist ja wohl das Allerletzte. Antiliberal, Ökodiktatur, das ist heute angesagt! Herr Schwarz wird es schon richten, wir sollten uns gemütlich daran gewöhnen – mit Öko-Blockwarten wie dem begnadeten Biologen Schwarz.

CFACT hat natürlich überall die Finger drin, ein ganz übler neoliberaler Sumpf! Ob auch unsere Kanzlerin, Frau Angela Merkel oder gar Herr Jürgen Trittin unter Vertrag bei CFACT sind ….?  – immerhin arbeitet bereits Joschka Fischer, wenn man Gerüchten Glauben schenken darf, inzwischen für die US Großfinanz – ……. Aber nein, das geht zu weit, lassen wir das besser, es würden sich nur Abgründe auftun. Hier darf nur ein Experte wie Schwarz recherchieren, wo kämen wir sonst hin!

Ein ganz kleiner Wermutstropfen bleibt in unsererem Freudenbecher über das Erscheinen der reinen Wahrheit aber dennoch übrig. Und dabei haben wir uns immer so viel Mühe gegeben, die lieben Schellnhubers, Rahmstorfs, Edenhofers, Graßls usw.usw. zu uns zu einem öffentlichen Plausch über Klima einzuladen. Niemand kam, dabei beißen wir doch nicht, oder? Wenn also Schwarz schreibt, wir wollten unter uns bleiben, dann – wir bitten den großen Schwarz vielmals um Verzeihung – müssen wir hier ausnahmsweise höflich berichtigen. Alle Genannten waren und sind unverändert und ganz herzlich zur Diskussion eingeladen, öffentlich natürlich. Hier bei EIKE war das schon immer zu lesen, Einladungen wurden zu Hauf verschickt und hier stehts jetzt nochmals. Das wäre doch die beste Gelegenheit für die verehrten Experten, den Zuhörern oder Zuschauern einmal zu zeigen, dass wir in EIKE als Lobbyverein keinen blassen Schimmer von der Klimawissenschaft haben. Na ja, vielleicht war die Anmerkung von Herrn Schwarz nur Zerstreutheit.

Wir müssen uns übrigens auch nach mehrmaligem Lesen des Beitrags von Schwarz immer noch erholen, so stringent, so überzeugend, so gut recherchiert ist dieser klimaretter.de-Artikel. Das kann man nicht lernen, das muss man im Blut haben – Respekt!

Die EIKE-Redaktion

Nachtrag nach Lesen der Blogbeiträge (15.4.13): Ist schwer vorstellbar, aber einige Leser scheinen unseren Artikel wörtlich zu nehmen. Mal was von Ironie gehört, Leute? Ökoagitatoren mit einem solchen IQ wie diesen Schwarz kann man unmöglich ernst nehmen. Entspannt Euch und genießt lieber seinen Erguss, wir jedenfalls haben uns königlich amüsiert.




Ankündigung: 1. Bürgerschutztag am 12.5.13 in Nürnberg

Mitglieder von Vereinen und Aktionsgruppen erhalten bei Anmeldung bis 22.4. Freikarten, siehe Anmeldeformular auf der Internetseite www.buegerschutz-tag.de.

Danach kostet der Eintritt pro Person 10,- €, für Ehepaaare und Familien 15,- €.

Das vorläufige Programm finden Sie hier

Und auch als pdf zum Ausdrucken im Anhang

Related Files




Rent a Klimaforscher!

Glücklicherweise läuft das Gehalt weiter, aber irgendwie ist es wohl auch langweilig. Zumal es so viel wachzurütteln gibt. Deswegen kommen manche von Ihnen wohl auf die Idee, sich als Redner buchen zu lassen. Über professionelle Agenturen. Das kann ganze schön lukrativ sein, wie wir seit dem SPD Kanzlerkandidaten Peer Steinbrück wissen. Einer von Ihnen ist Prof. Dr. Rahmstorf vom Potsdam Institut für Klimaforschungsfolgen (PIK). Ihn kann man bei mindestens drei professionellen Redneragenturen buchen. 

Bei der Agentur „Redner & Perspektiven“..Die internationale Redneragentur“ erfahren wir dass…

Rahmstorf die Erforschung mancher Klimarisiken mit der Untersuchung der Absturzgefahren bei einem Flugzeug vergleicht. Zu einigen Szenarien, wie beispielsweise dem Schmelzen des Westantarktischen Eisschildes, sagte er: „Niemand glaubt, dass diese Dinge sehr wahrscheinlich sind. Aber wir müssen solche Risiken dennoch berücksichtigen, wenn wir Klimapolitik machen.“

Das muss, das sollte jeden interessieren. Deswegen schreibt die Agentur über sich:

Für den Erfolg Ihrer Veranstaltungen spielt die Qualität führender und bekannter Persönlichkeiten eine wichtige Rolle. Wir verfügen über weltweite Kontakte zu den besten Köpfen: Denkern, Visionären, Wissenschaftlern, Künstlern, Sportlern, Politikern, Motivatoren, Erfolgsstrategen, Abenteurern und anderen außergewöhnlichen Menschen…..Wir arbeiten als Partner von Europas führendem und weltweit operierendem Rednerbüro Celebrity Speakers (CSA) in einem globalen Netzwerk von Redneragenturen.

Zu buchen bei: http://www.redneragentur.de/index.asp?start=rednerdetail&wahl=1160CA41&lang=de

Auch bei der  ECON Referenten Agentur: Wir brauchen Werte, um die Welt zu verstehen. (Lothar Späth) kann man Rahmstorf buchen. Die verkünden:

Wir überlegen uns genau, welche Persönlichkeiten zu welcher Zielgruppe und Veranstaltungsart passen. Wir beraten Sie bei der Auswahl Ihres Wunschredners ausführlich und erleichtern Ihnen die Entscheidung. Schließlich soll der Auftritt der Höhepunkt Ihrer Veranstaltung werden.

Wir arbeiten überwiegend mit prominenten Persönlichkeiten aus Wirtschaft, Politik, Medien, Kultur, Wissenschaft und Sport zusammen. Aber wir setzen auch auf Newcomer, die interessante Themen brillant vortragen oder fesselnd moderieren

dazu wird wohl auch Prof. Dr. Stefan Rahmstorf Klimaforscher… gezählt. Vorgestellt wird er bei Econ  mit den Worten…

Für seine unermüdliche Aufklärungsarbeit zum Klimawandel erhielt Stefan Rahmstorf 2007 den Umwelt-Medienpreis der Deutschen Umwelthilfe. Als brillanter Redner auf vielen Wirtschaftstagungen und -kongressen trägt Stefan Rahmstorf sein Wissen und seine Erkenntnisse in die Unternehmenswelt.

zu buchen bei http://www.econ-referenten.de/redner/prof-dr-stefan-rahmstorf-klimaforscher

Leider hat er dort noch nicht einen der vorderen Ränge erreicht. Den besetzt – unübersehbar, unüberhörbar

Rainer Calmund.

Der wird dort als Nr. 1 der Top 10  gefeiertReiner Calmund Fußballexperte und Manager

Und weiter geht es mit der kleinen aber feinen Redneragentur

Referenten : Guillot.

Die helfen, gegen Gebühr natürlich bei

  • * einer Kunden- oder eine Mitarbeiterveranstaltung
  • * einem Firmenjubiläum oder eine Produktpräsentation
  • * einem Dinner Speech oder ein Kamingespräch
  • * einem Kongress, einer Messe oder einem Symposium
  • * einem Seminar oder einem Workshop

und versprechen:

  • Sie suchen Referenten, Gastredner, Key-Note Speaker oder Moderatoren?
  • Ihr Event soll neue Impulse setzen, Sie von anderen abgrenzen und eine exponierte Stellung einnehmen?
  • Sie benötigen eine authentische Persönlichkeit als Gastredner oder einen Moderator, der überraschende und neuartige Impulse gibt?
  • Aus dem Angebot, das der Klimaforscher abdeckt, kann man sich die folgenden Themen aussuchen:

Themen:

  • * Die Klimakrise
  • * Aus der Klimageschichte lernen
  • * Der Klimawandel und die Verantwortung
    des Menschen
  • * Klimawandel: Diagnose, Prognose, Therapie
  • * Was ist los mit unserem Klima
  • * Land Unter? Klima und Meeresspiegel
  • Anfrage erbeten an
  • Anne Guillot
  • Ich freue mich auf Ihre Anfrage.
    So erreichen Sie mich:
  • anne.guillot@referenten.de
  • + 49 6585 99 29 12

http://www.referenten.de/redner-referent-prof-dr-stefan-rahmstorf-416.html

Ein besonders schwieriges Thema hat sich der gemietete Referent Rahmstorf für die deutschen Maurer ausgedacht: denn..so schreiben Lüning, Vahrenholt auf ihrem Blog „Die kalte Sonne“

Der Deutsche Mauerwerkskongress 2013 steht dieses Jahr unter dem kuriosen Motto

„Mauerwerk – unter der Herausforderung des Klimawan­dels“.

Ein unerwartetes Thema. Die Temperaturen sind in Deutschland in den letzten 15 Jahren nicht mehr angestiegen, was den Maurern offenbar beim vielen Mauern entgangen ist. Unklar ist noch, ob die Mauern jetzt dicker gebaut werden sollen, weil die Winter kälter geworden sind. Oder kann man jetzt vielleicht dünnere Mauersteine nehmen, weil es laut IPCC in den kommenden Jahrzehnten ganz heiß werden soll? Aufklären wird die Maurer bei der Veranstaltung am 18. September 2013 kein Geringerer als Stefan Rahmstorf, wie baulinks.de ankündigte:

Zum  Kongress-Auftakt will Prof. Dr. Stefan Rahmsdorf als  welt­weit anerkannter Klimaforscher ein wissenschaftliches „Update zum  Klimawandel“ geben. Die Konsequenzen, die sich daraus für das Bauen ergeben, werden  ein Schwerpunkt des Vortrags zum Klimawandel sein.

Ob die Maurer eigentlich wissen, dass Rahmstorfs Klimakurven mittlerweile signifikant von denen des IPCC abweichen (siehe unseren Blogbeitrag “Rätsel Rahmstorf“), oder dass Rahmstorfs Golfstrommodell in argen Schwierigkeiten steckt (siehe “Golfstrom bleibt laut neuen Messdaten stabil: Stefan Rahmstorfs Modell beginnt zu wackeln“), oder dass sich der Senat von North Carolina geweigert hat, Rahmstorfs alarmistische Meeresspiegelmodelle als Planungsgrundlage heranzuziehen (siehe “Senat von North Carolina erteilt Rahmstorfs beschleunigtem Meeresspiegel eine Absage“)? Unkar ist zudem, über welche Redneragentur und zu welchem Preis Rahmstorf für die Veranstaltung gebucht wurde. Vielleicht über referenten.de (“Ich freue mich auf Ihre Anfrage”), ECON Referenten-Agentur (“Hier finden Sie Redner, die mit ausgefallenen Vortragsthemen oder spektakulären Auftritten begeistern) oder  Redner & Perspektiven (“Nutzen Sie Chancen des Gedankenaustauschs mit Vordenkern, lassen Sie sich von neuen Ideen, Impulsen und Empfehlungen inspirieren”)? Man könnte hier noch zig weitere kommerzielle Rednervermittlungen aufführen. Geben Sie spaßeshalber mal die Begriffe “Rahmstorf, Redner” in Google ein. Vorträge zur Klimakatastrophe als lukratives Geschäft.

Also wenn Sie demnächst mal eine größere Party, eine Versammlung, oder sonst irgendetwas planen und nicht wissen wie Sie Ihre Gäste nach dem Essen bei der Stange halten sollen, dann buchen Sie einen Klimaforscher, so einen wie Stefan Rahmstorf einer ist. Zeit hat er, und unterhaltsam ist er garantiert auch. Vielleicht aber zu teuer?

Michael Limburg EIKE




Mittelalterliche Warmzeit (Antarktis) – Zusammenfassung

Hemer and Harris (2003) extrahierten einen Sediment-Bohrkern unter dem Amery-Eisshelf in der Ostantarktis an einer Stelle, die etwa 80 km zum Festland hin verschoben im Vergleich zu seiner gegenwärtigen Lage liegt. Bei der Analyse der Charakteristiken dieses Bohrkerns während der vergangenen 5700 14C Jahre beobachteten die beiden Wissenschaftler einen Spitzenwert einer Fülle von Diatomeen allgemein und einer Masse von Fragilariopsis curta im Besonderen. Deren Parameter sind ihren Worten zufolge „mit größerer Nähe zu einem Gebiet mit primärem Wachstum verbunden wie der Meereiszone“ – zu einer Zeit etwa 750 14C yr B.P. Dies bedeutet, dass die Zeit des maximalen Rückzugs dieses Eisschildes zeitlich eng mit dem historischen Zeitrahmen der MWP zusammenfällt.

Khim et al. (2002) analysierten in gleicher Weise einen Sediment-Bohrkern aus dem östlichen Bransfield-Becken, unmittelbar nördlich der Antarktischen Halbinsel. Sie untersuchten auch Korngröße, den gesamten organischen Kohlenstoffgehalt, die magnetische Empfänglichkeit, den biogenen Siliziumgehalt, die 210Pb-Geochronologie und das Alter nach der Radiokarbon-(14C)-Methode. Alle Daten zeigten ganz klar die Gegenwart der „Kleinen Eiszeit“ und der „MWP, zusammen mit voran gegangenen Klimaereignissen ähnlicher Intensität und Dauer“.

Im gleichen Gebiet des Kontinents arbeiteten auch Hall et al. (2010). Sie schreiben: „Während der letzten 50 Jahre hat sich die Antarktische Halbinsel um etwa 2°C erwärmt“, und dass daraus folgende Brüche im Eis „viele dünne, schmale Eisschilde zerstört haben, die die Antarktische Halbinsel umgeben haben (Cook und Vaughan 2009 nebst Referenzen darin). Daraus folgend fragten sie sich, „ob die gegenwärtige Erwärmung der Antarktischen Halbinsel im Holozän einmalig ist“.

In dem Bemühen, den gegenwärtigen Eisrückzug in einen größeren Zusammenhang zu stellen, haben die drei Forscher „an Organismen reiche Sedimente untersucht, die durch den jüngsten Rückzug des Marr-Eis-Piedmont auf der westlichen Anvers-Insel nahe Norsel Point freigelegt worden sind. „Die Gletscher dort zeigen einen merklichen Rückzug als Folge der gut dokumentierten Erwärmung“. Dort „fanden sie Moos und Meeresmuscheln aus natürlichen Bereichen innerhalb von 26 Metern der gegenwärtigen Eisfront“ und auch „sowohl Schlamm als auch Muschelschalen aus Sedimenten, die in einem Tunnel unter der verbleibenden Eismasse freigelegt worden waren“. Proben daraus wurden mit der Radiokarbon-Methode datiert und die Ergebnisse in Kalenderjahre konvertiert.

Die mit diesen Methoden gewonnenen Ergebnisse konnten sie Schlamm aus den überstrichenen Sedimenten datieren auf Jahre zwischen 707 ± 36 und 967 ± 47 cal. yr B.P., woraus sie schlossen, dass das Eis bei oder hinter der gegenwärtigen Position lag in der Zeit etwa von 700 bis 970 cal. yr B.P. und mindestens zwei früheren Zeiträumen im mittleren und späten Holozän. Dann sagen die drei Forscher in klarer und verständlicher Sprache, dass „der gegenwärtige Zustand reduzierten Eises auf der westlichen Antarktischen Halbinsel nicht ohne Beispiel ist“. Dies ließ für sie eine weitere wichtige Frage aufkommen: „Wie verbreitet war das Ereignis von 700 bis 970 700-970 cal. yr B.P.?“

Die drei Forscher beantworteten die Frage selbst und sagen: (1) „Khim et al (2002) haben ein ausgeprägtes hoch produktives (warmes) Ereignis zwischen 500 und 1000 700-970 cal. yr B.P. gefunden, und zwar in Aufzeichnungen der magnetischen Eigenschaften aus dem Bransfield-Becken“, (2) „Daten aus Moos im Zusammenhang mit der gegenwärtigen Eisgrenze bei den Süd-Shetland-Inseln (Hall 2007) zeigen, dass das Eis zwischen 650 und 825 yr B.P. nicht weiter ausgedehnt war als heute“, (3) „die Beweise für eine reduzierte Eisausdehnung von 700 bis 970 cal. yr B.P. sind konsistent mit Baumringdaten aus Neuseeland, die einen ausgeprägten Spitzenwert der Sommertemperaturen zur gleichen Zeit zeigen (Cook et al. 2002)“ und (5) ihre jüngsten Ergebnisse „sind kompatibel mit Aufzeichnungen der Gletscherfluktuationen im südlichen Südamerika, der kontinentalen Landmasse, die der Antarktis am nächsten liegt (Strelin et al. 2008)“. Im Licht dieser vielen unterschiedlichen Beobachtungen zeigt sich, dass der südlichste Teil der Erde folglich wahrscheinlich eine Periode signifikant verstärkter Erwärmung durchlaufen hat innerhalb des begrenzten Zeitraumes der globalen MWP des Planeten. Und dieses Intervall Wärme ereignete sich, als viel weniger Kohlenstoff und Methan in der Atmosphäre enthalten war als heute.

Aus einer zusätzlichen Studie der Verhältnisse auf der Antarktischen Halbinsel haben Lu et al. (2012) „die erste downcore δ18O-Aufzeichnung [?] konstruiert aus { ikaite hydration waters and crystals} [Ikaite ist die Mineral-Bezeichnung des Hexahydrats von Calziumkarbonat  CaCO3·6H2O] von der Antarktischen Halbinsel“, von der sie sagen, dass sie „die Rekonstruktion einer Ikaite-Aufzeichnung mit niedriger Auflösung der letzten 2000 Jahre ermöglicht“. Der Gruppe von neun Forschern aus den USA und UK zufolge ist „Ikaite ein Polymorph aus Calziumkarbonat, das mit Wassermolekülen gebunden ist, die in seinem kristallinen Gitter enthalten sind“, und sie schreiben, dass „Ikaite-Kristalle aus marinen Sedimenten, falls sie bei niedrigen Temperaturen gesammelt und gelagert werden, die Abbindung und ihre intakte Kristallstruktur erhalten, die beide das Potential haben, die Isotopen-Bedingungen vergangener Klimaänderungen zu zeigen“. Was also haben sie festgestellt?

Die Autoren berichten, dass die „Ikaite-Aufzeichnungen qualitativ stützen, dass sowohl die MWP als auch die Kleine Eiszeit bis zur Antarktischen Halbinsel gereicht haben“. Auch stellen sie fest, dass „die jüngsten Kristalle eine Erwärmung relativ zur Kleinen Eiszeit im vorigen Jahrhundert zeigen, möglicherweise als Teil der jüngsten regionalen rapiden Erwärmung“. Aber sie fügen hinzu, dass „dieses Klimasignal seiner Natur nach nicht so extrem ist wie in der MWP“. Das zeigt, dass selbst die dramatische jüngste Erwärmung der Antarktischen Halbinsel diese Region nicht so warm hat werden lassen wie zur Zeit der MWP, als die atmosphärischen CO2-Konzentration um mehr als 100 ppm unter den heutigen Werten lag.

Bei einer Untersuchung einer anderen Region des Kontinents haben Hall und Denton (2002) die Verteilung und Seehöhe von Oberflächen-Ablagerungen kartiert entlang der südlichen Scott-Küste der Antarktis in der Umgebung des Wilson-Piedmont-Gletschers, der parallel zum westlichen Ross-Meer vom McMurdo-Sund nordwärts bis Granite Harbour verläuft. Die Chronologie der Seehöhe der untersuchten Strände wurde bestimmt aus von Hand abgetragenen Proben (Hall und Denton 1999); die Aufzeichnungen halfen zu zeigen, dass kurz vor dem Ende der MWP, „noch 890 14C yr BP“, wie Hall und Denton es beschreiben, „der Wilson Piedmont-Gletscher immer noch weniger ausgedehnt war als heute“. Dies zeigt, dass das Klima zu jener Zeit aller Wahrscheinlichkeit nach merklich wärmer war als derzeit.

Viele Jahre später, aber ebenfalls im Gebiet des Ross-Meeres in der Antarktis, haben Bertler et al. (2011) neue Deuterium-Daten (δD) gewonnen, und zwar aus Analysen der obersten fünfzig Meter eines 180 Meter langen Bohrkerns, der aus der Eisscheide der Victoria Lower-Gletschers in den nördlichsten Trockentälern von McMurdo gezogen worden ist. Diese konvertierten sie zu Temperaturdaten mittels einer Beziehung zwischen Temperatur und Isotopen, die von Steig et al. (1988) entwickelt worden war aus Daten des Taylor Dome-Bohrkerns. Daraus, so berichten Bertler et al., haben sie drei unabhängige Zeiträume in ihren Aufzeichnungen identifiziert: die letzten 150 Jahre der MWP (1140 bis 1287), die Kleine Eiszeit (1288 bis 1807) und die Moderne Zeit (1808 bis 2000). Und hinsichtlich der MWP schreiben sie, dass „es in den McMurdo-Trockentälern während der MWP 0,35°C wärmer war als in der Modernen Zeit, begleitet von wärmeren Bedingungen im Ross-Meer“. Die drei Forscher halten auch fest, dass „ eine Aufzeichnung der magnetischen Besonderheiten aus dem Palmer Deep-Bohrkern (PD92 30MS) ebenfalls wärmere Bedingungen in der MWP stützt, diesmal in der Drake-Passage (Domack und Mayewski 1999)“.

Noon et al. (2003) verwendeten Sauerstoffisotope, die in autogenen Karbonaten erhalten geblieben waren, die man in Frischwasser-Sedimenten des Sombre Lake auf der Signy-Insel (60°43’S, 45°38’W) im Südlichen Ozean gefunden hat, um eine 7000 Jahre lange Historie des Klimas in diesem Gebiet zu konstruieren. Diese Arbeit enthüllte, dass der generelle Temperaturtrend an der untersuchten Stelle nach unten gerichtet war. Von höchstem Interesse für die gegenwärtige Diskussion ist jedoch die Oszillation des Klimas im Millenium-Zeitscale, die sich über weite Bereiche der Aufzeichnung zeigt. Diesem Klimazyklus zufolge war es vor etwa 2000 Jahren – nach einer Lücke von 1000 Jahren in den Daten – auf der Signy-Insel zu der relativen Erwärmung während der letzten Reste der Römischen Warmperiode gekommen, wie es McDermott et al. 2001 auf Basis einer hoch aufgelösten δ18O-Aufzeichnung aus Südwestirland abgeleitet haben. Dann folgte die Kaltzeit des Dunklen Zeitalters, die ebenfalls zeitgleich mit dem auftrat, was McDermott et al. in der Nordhemisphäre gefunden haben. Dem zufolge erscheint die MWP zum gleichen Zeitpunkt und dauerte genauso lange wie in der Umgebung von Irland, wonach die Kleine Eiszeit genau zum gleichen Zeitpunkt wie auf der Nordhemisphäre einsetzte. Und schließlich gibt es Hinweise auf eine Erwärmung zum Ende des vorigen Jahrhunderts, wobei aber noch ein langer Weg zurückzulegen ist, bevor Bedingungen erreicht werden, die mit denen während der MWP vergleichbar sind.

Zwei Jahre später haben Castellano et al. (2005) eine detaillierte Historie des Vulkanismus im Holozän abgeleitet aus den Sulfatansammlungen der obersten 360 Meter im Dome Concordia-Eisbohrkern, der den Zeitraum 0-11,5 kyr BP abdeckte. Danach verglichen sie ihre Ergebnisse für das vergangene Jahrtausend mit denen aus acht antarktischen Eisbohrkernen. Bevor sie das taten, haben sie jedoch die Ergebnisse von jeder Stelle normalisiert, indem sie die verschiedenen Sulfatablagerungen aus Vulkanausbrüchen unterteilt haben durch den Wert, der an dieser Stelle durch den Ausbruch des Tambora im Jahr 1816 aufgetreten ist, um die Differenzen der Ablagerungen von Stellen zu reduzieren, die von Differenzen durch Charakteristiken an den Stellen selbst herrühren. Diese Arbeiten enthüllten, dass die meisten vulkanischen Ereignisse Anfang des letzten Jahrtausends (1000 bis 1500) eine größere Variabilität der normalisierten Sulfat-Ablagerungen an Ort und Stelle zeigten als danach noch beobachtet.

Unter Hinweis auf die Arbeit von Budner und Cole-Dai (2003), die festgestellt hatten, dass „der antarktische Polarwirbel bei der Verteilung vulkanischen Aerosols in der Stratosphäre eine Rolle über dem Kontinent spielt“, sagen Castellano et al., dass die angenommene Intensität und Persistenz des Polarwirbels sowohl in der Tropo- als auch in der Stratosphäre „das Eindringen von Luftmassen auf das antarktische Festland beeinflusst, die das Innere des Kontinents in Kaltzeiten isoliert und in Warmzeiten die Advektion peripherer Luftmassen erleichtert (Krinner und Genthon 1998). Mit dieser Annahme stützen wir die Hypothese, dass die Verteilung vulkanischer Ablagerungen und geographischer Variabilität (mit den höheren Werten in Küstennähe) ein wärmeres Klima in der Antarktis Anfang des vorigen Milleniums reflektiert“, und dass „die Wiederkehr kälterer Bedingungen mit Beginn um das Jahr 1500 die Variabilität vulkanischer Ablagerungen reduziert“.

Bei der Beschreibung der Implikationen dieses Phänomens sagen Castellano et al.: „Dieser Schritt von warm nach kalt könnte ähnlich sein einem Übergang von der MWP zur Kleinen Eiszeit“. Sie verweisen zusätzlich auf Goosse et al. (2004), die von Beweisen in antarktischen Eisbohrkernen via δD und δ18O-Daten „zur Stützung einer MWP-artigen Periode in der Südhemisphäre“ berichten, „verzögert um etwa 150 Jahre hinsichtlich der mittelalterlichen Erwärmung der Nordhemisphäre“. Und die Forscher schließen mit dem Postulat, dass „Änderungen der Variabilität vulkanischer Ablagerungen im Inneren und an den Rändern der Antarktis Folgen des Aufkommens einer MWP-artigen Periode sein könnten, die etwa bis um das Jahr 1500 dauerte“.

Ein Jahr später haben Hall et al. (2006) Haut und Haare (und sogar einige mumifizierte Überreste) von Strandablagerungen gesammelt an verschiedenen Stellen der Küste des Victoria-Landes in der Antarktis, die sie sowohl nach Augenschein als auch mit DNA-Analysen als die Überreste von See-Elefanten identifizierten. Diese Überreste datierten sie mit der Radiokarbon-Methode. Auf diese Weise gewannen sie Daten von 14 verschiedenen Stellen innerhalb des von ihnen untersuchten Gebietes – dass sie beschrieben als „deutlich südlich“ der gegenwärtigen Brutstätten. Das zeigt, dass der Zeitraum, den sie das „See-Elefanten-Optimum“ genannt haben, etwa um das Jahr 600 begonnen hat und um das Jahr 1400 zu Ende gegangen war. Letzteren Zeitpunkt beschreiben sie als „in etwa zeitgleich mit dem Einsetzen der Kleinen Eiszeit in der Nordhemisphäre und mit einem Gletschervorstoß nahe der Terra Nova-Bucht (Victoria-Land).

Bei der Beschreibung der Bedeutung ihrer Ergebnisse sagen die Forscher aus den USA, UK und Italien, dass sie „auf wärmere Klimabedingungen als heutzutage“ hinweisen zu der Zeit und an den Örtlichkeiten der identifizierten Aufenthaltsorte von See-Elefanten, und: „Falls das Ross-Eisschelf diese Periode überstanden hat, wäre es einer Umgebung ausgesetzt gewesen, in der es substantiell wärmer war als heute“, und zwar sowohl während der Römischen Warnzeit als auch während der MWP.

Ein Jahr näher an der Gegenwart haben Williams et al. (2007) Methylchlorid-Messungen (CH3C1) in Luftblasen präsentiert aus einem 300 Meter langen Eisbohrkern, gezogen am Südpol. Er überdeckt den Zeitraum von 160 bis 1860. Bei der Beschreibung ihrer Ergebnisse sagen die Forscher: „die CH3C1-Niveaus waren von 900 bis 1300 um 50 ppt erhöht relativ zu den vorangegangenen 1000 Jahren, was mit der Anomalie des mittelalterlichen Klimas (MCA) zusammenfällt“, und dass sie „während der Abkühlung in  der Kleinen Eiszeit (1650 bis 1800) auf ein Minimum geschrumpft waren, bevor sie wieder anstiegen zum derzeitigen atmosphärischen Niveau von 550 ppt“. Unter Verweis auf (Khalil und Rasmussen, 1999 sowie Yoshida et al., 2004), die gesagt haben, dass „heute mehr als 90% der CH3C1-Quellen und die Mehrzahl der CH3C1-Senken zwischen 30°N und 30°S liegen“, sagen sie: „es ist wahrscheinlich, dass vom Klima bestimmte Variationen von CH3C1 Änderungen in tropischen und subtropischen Bedingungen reflektieren“. Sie fahren fort: „Die Variabilität von CH3C1 in Eisbohrkernen während der letzten beiden Jahrtausende zeigt eine positive Beziehung zwischen dem atmosphärischen CH3C1-Gehalt und der globalen (kursiv hinzugefügt) mittleren Temperatur“.

So weit man das aus der graphischen Repräsentation ihrer Daten bestimmen kann, lag der Spitzenwert der von Williams et al. gemessenen CH3C1-Konzentration bei etwa 533 ppt, was innerhalb von 3 Prozent des gegenwärtigen Wertes von 550 ppt liegt und deutlich innerhalb der Bandbreite von 520 bis 580 ppt, die die gegenwärtige Variabilität von Methylchlorid abdeckt. Daher lässt sich schlüssig folgern, dass die mittlere Höchsttemperatur der MCA (in dieser Arbeit als MWP bezeichnet) in der Breite zwischen 30°N und 30°S – und möglicherweise auf dem gesamten Globus – nicht wesentlich unterschiedlich von der mittleren Höchsttemperatur ist, die bislang in der Modernen Warmzeit erreicht worden ist.

In einer abschließenden Studie präsentierte Hall (2007) „Radiokarbon- und geomorphologische Daten, die die Ausdehnung der Collins-Eiskappe auf der Fildes-Halbinsel (King George-Insel in den Süd-Shetland-Inseln 62°10’51″S, 58°54’13″W) im späten Holozän belegen. Sie bieten ihren Worten nach „Informationen über Zeiten der Vergangenheit, als das Klima der Süd-Shetland-Inseln so warm oder wärmer als heute gewesen sein muss“. Diese Aussage basiert auf der Kartographierung von mit dem Eisschild zusammen hängenden Moränen und Gletscherablagerungen und auf Radiokarbon-Datierungen organischen Materials von dort. Hall zufolge zeigen derartige Daten „einen Eisvorstoß nach etwa dem Jahr 650 cal. yr BP (AD ~1300)“, von dem sie annimmt, dass er „in etwa zeitgleich mit der in Europa definierten ‚Kleinen Eiszeit’ stattfand“. Sie sagt auch, dass es „während der letzten 3500 Jahre der einzige Vorstoß war, der über die gegenwärtige Eisgrenze hinaus erfolgte. Dies macht die Kleine Eiszeit in diesem Teil der Welt wahrscheinlich zur kältesten Periode der gegenwärtigen Zwischeneiszeit“. Und die Tatsache, dass „der derzeitige Rand der Eiskappe … immer noch ausgedehnter ist als vor dem Jahr 650 cal. yr BP“, ließ sie vermuten, dass das Klima vor dieser Zeit – was die MWP einschließt – „genauso warm oder wärmer als heute“ gewesen sein könnte.

Und diese Schlussfolgerung, zusammen mit den Ergebnissen der anderen hier begutachteten Studien zeigt, dass nichts am gegenwärtigen Temperaturzustand der Erde ungewöhnlich, unnatürlich oder beispiellos ist. Dies zeigt wiederum, dass die historische Zunahme der atmosphärischen CO2-Konzentration überhaupt nichts mit den Begleiterscheinungen der globalen Erwärmung im 20. Jahrhundert zu tun hat.

References
Bertler, N.A.N., Mayewski, P.A. and Carter, L. 2011. Cold conditions in Antarctica during the Little Ice Age — Implications for abrupt climate change mechanisms. Earth and Planetary Science Letters 308: 41-51.

Budner, D. and Cole-Dai, J. 2003. The number and magnitude of large explosive volcanic eruptions between 904 and 1865 A.D.: Quantitative evidence from a new South Pole ice core. In: Robock, A. and Oppenheimer, C. (Eds.), Volcanism and the Earth’s Atmosphere, Geophysics Monograph Series 139: 165-176.

Castellano, E., Becagli, S., Hansson, M., Hutterli, M., Petit, J.R., Rampino, M.R., Severi, M., Steffensen, J.P., Traversi, R. and Udisti, R. 2005. Holocene volcanic history as recorded in the sulfate stratigraphy of the European Project for Ice Coring in Antarctica Dome C (EDC96) ice core. Journal of Geophysical Research 110: 10.1029/JD005259.

Cook, A.J. and Vaughan, D. 2009. Overview of areal changes of the ice shelves on the Antarctic Peninsula over the past 50 years. The Cryosphere Discussions 3: 579-630.

Cook, E., Palmer, J., and D’Arrigo, R. 2002. Evidence for a „Medieval Warm Period“ in a 1100-year tree-ring reconstruction of past austral summer temperatures in New Zealand. Geophysical Research Letters 29: 10.1029/2001GL014580.

Domack, E.W. and Mayewski, P.A. 1999. Bi-polar ocean linkages: evidence from late-Holocene Antarctic marine and Greenland ice-core records. The Holocene 9: 247-251.

Goosse, H., Masson-Delmotte, V., Renssen, H., Delmotte, M., Fichefet, T., Morgan, V., van Ommen, T., Khim, B.K. and Stenni, B. 2004. A late medieval warm period in the Southern Ocean as a delayed response to external forcing. Geophysical Research Letters 31: 10.1029/2003GL019140.

Hall, B.L. 2007. Late-Holocene advance of the Collins Ice Cap, King George Island, South Shetland Islands. The Holocene 17: 1253-1258.

Hall, B.L. and Denton, G.H. 1999. New relative sea-level curves for the southern Scott Coast, Antarctica: evidence for Holocene deglaciation of the western Ross Sea. Journal of Quaternary Science 14: 641-650.

Hall, B.L. and Denton, G.H. 2002. Holocene history of the Wilson Piedmont Glacier along the southern Scott Coast, Antarctica. The Holocene 12: 619-627.

Hall, B.L., Hoelzel, A.R., Baroni, C., Denton, G.H., Le Boeuf, B.J., Overturf, B. and Topf, A.L. 2006. Holocene elephant seal distribution implies warmer-than-present climate in the Ross Sea. Proceedings of the National Academy of Sciences USA 103: 10,213-10,217.

Hall, B.L., Koffman, T., and Denton, G.H. 2010. Reduced ice extent on the western Antarctic Peninsula at 700-907 cal. yr B.P. Geology 38: 635-638.

Hemer, M.A. and Harris, P.T. 2003. Sediment core from beneath the Amery Ice Shelf, East Antarctica, suggests mid-Holocene ice-shelf retreat. Geology 31: 127-130.

Khalil, M.A.K. and Rasmussen, R.A. 1999. Atmospheric methyl chloride. Atmospheric Environment 33: 1305-1321.

Khim, B-K., Yoon, H.I., Kang, C.Y. and Bahk, J.J. 2002. Unstable climate oscillations during the Late Holocene in the Eastern Bransfield Basin, Antarctic Peninsula. Quaternary Research 58: 234-245.

Krinner, G. and Genthon, C. 1998. GCM simulations of the Last Glacial Maximum surface climate of Greenland and Antarctica. Climate Dynamics 14: 741-758.

Lu, Z., Rickaby, R.E.M., Kennedy, H., Kennedy, P., Pancost, R.D., Shaw, S., Lennie, A., Wellner, J. and Anderson, J.B. 2012. An ikaite record of late Holocene climate at the Antarctic Peninsula. Earth and Planetary Science Letters 325-326: 108-115.

McDermott, F., Mattey, D.P. and Hawkesworth, C. 2001. Centennial-scale Holocene climate variability revealed by a high-resolution speleothem δ18O record from SW Ireland. Science 294: 1328-1331.

Noon, P.E., Leng, M.J. and Jones, V.J. 2003. Oxygen-isotope (δ18O) evidence of Holocene hydrological changes at Signy Island, maritime Antarctica. The Holocene 13: 251-263.

Schaefer, J., Denton, G., Kaplan, M., Putnam, A., Finkel, R., Barrell, D.J.A., Andersen, B.G., Schwartz, R., Mackintosh, A., Chinn, T., and Schluchter, C. 2009. High-frequency Holocene glacier fluctuations in New Zealand differ from the northern signature. Science 324: 622-625.

Steig, E.J., Brook, E.J., White, J.W.C., Sucher, C.M., Bender, M.L., Lehman, S.J., Morse, D.L., Waddington, E.D. and Clow, G.D. 1998. Synchronous climate changes in Antarctica and the North Atlantic. Science 282: 92-95.

Strelin, J., Casassa, G., Rosqvist, G., and Holmlund, P. 2008. Holocene glaciations in the Ema Glacier valley, Monte Sarmiento Massif, Tierra del Fuego. Palaeogeography, Palaeoclimatology, Palaeoecology 260: 299-314.

Williams, M.B., Aydin, M., Tatum, C. and Saltzman, E.S. 2007. A 2000 year atmospheric history of methyl chloride from a South Pole ice core: Evidence for climate-controlled variability. Geophysical Research Letters 34: 10.1029/2006GL029142.

Yoshida, Y., Wang, Y.H., Zeng, T. and Yantosea, R. 2004. A three-dimensional global model study of atmospheric methyl chloride budget and distributions. Journal of Geophysical Research 109: 10.1029/2004JD004951.

Last updated 3 April 2013

Link: http://www.co2science.org/subject/m/summaries/mwpantarctica.php

Übersetzt von Chris Frey EIKE

Technische Anmerkung des Übersetzers: Dieser text war zeitweise so wissenschaftlich, dass ich nicht sicher bin, es immer haargenau getroffen zu haben. Vielfach habe ich die Bandwurmsätze in diesem Artikel in mehrere kürzere Sätze aufgeteilt. Ich bitte um Verständnis.

C. F.




US Statistik Büro (BLS) veröffentlicht einen weiteren verlogenen Bericht bzgl. ‚grüner Jobs’

Das ist möglicherweise etwas Gutes, würde es doch, falls als Buch veröffentlicht, einen Rang unter den obersten zehn auf der Roman-[fiction-]Bestsellerliste der New York Times verdienen.

Der Bericht ist gerammelt voll mit Darstellungen, die behaupten, dass Millionen ‚grüner Jobs’ durch Präsident Obamas Bemühungen geschaffen worden seien, den Planeten zu heilen und den steigenden Meeresspiegel zu verringern. Aber wenn man den Blick und die Geduld dafür hat, das Machwerk genau unter die Lupe zu nehmen, entdeckt man die Fülle von Lügen, verdammten Lügen und Regierungs-Statistiken.

Das BLS definiert grüne Jobs als solche, die Güter und Dienstleistungen anbieten, welche „der Umwelt dienen und natürliche Ressourcen erhalten“, oder Jobs, „bei denen die Pflichten der Arbeiter eingeschlossen sind, die Produktionsprozesse ihrer Einrichtung umweltfreundlicher auszuführen und weniger natürliche Ressourcen zu verbrauchen“.

Im Bericht wird behauptet, dass solche Jobs 2,6% aller Arbeitsplätze in der Wirtschaft ausmachen bei einer Gesamtzahl von Arbeitsplätzen etwas über 3,4 Millionen.

Aber versteckt in Tabelle 3 mit der Bezeichnung „Grüne Güter und Dienstleistungen“ findet man unter „Nutzen“ und „Stromerzeugung“ eine Gesamtzahl von Arbeitsplätzen lediglich bei 522 im Bereich „solare Stromerzeugung“ und 2724 Arbeitsplätze im Bereich „Stromerzeugung durch Windkraft“. Insgesamt also 3246 Jobs.

Unter der Überschrift „Kohle- und Petroleum-Erzeugnisse mfg.” findet man 3278 Arbeitsplätze. Fazit: Selbst in der BLS-Liste hinsichtlich „grüner“ Jobs liegen Kohle und Öl vorn.

Was also ist mit den behaupteten „Millionen” anderer „grüner“ Jobs? Das Problem steckt in der Definition.

Das Büro rechnet Bekleidungsgeschäfte, Fernseh- und Radiosender sowie die Hersteller von Büromöbeln zu den grünen Industrien des Staates.

Energieexperte Nick Loris bei der Heritage Foundation sagt von dem Bericht, dass „man gar nicht so tief unter die Oberfläche gehen muss, um zu erkennen, dass diese Zahlen gefälscht sind“.

„Viele der Jobs, die als ‚grün’ gezählt werden, sind weder grün noch neu”, sagt Mike Pompeo, republikanischer Abgeordneter aus Kansas, ein Mitglied des Energy and Commerce Committee, das die Gesetzgebung zur Abschaffung der Energiesteuer gefördert hat. „BLS zählt Busfahrer, Müllmänner, Radiosender und Filmproduzenten zu den grünen Arbeitsplätzen“.

Mehr: http://news.investors.com/ibd-editorials/032113-648963-bls-releases-another-phony-green-jobs-report.htm#ixzz2Od0j5sAZ
Link: http://news.investors.com/ibd-editorials/032113-648963-bls-releases-another-phony-green-jobs-report.htm

Übersetzt von Chris Frey EIKE




Schildbürger nicht ärgern: Für Licht und Strom gibt es keine Eimer!

Bild 1 unten: Hübsch, aber vergänglich: Die Akkus in Solarleuchten fallen oft schon nach 1-2 Jahren komplett aus

Zunächst einmal: Ja, rein vom Prinzip her kann man Licht und Strom durchaus speichern. Jeder kennt beispielsweise diese matt leuchtenden Kunststoffe, die Tageslicht aufnehmen und bei Stromausfall als Notmarkierung für Fluchtwege dienen. Auch so manches Kinderherz haben sie schon erfreut, wenn sie in Form von Spielzeug die Dunkelheit in Kinderzimmern mildern. Doch kein vernünftiger Mensch käme auch nur im Entferntesten auf die Idee, so etwas als Beleuchtung für unsere Wohnzimmer und Fabriken oder als Ersatz für Straβenlaternen einsetzen zu wollen.Ähnlich verhält es sich beim Strom. Wollte man für den Stromverbrauch eines durchschnittlichen deutschen Haushalts beispielsweise handelsübliche Mignonzellen verwenden, so würde man bei Kosten von mehr als 1 Mio. € landen – eine völlig indiskutable Idee also. Auch Akkumulatoren sind bei weitem nicht leistungsstark oder langlebig genug, um auch nur näherungsweise einen solchen Job zu erledigen. Jeder, der beispielsweise die heute so beliebten Solar-Gartenleuchten verwendet, stellt schnell fest, dass die Akkus schon nach 1-2 Jahren den Geist aufgeben. Selbst mit professionellen heute angebotenen Batteriesystemen [RWE] liegen die Speicherkosten – man muss nur selbst ein wenig nachrechnen – deutlich über 50 ct pro kWh, bei Investitionskosten oberhalb von 3000,- €/ kW.  Der Versuch, gröβere Mengen Strom beispielsweise mit Batterien speichern zu wollen ist, macht sowohl wirtschaftlich als auch technisch keinen Sinn. Ebensowenig mit irgendeiner der anderen verfügbaren Speichertechnologien. Und genau darin liegt das Grundproblem der gesamten Energiewende.

Worauf es beim Strom ankommt

Bild 2. Schema des Tagesgangs der Strom-Tageslast im deutschen Netz an einem Herbst-Werktag (ohne „erneuerbare Energien“). (Grafik: Wikimedia Creative Commons)

Unser technisch hoch komplexes Stromnetz bleibt nur stabil, wenn Produktion und Verbrauch ständig exakt im Gleichgewicht sind. Das deutsche Stromnetz gehört vor allem deshalb zu den Besten der Welt, weil wir nicht nur hervorragende Ingenieure haben, sondern diesen auch ausgefeilte Technik zur Verfügung steht, um für eine ständige Anpassung beider Faktoren zu sorgen. Das entscheidende ist dabei, dass der Verbrauch stets Vorrang hat, d.h. dass die Produktion sich dem Verbrauch anpassen muss. Ein anderes System, bei dem die Dusche abgeschaltet, die Produktion mal kurz unterbrochen oder der Herd der Hausfrau für eine Stunde vom Netz genommen wird, weil die Stromerzeugung gerade nicht nachkommt, würde uns auf den Status einer Bananenrepublik zurückwerfen. Um die Produktion dem Verbrauch anzupassen, arbeiten die Elektrizitätsgesellschaften zunächst mit ausgetüftelten Prognosen, mit deren Hilfe der Tagesgang der Netzlast vorausgeplant wird. Dieser schwankt in Deutschland zwischen etwa 40.000 MW in den Nachtstunden und 75.000-85.000 MW an kalten Wochentagen, wenn Fabriken und Heizungen auf Hochtouren laufen [WIKI1]. Für die ständige Feinanpassung sorgt ein komplexes Netzwerk aus unterschiedlichsten Kraftwerken, die je nach Typ für Grundlast, Mittellast und Spitzenlast zum Einsatz kommen.

Bild 3. Ausschnitt der Anzeigen in der Leitwarte eines Kraftwerks. Hier sorgt ausgeklügelte Technik für die ständige Anpassung der Produktion an den Bedarf

Kraftwerke kann man nicht einfach ein- und ausschalten

Grundlastkraftwerke sind die Arbeitspferde des Elektrizitätsnetzes. Es sind die gröβten, zuverlässigsten und von ihren Produktionskosten her günstigsten Kraftwerke, dafür gebaut, 24 Stunden am Tag und wenn möglich 365 Tage im Jahr für den erwähnten Sockel von 40.000 MW zu sorgen, ohne den in Deutschland die Zivilisation – und das ist wörtlich zu nehmen – zusammenbrechen würde. Diese Kraftwerke werden auf den sogenannten optimalen Betriebspunkt gebracht und bleiben dann dort, weil jede Abweichung einen schlechteren Wirkungsgrad – und damit auch mehr CO2-Ausstoss – verursachen würde. Ihre riesigen, oft über 100 m hohen Kesselanlagen, die viele Tausend Tonnen Stahl in Form komplexer Rohrbündel enthalten, erleiden schon bei kleineren Temperaturänderungen Schäden durch Wärmeausdehnung. Solche Kraftwerke kann man nicht wie ein Auto einfach per Zündschlüssel und Gaspedal bedienen. Dafür erzeugen sie Strom – zumeist aus Braunkohle oder Kernkraft – zu sehr günstigen Preisen von etwa 2,5-3,5 ct/ kWh [WIKI2].

Für die Mittellast kommen in der Regel Steinkohlekraftwerke zum Einsatz, die sich zumindest innerhalb eines gewissen Bereichs herauf- und herunterregeln lassen. Dennoch gilt auch für sie, dass sie aufgrund ihrer groβen Massen und der mit Laständerungen verknüpften Schädigungen geänderten Anforderungen nur träge folgen. Um sie nachts nicht zu weit herunterregeln zu müssen, wird der von ihnen erzeugte Strom in den Stunden geringster Netzlast genutzt, um sogenannte Pumpspeicherkraftwerke zu füllen. Diese pumpen mit dem überschüssigen Nachtstrom Wasser in hochgelegene Staubecken. Am Tag kann man es dann auf Turbinen leiten und so Strom erzeugen.

 

Bild 4. Pumpen-Turbinenblöcke in einem Pumpspeicherkraftwerk. Solche Anlagen bieten die beste zurzeit groβtechnisch verfügbare Möglichkeit zur Speicherung von Strom

Die Spitzenlast übernehmen vor allem Gaskraftwerke. Das sind groβe Gasturbinen, die innerhalb weniger Minuten von Stillstand auf hohe Leistung gebracht werde können. Sie gehören zu den teuersten, zugleich aber auch flexibelsten Einheiten im deutschen Kraftwerkspark und sorgen zusammen mit den direkt regelbaren Pumpspeicherkraftwerken für die Feinabstimmung der Stromerzeugung auf den tatsächlichen Verbrauch. Ständige Regelimpulse von den Netzleitstellen sorgen dafür, dass dieses Orchester verschiedenster Kraftwerke ständig im Einklang spielt. Anderenfalls würde das Netz sehr schnell instabil und könnte zusammenbrechen.

Die Rolle der erneuerbaren Energien

 

Bild 5. Die nominelle Stromerzeugungs-Kapazität der in Deutschland installierten Kraftwerke, die mit „erneuerbaren Energien“ arbeiten, reicht theoretisch schon fast aus, um das Maximum des Tagesbedarfs zu decken

Mit der massiven Förderung der sogenannten „Erneuerbaren Energien“ sowie der Abschaltung der Kernkraftwerke wird dieses über Jahrzehnte aufgebaute und durchoptimierte Stromversorgungssystem jetzt mit Situationen konfrontiert, für die es niemals ausgelegt war. Wie man an Bild 5 sieht, entspricht die installierte Erzeugungskapazität aller erneuerbaren Energien nach den inzwischen erfolgten Investitionen von mehreren 100 Mrd. € inzwischen fast dem Maximalwert dessen, was für die Stromversorgung Deutschlands erforderlich ist [EMAP]. Kann man also in Bälde das vom US-Präsidenten Bush her bekannte Banner „Mission accomplished“ aufhängen und darangehen, zusammen mit den restlichen Kernkraftwerken auch die als „Dreckschleudern“ in Verruf gekommenen Kohlekraftwerke abzuschalten?

Hohe Kapazitäten von Wind und Sonne

Sieht man sich die Darstellung der installierten Kapazitäten „erneuerbarer“ Energien in Bild 5 genauer an, so stellt man fest, dass Wind und Fotovoltaik mit zusammen rund 61.500 MW daran den mit Abstand gröβten Anteil haben. Allein die Kapazitäten dieser beiden Energiequellen reichen zusammen bereits aus, um theoretisch fast 80 % des benötigten Stroms zu erzeugen. Verdeutlicht wird dies im Bild 6, wo die entsprechenden Kapazitäten in Form von Balken eingetragen wurden. Allerdings stehen diese Kapazitäten weder ständig noch zuverlässig zur Verfügung. Wind und Sonne folgen nur ihren eigenen Regeln, so dass die tatsächlich zur Verfügung stehende Energie innerhalb sehr weiter Grenzen schwankt. Strom aus Sonne steht sogar stets nur tagsüber zur Verfügung. Genau dies ist das Problem.

EE-Strom als Störenfried

Bild 6. Die theoretische Kapazität der deutschen Wind- und Solarkraftwerke erreichte 2012 schon mehr als 61.000 MW (Grafik: Wikimedia Creative Commons)

Die Auswirkungen dieser Schwankungen verdeutlicht Bild 7. Der linke Balken zeigt die typische Höchstlast eines Tagesgangs mit ihren Anteilen aus Grund-, Mittel- und Spitzenlast. Der Balken rechts daneben zeigt die theoretisch verfügbaren Erzeugungskapazitäten von Wind- und Solarstrom, den beiden Hauptakteuren der „erneuerbaren“ Stromproduktion. Das tatsächliche kumulierte Aufkommen dieser beiden Erzeugungsarten für den Tag maximaler gemeinsamer Produktion zeigt der dritte Balken: Am 31.3.2012 standen um 07:30 Uhr kurzzeitig 12567 MW Solarleistung und 20843 MW Windleistung gleichzeitig zur Verfügung [EEX]. Für diesen Zeitpunkt hätte man demnach theoretisch nicht nur alle Spitzenlastkraftwerke, sondern darüber hinaus auch nahezu die gesamte Mittellast vom Netz nehmen können. Praktisch ist das jedoch nicht möglich, denn die Stromerzeugung dieser Einheiten muss im Voraus geplant und verkauft werden, weil sowohl Produzenten als auch Abnehmer des Stroms Planungssicherheit brauchen. Die übrigen, zum Spot(t)preis extrem kurzfristig an den Börsen gehandelten Strommengen sind vergleichbar mit den „last-minute“-Angeboten im Reisesektor. Sie ersetzen nicht das reguläre Reisegeschäft, sondern sind ein Entlastungsventil, wo Notverkäufer und Schnäppchenjäger miteinander handelseinig werden können. Selbst theoretisch hätte man am 31.3. nicht alle Kraftwerke der Mittel- und Spitzenlast abschalten können, denn solche EE-Leistungen stehen nur kurzzeitig zur Verfügung, und Mittellastkraftwerke sind nur in gewissen Grenzen regelbar.

Bild 7. Wenn die Stromproduktion aus Sonne und Wind – wie am 24.10.2012 mit lediglich 258 MW – bei weniger als 1 % des Bedarfs liegt, sind konventionelle Kraftwerke unverzichtbar. Es kann also keine Rede davon sein, dass diese „ersetzt“ würden

Viel bedeutsamer ist jedoch die Situation am 24.10.2012 um 6:00 Uhr morgens [EEX]. Den entsprechenden Balken kann man in der Grafik nicht sehen, weil der betreffende Strich zu dünn ist: Zu diesem Zeitpunkt gab es gar keinen Solarstrom, und der Wind steuerte nur 258 MW zur deutschen Stromversorgung bei. Anders ausgedrückt: Nur mit Wind und Sonne hätte Deutschland restlos stillgestanden. Trotz gigantischer Investitionen in Wind- und Solaranlagen muss für solche Fälle der gesamte Bestand konventioneller Kraftwerke weiter vorgehalten werden. Das heiβt auch, dass der damit verbunden Kostenapparat – wie Personal, Instandhaltung, Verwaltung und Kapitaldienst – ständig weiterlaufen muss, damit die Kraftwerke im Notfall zur Verfügung stehen können. Eingespart werden lediglich die Brennstoffkosten, diese Einsparung wird jedoch durch erhöhte Reparaturaufwendungen wegen der schadenträchtigen Anfahr- und Abschaltvorgänge in der Regel mehr als nur kompensiert. Im Prinzip läuft demnach die Stromerzeugung aus Wind und Sonne im Wesentlichen darauf hinaus, dass ein bestens eingespieltes und durchoptimiertes Stromversorgungssystem nicht im geringsten ersetzt werden kann. Stattdessen wird es vor allem gestört und durcheinandergebracht. Mit jedem Wind- und Solarkraftwerk, das zusätzlich ans Netz gebracht wird, nehmen diese Probleme sogar noch weiter zu. Bis jetzt wurden „nur“ die Spitzen- und die Mittellast beeinträchtigt. Wenn es erst soweit kommt, dass auch der Betrieb von Grundlastkraftwerken nicht mehr störungsfrei möglich ist, dann gute Nacht Deutschland.

Stromspeicherung wäre einziger Ausweg

Die einzige Möglichkeit, solche katastrophalen Auswirkungen zu verhindern, wäre eine Zwischenspeicherung des am Bedarf vorbei erzeugten EE-Stroms, um diesen dann bei schlechter Wetterlage wieder ins Netz zurückzuspeisen, so wie es ja auch bereits mit dem Strom aus vorübergehend nicht ausgelasteten Mittellastkraftwerken geschieht. Als einzige groβtechnisch bewährte Methode stünden hierfür die bereits erwähnten Pumpspeicherkraftwerke zur Verfügung [WIKI3]. Sie haben einen Wirkungsgrad von rund 70-80 %, deutlich besser als der aller anderen Technologien wie Druckluft, Wasserstoff oder Power-to-Gas, die von interessierten Kreisen hierfür gerne und häufig in die Diskussion gebracht werden.

Das Problem: Es gibt nicht die geringste Aussicht, auch nur annähernd die benötigten Speicherkapazitäten aufzubauen, da es in Deutschland aufgrund der geographischen Gegebenheiten kaum noch geeignete Standorte für Pumpspeicherkraftwerke gibt. Die derzeit vorhandenen Anlagen haben eine Leistung von insgesamt rund 7000 MW, etwa ein Zehntel dessen, was bereits jetzt an kombinierter Erzeugungskapazität im Bereich Wind- und Solarkraftwerke installiert ist. Neben der zu geringen Leistung ist auβerdem auch ihre Speicherkapazität völlig unzureichend. Sie wurden für einen regelmäβigen Tag-Nacht-Zyklus ausgelegt und können selbst bei voller Aufladung meist nur wenige Stunden Strom liefern. Da Schlechtwetterperioden mit wenig Wind und kaum Sonne jedoch gerade im Winter über Wochen andauern können, braucht man über diese Option gar nicht erst nachzudenken. Und auch unsere Nachbarländer Norwegen, Schweiz und Österreich haben nicht im Entferntesten die Möglichkeit, mit ausreichenden Kapazitäten in die Bresche zu springen.

Wünsche und Wirklichkeiten

 

Bild 8. Beim Transport und der Speicherung elektrischer Energie liegen die Leitungs- und Umspannverluste schnell im zweistelligen Prozentbereich

Wie sehr Politik und interessierte Ideologen dennoch gerade auf diesem Gebiet dem Bürger Halbwahrheiten und Unsinn präsentieren, zeigt sich besonders krass in diesem Bereich. Herausragendes Beispiel ist in diesem Zusammenhang ein Gutachten des von der Bundesregierung eingesetzten Sachverständigenrats für Umweltfragen, der laut einem Wikipedia-Artikel im Mai 2010 in einem Sondergutachten „100 % erneuerbare Stromversorgung bis 2050: klimaverträglich, sicher, bezahlbar“ davon ausging, dass „die Kapazitäten der Speicherkraftwerke insbesondere in Norwegen (allein nahezu 85 TWh Wasserbeckenkapazität der dortigen zu Pumpspeichern ausbaufähigen Speicherwasserkraftwerke) und Schweden bei weitem ausreichen, um Schwankungen der zukünftig eingespeisten erneuerbaren Energien auszugleichen [WIKI4].“ Macht man sich jedoch die Mühe, die Tatsachen z.B. in Norwegen zu überprüfen, so stellt man fest, dass es dort zurzeit so gut wie gar keine installierten Pumpspeicherkapazitäten gibt. Als einziges tatsächlich vorhandenes norwegisches Pumpspeicherkraftwerk findet sich das Kraftwerk Saurdal mit einer installierten Pumpleistung von gerade einmal 320 MW, daneben werden zwei weitere Projekte aufgeführt – ohne Angaben zu einem Inbetriebnahmedatum. Es ist schon erschreckend zu sehen, in welcher Weise hier theoretische Möglichkeiten als Fakten dargestellt werden. Über die Kosten scheint man sich dabei gar keine Gedanken gemacht zu haben. 

Der Wirkungsgrad ist entscheidend

Zu allen anderen Speichertechnologien, die zurzeit als Alternativen zur Pumpspeicherung angeboten werden, kann kurz und bündig ausgesagt werden, dass ihr Wirkungsgrad viel zu schlecht und ihre Kosten viel zu hoch sind, um sie als Alternativen auch nur in Betracht zu ziehen. Daran wird auch noch so viel Forschung nicht viel ändern. Selbst unter optimalen Bedingungen erreichen viele dieser Technologien nur 30 bis 54 %, lediglich in Ausnahmefällen werden 62 % erreicht. Dazu muss man noch Leitungs- und Umspannverluste von 15 % und mehr rechnen, da der Strom von weit her zu den Speichern und von dort wieder zu den Verbrauchern transportiert werden müsste. Addiert man beide Verluste, so bedeutet dies, dass mehr als 50 % des teuren EE-Stroms verloren gingen, was volkswirtschaftlich völlig untragbar wäre. Zudem läge die zeitliche Reichweite dieser Speichersysteme meist im Bereich weniger Stunden statt der Wochen bis Monate, die zur effektiven Vorratshaltung benötigt würden.

Fred F. Mueller

Der Beitrag erschien zuerst bei Science Sceptical

Quellen

[EEX] http://www.transparency.eex.com/en/

[EMAP] www.EnergyMap.info (16.2.2013)

[RWE] http://www.rwe.com/web/cms/de/37110/rwe/presse-news/pressemitteilungen/pressemitteilungen/?pmid=4008636 (am 18.3.2013)

[WIKI1] http://de.wikipedia.org/wiki/Mittellast (am 18.3.2013)

[WIKI2] http://de.wikipedia.org/wiki/Stromerzeugung (am 18.3.2013)

[WIKI3] http://de.wikipedia.org/wiki/Liste_von_Pumpspeicherkraftwerken (am 18.3.2013)

[WIKI4] http://de.wikipedia.org/wiki/Pumpspeicherkraftwerk (am 18.3.2013)




Meinung: Leben als Zielscheibe

Bild rechts: Monckton in Washington, D.C. (Photo credit: Wikipedia)

Ich war Gegen­stand von Untersuchungen des Kongresses durch ein Kongressmitglied auf der Gehaltsliste der Umweltlobby, und ich war Ziel einer wissenschaftlich ungebildeten achtmonatigen „Hexenjagd“ durch einen Trotzkisten in Minnesota. Ich habe sogar eine Reihe anonymer Todesdrohungen erhalten. Meine Zwangslage ist dramatisch, aber unglücklicherweise nicht einmalig: Klimaskeptiker sind regelmäßig Gegen­stand solcher Angriffe.

Der Zynismus meiner Angreifer ist Teil einer destruktiven PR-Kampagne, ausgeführt von Banken, Energieunternehmen „erneuerbarer“ Energie, Versicherungsriesen und Kampfgruppen nebst mit diesen verbundenen Individuen, die alle danach trachten, erheblich zu profitieren durch erhebliche Übertreibung der Wissenschaft, indem sie Hinweise lancieren, denen zufolge das verbrennen fossiler Treibstoffe eine potentiell gefährliche Klimaänderung verursachen kann.

Meine erste Arbeit auf der Weltbühne war Mitte des ersten Jahrzehnts dieses Jahrhunderts erschienen, und zwar in Gestalt der Veröffentlichung einer Reihe von Artikeln im Sunday Telegraph, London, aus denen zwischen den Zeilen hervorging, dass Schätzungen der Temperaturtrends der Vergangenheit aufgrund von Informationen aus Baumringen, mit deren Hilfe die Temperaturvariationen der letzten 1000 Jahre rekonstruiert werden sollten, sich als unzuverlässig erwiesen haben. Was ich fand, war die kürzliche geringe Erwärmung, die mit der am schnellsten zunehmenden Sonnenaktivität seit 11400 Jahren zusammenfiel, ein Ereignis, dass den Temperaturrekonstruktionen über diesen Zeitraum zufolge immer wieder vorgekommen ist.

Obwohl jüngere, im Journal Science veröffentlichte Arbeiten zeigen, dass der gegenwärtige Erwärmungstrend zumindest während der letzten 11000 Jahre und vielleicht länger nicht seinesgleichen findet, zeigt die Temperaturaufzeichnung aus Mittelengland historische Beweise dafür, dass die Temperatur zum Ende des Maunder-Minimums 40 Jahre lang mit einer Rate von 4°C pro Jahrhundert gestiegen war. Diese Temperaturaufzeichnung hat sich in Vor-Thermometer-Zeiten als weniger ungenau erwiesen als zweifelhafte Baumringe, deren zweifelhafte Auswertung auf zweifelhaften Computern durch zweifelhafte Zitty-Teenager [?] ausgeführt worden sind, die von zweifelhaften Möchtegern-Bestimmern [rent-seeker] wie Michael E. Mann bezahlt werden. Seitdem hat es solche Temperaturanstiege nie mehr gegeben: im 20. Jahrhundert betrug die Erwärmung gerade mal 0,7°C, im 21. Jahrhundert gab es bislang überhaupt keine Erwärmung. In einer den linearen Trend der letzten 23 Jahre spiegelnden Graphik sieht der Trend aus wie ein Billard-Queue.

Seit der Doha-Klimakonferenz 2012, auf der ich unbeabsichtigterweise Burma repräsentiert habe, wurde die Graphik – inzwischen als Billard-Queue-Graphik bekannt – zu einem Symbol in der Debatte um die Klimaänderung, das einen patenten, graphischen Beweis der gegenwärtig vollständig fehlenden, vom Menschen verursachten Klimaänderung zur Verfügung stellt. Als Folge sahen Regierungen, Banken, Krämer der erneuerbaren Energie, Akademiker, Journalisten und alle, die sonstwie involviert waren, die Notwendigkeit, diese Graphik in jeder nur möglichen Art und Weise zu diskreditieren, und ich fand mich selbst diesen Angriffen und Drohungen mit Untersuchungen ausgesetzt, wie ich in meinem demnächst erscheinenden Buch Climate of Freedom beschreibe. In den Jahren 2009, 2010, 2011, 2012 hat Senator James Inhofe (Republikaner, Oklahoma) meine Arbeit öffentlich gewürdigt, und zusammen mit dem Kongressmann John Linder wurde mir der Meese-Noble-Preis für Frieden verliehen für meine Arbeiten zur Klimaänderung.

Bei drei Gelegenheiten hat mich das Mitglied des Repräsentantenhauses Joe Barton (Republikaner, Texas) eingeladen, vor dem Energy & Commerce Committee des US-Repräsentantenhauses zu sprechen. Bei der dritten dieser Gelegenheiten – und zum ersten Mal in der Geschichte des Kongresses – haben die Demokraten den Republikanern ihr freies Recht zur Berufung von Zeugen abgesprochen, weil sie ihren eigenen Zeugen, Al Gore, vor der öffentlichen Bloßstellung schützen wollten, die meine Aussage unvermeidlich und verdientermaßen für ihn bedeutet hätte. Ich habe auch vor dem House Ways and Means Committee und dem House Climate Change Committee ausgesagt. Inhofe und Barton sind lediglich zwei Personen aus der wachsenden Zahl der Kongressmitglieder, die den Klimaschwindel durchschaut haben.

Noch später hat mich Vaclav Klaus als Präsident der tschechischen Republik zweimal in einer Rede zur Klimaänderung in Washington DC erwähnt und danach meine Einladung angenommen, die jährliche Magistral Lecture auf dem jährlichen Seminar zu planetarischen Notfällen der World Federation of Scientists abzuhalten.

Der chinesische Botschafter in Italien übermittelte meine grundlegende, veröffentlichte Studie Clouds and Climate Sensitivity nach Peking, nachdem dessen wissenschaftlicher Berater, der bei meiner Präsentation dieser Studie zugegen war, gesagt hat: „Dies ändert alles. Es ist klar, dass es keinen signifikanten menschlichen Einfluss auf das Klima gibt“.

Ich kann auch scheinheilig tun, genau wie Michael E. Mann.

Inzwischen war ich auch Gegen­stand eines konstanten Bombardements von Angriffen auf meinen Charakter und Schmierenkampagnen gegen mich auf Websites, in Editorials, durch einen politisierten, aber jetzt diskreditierten Bediensteten im House of Lords, der ohne Genehmigung des Hauses agitiert hatte, in den Klimagate-E-Mails von Michael E. Mann und auf linksgerichteten Nachrichten-Portalen, normalerweise durch Kampfgruppen oder Individuen, die mit den Profiteuren der globalen Erwärmung der Verkehrsampel-Gesellschaft verbunden sind (die Grünen, zu gelb um zu erkennen, dass sie in Wirklichkeit Rote sind): Gruppen wie Greenpeace, Deutsche Bank, der Environmental Defense Fund, Münchener Rück und dem WWF.

Wie auf der Website WUWT oftmals erwähnt, befinden sich die Klimaforscher im Straßenkampf mit denen, die danach trachten, die Daten zu diskreditieren, die derzeit umfassend den einst akzeptierten wissenschaftlichen „Beweis“ widerlegen; vor allem, weil sie unbequem sind für jene, die von den Angriffen auf den Verbrauch fossiler Treibstoffe profitieren.

Im Zentrum solcher Attacken zu stehen hat einen zentralen Grund: Ich wurde zu einer zufälligen Figur in der Debatte um die vom Menschen verursachte Klimaänderung. Von Anfang an widerwillig habe ich diese Rolle ausgefüllt, aber nichtsdestotrotz habe ich meine Position genutzt, um die Öffentlichkeit über die Abwege um das Thema Klimaänderung zu informieren.

Trotz fortgesetzten, wenngleich geringer werdenden Skeptizismus’ in offiziellen Kreisen sind in Wirklichkeit die Beweise gegen eine gefährliche, vom Menschen verursachte Klimaänderung inzwischen sehr stark. Durch das Fördern und nachfolgende Verbrennen fossiler Treibstoffe reichern die Menschen die Atmosphäre mit Kohlenstoff an, der bislang unter der Erde geschlummert hat. Dies hilft, das Massenaussterben abzufedern, das unweigerlich durch die nächste – und seit Langem überfällige – Eiszeit stattfinden würde. Und Stürme wie der außertropische Sturm Sandy und Hurrikan Irene sowie die oftmals auch schon früher aufgetretene Hitze, Dürre und Buschbrände des vergangenen Sommers können weder logisch noch wissenschaftlich der „globalen Erwärmung“ zugerechnet werden, die inzwischen durch ihr fast völliges Fehlen während der letzten 20 Jahre und vielleicht länger augenfällig geworden ist. In einem deterministischen  Klimaprojekt in einer rationalen Welt kann etwas nicht die Ursache von etwas sein, wenn es gar nicht vorhanden ist.

Wenn wir auf diesem Weg großzügig subventionierten Unsinns weitergehen, werden wir unseren Kindern und Enkeln einen anderen Planeten hinterlassen – einen mit mehr extremem Sozialismus, noch ausgeprägterem und weiter verbreitetem wissenschaftlichen Analphabetentum, schlimmeren Episoden der Heuchelei als selbst von Michael E. Mann (wenn das überhaupt möglich ist) und größerem Wettbewerb, die Subventionen der Steuerzahler zu verprassen. Es wird schlimmer als wir je gedacht haben.

Größerer Wettbewerb, die Subventionen der Steuerzahler zu verprassen, selbst in einer Zeit mit abnehmendem globalem Bevölkerungswachstum ist wiederum ein Rezept für einen Alptraum hinsichtlich der nationalen Sicherheit. Das Schlimmste, was wir tun können ist, unsere Köpfe in den zypriotischen Sand zu stecken und uns vorzustellen, dass der nationale Bankrott nicht existiert.

Es ist unabdingbar, dass wir jetzt keine Maßnahmen ergreifen, die Scharlatane wie Michael E. Mann um Trillionen bereichern. Es wäre zwei oder drei Größenordnungen weniger kosteneffektiv, dafür einen einzigen roten Heller heute auszugeben als die globale Erwärmung geschehen zu lassen, den Sonnenschein zu genießen, zum Surfen zu gehen und die minimalen Kosten der Anpassung an die übermorgen auftretenden Konsequenzen zu übernehmen.

Globale Erwärmung? Wie wir frierende Schotten sagen und dabei unseren älteren Nachbarn gut gefüllte Gläser mit Malzwhiskey bringen, wenn sie tapfer viele Zentimeter des für diese Jahreszeit ungewöhnlichen Schnees beiseite schippen: „Nur her damit!“

Christopher W. Monckton of Brenchley is a Distinguished Expert Reviewer for the IPCC’s forthcoming Undistinguished Fifth Assessment Report. Last year he was the Distinguished Nerenberg Lecturer in Mathematics at the Distinguished University of Western Ontario, where he discussed the mathematics of Doric architercture, probabilistic combinatorics, logic, climate sensitivity, feedback amplification, and climate economics in a Distinguished fashion. He directs Distinguished Monckton Enterprises Limited. He is the Distinguished author of numerous Distinguished reviewed papers in the Distinguished learned literature, and of the Distinguished forthcoming book “Climate of Freedom”. He is Distinguished for his notorious self-effacement, modesty, and humility – which is more than can be said for the Undistinguished Michael E. Mann.

[A. d. Übers.: Bei der Übersetzung dieser Biographie würde deren Poesie vollständig verloren gehen. Daher habe ich hier darauf verzichtet.]

Link: http://wattsupwiththat.com/2013/03/27/opinion-life-as-a-target/

Übersetzt von Chris Frey EIKE




Aufkleber verfügbar: Energiewende teuer, uneffektiv, asozial




Grüne sind gegen Wachstum – außer ihrem eigenen

Den Öko-Zeloten zufolge ist Wachstum etwas Schlechtes, weil es unseren Umwelt- Fußabdruck vergrößert. Auf Seite 2 seines letzten Buches beklagt sich David Suzuki, dass unser Wirtschaftssystem

auf konstantem Wachstum und ewig weiter ausufernder Ausbeutung begrenzter Ressourcen auf einem begrenzten Planeten basiert (Hervorhebung hinzugefügt;  screencap hier)

Zu Beginn eines Kapitels mit der Überschrift Ist die Ökonomie … dumm? spricht er von unserem „gegenwärtigen ökonomischen Paradigma“ und davon, was „eine Ökonomie tun sollte“. Er erklärt, dass unser „ökonomisches System eine menschliche Erfindung ist, die modifiziert, verbessert oder verändert  werden kann, um unseren Bedürfnissen gerecht zu werden“. Ständig wiederholt er:

Es ist absurd, dass wir immer noch abhängig sind von einem kürzlich erfundenen System, das auf endlosem Wachstum basiert, während wir auf einem begrenzten Planeten leben (Hervorhebung hinzugefügt; screencap here)

Moment, es ist Zeit, die Realität zu checken. Suzuki ist ausgebildeter Genetiker. Ich weiß von keinem einzigen Nachweis, dass er auch nur einen einzigen Lehrgang in Ökonomie absolviert hat. Viele Menschen in dieser Welt haben in diesem Bereich einen PhD. Sie haben Jahrzehnte damit verbracht, die Nuancen der Wirtschaftstheorie zu erkunden. Suzuki ist keiner von ihnen. Er ist hinsichtlich Ökonomie genauso ein Amateur wie ich hinsichtlich Genetik.

Wenn er über Absurditäten reden möchte, wollen wir bei der Tatsache anfangen, dass jemand, der so wenig von diesem Fachgebiet weiß, so viel Zeit aufgewendet hat, uns mit seiner naiven ökonomischen Perspektive zu beglücken.

Dieser Perspektive fehlt jedwede Originalität. Sie hängt zusammen mit einer ganz speziellen Sicht der Welt, die in wenigen Worten zusammengefasst werden kann: Kapitalismus saugt uns aus.

Unter ihrer grünen Fassade entpuppen sich sehr viele Umweltaktivisten als Altlinke, die es immer noch nicht verstehen. Sie kleben an der kindischen Phantasie, dass die Weltwirtschaft „festgeschrieben“ [fixed] werden kann – dass sie manipuliert werden kann wie ein Hampelmann. In dieser Phantasiewelt gibt es niemals unbeabsichtigte Folgen, und die Menschen können nicht selbst denken. Stattdessen verhalten sie sich genauso, wie es die grünen Kreuzzügler erwarten und wollen.

Während der letzten Jahre haben die Öko-Aktivisten Konferenzen mit einem „Negativ-Wachstum“ organisiert. Wie es in einem FAQ-Abschnitt heißt, der für ein 2012 de-growth gathering [etwa: ein Treffen über Negativ-Wachstum im Jahr 2012] vorbereitet worden ist: Das Problem der heutigen Gesellschaft besteht darin, dass wir uns der „Religion des Wachstums“ verschrieben haben und vom „Lügendogma unbegrenzten Wachstums in einer begrenzten Welt“ in die Irre geführt worden sind (backup link).

Meine Frage an diese Kreuzzügler lautet also: Wenn wir alle es wirklich mit weniger machen, wenn wir alle uns zurücknehmen sollen – anstatt zu expandieren – unseren Verbrauch von Ressourcen, wenn Wachstum ein verderbliches Konzept ist, warum sind dann grüne Organisationen selbst gewachsen wie schlimme Unkräuter?

Die David Suzuki Foundation wurde im Jahre 1990 gegründet. In seiner Autobiographie schreibt Suzuki, dass sein erstes Büro

sich über einer Auto-Reparaturwerkstatt befunden habe und billig war … Das Dach leckte, die Papierkörbe waren mit Mäusen bevölkert, und alles, was wir in dem Büro hatten – eine schäbige Sammlung von Möbeln und Regalen – war geborgt oder gespendet (screencap here).

Während der ersten beiden Jahre war seine einzige Mitarbeiterin eine Freiwillige – seine Frau Tara Cullis.

Heute residiert die Suzuki-Foundation im zweiten Stock eines Gebäudes im trendigen Stadtteil Kitsilano – einem in Strandnähe gelegenen Stadtteil von Vanvouver, vollgestopft mit vegetarischen Restaurants, Yoga-Studios und Surf-Shops.

Ein Foto aller Mitarbeiter, bis vor Kurzem 47 Personen, aus dem Jahr 2012 (siehe Bild oben rechts) wurde auf der Website der Foundation gepostet. Das neue Bild mit allen Mitarbeitern aus dem Jahr 2013 steht hier. Wenn ich mich nicht verzählt habe, arbeiten dort derzeit fast 60 Individuen.

Aber das Suzuki-Empire ist hier noch nicht zu Ende. Diese Foundation besitzt noch Büros in drei anderen Städten – Toronto, Ottawa und Montreal.

Büros der David Suzuki Foundation

Wenn „konstantes Wachstum” falsch ist; wenn der „immer weiter zunehmende“ Verbrauch von Ressourcen etwas Schlimmes ist, warum wächst die Suzuki-Foundation weiter und immer weiter?

Es ist auch nicht die einzige Organisation [mit einem solchen Wachstum]. Greenpeace war ein „Emporkömmling von Friedensgruppe aus Vancouver“, die in einer unitarischen [?] Kirche Versammlungen abhielt. Nachdem sie ein 30 Jahre altes „knarrendes Fischerboot“ gechartert hatten, um gegen einen Nukleartest der USA zu protestieren, konnte sie es sich kaum leisten, auch nur den Treibstoff zu bezahlen (siehe dieses Buch aus dem Jahr 1996).

Vier Jahrzehnte später, im Jahr 2010 hat der Guardian über die nach speziellen Greenpeace-Wünschen gebaute 14 Millionen Pfund-Mega-Yacht berichtet.

Warum ist diese Art Wachstum in Ordnung?

Gerade in diesem Moment hält der Environmental Defense Fund (EDF) ein Treffen für Praktikanten in Texas ab. Das Online-Jobangebot enthält im ersten Absatz Folgendes:

Diese führende grüne Gruppe mit Programmen von Boston bis nach Peking hat sich während des vergangenen Jahrzehnts verdreifacht … (Fettdruck hinzugefügt; Backup hier)

Das vergangene Jahrzehnt hielt für viele von uns Herausforderungen bereit. Menschen wurden arbeitslos, haben ihre Häuser und viele ihrer Ersparnisse verloren. Einige Individuen werden sich nie mehr von der Orientierungslosigkeit erholen, die mit diesem Erfahrungen im Zusammenhang steht.

Vor diesem schlimmen Hintergrund hat der EDF diesen Sturm nicht nur abgewettert, sondern ist auch noch um 300 Prozent gewachsen!

Er prahlt mit seinem Wachstum. Das fängt schon bei der Online- Biographie von Peter Robinson an, dem Leitenden Direktor der Suzuki-Foundation, prahlt er doch damit, dass er während der acht Jahre seiner früheren Beschäftigung als Beschaffer von Ausrüstung

die Organisation durch eine Zeit anhaltender Verkäufe und wachsender Mitgliederzahlen in ganz Kanada geführt hat.

Betrachten Sie mich als total durcheinander. Wachstum ist schlecht. Außer wenn grüne Gruppen ihre Büros von einem auf vier aufstocken – oder ihre Gesamtgröße verdreifachen.

Verbrauch ist schlecht. Außer wenn Greenpeace Yachten kauft und die Suzuki-Foundation Verkaufszahlen präsentiert.

Wieder einmal wird offensichtlich, dass die Grünen Wasser verkünden und Wein trinken. Sie brennen darauf, die Übrigen von uns zu verdammen, aber sie selbst sind nicht in der Lage, nach den von ihnen propagierten Regeln zu leben.

Im besten Fall sind diese Leute philosophisch und moralisch inkohärent – altmodische Scheinheilige.

Im schlimmsten Fall arbeiten sie auf eine Gesellschaft hin, in der es zwei Klassen von Bürgern gibt: die grünen Eliten, deren Einfluss und Verbrauch immer weiter steigt – und normales Volk, die ungewaschenen Massen.

Es sind unsere Leben, unsere Wahl und unsere Gelegenheiten, die begrenzt werden müssen. Schließlich muss der Planet gerettet werden.

Donna Laframboise

Link: http://nofrakkingconsensus.com/2013/04/04/greens-against-growth-except-their-own/

Übersetzt von Chris Frey EIKE




Zukünftige Temperaturenentwicklung in Deutschland – Wärmer oder Kälter? (Teil 1)

Angesichts des nicht enden wollenden Winters scheinen die Nerven blank zu liegen. Da der Aufruf sicherlich nicht ernst gemeint und erst recht kein Argument gegen die Warmistenfraktion ist, sollen diese Argumente in unserem Zweiteiler, der darlegt, warum wir derzeit in Deutschland so frieren und wohin die grundlegende Entwicklung beim Wetter/Klima geht, vorgestellt werden.

In Deutschland ist keine Erwärmung, sondern eine bereits lang ansetzende Abkühlung zu verzeichnen, was folgende Abbildungen belegen.

Abbildung 1: Datensatz, Quelle DWD. Klimaerwärmung, das war einmal. Aber immer noch sind die Warmisten u.a. vom PIK Potsdam, mit den Posaunenträgern von ZDF, Zeit und Co. unterwegs und warnen vor einer sich fortsetzenden beschleunigten Erwärmung. Womöglich haben die kalten Temperaturen und der viele Schnee dort zu Sinnestäuschungen geführt.

Abbildung 2: Seit über 26 Jahren besteht bei den Wintertemperaturen ein abnehmender, linarer Trend zu kälteren Wintern, der sich in den letzten Jahren beschleunigte (Abb 1). Das mag bislang nicht aufgefallen sein, da alle Betrachtungen die Jahresmittel heranziehen.

Dass es sich hierbei nicht um ein auf Deutschland beschränktes Ereignis handelt, zeigt ein Blick auf die Wintertemperaturentwicklung in Großbritannien. Aufgrund seiner geographischen Lage, im Wärmespeicher Atlantik gelegen, wäre davon auszugehen, dass sich die Temperaturentwicklung dort anders verhält. Doch weit gefehlt. Unsere Charts belegen eindeutig, dass die Temperaturentwicklung Großbritanniens im Gleichklang mit Deutschland ist.

Abbildung 3 zeigt die Wintertemperaturen Großbritanniens für die letzten 16 Jahre.

Abbildung 4: Ebenso sinken bereits seit 25 Jahren in Großbritannien die Wintertemperaturen. Dort hat sich der Temperaturrückgang zu kälteren Wintern in den letzten Jahren beschleunigt. Die Grafik zeigt auch, dass für den Temperaturrückgang nicht ein nachlassender Golfstrom verantwortlich sein kann, denn sonst hätten die Wintertemperaturen in GB stärker sinken müssen als bei uns. Das ist jedoch nicht der Fall.

Nun gibt es in unseren Breiten nicht nur eine Jahreszeit, den Winter, sondern noch drei andere, die sich alle in den Jahrestemperaturen niederschlagen und die mittleren Jahrestemperaturen sollen bekanntlich nach dem Willen von PIK und Co. steigen. Inwieweit die Wintertemperaturen und speziell deren Trendverhalten, sich auf die mittleren Jahrestemperaturen auswirken, soll daher näher untersucht werden.

Abbildung 5 und 6 zeigen die Winter- und Jahrestemperaturen seit 1980 und jeweils der polynomische Trend. Dieser dreht im Jahr 2000 bei den Winter- und im Jahr 2005 bei den Jahrestemperaturen. Demnach laufen die Winter- den Jahrestemperaturen voraus.

Wie unschwer zu erkennen, laufen die Wintertemperaturen und deren Trend, den Jahrestemperaturen um Jahre voraus. Beide Abbildungen erwecken den Eindruck, dass der Verlauf der Wintertemperaturen, den Verlauf der Jahrestemperaturen vorweg nimmt. Da anhand einer Betrachtung, nicht auf ein grundsätzliches Verhalten geschlossen werden kann, sollen weitere Abkühlungsphasen betrachtet werden.

Da wir uns gegenwärtig im unmittelbaren Zeitraum nach dem Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries-Suess-Zyklus, befinden (zu seinen Auswirkungen auf das Wetter/Klima in Europa später mehr), soll zuerst die Abkühlungsphase nach dem letztmaligen Rückgang betrachtet werden. Dies ist die Zeit um 1800.

 

Abbildung 7: Da kein „DWD- Rastermittel“ für diesen weit zurückliegenden Zeitraum verfügbar war, wurden die Werte der Deutschland-Reihe von wikipedia verwendet, die hinsichtlich ihrer Datenqualität freilich geringer einzuschätzen sind. Zum Maximum des Hauptsonnenzyklus um 1790 bis 1799 traten gehäuft relativ hohe Wintermittel auf; dann fielen diese und erreichten um 1810 ihr Minimum. Den Jahresmitteln ist im Gesamtzeitraum ein deutlicherer Negativtrend überlagert; trotzdem zeigen auch diese in den 1790er Jahren ein undeutliches und nur sekundäres Maximum; darauf folgt das absolute Minimum etwa 1814. Zu beachten ist, dass nur die Polynome höheren Grades (hier ist das Polynom 4 dargestellt) diesen Sachverhalt zeigen; außerdem fällt der kühlend wirkende Tambora- Ausbruch 1815 (größter Vulkanausbruch der letzten 2.000 Jahre) und der ihm folgende Schneesommer 1816 in diese Zeitreihe. Zur besseren Darstellung in einer Abbildung wurden zu allen Wintermitteln 5°C addiert; in der unteren, 60- jährigen Gleitmittelreihe 6°C.

Folgend sind die Werte ab 1761 und bis 1830 in das 11- jährige Gleitmittel eingeflossen:

Abbildung 8: Auch hier sieht man, dass die Wintertemperaturen den Verlauf des Jahresmittels um einige Jahre vorwegnehmen. Man erkennt sehr schön das Maximum der Winterwerte etwa zum Maximum des Hauptsonnenzyklus in den 1790er Jahren; deutlich zeichnet sich auch der danach einsetzende Temperaturrückgang ab, der bei den Wintertemperaturen schon deutlich vor 1810 (Jahr 45), bei den Jahresmitteln aber erst kurz nach 1810, endet. Die kurze Erwärmungsphase um 1820 ist vermutlich auch eine Folge der nachlassenden Tambora- Wirkung; danach dauerte diese letzte Phase der „Kleinen Eiszeit“ noch bis mindestens zur Mitte des 19. Jahrhunderts fort und war eine der Ursachen für die 1848er Revolution und die Massenauswanderung nach Nordamerika.

Auch bei der Abkühlungsphase ab 1800: Wintermittel „laufen“ den Jahresmitteln um einige Jahre voraus; jedoch undeutlicher als bei der aktuellen Abkühlungsphase!

Wie wir erwartet haben, laufen also auch nach dem vorherigen Hauptsonnenzyklus, die Wintertemperaturen, den Jahrestemperaturen um Jahre voraus, mehr noch, die Zeitspanne, in der die Wintertemperaturen, den Trend der Jahrestemperaturen vorweg nehmen, ist nahezu identisch.

Wir wollen nun anhand des DWD-Datenmaterials, diese Untersuchung für den gesamten Zeitraum der aufgenommenen und vom DWD autorisierten Temperaturmessungen durchführen.

In Abbildung 9 ist oben der Jahresgang der Wintertemperaturen in Deutschland ab 1882 (Winter 1881/1882) bis heute dargestellt und dazu, der polynomische Trend. Darunter, der Temperaturjahresgang von Deutschland von 1881 bis heute und ebenfalls derselbe polynomische Trend, Datenquelle: DWD. Blaue, dünne Linien: Ausrichtung der Jahreszahlen beider Verläufe.

Auch bei flüchtiger Betrachtung erkennt man, dass beide polynomischen Trends ähnlich verlaufen und der Wintertrend dem Jahrestrend vorläuft. Dies gilt für beide Abkühlungsphasen, die im Datenmaterial ab 1881 vorhanden sind. Die Zeitspanne, in der der Wintertrend den Jahrestrend vorweg nimmt, beträgt zwischen 11 und 14 Jahren.

Zwischenbetrachtung: Aus der Abb9 oben ist bei den Wintertemperaturen in Deutschland ein leichter Anstieg der gestrichelten Trendlinie in den letzten 130 Jahren zu verzeichnen, bei der unteren Jahresgrafik etwas stärker als bei der Wintergrafik. Wir haben die Originalwerte vom DWD übernommen. Die sind nicht wärmeinselbereinigt. In diesen letzten 130 Jahren hat sich Deutschland vielerorts (EIKE berichtete darüber) zu einer Wärmeinsel entwickelt und die Thermometer der Messstationen messen die vom Menschen erzeugte Zusatzwärme mit, so dass der WI-bereinigte Verlauf eine flachere Trendlinie erwarten lässt. Bei den Jahrestemperaturen verläuft die tatsächliche Trendlinie fast parallel zur x-Achse. Siehe Literatur zum Wärmeinseleffekt. Auch ohne Berücksichtigung des Wärmeinseleffektes kommen wir zum vorläufigen Ergebnis:

1. Ergebnis

Anhand unserer Untersuchung laufen die Wintertemperaturen, den Jahrestemperaturen um ca. 10 Jahre voraus. Da der Trend (die Trendlinie) der Jahrestemperaturen erst seit 2005 kältere Temperaturen zeigt, ist für die nächsten Jahre von weiter zurückgehenden Temperaturen auszugehen. Von einer Erwärmung, also keine Spur.

Uns interessiert natürlich, wie lange dieser Abkühlungstrend in Deutschland anhalten wird. Anhand der zurückgehenden Sonnenaktivität, geht z.B. die NASA für die nächsten Jahrzehnte von zurückgehenden Temperaturen aus (“Die NASA warnt: Die Erde könnte in eine Periode „globaler Abkühlung“ eintreten“, EIKE vom 22.01.2013). Um sich der Antwort zu nähern, werten wir die Datenreihe in Abbildung 9 weiter aus, insbesondere den Gang der letzten Erwärmungs- und Abkühlungsphase der 1920/1930er Jahre, bzw. der 1950/1960er Jahre. Wir erinnern uns noch, zumindest die Älteren, dass bis in die Mitte der 1970er Jahre Politik, Medien und Mainstream-„Wissenschaftler“ vor einer bevorstehenden Eiszeit warnten (Abb. 10):

Abbildung 10: Die Medien und der „böse Klimawandel“ im „Zeitenwandel“ (Ansicht der Titelseite des Magazins „TIME“): 1977, noch warnten sie vor der großen Kälte, 2001 warnten sie vor der „Globalen Erwärmung“, 2010 behaupteten sie gar, die verheerenden Blizzards (Schneestürme) seien „weitere Anzeichen der globalen Erwärmung“.

Abbildung 11 zeigt anhand des polynomischen Trends (wie er übrigens auch vom DWD in seinen Trendanalysen/-darstellungen verwendet wird) das Ein-und Ausschwingverhalten der Warm-und Kaltphase im 20. Jahrhundert. Sie hat eine Länge von etwa 64 Jahren, wobei ihre Einschwingzeit (Erwärmung) mit 27 Jahren deutlich kürzer, als ihr Ausschwingverhalten (Abkühlung) ist. Das Verhältnis beträgt 40% zu 60% oder 4:6 und liegt damit sehr nahe am Verhalten von solaren Zyklen. Auch dort ist die Anstiegszeit kürzer, als die Zeit, in der die Sonnenaktivität abfällt und liegt bei etwa denselben Verhältniswerten (1/3 zu 2/3). Gleich wird sie nicht sein können, wegen der Puffer-und Wärmekapazität des Wassers. Bei generell zurückgehender solarer Aktivität verschiebt sich übrigens das Verhältnis zugunsten der Abstiegszeit, also der Abkühlungsphase.

Da die derzeitige Erwärmungs-und Abkühlungsphase dasselbe Verhalten (Form) wie die vorherige hat und diese den solaren Aktivitätsmustern entspricht, übertragen wir deren statistischen Werte auf die heutige Erwärmungs-und Abkühlungsphase. Wie in Abbildung 11 zu sehen, ist diese länger ausgeprägt. Deren Erwärmungsphase beträgt 42 Jahre, so dass sich für die Ausschwingzeit (Abkühlungsphase) eine Länge von ca. 68 Jahren ergibt (Abbildung 12).

Abbildung 12 zeigt die projizierte Abkühlungsphase der jetzigen Erwärmungs- und Abkühlungsphase. Diese hatte für die Wintertemperaturen 1998 ihr Maximum (Erwärmung). Seither fällt der polynomische Trend. Anhand der Projizierung dauert die Abkühlungsphase bis zum Jahr 2060, wobei das ermittelte Verhältnis Abkühlzeit zu Erwärmungszeit der 1. Erwärmungs-/Abkühlungsphase übernommen wurde.

Bei dem ermittelten Vorlauf der Wintertemperaturen zu den Jahrestemperaturen von ca. 10 Jahren, muss davon ausgegangen werden, dass die seit einem Jahrzehnt zu verzeichnende Abkühlungsphase in den Jahrestemperaturen, noch bis mindestens 2070 anhalten wird. Wird weiter berücksichtigt, dass bei geringer werdender solarer Aktivität, sich das Verhältnis Abstiegszeit zu Anstiegszeit, zugunsten der Abstiegszeit verschiebt, kann davon ausgegangen werden, dass das von uns ermittelte Jahr 2070, die Untergrenze darstellt und die Abkühlphase tendenziell länger ist. Von einer nur kurzzeitigen Abkühlung, wie sie von PIK und Co. anhand des kalten Winters bemüht wird oder gar von einer galoppierenden Erwärmung für die nächsten Jahre/Jahrzehnte (bis zum Jahr 2100), wie sie der DWD hinausposaunt, kann demnach keine Rede sein. Das Gegenteil ist anhand unserer Untersuchung zu erwarten. In einer Privatmail teilte der DWD übrigens einem der Autoren mit, dass die gegenwärtige „Stagnation“ – was immer der DWD unter Stagnation versteht – noch etwa fünf bis sieben Jahre andauern wird, dann aber werde sich die Erwärmung mit aller Deutlichkeit durchsetzen. Wäre für uns natürlich interessant, wie der DWD zu seiner Aussage gelangt. Wohl etwa aus Computerspielen oder im Fachchargon, Klimamodelle genannt?

Spiegeln wir nun unsere Daten an denen von NASA et al. Die NASA geht, wie bereits erwähnt, von einer zurückgehenden solaren Aktivität und damit Abkühlug für die nächsten Jahrzehnte aus. Der Ausnahmephysiker Landscheidt ging bereits in den 1990er Jahren von zurückgehenden Temperaturen bis in die 2040er Jahre aus. Vor annährend 5 Jahren veröffentlichte Prof. David C. Archibald in ”The past and future of climate” die folgende Abbildung:

Abbildung 13

Wir „gehen“ demnach keiner Warmzeit, sondern einer Kaltzeit entgegen. Zu einem noch weitreichenderen Ergebnis kommen russische Forscher (http://german.ruvr.ru/2013_03_03/Die-Welt-vor-einer-Eiszeit/). Sie gehen von einer Abkühlungsphase bis zur Mitte des 21. Jahrhunderts aus, was unserem Ergebnis recht nahe kommt. Doch wir wollen unser Ergebnis weiterer Prüfungen unterziehen.

Der russische Wissenschaftler Dr. Abdussamatov (Chef der Weltraumforschung der Abteilung für Sonne am Pulkovo Observatorium der Russischen Akademie der Wissenschaften) hat für die nächsten 100 Jahre eine Abkühlung ermittelt (Abbildung 13). EIKE berichtete darüber: “100 Jahre Kälte – Russische Wissenschaftler haben das zyklische Verhalten der Sonne analysiert und sie sagen nun 100 Jahre Abkühlung voraus. Die Wissenschaftler sind nicht irgendwer“ vom 21.11.2011.

Abbildung 14: TSI-Variationen und Sonnenflecken-Aktivität seit 1611 und die Vorhersage (gestrichelte Linien) (Abdussamatov H. I.: The Sun Dictates the Climate of the Earth. 2009, St. Petersburg, “Logos”, – 197 p.; The Sun Dictates the Climate. 4th International Conference on Climate Change in Chicago, May 2010.)

Unsere Aussage soll an den solaren Zyklen, die für unser Wetter/Klima bedeutsam sind, weiter geprüft werden:

– Hauptsonnenzyklus (im Mittel 208-jährige de Vries/Suess-Zyklus: Maximum in 2003)

– Brückner/Landscheidt-Zyklus (im Mittel 36 Jahre: Maximum in 2005)

– Gleissberg-Zyklus (Oberschwingung des Schwabe-Zyklus, 90 Jahre, Maximum 1968)

Der Hauptsonnenzyklus wird sein Minimum um 2090 erreichen.

Der Brückner/Landscheidt um 2025

Der Gleisberg-Zyklus um 2020 (also im 25. Sonnenzyklus)

Alles deutet also darauf hin, dass die Temperaturen noch weiter fallen werden. Die Frage ist “nur“, für wie lange? Da die Sonnenforschung noch weit davon entfernt ist, alle Geheimnisse unseres Zentralgestirns zu kennen, hilft eine Betrachtung vergangener, gemessener Temperaturen weiter. Insbesondere, wie sich die Temperaturen in Deutschland und seiner Umgebung nach dem letzten Rückgang im Hauptsonnenzyklus entwickelten. Leistenschneider ist bereits im Teil 8 seiner EIKE-Reihe “Dynamsches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ darauf eingegangen.

Abbildung 15, Quelle: Prof. Ewert, EIKE, zeigt den Temperaturgang von Kopenhagen im Zeitraum von 1768 – 2009. Die rote Linie gibt den Zeitpunkt des Maximums im Hauptsonnenzyklus an. Bis zu einem Zeitraum von 20 – 30 Jahren nach dem Maximum des Hauptsonnenzyklus schwanken die Temperaturen am stärksten zwischen warm und kalt (rote Fläche). Bis zum Minimum des Hauptsonnenzyklus sind immer noch relativ hohe Temperaturausschläge zu verzeichnen, jedoch auf insgesamt niedrigerem Niveau (grüne Fläche). Unmittelbar vor und nach dessen Minimum ist das Klimasystem sozusagen in seinem eingeschwungenen, kalten Zustand und die Ausschläge sind am geringsten. Vor einem Temperaturanstieg fallen die Temperaturen auf ein relatives Minimum und steigen dann kontinuierlich an (schwarze Linien).

Abbildung 16, Quelle: (http://www.lanuv.nrw.de/luft/wirkungen/klima_grundlagen.htm) zeigt den Temperaturgang am Hohenpeißenberg von 1781-1995 nach Fricke 1997. Die rote Linie kennzeichnet wieder das Maximum des Hauptsonnenzyklus. Auch hier sind bis ca. 30 Jahre nach dem Hauptsonnenzyklus die stärksten Jahresschwankungen der Temperatur zu sehen (rote Fläche), die dann geringer werden (grüne Fläche) und nach dem Minimum im Hauptsonnenzyklus die geringsten Werte einnehmen.

Abbildung 17: Zu sehen ist der Temperaturverlauf von Wien im Zeitraum von 1775 – 2008, Quelle: Prof. Ewert, EIKE. Der Temperaturverlauf verhält sich wie bei den vorherigen Datenreihen.

 

Abbildung 18: Ebenfalls das gleiche Bild bei der Temperaturgangreihe München im Zeitraum von 1781 – 1991.

Abbildung 19: Die Temperaturgangreihe von Berlin-Dahlem von 1701 – 2008, mit den gleichen Merkmalen.

2. Ergebnis

Anhand der solaren Aktivitätsschwankungen und der Vergleiche der Temperaturentwicklung nach dem vorherigen Hauptsonnenzyklus, ist für die nächsten 40-50 Jahre mit einem deutlichen Rückgang der Temperaturen zu rechnen. Nach dem Hauptsonnenzyklus fallen die Temperaturen, dabei unterliegen sie hohen Schwankungen zwischen warm und kalt, wie dies die letzten Jahre wieder zu beobachten ist, so dass der Temperaturgang für die nächsten 10 bis 20 Jahre weiter diesen Extrema zwischen warm und kalt unterliegen sollte. Das Klimasystem verhält sich dabei wie ein physikalisch, elektrisches System, welches in seiner Übergangsphase (Hysterese, beim Klima zwischen Warmzeit und Kaltzeit) empfindlich auf Veränderungen in seinen Eingangsgrößen reagiert, wobei die Eingangsgröße die solare Aktivität ist. Im eingeschwungenen Zustand (z.B. kalt) ist es weitgehend stabil und nur geringen Schwankungen unterworfen. Ca. 40 – 50 Jahre nach einem Maximum im Hauptsonnenzyklus sind die Schwankungen zwischen warm und kalt weiterhin relativ hoch, allerdings auf insgesamt niedrigerem Niveau. Im „eingeschwungenen“ Zustand ist das System stabil auf niedrigem Niveau. Das Minimum wird etwa 70 Jahre nach dem Maximum im Hauptsonnenzyklus erreicht. Demnach in den 2070er Jahren.

Im Teil 2 werden wir unsere Ergebnisse einer weiteren Prüfung unterziehen, sowie die Aussage vom PIK und AWI unter die Lupe nehmen, die da heißt: Es ist deswegen so kalt, weil es wärmer wird…

Stefan Kämpfe, Weimar

Josef Kowatsch, Hüttlingen

Raimund Leistenschneider – EIKE