1

Der Klimawandel in Niedersachsens Schulen

Das „schädliche Kohlendioxid“   

Alleine diese eingangs getroffene Charakterisierung des Kohlendioxids lässt erwarten, dass schon den Kindern die diversen fragwürdigen Darstellungen in Sachen Klimawandel vermittelt werden, wenn es heißt:

„Das schädliche CO2 wird von Fahrzeugen und Fabriken ausgestoßen“.

Ausschließlich Autos und Fabriken sind also für den Klimawandel, die Erderwärmung verantwortlich, so die einseitige Interpretation auf der „Klimawandel-Seite“ der niedersächsischen Staatskanzlei.  

Keine Erklärungen über die große Bedeutung des CO2 als Lebensgas für alle Pflanzen der Erde. Die steigenden Gehalte an CO2 in der Atmosphäre bedeuten schließlich vermehrtes Pflanzenwachstum auf unserem Globus.

Kein Hinweis darauf, dass Pflanzen aller Art die Basis für das Leben, die Ernährung von Mensch und Tier auf der Erde bilden.

Die Atemluft von Menschen und Tieren enthält eine erhöhte CO2-Konzentration.

Auch dieses CO2 nützt den Pflanzen quasi als Lebensgas.

Umgekehrt liefern die Pflanzen nach Aufnahme und Assimilation des CO2 Sauerstoff (O2) an die Atmosphäre, jenes Gas, das für Mensch und Tier das Lebensgas darstellt.   

Fazit: CO2 wird nicht nur von Fahrzeugen und Fabriken, sondern auch von Menschen und Tieren an die Erdatmosphäre abgegeben. Kohlendioxid ist ein wichtiges Spurengas,  ohne dessen Gegenwart Leben auf unserer Erde im gegenwärtigen Ausmaß nicht möglich wäre.

Den wissbegierigen Schulkindern wird auch nicht  erklärt, dass in früheren Erdepochen, als es noch keine Menschen gab, wesentlich höhere CO2-Konzentration in der damaligen Erdatmosphäre vorhanden waren, wie das heute der Fall ist.

Eine Erklärung über die mögliche Wirkung der Sonneneinstrahlung auf die CO2-Ausgasung aus Meeren und Böden der Erde fehlt ebenfalls. Kohlendioxid befindet sich auch in den tieferen Erd- und Gesteinsschichten und wird über Quellen aber auch Vulkane freigesetzt. All das wird nicht erklärt.

„Schadgas Nr. 2“ – Methan (CH4)          

Auch bezüglich Methan oder Sumpfgas erfolgt die politisch, pädagogisch dosierte  Information in Niedersachsen recht einseitig und damit fehlerhaft.

Als Quelle für Methan werden ausschließlich Rinder aus landwirtschaftlicher Haltung benannt.

Keine Information darüber, dass die Anzahl der Rinder in der Bundesrepublik sinkt und deshalb das CH4 aus dieser Quelle geringer wird.

Kein Wort wird darüber verloren, dass alle Wiederkäuer unter den wild lebenden Tieren auf der Erde dieses Gas auch produzieren.

Darüber hinaus darf der Hinweis nicht fehlen, dass CH4-Emissionen letztlich von allen tierischen Lebewesen einschließlich des Menschen verursacht werden. 

Methan entweicht schließlich aus Sümpfen und wiedervernässten Mooren auf der Erde. Methan entsteht auch auf den Feldern, auf denen Reis im „Nassanbauverfahren“ produziert wird.

Bio- und Erdgas bestehen überwiegend aus Methan.

Methan entsteht in tieferen Gesteinsschichten bei hohen Temperaturen und hohen Drücken und entweicht häufig über aktive Vulkane. Schließlich lagern große Mengen Methanhydrat in den Ozeanen.

Mehr Bildung für Pädagogen und Bildungspolitiker  – eine Buchempfehlung      

Die Darstellungen der Spurengase CO2 und CH4 , deren Quellen und Wirkungen in der Erdatmosphäre sind offensichtlich gewollt einseitig und deshalb fehlerhaft.

Hier wird die Chance ignoriert, das Thema umfassend und an naturwissenschaftlichen Fakten orientiert für Schulkinder aufzubereiten.

Abhilfe kann geschaffen werden, indem für Pädagogen, die das Thema Klima an Schüler vermitteln, das Buch mit dem Titel:

 „Klimafakten der Rückblick – ein Schlüssel für die Zukunft“

zum Lehr- und Lernbuch erhoben wird.

Ein Autorenkollektiv erklärt in dem genannten Buch sehr umfassend und plausibel das Zusammenspiel aller bekannten Faktoren und deren Wirkungen auf das globale Klima vor allem durch einen faktisch basierten Rückblick auf den Klimaverlauf und dem ständigen Wandel des Erdklimas im Verlauf der Erdgeschichte.

Wasserdampf in der Atmosphäre spielt danach übrigens die größte Rolle als „Klimagas“.

Literatur:

Berner, U. und HJ. Streif, Hrsg. (2004): „Klimafakten der Rückblick – ein Schlüssel für die Zukunft“

Verlag: E. Schweizerbart’sche Verlagsbuchhandlung, Stuttgart

ISBN 3-510-95913-2 




Globale Erwärmung ? Die Antarktis kühlt dramatisch ab. Und die Arktis folgt. Überarbeitete Version

Damit wird stets die Geschichte vom harten Schicksal der Eisbären in der Arktis verbunden, die angeblich bald keine Eisschollen mehr vorfinden, auf denen sie leben und jagen können. Was die Presse nicht berichtet, ist die in Ermangelung von verlässlichen Daten über die Eisbärenpopulationen unklare Situation, die eine Bewertung schwierig macht. Die bedeutende Internationale Union for Conservation of Nature IUCN hat 2014 folgende Zahlen festgestellt: Von den 19 Eisbären-Populationen mit insgesamt ca. 26.000 Tieren sind

· 3 abnehmend,

· 6 stabil,

· 1 zunehmend,

· und für 9 Populationen gibt es unzureichende Daten.

Die genauesten Daten stammen aus Kanada; in der Russland zugewandten Seite der Arktis leben die Populationen, über die man zu wenig weiß.

Unstrittig ist, dass eine dauerhafte Verringerung der Meereisfläche die Lebensbedingungen der Eisbären verschlechtern würde; ein weiterhin bestehendes Problem ist jedoch auch die Jagd. Was ebenfalls nicht allgemein bekannt ist: Heute leben eindeutig mehr Eisbären als vor 50 Jahren.

Die Entwicklung in der Arktis

Betrachtet man die Entwicklung der Meereisfläche am Nordpol, dann ist eine stetige Abnahme seit dem Beginn der Satellitenmessungen festzustellen, wie es die Abb. 1 und auch die Abb.2 zeigen.

(Lit.1 und 4).

Abb. 1: Monatliche Meereisfläche der Arktis von 1979 bis 2016, dargestellt als Abweichung vom Mittelwert, von 1979 bis 2016. Der Rückgang endete zwischen 2005 und 2006 und die Eisfläche blieb dann für eine Dekade im Mittel unverändert. Der Januar 2016 zeigte einen Rückgang; dies führen die NSIDC-Experten auf das El Niño-Ereignis in der 2. Jahreshälfte von 2015 zurück.

Quelle: "Cryosphere Today" von der Arctic Climate Research der Universität von Illinois (Lit.4)

Der gegenüber 2015 zu Beginn des Jahres 2016 eingetretene Rückgang der Eisfläche wird von Wissenschaftlern auf das in längeren Zeitabständen (zuletzt 1998) eintretende El Niño-Wetterphänomen im östlichen Pazifik zurückgeführt, das weltweit einen kurzen Erwärmungsschub bewirkt. Nach El Niño folgt in wenigen Jahren das wieder mit einer Abkühlung verbundene, ebenfalls natürliche La Niña-Ereignis.

Macht sich auch hier – wie in der Antarktis (s.u.) – der Stopp der globalen Erwärmung bemerkbar ? Erst die Daten der Folgejahre werden diese Frage beantworten; aber die NSIDC-Wissenschaftler (US National Snow and Ice Data Center) verweisen auf eigene Beobachtungen und eine interessante Prognose dazu:

"Bis in die 90er Jahre zeigen die Beobachtungen einen Anstieg in dem Tempo des Eisverlustes im nordatlantischen Sektor der Antarktis, dem eine Verlangsamung in den letzten Jahren folgte. Der beobachtete Trend über die Periode 2005 bis 2015 ist tatsächlich positiv (eine Tendenz zu mehr Eis). In einer neuen Veröffentlichung in den Geophysical Research Letters zeigen Wissenschaftler des National Centre for Atmospheric Research NCAR, dass ihr Community Earth System Model CESM in der Lage ist, diesen Zeitraum des winterlichen Eis-Wachstums im Nordatlantik vorherzusagen. Diese Studie sagt voraus, dass in naher Zukunft das Meereis in diesem Teil der Arktis wahrscheinlich stabil bleibt oder sogar anwächst." (Zitat Ende).

Damit bestätigt sich der sich aus dem jüngsten Teil der Kurve von Abb. 1 ergebende Trend, dass es in der Arktis bereits einen Stopp des Meereis-Rückganges gibt und die Voraussagen des NSIDC und des NCAR besagen, dass dieser Stopp anhalten und evtl. wieder in eine Zunahme übergehen wird. (Aus Abb.2 kann man auch folgern, dass sich die bereits eingetretene Zunahme fortsetzen wird – s.u.).

Abb.2: Arktisches Meereisvolumen seit 1980. Die kurzzeitig schwankenden Ergebnisse wurden gemittelt, woraus sich ein klareres Bild ergibt.

Quelle: PIOMAS, Polar Science Center, Applied Physics Laboratory (APL), Univ. of Washington (Lit.4 und 5).

Eine weitere Veröffentlichung bestätigt diese Aussagen und Prognosen. Die Grafik von Abb.2, publiziert von der Universität Washington (Lit.5) bestätigt die Zunahme der Meereseisfläche der Arktis, die ab 2012 einsetzte, auch der leichte Rückgang (durch El Niño) ist gut erkennbar.

Die Stagnation der arktischen Eisfläche seit 2006 für eine Dekade stellt sich nun als eine Kombination des Rückgangs von 2006 bis ca. 2011 einerseits und eines deutlichen Anstiegs ab 2012 andererseits heraus. Das bestätigt die Aussagen der NSIDC und des NCAR.

Es ist somit davon auszugehen, dass den Warnern vor dem Verschwinden des arktischen Meereises schon in den nächsten Jahren die Argumente ausgehen werden. Hinzu kommt dann die Entwicklung in der Antarktis (siehe unten), die schon jetzt eine Abkühlung des Ozeans und eine deutliche Zunahme des Meereises zeigt.

Die Entwicklung in der Antarktis

Dass man in den Medien von der Entwicklung am Südpol, also der Antarktis, nichts liest und hört, liegt daran, dass sich daraus schon seit mehreren Jahren keine Paniknachrichten über die globale Erwärmung ableiten lassen. Ganz im Gegenteil, wie die Meereis-Daten zeigen. (Die Eisfläche des antarktischen Festlandes ist und bleibt konstant und wird daher in den Betrachtungen der gesamten antarktischen Eisfläche nicht berücksichtigt).

In der folgenden Abbildung 3 werden die Daten der Meereisfläche und der Ozeantemperatur der Antarktis zusammengeführt, um die Korrelation der beiden Kurven aufzuzeigen. Die Daten stammen vom Koninklijk Nederlands Meteorologisch Instituut (KNMI), das zum Ministerium für Infrastruktur und Umwelt gehört. (Lit.3).

Abb.3: Jährlich gemittelte Ozeantemperatur (blau; rechte Skala) und Veränderungen der Meereisfläche auf der südlichen Halbkugel (rot; linke Skala; Satellitenmessungen). Daten vom KNMI (Niederlande). Bei der Eisfläche sind die Abweichungen vom langjährigen Mittelwert 11 Millionen qkm (Null-Linie) dargestellt. Eine Meeresfläche wird als Eisfläche bezeichnet, wenn sie zu mindestens 15% vom Eis bedeckt ist. Zur Verdeutlichung der Korrelation zwischen den beiden Kurven ist die Meerestemperatur "invertiert" dargestellt, also nach oben abnehmend. Grafik vom NSIDC auf der Grundlage der Daten vom KNMI. (Lit.1, 2 und 3).

Man sieht, dass die durch Satelliten gemessene Meereisfläche seit 1978 bis 1992 annähernd konstant bleibt – der Anstieg der Globaltemperatur hat am Südpol offenbar keine Wirkung. Ab 1992 beginnt sogar ein Anstieg der Eisfläche, der ab 2003 deutlich zunimmt und schließlich ab 2012 in einen dramatischen Zuwachs übergeht und für 2015 einen Rekordwert erreicht. Dass dies mit der fallenden Ozeantemperatur zusammenhängt ist logisch – und wird auch durch die gute Korrelation mit der Veränderung der Eisfläche bestätigt.

Ed Caryl schreibt dazu, dass der südliche Ozean ähnliche Erwärmungs- und Abkühlungs-Zyklen aufweist wie der Nordatlantik – nur nicht so ausgeprägt. Dieser Zyklus wird jetzt negativ und die Temperaturen an Land und im Meer gehen scharf nach unten, während das Eis anwächst.

Es gibt nun kein warmes Meerwasser, das die Eisfläche von unten zum Abschmelzen bringen kann. Der Ozean kühlt sich ab und befindet sich die meiste Zeit unterhalb des Gefrierpunktes.

Es ist nicht weiter verwunderlich, dass diese Entwicklung den Vertretern der Klimakatastrophen-Theorie nicht gefällt und in den Medien keine Erwähnung fand.

Quellen:

Lit. 1: National Snow & Ice Data Center (NSIDC), "Arctic Sea Ice News & Analyses", 4.2.2016, https://nsidc.org/arcticseaicenews/

Lit. 2: Ed Caryl: South Polar Ice Age: Stations Show "Dramatic" Antarctic Peninsula Cooling Since 1998, Sea Ice Surge", NoTricksZone, 8.7.2015, www.notrickszone.com/wp-content/uploads/2015/07/sea-temp-60-75oS.jpg

Lit. 3: KNMI (NL) Climate Explorer, Time Series, 23.1.2016,

www.climexp.knmi.nl/getindices.cgi?WMO=NSIDCData/S_ice_extent&station=SH_seaice_extent

Lit.4: Pierre S. Gosselin: "Arctic Sea Ice May Have Turned The Corner As Ice Volume Picks Up Over Past Years", 12.2.2016, http://notrickszone.com/2016/02/12/arctic-sea-ice-may-have-turned…

Lit. 5: Polar Science Center, Applied Physics Center (APL), Univ. of Washington,

www.apl.washington.edu/wordpress/wp-content/uploads/schweiger/ ice_volume/BPIOMASIceVolumeAnomalyCurrentV2.1.png

St. Augustin, 20.2.2016




100 % „EE“ Millionengrab El Hierro Windenergie: Unreif für die Insel

Bild rechts: Auch eine „grüne Trauminsel der Zukunft“ kann sich unversehens als Alptraum entpuppen (Symbolbild)

Das dort realisierte Projekt ist typisch für so viele Vorhaben, die von angeblich „grünbewegten“ Geschäftemachern mit reichlich zur Verfügung gestellten öffentlichen Geldern durchgezogen und von ihren Handlangern in den Medien über den grünen Klee gelobt werden. Es werden große Versprechungen gemacht, satte Förderungen eingestrichen und wunderschön anzusehende nagelneue Installationen in die Landschaft geklotzt. Der Film zeichnete die verschiedenen Stufen des Projektablaufs von der Konzeption über die einzelnen Realisierungsstufen nach und gab den Initiatoren reichlich Gelegenheit, sich und ihre Rolle bei dem Vorhaben effektvoll in Szene zu setzen.


Bild 1. Die gesamte Stromversorgung der Inseln soll künftig durch Windenergieanlagen erfolgen

Kombination von Windenergie und Pumpspeicher-Kraftwerk

Im Falle von El Hierro wurde eine Lösung verfolgt, die vom Prinzip her zunächst überzeugend wirkte. Hoch auf dem Gipfel eines erloschenen Vulkans wurde eine Gruppe von fünf Windenergieanlagen installiert, die mit Hilfe der hier ziemlich kräftig und stetig wehenden Atlantikwinde sozusagen kostenlosen Strom erzeugen soll. Dieser Strom soll den Bedarf der Inselbevölkerung von etwa 7.000 Menschen decken. Da das Klima recht mild ist und so gut wie keine Industrie existiert, ist deren Strombedarf nicht allzu hoch. Überschüssiger Strom wird genutzt, um Wasser in ein oben auf der Spitze des Vulkans gelegenes Speicherbecken zu pumpen. Reicht die Leistung der Windanlagen bei Schwachwind nicht aus, so übernimmt eine im Tal gelegene Turbine mithilfe des über eine Druckleitung herangeführten Wassers die restliche Last solange, bis der Engpass vorbei ist. Das Speicherbecken wurde mit großem Aufwand auf dem gleichen Gipfel eingerichtet, auf dem auch die fünf Windenergieanlagen stehen. Wegen des wasserdurchlässigen Bodens musste es aufwendig als Folienbecken realisiert werden.

Neben den einheimischen Initiatoren waren an Planung und Realisierung des Gorona Projekts, das zu 60 % der Inselregierung gehört, auch Firmen und Fachleute aus etlichen weiteren Ländern beteiligt. Komponenten für diesen Prototyp kamen aus Deutschland, der Schweiz, Italien und Frankreich. Die Inbetriebnahme erfolgte im Juni 2014.


Bild 2. Schemadarstellung eines Pumpspeicherkraftwerks (Racoon Mountain) (Grafik: Wikipedia)

Vollmundige Versprechungen…

Mithilfe dieser Anlagenkombination, so das Versprechen der Betreibergesellschaft, sollte Bedarf der Insel zu 100 % aus „erneuerbarer“ Energie gedeckt werden. Das bisherige Stromversorgungssystem, das auf dem Schweröl-Kraftwerk Llanos Blancos am Hafen von Puerto de La Estaca basierte, sollte nur noch für den Notfall in Reserve gehalten werden. Dessen Kraftstoffversorgung war teuer, nicht zuletzt auch deshalb, weil zu den reinen Brennstoffkosten auch noch der teure Seetransport hinzukam. Mit der Umstellung wurde auch ein Umwelt- bzw. Klimabonus durch Einsparung von jährlich 20.000 Tonnen Kohlendioxid-Abgasen in Aussicht gestellt. Das in Aussicht gestellte Ziel waren 100 % „sauberer EE-Strom“.

…einer heilen Inselwelt

Wie sehr sich europäische Journalisten für das Projekt begeistern ließen, zeigt exemplarisch eine Reportage der Neuen Zürcher Zeitung vom 8. August 2014 [NZZ]. „Die kanarische Insel El Hierro ist als erstes Eiland der Welt energieautark“ behauptete damals die NZZ-Journalistin. Dank der Stilllegung des alten Diesel-Kraftwerks würden jedes Jahr 18.700 Tonnen CO2, 100 Tonnen Schwefeldioxid und 400 Tonnen Stickoxid weniger in die Erdatmosphäre gelangen. Die Stromgewinnung mit Wasser und Wind werde, so die Prognose, 23 % günstiger als bisher sein, was positive Auswirkungen auf den Strompreis haben werde.

Im weiteren Verlauf des Artikels wurde der Tonfall immer lyrischer. El Hierro, das seit dem Jahr 2000 Biosphärenreservat ist, wolle als „grüne Insel“ international bekannt werden. Die Insel sei immer häufiger Ziel von Delegationen anderer Inselregionen sowie wissenschaftlich interessierter Feriengäste, die sich für das Modell interessierten. Nächster Schritt auf dem Weg zur Nachhaltigkeit sei die Umstellung des Fuhrparks der Insel auf E-Mobile: Bis 2020 sollten alle 6.000 auf El Hierro zirkulierenden Autos elektrisch angetrieben werden. Damit entwickle man sich zum ersten emissionsfreien Ort der Welt und könnte als Vorbild dienen: Weltweit, so ein Prospekt der Betreiberfirma, wolle El Hierro den 17 Millionen Europäern und 600 Millionen Menschen, die auf Inseln leben, als „energetische Referenz“ dienen.

…und die bittere Realität…

Doch als die Betreibergesellschaft Gorona del Viento El Hierro nach 19 Monaten Zahlen zum Projekt vorlegte, fielen diese geradezu beschämend aus. Vermutlich war dies auch der Grund, warum erst einmal die tourismus- und ökostimmungsfördernde Berichterstattung in den Fernseh- und Rundfunkmedien abgewartet wurde, bevor man Anfang 2016 mit der Wahrheit herausrücken musste. Und selbstverständlich wurde hierüber nicht mit dem großen Lautsprecher der Rundfunk- und Fernsehanstalten berichtet, sondern lediglich klein und bescheiden, u.a. auf dem örtlichen deutschsprachigen Blog lapalma1.net [LAPA].

…an Aufwand, Kosten und Ergebnis

Insgesamt erforderte der Bau der Gesamtanlage Investitionen in Höhe von 85 Mio. €, das sind rund 12.150 € pro Einwohner bzw. fast 50.000 € für eine vierköpfige Familie. Zum Glück für die Insulaner konnten sie Fördergelder in Höhe von mehr als 50 % dieser Summe abgreifen, aber dennoch bleib allein schon die Belastung aus dem Kapitaldienst erheblich. Hinzu kommen natürlich noch Betriebs- und Unterhaltskosten, denn auch wenn der Wind keine Rechnung schickt, so gilt dies nicht für das von Deutschland einzufliegende Wartungspersonal. Doch wie waren die konkreten Ergebnisse?

Den Bericht, den die Betreibergesellschaft nach dem ersten vollen Betriebsjahr vorlegte, kann man im nüchternen nördlichen Europa als Schulbeispiel für die in manchen Ländern beliebte „Kreativität“ bei der Maskierung und Verharmlosung unbequemer Realitäten werten, auf dem gleichen Niveau wie bei griechischen Finanzberichten gegenüber Gläubigern oder bei der spanischen Hochleistungsrhetorik, nachdem man das Land in einem beispiellosen Bauboom ohne Sicherheiten in die faktische Pleite manövriert hatte. So sprach man in dem nur auf spanisch herausgegebenen Dokument vom „Übertreffen der kühnsten Erwartungen“ und weiter: „Im Jahre 2015 wurde der Wunschtraum, 100 % Strom aus Erneuerbarer Energie zu beziehen, am 9. August für etwas mehr als 2 Stunden erreicht. In der ersten Jahreshälfte konnten die sauberen Energiequellen zu 30 % genutzt werden. In den Monaten Juli und August lagen die Mittelwerte zwischen 49 und 55 %. Die fehlende Energie musste das alte Schwerölkraftwerk beisteuern, das man eigentlich stilllegen wollte“, so der Blog lapalma1.net.

Probleme: Zuwenig Speicher…

Erster Kardinalfehler des Projekts war eine geradezu dramatische Fehleinschätzung der erforderlichen Speicherkapazität. Das in einer Höhe von 650 m über dem Kraftwerk gelegene Wasserbecken fasst lediglich 150.000 Kubikmeter Wasser, was sich als viel zuwenig erwiesen hat, um selbst bei gutem Wind und wenig Verbrauch nennenswerte Reserven aufzubauen. Erwähnt wird, dass mindestens die fünffache, nach anderen Berechnungen sogar die 20fache Beckenkapazität erforderlich wäre. Das jedoch ist wegen der erheblichen Erdbebengefahren in der Region nicht realisierbar. Ein entsprechendes Projekt auf einer Nachbarinsel kann wegen diverser technischer Probleme einschließlich Dammbrüchen und Überschwemmungen nur noch zu maximal 50 % genutzt werden. Von den Kosten und den technischen Schwierigkeiten verteilter Becken, Leitungen und Pumpspeicherkraftwerken einmal ganz abgesehen.

…Probleme mit der Netzstabilität…

Als weiteres Problem erwies sich, dass die Netzstabilität bei Verbrauchsspitzen nicht gewährleistet werden kann. Die dann erforderliche blitzschnelle Kompensation erfolgt in normalen Netzen mithilfe der Energie, die in den Schwungmassen der rotierenden Großkraftwerke gespeichert ist. Die Windenergieanlagen mit ihrer vergleichsweise geringen Schwungmasse haben keine nennenswerte Energiespeichermöglichkeit und können dies nicht ausreichend leisten, und das Hochfahren der Turbine des Pumpspeicherkraftwerks dauert zu lange. Im besten Falle, so das Fazit des LaPalma-Blogs, ist daher wahrscheinlich eine Nutzung der „regenerativen“ Energie nur zu 80 % technisch möglich. Berichtet wird über Probleme mit ständigen Über- oder Unterspannungen mit der Gefahr eines Blackout. Andere geeignete Speichertechnologien, die in Sekundenschnelle die erforderliche Energie bereitstellen könnten, stünden heute noch nicht zur Verfügung.

…und horrende Strompreise

Auch bei der Berechnung der Wirtschaftlichkeit befleißigt sich die Betreibergesellschaft erneut der bereits erwähnten Kreativität. So wird für die Vorher/-Nachher-Kalkulation der Betriebskosten offensichtlich einfach für 2011 und 2015 mit dem gleichen (hohen) Preisniveau für den Treibstoff kalkuliert, obwohl der Ölpreis bekanntlich seitdem um rund 50 % gesunken ist. Das hilft natürlich dabei, die Berechnung der Amortisation der Anlage zu „verschönern“.

Wichtig ist bei der Betrachtung natürlich auch der Vergleich mit dem auf dem spanischen Festland üblichen Strompreis, der bei einheitlich 24 ct./ kWh liegt. Davon können die Inselbewohner jedoch nur träumen: Den Recherchen des bereits zitierten Blogs zufolge kostet der auf El Hierro erzeugte Strom 81 ct./ kW/h, also mehr als 3mal soviel. Vorsichtshalber wird darauf hingewiesen, dass es sich hier um eine Momentaufnahme handele, die sich „in den nächsten Jahren durch eine Steigerung der Effizienz“ noch positiv verändern könne.

Die Zeche zahlt die Allgemeinheit

Da jedoch El Hierro so ein schönes Energiewende-Märchen geliefert hat, darf es auch kein bitteres Ende geben. Wer soviel Wohlwollen und Illusionen erweckt hat, den darf man nicht im Regen stehen lassen, schliesslich gibt es noch zahllose andere Inseln, denen man die gleiche Story verkaufen kann. Man muss nur negative Schlagzeilen vermeiden und somit einen Dummen finden, dem man die Kosten auf’s Auge drücken kann. Als solcher wurde der spanische Steuerzahler ausgemacht. Laut [LAPA] übernimmt das spanische Mutterland im Rahmen eines mit der Madrider Regierung ausgehandelten Vertrags das Risiko. Für 8,64 Mio. Kilowattstunden Windenergie wurden bisher 7 Millionen Euro vergütet. Ob und wie lange dieses Spielchen angesichts der derzeit unsicheren politischen Machtverhältnissen in Madrid so weiter laufen könne, lasse sich im Moment nicht abschätzen.

Ein vernichtendes Urteil

Natürlich wird dieses Projekt auch in der deutschsprachigen Bevölkerung vor Ort kontrovers diskutiert. Manche Kommentatoren nehmen dabei absolut kein Blatt vor den Mund: So gab eine unerschrockene deutsche Einwohnerin von El Hierro am 9.1.2016 einen Link zu den aktuellen Betriebsdaten des Systems [LINK] bekannt und schrieb dazu: „Da könnt ihr Stunde per Stunde, Tag per Tag, Woche per Woche, Monat per Monat genau sehen, was auf El Hierro in Sachen Lügen & Millionenbetrug tatsächlich läuft. Es ist eine Schande, wie sich clevere Leute ihre Taschen gefüllt haben – und sich unter dem Deckmäntelchen „heile Umwelt“ ein weißes Füsschen gemacht haben. Das ganze Projekt war vom ersten Moment an ein Politikum für Geldbeschaffung + Image – ohne wissenschaftlich/technisches Knowhow. Und jetzt hat El Hierro den Salat. Ein mit Wasser gefüllter Krater (mitten im Biosphäre-Naturreservat), lächerliche Windräder (mitten in der Biosphäre-Landschaft) – und die immensen Kosten des Alltagsbetriebs. Für NULL! Man kann nur hoffen, dass die Natur ein Einsehen hat – dass die Windräder verrosten und der Wasserkrater undicht wird“ [LAPA]. und fügte kurz danach hinzu: „Kleiner Nachtrag: Im Moment (9.1.2016 um 21.56 h) bezieht El Hierro seine Energie aus 100 % DIESEL“.

Dem ist nichts hinzuzufügen. Irgendwann wird man auch in Deutschland erkennen, dass dies ebenso für den ganzen „EE“-Unsinn gilt, der hierzulande veranstaltet wird – damit Millionäre und Milliardäre auf Kosten der Allgemeinheit reich und immer reicher werden [SPON].

Fred F. Mueller

Quellen

[ARTE] http://www.arte.tv/guide/de/051367-001-A/inseln-der-zukunft

[PLAS] https://www.planet-schule.de/wissenspool/schwerpunkt-klimawandel/inhalt/sendungen-thema-energie/el-hierro-inseln-der-zukunft.html

[DEWE] http://www.dw.com/de/el-hierro-insel-mit-100-%C3%B6kostrom/a-5384262

[LAPA] http://www.lapalma1.net/2016/01/09/el-hierro-regenerative-energie-bilanz/

[NZZ] http://www.nzz.ch/panorama/alltagsgeschichten/el-hierro-ist-unabhaengig-1.18358642

[LINK] https://demanda.ree.es/visionaCan/VisionaHierro.html#*

[SPON] http://www.spiegel.de/fotostrecke/oekostrom-die-groessten-absahner-des-foerderbooms-fotostrecke-135193.html




Keine Vertuschung in Fessenheim – Vorwürfe erweisen sich als haltlos

Folgt man den Medienberichten in der Süddeutschen Zeitung (SZ)  und beim Westdeutschen Rundfunk (WDR), so gewinnt der Leser den Eindruck, die Wahrheit sei erst jetzt durch Recherchen von WDR und SZ ans Licht gekommen. Die Journalisten Marlene Weiß (SZ) und Jürgen Döschner (WDR) berufen sich auf einen Brief, den die ASN zwei Wochen nach dem Vorfall an den Leiter des Kernkraftwerks Fessenheim schrieb und der bislang unbekannte Details enthielte. Hier sei ein »Atom-Unfall offenbar vertuscht«worden, behauptet Döschner und betitelt seinen Artikel entsprechend.

Nichts wurde vertuscht

Indes: Es wurde nichts vertuscht. Die Vorwürfe entbehren jeder Grundlage. Denn mag das Wort »Brief« Assoziationen an ein Schreiben auf Papier und ein den Journalisten heimlich zugespieltes geheimes Dokument hervorrufen, so ist die Wirklichkeit weit banaler. Der Brief der ASN vom 24. April 2014 ist nämlich für jedermann von der Website der ASN abrufbar. Und dort steht er nicht erst seit Bekanntwerden des angeblichen Vertuschungsversuchs. Nein, er wurde unmittelbar nach Verfassen im April 2014 auf der ASN-Website veröffentlicht. Das bestätigte die baden-württembergische Landesregierung gegenüber dem Südwestdeutschen Rundfunk (SWR), wie dieser in seiner Soundcloud mitteilte.

Wörter sind wichtig

Also nichts dran an den Vorwürfen. Dennoch: Der Schaden ist angerichtet, die Kompetenz der Kernkraftwerksbetreiber und die Glaubwürdigkeit der Atomaufsichtbehörden – also der »Atommafia« – ein weiteres Mal untergraben.

Gerade Jürgen Döschner verfolgt offenkundig einen stramm kernkraftfeindlichen Kurs. Das läßt sich leicht an seinen Beiträgen auf Twitter-Timeline ablesen, und das zeigt auch sein Beitrag zu Fessenheim, besonders im Vergleich zu dem seiner SZ-Kollegin Marlene Weiß.

Der Vorwurf der Vertuschung stammt von Döschner, nicht von Weiß. Und er verankert dieses Wort dann auch direkt im Titel seines Beitrags, damit es auch ja jeder mitbekommt, auch der, der den übrigen Text gar nicht liest. Weiß hingegen äußert sich erheblich behutsamer. Der Ablauf mache nachdenklich, wenn man die Details betrachte, schreibt sie – eine Formulierung, die man auch als Kernkraftbefürworter unterschreiben kann.

»Atomunfall« schreibt Döschner, wiederum gleich in der Überschrift. »Atom«, da fürchtet der Leser freigesetzte Radioaktivität und Strahlung; »Unfall«, das suggeriert ihm, daß mindestens ein Gesundheits- oder Umweltschaden entstanden ist. Auch im Text verwendet Döschner das Wort »Unfall« zweimal. – Weiß hingegen spricht in »Panne im Atomkraftwerk Fessenheim war gravierender als gedacht« korrekt von einer »Panne«, denn genau das war passiert: Bei Wartungsarbeiten war Wasser in Schaltschränke im nichtnuklearen Teil des Kraftwerks eingedrungen und hatte die Elektronik außer Betrieb gesetzt. Menschen waren nicht zu Schaden gekommen, und Radioaktivität war auch nicht ausgetreten.

Was geschah in Fessenheim?

Die Einzelheiten gehen aus dem Brief der ASN vom 24. April 2014 hervor und erlauben es, den Zwischenfall nachvollziehen.

Die erwähnten Schaltschränke gehören zum Kanal A des Reaktorschutzsystems im Kernkraftwerksblock Fessenheim 1. Das Reaktorschutzsystem soll, wie der Name schon sagt, den Reaktor vor Schäden schützen. Zu diesem Zweck kann das Schutzsystem bei bestimmten Ereignissen automatisch eine sogenannte Reaktorschnellabschaltung (RESA) auslösen. Nun muß man aber wissen, daß in Kernkraftwerken sämtliche Sicherheitssysteme redundant ausgelegt sind. Das heißt: Von allen für die Sicherheit relevanten Komponenten gibt es immer zwei oder noch mehr. Jede Komponente kann allein die notwendige Funktion sicherstellen. Das gilt auch für das Reaktorschutzsystem in Fessenheim. Neben dem ausgefallenen Kanal A gibt es dort den Kanal B. Der ist in einem anderen Gebäudeteil untergebracht und kann ganz allein bei Bedarf für eine Reaktorschnellabschaltung sorgen. (Nebenbei: Atomkraftgegner sprechen hier nie von einer Schnell-, sondern immer von einer Notabschaltung. Der Grund dafür ist offensichtlich.)

INES Skala siehe Bild oben rechts

Weit weg vom Rand des Super-GAUs: Französische Aufsichtsbehörde ASN bewertet Zwischenfall im Kernkraftwerk Fessenheim mit INES 1. Grafik INES-Skala: IAEA

Nach Ausfall von Kanal A war zwar die Möglichkeit der Schnellabschaltung noch gegeben, allerdings fehlte die Redundanz, denn alles hing nun von der Funktionstüchtigkeit von Kanal B ab. Für die ASN war dies der Grund dafür, den Vorfall mit INES 1 zu bewerten. INES (International Nuclear and Radiological Event Scale)ist eine internationale, siebenstufige Skala zur Bewertung von Störfällen in Kernkraftwerken, wobei 1 die niedrigste Stufe ist und 7 die höchste (Tschernobyl, Fukushima). Daneben gibt es noch INES 0 für Abweichungen vom Normbetrieb, die ohne Bedeutung für die Sicherheit sind. Die Stufen 1 bis 3 sind „incidents“, also Störungen (INES 1) oder Störfälle (INES 2 und 3). Erst ab Stufe 4 hätte Döschner mit Recht von »Unfall« („accident“) sprechen können.

Den Kernreaktor herunterfahren – aber wie?

Gemäß Betriebshandbuch entschloß sich die Betriebsmannschaft von Fessenheim 1 dazu, den Reaktor abzufahren. Dazu hatte sie zwei Möglichkeiten:

♦  Handauslösung einer Reaktorschnellabschaltung: Die elektromagnetischen Aufhängungen aller Steuerstäbe (48 Stück, inklusive fünf Trimmstäbe zur Leistungsverteilung) klinken aus, wenn der Strom für die Elektromagneten abgeschaltet wird. Alle Steuerstäbe fallen durch ihr Eigengewicht in den Kern und bringen die Kernspaltung in Sekundenschnelle zum Erliegen.

   Normales Herunterfahren: Von den drei Steuerstabgruppen werden einzelne Bänke nacheinander eingefahren, und zwar zunächst die »graue Bank« (zwölf Steuerstäbe), die die Reaktorleistung bis auf 50 Prozent drosselt, danach die »lange schwarze Bank« (16 Steuerstäbe), die die Reaktorleistung bis auf die Nachwärmeleistung reduziert. Parallel werden die Kompensationsstäbe (acht Steuerstäbe), sowie die verbleibenden Abschaltstäbe (17 Steuerstäbe) eingefahren. Sie sollen den unterkritischen Zustand des Reaktors gewährleisten. Die maximale Leistungsänderung der beiden Fessenheimer Blöcke ist auf fünf Prozent pro Minute beschränkt, so daß der normale Abfahrvorgang eine gewisse Zeit in Anspruch nimmt.

Das Team entschied sich für die zweite Variante, weil sie erheblich schonender für das Material ist und vermutlich auch, weil keine Eile geboten war, die eine Schnellabschaltung geboten hätte. Allerdings trat nun ein Problem auf: die Steuerstäbe waren nicht manövrierfähig. Was das genau bedeutete und was die Gründe dafür waren, geht aus dem vorliegenden Material nicht hervor.

Leistungsregelung und Reaktorschutz sind unabhängig

Und hier zeigt sich ein wesentliches Verständnisproblem von Döschner und Weiß. »Selbst die Notabschaltung funktionierte nicht reibungslos«, schreibt Weiß. Offenbar nehmen die Journalisten an, wenn sich die Steuerstäbe nicht bewegen ließen, dann könne ein Reaktor nicht mehr abgeschaltet werden und drohe, außer Kontrolle zu geraten. Das ist aber nicht der Fall, denn bei einem Kernreaktor sind Leistungsregelung und Schnellabschaltung zwei völlig voneinander unabhängige Systeme. Das heißt, selbst dann, wenn die Leistungsregelung, sprich: die exakte Positionierung der Steuerstäbe, versagt, kann man den Reaktor in einem Notfall, der diesen Namen verdient, immer noch per Schnellabschaltung stoppen. Das passiert entweder automatisch (Kanal B) oder man schaltet die Elektromagneten, die die Steuerstäbe halten, manuell stromlos – siehe oben.

Leistungsregelung durch Borierung

Der Betriebsmannschaft stand aber noch ein weiteres Mittel zur Leistungsdrosselung zur Verfügung: das Einspeisen von Borsäure in den Reaktor. Bor ist ein starkes »Neutronengift«, das heißt, es fängt die für die Kettenreaktion nötigen und im Reaktorkern umherfliegenden Neutronen weg, so daß sich die Kettenreaktion nicht mehr aufrechterhalten kann. Der Spektrum.de-Artikel »Rettete Bor das Kernkraftwerk?«erwähnt, man habe Bor nicht als Borsäure eingespeist, sondern man habe eine Notborierung mittels Borcarbid (B4C) in Form eines Granulats durchgeführt. Woher Autor Daniel Lingenhöhl diese Behauptung nimmt, ist unklar.

Der ASN-Brief spricht auch nicht von einer »Notborierung«, sondern schlicht und ergreifend von »Borierung«, und das ist kein wirklich außergewöhnliches Mittel zur Leistungsreduzierung. Im Gegenteil, Bor wird in Druckwasserreaktoren wie dem in Fessenheim auch im Normalbetrieb zur Leistungsregelung eingesetzt, weil dies eine ausgeglichenere Leistungsverteilung über die gesamte Höhe des Kerns ermöglicht sowie eine möglichst hohe Steuerstabstellung für eine maximale Abschaltreserve erlaubt. Fahren im Zuge der automatischen Leistungsregelung die Stäbe tiefer ein, wird Bor zudosiert, um sie wieder auf eine höhere Position zu bewegen. Die benötigte negative Reaktivität wird dann durch das Bor gewährleistet.

Florian Kraft, der Schreiber des ASN-Briefes, hat an der Borierung auch nichts weiter auszusetzen. Er beklagt lediglich, die Maßnahme sei wohl ein wenig zu erfolgreich gewesen, denn die Kühlmitteltemperatur sei unter den zulässigen Grenzwert abgesunken, weil der Reaktor nach wie vor am Netz gewesen sei, was dem System Energie entzogen haben. Kraft fordert den Kraftwerksleiter dazu auf, detailliert darzulegen, wie das Kraftwerk bei einer Reaktorabschaltung die Netzabkopplung handhabe.

Schnellabschaltung war jederzeit möglich

Die Regionalchefin der ASN Straßburg, Sophie Letournel, bestätigte laut Heise online das Vorgehen der Fessenheimer Reaktormannschaft am 5. März 2016 gegenüber der Regionalzeitung »Dernières Nouvelles d’Alsace«. Das Verfahren sei zwar atypisch, aber keine Notfall-Prozedur. »Der Betreiber ist zu jedem Zeitpunkt im Rahmen der normalen Verfahren geblieben, um die Situation zu managen, die im Übrigen kontrollierbar geblieben ist«, so Letournel. Sie betonte zudem, eine Schnellabschaltung sei immer noch möglich gewesen.

Überhaupt steht für die ASN nicht die Frage nach dem Abfahren des Reaktors im Mittelpunkt, sondern wie es überhaupt zur Verstopfung von Wasserabläufen und zum Überlauf von Wasser kommen konnte beziehungsweise durch welche Maßnahmen man das künftig verhindern kann.

Lügt die Tagesschau?

Insgesamt also viel Lärm um fast nichts. Dennoch bleibt in der Öffentlichkeit der Eindruck, Kernenergie sei eine unsichere Sache und Fessenheim könne »uns um die Ohren fliegen«. Letzteres ist im SZ-Artikel zu lesen. Natürlich stellt nicht Weiß diese Behauptung auf, sondern läßt dafür den Antiatomaktivisten André Hatz zu Wort kommen.

Und der WDR beziehungsweise die Tagesschau"Lügen sie" Schauen wir mal: »Atom-Unfall offenbar vertuscht«, titelte Döschner seinen Beitrag.

Wie wir nun wissen, wurde nichts vertuscht. Döschner hat also entweder bewußt gelogen, also wider besseres Wissen die Unwahrheit gesagt, oder er hat schlampig recherchiert und sich schlichtweg geirrt. Beides wirft kein gutes Licht auf seine journalistische Fähigkeiten. Nun, immerhin hat er sich mit dem Wort »offenbar« eine Hintertür offengehalten, oder sagen wir lieber: eine Katzenklappe.

Erst kürzlich hatte sich Döschner ähnlich »kompetent« in Sachen Reaktortechnik hervorgetan, als er sich über die Vorwärmung des Notkühlwassers für Tihange 2 und Doel 3 mokierte und die Reaktoren als zu marode für kühles Kühlwasser bezeichnete. Daß diese Vorwärmung ein übliches Verfahren sein könnte, war ihm nicht in den Sinn gekommen. Und natürlich hat er auch nicht bei Experten nachgefragt. Mehr dazu im Nuklearia-Beitrag »Belgische Rissreaktoren: Wie sicher sind Tihange 2 und Doel 3 ?« von Anna Veronika Wendland. 

Nein, Herrn Döschner ist für seine antinukleare Agenda selbst die Unwahrheit noch gut genug. Da sind ihm auch unlautere Mittel recht. Natürlich kann man ihm so wie hier solche Fehler nachweisen. Nur: Solche Nachweise erreichen nur vergleichsweise wenige Menschen, während bei der überwältigenden Mehrzahl von Döschners Lesern und Zuschauern nur »Atomunfall« und »Vertuschung« hängenbleiben. Sie fürchten sich vor Tihange, Doel und Fessenheim, fürchten sich vor Super-GAU und Atomtod. Nach vier Jahrzehnten Konfrontation vermögen Atomkraftgegner in insgesamt harmlos verlaufenden Vorfällen nur noch den »Atomunfall« zu sehen.

Eine sachlich-kritische Analyse sollte hingegen eher der französischen Atomaufsicht folgen, die nichts vertuschte, sondern im Schreiben an das KKW Fessenheim auf die tatsächlich sicherheitsrelevanten Dinge verwies, hier: die Sicherstellung von Wartungsprozeduren auch im nichtnuklearen Bereich. Ein ordnungsgemäßer Ablauf hätte den Wassereinbruch von vornherein verhindert.

Grund genug, weiterhin Überzeugungsarbeit zu leisten, vor allem bei denjenigen, die noch offen sind für Fakten.

Programmbeschwerde einlegen?

Was eine Programmbeschwerde ist, kann man in der Wikipedia nachlesen:

https://de.wikipedia.org/wiki/Programmbeschwerde. Dort heißt es unter anderem: »Die Beschwerde kann erfolgreich eingelegt werden, wenn Programmgrundsätze verletzt werden.«

Zu solchen Programmgrundsätzen zählen unter anderem die journalistischen Sorgfaltsgebote. Die hat Döschner eklatant verletzt. Im Pressekodex https://de.wikipedia.org/wiki/Pressekodex heißt es: »Recherche ist unverzichtbares Instrument journalistischer Sorgfalt. Zur Veröffentlichung bestimmte Informationen in Wort, Bild und Grafik sind der nach den Umständen gebotenen Sorgfalt auf ihren Wahrheitsgehalt zu prüfen und wahrheitsgetreu wiederzugeben. Ihr Sinn darf durch Bearbeitung, Überschrift oder Bildbeschriftung weder entstellt noch verfälscht werden. Unbestätigte Meldungen, Gerüchte und Vermutungen sind als solche erkennbar zu machen.«

Hier geht es direkt zu einer Seite des WDR, wo man eine förmliche Programmbeschwerde einreichen kann bzw. Kontaktdaten findet:

http://www1.wdr.de/unternehmen/der-wdr/rundfunkrat-eingaben100.html

Der Beitrag erschien zuerst in Nuklearia hier




Die ,Karlisierung‘ der globalen Temperatur geht weiter: Diesmal macht RSS eine massive Adjustierung nach oben

Jetzt gibt es einen neuen Mitspieler im Prozess der „Karlisierung“ – Carl Mears, leitender Wissenschaftler für RSS (Remote Sensing Systems) in Santa Rosa, Kalifornien. Hierbei handelt es sich um ein Privatgeschäft, das rein zufällig einen auf Satellitenmessungen basierenden Klimadatensatz erstellt (hier), der ähnlich dem UAH-Satelliten-Datensatz ist, der von Roy Spencer und John Christy erzeugt wird. Seit Jahren zeigen die RSS-Daten kaum eine Erwärmung, und auf der RSS-Website entblödeten sie sich nicht zu sagen:

Um dieses letzte Problem zu illustrieren, zeigen wir hier mehrere Plots. Jedes dieser Plots umfasst eine Zeitreihe von TLT-Temperaturanomalien* mittels eines Referenz-Zeitraumes von 1979 bis 2008. In jedem Plot ist das blaue Band die 5% bis 95% Einhüllende für das Unsicherheits-Ensemble von RSS V3.3 MSU/AMSU. Das gelbe Band zeigt die Einhüllende von 5% bis 95% für die Ergebnisse von 33 Modellsimulationen der CMIP5-Klimamodelle (19 unterschiedliche Modelle, viele mit multiplen Realisierungen). Sie sollen das Erdklima im Verlauf des 20. Jahrhunderts simulieren. Für den Zeitraum vor dem Jahr 2005 gingen in die Modelle historische Werte von Treibhausgasen ein sowie vulkanische Aerosole und der solare Output. Nach dem Jahr 2005 wurden geschätzte Projektionen dieser Antriebe verwendet. Falls die Modelle als Ganzes die Vergangenheit auf akzeptable Weise simuliert haben, sollten die Beobachtungen zumeist innerhalb des gelben Bandes liegen. Den ersten beiden Plots zufolge, die die globalen und die tropischen Mittelwerte zeigen, ist dies nicht der Fall. Nur für die hohen nördlichen Breiten liegen die Beobachtungen zumeist innerhalb der Bandbreite der Modellprojektionen.

[*TLT = Temperature Lower Troposphere]

Abbildung 1: Globale (80S bis 80N) mittlere TLT-Anomalie, dargestellt als eine Funktion der Zeit. Das blaue Band markiert die Einhüllende für Unsicherheits-Ensemble von RSS V3.3 MSU/AMSU. Das gelbe Band zeigt die Einhüllende von 5% bis 95% für die Ergebnisse von 33 Modellsimulationen der CMIP5-Klimamodelle. Der mittlere Wert jedes Zeitreihen-Mittels von 1979 bis 1984 ist auf Null gesetzt, so dass die Änderungen mit der Zeit besser erkennbar sind. Man beachte, dass die Beobachtungen nach dem Jahr 1988 unter den simulierten Werten liegen, was belegt, dass das System als Ganzes zu viel Erwärmung zeigt.

Quelle: Source: http://www.remss.com/research/climate Archived here – http://www.webcitation.org/6fiQcrQDQ

All das wird sich jetzt ändern. Mancher Leser wird sich an ein Video erinnern, das von der abscheulichen „Klima-Krücke der Woche“, dem Aktivisten Peter Sinclair produziert worden ist. Die zugrunde liegende Prämisse darin lautet: „die Satelliten lügen!“. Mir scheint es aufgrund seiner jüngsten Kommentare so, als ob Dr. Mears die Nase voll hätte von Leuten, die den RSS-Datensatz heranziehen, um zu zeigen, dass die Welt sich nicht so erwärmt wie sie es seiner Erwartung nach hätte tun sollen. In dem Video erklärt Mears:

Sie wollten einfach wissen, verstehen Sie, sie wollten ihr Statement feinabstimmen, verstehen Sie, ob – verstehen Sie – die Temperaturmessungen genauer sind oder die Satelliten-Temperaturen genauer sind; und ursprünglich wollten sie in etwa sagen „aber man sollte den Satelliten-Temperaturen wirklich nicht trauen, sondern diese Bodenbeobachtungen zur Grundlage machen“; und ich sagte „nun, was würden Sie empfehlen; Sie wollen wirklich all diese unterschiedlichen Datensätze betrachten, also wollen Sie nicht allein den Satelliten-Temperaturen vertrauen, Sie wollen die Bodenbeobachtungen betrachten – und all solches Zeug.

Auf seiner Website findet sich dieses Statement von Mears:

Jüngst fand sich in der Mainstream-Presse eine Anzahl von Artikeln des Inhalts, dass es nur eine geringe oder gar keine Änderung der global gemittelten Temperatur während der letzten beiden Jahrzehnte gegeben habe. Aus diesem Grunde stellt man uns eine Menge Fragen mit dem Tenor „ich habe diesen Plot auf der Website von Leugnern gesehen. Sind das wirklich Ihre Daten?“ Während einige dieser Berichte cherry-picked hinsichtlich ihrer Endzeitpunkte sind, um den angeblichen Beweis deutlicher zu machen, gibt es kaum einen Zweifel daran, dass die Erwärmungsrate seit Ende der neunziger Jahre geringer ist als von den meisten Simulationen des historischen Klimas im IPCC AR5 prophezeit. Dies geht aus den RSS-Daten hervor, ebenso wie aus den meisten anderen Temperatur-Datensätzen. Beispiel: Die Abbildung unten ist ein Plot der Temperatur-Anomalie (Abweichung vom Normalen) der unteren Troposphäre während der letzten 35 Jahre aus dem RSS-Datensatz „Temperature Lower Troposphere (TLT)“. Für diesen Plot haben wir über fast den gesamten Globus gemittelt, von 80S bis 80N, und haben den gesamten TLT-Datensatz verwendet mit Beginn im Jahre 1979. (Die Leugner mögen es wirklich, ihre Trends im Jahre 1997 beginnen zu lassen, so dass das gewaltige ENSO-Ereignis am Beginn ihrer Zeitreihe liegt, was zu einem linearen Fit mit der geringstmöglichen Neigung führt).

Quelle: http://www.remss.com/blog/recent-slowing-rise-global-temperatures Archived here: http://www.webcitation.org/6fiS2rI7k

Mears verwendet den Terminus „Leugner“, und damit ist seine Objektivität dahin, wenn er glaubt, Leuten so etwas unterstellen zu müssen.

Eindeutig: er ist eingeschnappt. Was also tun? Er zieht einen Hinweis von dem anderen Karl heran, er veröffentlicht eine Studie und behauptet, dass neue und verbesserte Adjustierungen jene fehlende Erwärmung „gefunden“ hätten.

Mears, C., and F. Wentz, 2016: Sensitivity of satellite-derived tropospheric
temperature trends to the diurnal cycle adjustment. J. Climate. doi:10.1175/JCLID-
15-0744.1, in press.

http://journals.ametsoc.org/doi/abs/10.1175/JCLI-D-15-0744.1?af=R

Hier das Ergebnis: Es gibt hier Differenzen zwischen der alten und der neuen Version von RSS:

Abbildung 8: Vergleich zwischen RSS V3.3 global (80°S to 80°N)-Anomalie-Zeitreihen und das Resultat des V4.0-Verschmelzungs-Algorithmus‘ mit unterschiedlich starken Adjustierungen.

Die neue Version V4.0 zeigt einen fast doppelt so hohen Erwärmungstrend wie UAH V5.6; siehe folgende Abbildung:

Abbildung 9: Vergleiche zwischen fast globalen (80S bis 80N) und tropischen (30S bis 30N)-Anomalie-Zeitreihen, erzeugt von unterschiedlichen Gruppen. Um die Differenzen in den Trends besser ersichtlich zu machen, wurden die Anomalie-Zeitreihen adjustiert so dass ihre Mittelwerte über 1979 gleich Null sind.

Falls man jetzt glaubt, dass das etwas bedeutet für die Tropen 30S bis 30N: Die neue Erwärmungsrate von RSS V4.0 ist fast fünf mal größer als bei UAH!

Dr. Gavin Smith von NASA GISS scheint begeistert, dass die neue Adjustierung kommt:

Dr. Roy Spencer und Dr. John Christy haben sich diese jüngste „Karlisierung“ bereits angeschaut und dabei etwas herausgefunden, was ein furchtbarer Schwindel zu sein scheint. In einer E-Mail an mich schreibt Spencer:

In der Studie geht es um MT, nicht LT … aber ich glaube, wir können davon ausgehen, dass Änderungen in einer Reihe in der anderen Reihe reflektiert werden, wenn Mears seine Analyse vervollständigt.

Von dem bisschen, das wir bislang betrachtet haben, scheint es so, als ob sie die unberechtigte Erwärmung in NOAA-14 MSU relativ zu NOAA-15 AMSU nicht korrigiert hätten … sehen Sie deren Abbildung 7c. Sie haben sie einfach stehen gelassen.

Da diese unberechtigte Erwärmung nahe der Mitte des gesamten Zeitraumes liegt, macht dies die zweite Hälfte der Satelliten-Aufzeichnung wärmer, wenn NOAA-14 MSU (die letzte in der MSU -Reihe) auf NOAA-15 AMSU übergeht (die erste AMSU-Zeitreihe).

Warum halten wir NOAA-14 MSU für falsch?

1) AMSU soll ein „Cadillac“-Kalibrierungs-Design haben (diesen Terminus benutzte ein NASA-Ingenieur namens Jim Shiue, als er mir das AMSU-Design beschrieb, in das er involviert war)

2) NOAA-14 MSU erfordert eine starke Korrektur der kalibrierten TB, die in den Instrumentenaufzeichnungen zunimmt, wenn sich der Satellit in einen anderen Orbit verschiebt. NOAA-15 AMSU erfordert keine derartige Korrektur … und es war sowieso nicht die Verschiebung während des fraglichen Zeitraumes.

Es sieht also alles danach aus, als ob sie sich entschlossen haben, gute Daten dazu zu bringen, zu schlechten Daten zu passen. Kommt einem das bekannt vor?

Oh ja, genau das tut es!

Zusatz: Hier folgt Abbildung 7 aus der von Dr. Spencer angesprochenen Studie:

Abbildung 7: MSU minus AMSU-Zeitreihen fast global (60S bis 60N) für Festland, Ozean sowie 802 kombinierte Festlands-Ozean-Regionen. Jedes Paneel zeigt die Ergebnisse nach unterschiedlichen Niveaus von 803 Adjustierungen angebracht an die Daten.

Aktualisierung: Angesichts des Umstandes, dass diese Art Arbeit nur von zwei Gruppen praktiziert wird, ist es doch ein sehr enger Bereich spezieller Wissenschaft, stellte ich Dr. Spencer diese Frage:

Ich vermute, weder Sie noch Christy wurden aufgefordert, diese Studie zu begutachten? So viele Experten für Satellitendaten gibt es ja nicht auf der Welt.

Er erwiderte:

Interessante Frage…

John [Christy] begutachtete detailliert ihre Originalstudie, bei JGR eingereicht, und fragte nach zusätzlichen Beweisen – sprach sich aber nicht für eine Zurückweisung der Studie aus. Am Ende hat der Herausgeber von JGR diese aber doch abgelehnt.

Mears & Wentz überarbeiteten die Studie daraufhin, reichten sie dann bei J. Climate ein und forderten wahrscheinlich, uns als Begutachter auszuschließen.

Link: http://wattsupwiththat.com/2016/03/02/the-karlization-of-global-temperature-continues-this-time-rss-makes-a-massive-upwards-adjustment/

Übersetzt von Chris Frey EIKE

Frage des Übersetzers: Ist es jetzt ein Alarmzeichen, dass man nun auch den Satelliten-Daten an den kragen will?




Fukushima — wo sind die Risiken der Kernkraft?

Es gibt einige wenige Berichte in deutschen Medien, die sollen hier zusammengestellt werden, (z.T. früher schon bei EIKE zu finden, (hier) (hier)) :

Videoausschnitt der mdr ARTOUR (Autorin Doris Dörrie) Sendung über die Folgen der Kernkraftwerkshavarie  in Fukushima: „20.000 Tote und 160.000 Evakuierte“ Mit Dank an R. Hoffmann für das Video und Dr. D. Ufer für das Fundstück. Mailadresse  mdr –Publikumsservice@mdr.de

1.     In der Fachzeitschrift „StrahlenschutzPRAXIS“ wird von Shigenobu Nagataki berichtet [1]:

“As described in the UNSCEAR report [6], the most important health effects observed thus far amongst the general public and amongst workers are those related to mental health and social well-being. For example, more than 50 hospitalized patients were reported to have died either during or soon after evacuation. Many people have been suffering from distress caused by the earthquake, tsunami and nuclear accident, and may also have been exposed to various hazards that have given rise to physical symptoms of disease. Mental health problems and impaired social well-being were the results of understandable reactions to the enormous impacts of the earthquake, tsunami and nuclear accident, as well as fear and stigma associated with radiation exposure.”

2.     Die Gesellschaft für Anlagen- und Reaktorsicherheit (GRS) schreibt auf Seite 68 [hier]:

„Gegenstand von Untersuchungen sind auch mögliche psychosoziale Langzeitfolgen. Vor dem Hintergrund der Erfahrungen mit dem Unfall in Tschernobyl sowie mit nicht-nuklearen Unfällen ist mit solchen Folgen zu rechnen. So kann es beispielsweise bereits während Evakuierungsmaßnahmen zu Verletzungen oder Erkrankungen bis hin zu Todesfällen kommen. Als langfristige Folgen von unfallbedingten Umsiedlungen nach dem Unfall in Tschernobyl sind unter anderem Häufungen von Depressionen, Suchterkrankungen mit organischen Folgeerkrankungen und Suiziden bekannt. Die WHO kommt in ihrer Studie [42] zu dem Schluss, dass die psychologischen Auswirkungen einer der zentralen Herausforderungen des Unfalls sind; die Folgen hieraus könnten andere gesundheitliche Konsequenzen des kerntechnischen Unfalls übertreffen. Tatsächlich wurden Depressionen und posttraumatische Stresssymtome in der Bevölkerung bereits beobachtet [113]. In der Studie von UNSCEAR wird davon ausgegangen, dass in der Folge der Evakuierungsmaßnahmen mehr als 50 stationär behandelte Patienten aufgrund von Hypertermie, Dehydrierung oder Verschlechterung der zugrunde liegenden medizinischen Probleme und wahrscheinlich weitere über 100 ältere Menschen in den Folgemonaten durch eine Vielzahl mit der Evakuierung verbundenen Ursachen starben.“

3.     Auf einer privaten Internetseite wird Dr. Koichi Tanigawa zitiert [hier], dort gibt es etliche weitere Quellenangaben [hier] [hier] [hier] [hier]:

„Tanigawa kritisierte scharf die überstürzten und unkoordinierten Maßnahmen zur Evakuierung der 20-km-Zone am 13. und 14. März 2011. Besonders die Patienten in den Krankenhäusern hatten darunter zu leiden. Viele wurden mit Militärhubschraubern aus der Evakuierungszone ausgeflogen, ohne medizinische Betreuung während und nach der Evakuierung.  Die übrigen Patienten steckte man zusammen mit gesunden Einwohnern in Polizeibusse und transportierte sie ab. Da nicht klar war, wohin es eigentlich gehen sollte, wurden sie spät in der Nacht erstmal in einem Versammlungsraum des Soso-Gesundheitsamts untergebracht, rund 25 km nördlich von Fukushima-Daiichi, wo die Menschen ohne Heizung und medizinische Versorgung ausharren mußten. Viele mußten über 24 Stunden lang in den Fahrzeugen bleiben – in der Kälte, ohne Essen, ohne Trinken und ohne medizinische Versorgung. Während der Evakuierung oder kurz danach verstarben 60 Patienten an Unterkühlung, Dehydrierung oder an der Verschlimmerung ihrer eigentlichen Erkrankung. Zwei Jahre später zählte Japan neben den direkten Todesopfern durch Erdbeben und Tsunami in Fukushima 1.656 Tote durch Streß und sonstige Ursachen, die mit den Ereignissen des März 2011 zusammenhingen.
Durch die Strahlung selbst kam niemand ums Leben. »Auch 48 Stunden nach der ersten Explosion waren keine wesentlichen Kontaminationen an den evakuierten Patienten zu finden«, erläutert Tanigawa. »Der Aufenthalt in Innenräumen stellt also einen effektiven Schutz vor einer radioaktiven Wolke dar.« Die Strahlung bedeutete also keine unmittelbare, lebensbedrohliche Gefahr, die Sofortmaßnahmen erforderte….“

4.     Auf einer privaten Internetseite wird berichtet [hier]:

„Strahlenphobie tötet: In dem 20km-Radius um das Kraftwerk befanden sich acht Krankenhäuser und 17 Pflegeheime, in denen sich zum Zeitpunkt des Unglücks 1240 Patienten bzw. 940 Pflegefälle befanden.
Unmittelbar nach dem Tsunami wurde eine Evakuierung im 2km-Radius angeordnet. Am nächsten Morgen wurde der Radius auf 10 km ausgeweitet. Am Nachmittag ordnete die Regierung eine Ausweitung auf 20km an. Am Abend des zweiten Tags nach dem Tsunami stellte man fest, daß sich noch 840 Patienten in den Krankenhäusern und Pflegeheimen befanden. Die Regierung ordnete noch am späten Abend eine Notevakuierung an. Am folgenden Morgen begannen völlig panische und chaotische Transporte: Schwerkranke wurden ohne Begleitung durch medizinisches Personal in normale Fahrzeuge verfrachtet. Bettlägerige Patienten wurden teilweise schwer verletzt, weil sie während der Fahrt von den Sitzen rutschten. 27 Patienten mit Nierenversagen und Schlaganfällen wurden auf einen Transport ins 100km entfernte Iwaki verschickt. Zehn verstarben noch auf dem Transport. Insgesamt sollen 50 Patienten während oder kurz nach der Evakuierung verstorben sein. Todesursachen: Unterkühlung, Dehydration und drastische Verschlimmerung der vorhandenen medizinischen Probleme.
Das alles geschah, weil (einige) Menschen völlig absurde Vorstellungen von der Wirkung ionisierender Strahlung haben. Über Jahrzehnte systematisch aufgehetzt von Betroffenheits-Organisationen vom Schlage Greenpeace. Organisationen und Einzelpersonen („Atomexperte“), die es zu ihrem persönlichen Geschäftsmodell gemacht haben, andere Menschen in Furcht und Schrecken zu versetzen. Wir sind es den Opfern schuldig, diesem Treiben wesentlich entschiedener entgegenzutreten…“

Wo ist also die große Gefahr von Fukushima?

·       Zweifellos ist das Erdbeben mit dem Tsunami in der Folge das schlimmste Ereignis, es brachte über 18 000 Menschen den Tod. Dabei sind nur sehr wenige Menschen durch das Erdbeben zu Tode gekommen. Der Tsunami war das Schlimmere, wie an den vielen Zerstörungen durch die Flutwellen zu sehen ist — diese ganz große Gefahr wurde durch die Natur verursacht.

·       Schon an zweiter Stelle folgen die Evakuierungen, die von der Obrigkeit nach dem Austritt von Radioaktivität in der Umgebung der Kernkraftwerke von Fukushima angeordnet wurden. Dabei wurden auch die Krankenhäuser evakuiert, obwohl für viele unschuldige Patienten dieses den behördlich angeordneten Tod bedeutete. Aus Ärztekreisen mit Erfahrung von Intensivstationen erhielt ich die Abschätzung: Trennung von der Intensivüberwachung bedeutet für ca. 80% der Patienten über kurz oder lang den sicheren Tod.
Unter den jahrelang evakuierten gesunden Menschen gab es verschlechterte Lebensbedingungen und in der Folge massenhaft psychische Probleme: Stress, Angst vor Strahlung, Entwurzelung, Flucht in Alkohol mit Folgen für die Gesundheit, Suizide. In der deutschen Fachzeitschrift StrahlenschutzPRAXIS 1/2015 [1] wird immer wieder auf diese Dinge hingewiesen, bereits im Editorial von wird es thematisiert. Die Evakuierungen brachten viele Probleme und viele Tote, sie wurden durch menschliches Versagen verursacht.

·       Es gab keine Opfer durch Strahlung, auch in der Zukunft sind keine Opfer zu erwarten. Das Restrisiko, dass Frau Merkel als Grund zur Abschaltung der deutschen Kernkraftwerke anführte, erwies sich in Fukushima als ein hypothetisches Risiko mit NULL Opfer. Die Freisetzung von Radioaktivität war keine Gefahr.

Es muß betont werden, daß die Fachleute (z.B. UNSCEAR = United Nations Scientific Committee on the Effects of Atomic Radiation, IAEA = International Atomic Energy Agency) schon nach dem Tschernobyl-Unfall die dortigen Evakuierungen und Lebensmittelrestriktionen als weit überzogenen kritisiert hatten, eine Korrektur in der Gesetzgebung ist jedoch nicht erfolgt.

Wo ist dann die Gefahr der Kerntechnik zu finden?

Strahlung infolge von Radioaktivität ist gefährlich und kann Tote zur Folge haben, allerdings nur bei einer hohen Dosis in sehr kurzer Zeit. Nun macht man bei Strahlung die Annahme, daß auch jede noch so kleine Dosis unabhängig von der Zeitdauer des Einwirkens eine schädliche Wirkung habe, dieser Schaden aber nicht nachweisbar sei. Dazu macht man gern Rechnungen, bei denen dieses offensichtlich wird. So wurden 20 Jahre nach dem Tschernobyl-Unfall 4000 hypothetische Todesopfer ausgerechnet, wobei ein Risikokoeffizient benutzt werden mußte, der ebenfalls angenommen werden mußte. Die reale Zahl der Todesopfer ist laut UNSCEAR 28 (oder 31?)– damit kommt der Unterschied zwischen Realität und Hypothese zum Ausdruck.

In Fukushima hat die freigesetzte Radioaktivität an manchen Stellen den überall vorhandenen natürlichen Strahlenpegel um den Faktor 1000 erhöht. Aber das bedeutet keine reale Gefahr für Menschen, sondern nur eine hypothetische nicht nachweisbare Gefahr. Für eine reale Gefahr hätte der Strahlenpegel um den Faktor 100 000 bis einer Million höher sein müssen — aber das ist nicht genau zu beziffern, denn es kommt immer auf die Zeitdauer der Exposition an [hier]. So ist der Kampf gegen die Strahlen“gefahr“ in Japan zu einem Kampf gegen Gespenster geworden — aber Gespenster gibt es nicht. Und die Angst vor Gespenstern hat unschuldige Todesopfer gefordert, ein Skandal ersten Ranges in der modernen Welt.

Es ist an der Zeit, nicht nur der Opfer der unvermeidlichen Naturgewalt (Erdbeben, Tsunami) zu gedenken, sondern es sollte auch der Opfer menschlicher Fehlentscheidungen gedacht werden, nämlich der Opfer der Evakuierungen.

Und die Politik sollte ihre unsinnigen Gesetze zur Vermeidung von eingebildeter Strahlen“gefahr“ korrigieren.

Quellenangaben:

[1] StrahlenschutzPRAXIS 1/2015, Seite 12




Polen plant ein Verbot von Windparks neben Schulen – Windlobby in Panik

In Polen wurden im Jahre 2015 mehr Windturbinen errichtet als in jedem anderen europäischen Land außer Deutschland. Die schiere Anzahl der Turbinen hat in Polen eine heftige politische Gegenreaktion ausgelöst.

„Es gibt eine ganze Reihe von Gründen, warum unser Land nicht mit Windenergie befeuert werden kann“, sagte Dan Kish, Vizepräsident für Politik am Institute for Energy Research der Daily Caller News Foundation. „Wo Familien in der Nähe von Windkraftanlagen wohnen, tendieren diese dazu, sie ziemlich schnell zu hassen. Windturbinen sind kein ästhetischer Anblick und sind aus ökonomischer Perspektive sinnlos. Sie sind nur für Politiker sinnvoll, die Schecks von grünen Energieunternehmen entgegen nehmen. Es ist alles nicht so, wie es gedacht war“.

Natürlich geraten Windlobbyisten in Polen immer mehr in Panik wegen des potentiellen neuen Gesetzes. Durch Polens Pläne „werden Projekte weggesperrt und das Leben für die Entwickler schwer gemacht durch die Einführung willkürlicher Vorschriften, die keinem anderen Zweck dienen als den Ausbau der Windkraft zu verhindern“, sagte Oliver Joy, ein Sprecher der European Wind Energy Association, Bloomberg.

Selbst in vergleichsweise progressiven Orten wie Vermont oder dem United Kingdom werden Windparks immer aggressiver von lokalen Anwohnern bekämpft.

Eine der häufigsten Klagen über Windturbinen seitens von Anwohnern ist das „Flackern“, wenn die Sonne hinter den Rotorblättern steht. Es ist allgemein anerkannt, dass dies unglaublich lästig ist, und es gibt Beweise, dass dadurch und durch den Lärm Kopfschmerzen, Schlaflosigkeit, Ängste und Depressionen bei Anwohnern verursacht werden (hier).

This article originally appeared in The Daily Caller

Link: http://www.cfact.org/2016/03/04/poland-plans-to-ban-wind-farms-near-schools-wind-lobby-panics/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Ist es nicht bezeichnend, dass man nur aus Amerika erfährt, was hier vor unserer Haustür wirklich los ist?




Der Irrsinn mit Irsching

Der Erdgasblock mit einer Leistung von 850 Megawatt (entspricht ungefähr 2.000 modernen Windrädern) wurde von Siemens errichtet und hat die Eigentümer Uniper Kraftwerke, N-ERGIE, Mainova und HEAG Südhessische Energie (HSE) schlappe 400 Millionen Euro gekostet.

Die Anlage ist fünf Jahre alt und kaum gelaufen – ein Schnäppchen für einen Käufer, sollte man meinen. So eine Art Mercedes S-Klasse mit 5000 km auf dem Tacho, und jedes Jahr in der Werkstatt gepflegt. Schon 2012 verkündeten die Eigentümer in einem Brief an die Politik, den Block 5 für stilllegen zu wollen, da ein rentabler Betrieb nicht möglich sei. Eon-Chef Johannes Teyssen forderte vom Staat 100 Millionen Euro pro Jahr, um das Kraftwerk dauerhaft in Betriebsbereitschaft zu halten. 

Der bayerische Wirtschaftsminister Martin Zeil (FDP, Kabinett Seehofer I) erklärte, Irsching 5 werde aus Gründen der Netzstabilität auf jeden Fall in Betrieb bleiben – notfalls auch gegen den Willen der Betreiber – oha! Das ist so, als würde die Politik verlangen, dass der Eigentümer eines Mercedes ihn weiterfährt, auch wenn es nur noch eine Straße gibt, auf der alle anderen Autos per Gesetz immer Vorfahrt haben.

Wieso kann es sein, dass ein derartig supermodernes und umweltfreundliches Gaskraftwerk in Deutschland nicht länger betrieben werden kann? Wie der geneigte Leser schon dunkel ahnt, ist der Grund dafür die vergurkte Energiewende. Im Jahr 2011 produzierte das Irsching 5 Strom in mehr als 4.000 Betriebsstunden – das sind 170 Tage Produktion. 2012 waren es nur rund 1.600 Betriebsstunden – das sind noch 66 Tage. 2014 waren es dann noch 191 Stunden, ganze acht Vollasttage. Den Rest der Zeit stand die Anlage rum. Und es ging weiter abwärts.

Der Grund ist, dass die erneuerbaren Energien Wind, Sonne und Biogas im Netz per Gesetz stets „Vorfahrt“ haben – egal was sie kosten und ob der Strom überhaupt gebraucht wird. Die Ökoenergie muss vom Netz abgenommen und öfters an Österreich und die Schweiz zu „negativen Preisen“ verkauft werden. Das heißt, der Verkäufer bezahlt den Kunden für die Stromabnahme. Finanziert wird das vom Stromkunden und Steuerzahler – pfiffigen Lesern fällt jetzt auf, dass dies in der Regel dieselben kleinen Leute sind. Eine Durchschnittsfamilie zahlt derzeit fast 300 € pro Jahr in diesen ökonomisch unsinnigen EEG-Topf.

Die konventionellen Kraftwerke stehen Generator bei Fuß und müssen warten, bis es dunkel ist und kein Wind weht. Erschwerend für Gaskraftwerke kommt hinzu, dass schmutzige Kohle noch einen Tick billiger ist, als sauberes Erdgas. Um in diesem Subventionsgestrüpp zu überleben, müssen die Kraftwerksbetreiber auf den Cent sehen. Also werden bei Bedarf zuerst die Kohlebuden angefahren. Deshalb reißt Deutschland seit die Energiewende zunehmend „erfolgreich“ ist, alle selbstgestellten Ziele der CO² Reduktion des Kyoto-Protkolls. Klimaschutz im Lande Absurdistan. Frau Merkel hat inzwischen andere Baustellen, sie mutierte von der „Klimakanzlerin“ zur „Flüchtlingskanzlerin“.

Für die Kraftwerksbetreiber wird so eine Anlage extrem teuer, weil ja das Personal in voller Stärke vorgehalten und bezahlt werden muss, auch wenn die Produktion nur 10 Tage im Jahr läuft. Sogar die Instandhaltung muss in voller Schönheit weitergehen, egal ob Betrieb oder erzwungener Stillstand. Ich schätze die Kosten für die Betreiber auf 300 Tausend Euro pro Tag ein. Jeder Laie kann sich ausrechnen, was das bei 350 Stillstandstagen im Jahr kostet.

Ende März 2015 kündigten die Eigentümer an, die Irschinger Blöcke 4 und 5 aufgrund mangelnder Wirtschaftlichkeit zum 1. April 2016 stilllegen zu wollen. Nach Angaben der Eigentümer kamen die Blöcke 4 und 5 im Jahr 2014 nicht am konventionellen Strommarkt zum Einsatz, sondern ausschließlich dann, „wenn ihre Leistung zur Stabilisierung des Stromsystems gebraucht wurde“.

Der Netzbetreiber aber sagt: nee, das Kraftwerk wird gebraucht, als Reserve, falls mal Windstille herrscht. Die Betreiber klagten nun gegen den erzwungenen Weiterbetrieb ihrer unrentablen Anlagen.  Die tatsächliche Zukunft des Kraftwerks gilt hingegen als noch nicht entschieden, die vorläufige Stilllegung wird als „Druckmittel auf die Politik seitens der Betreiber“ interpretiert.

Die Politik ist in der Zwickmühle und der Steuerzahler wird wohl zahlen müssen. Weil die Kraftwerke sogar dann noch bereitgehalten werden müssten, wenn es nur einen einzigen Tag im Jahr gibt, an dem sie gebraucht werden. Denn sind sie dann nicht da, bricht das Netz zusammen und es kommt zu einer unvorstellbaren Katastrophe. Wer wissen möchte, was ich meine, sollte den Roman "Blackout" lesen.

Die Energiewende ist gescheitert, auch wenn dies durch Propaganda noch verschleiert werden kann. Deutschland leistet sich zwei komplette Kraftwerksparks von derselben Kapazität. Absurdistan hat einen "ökologischen“ und zusätzlich einen konventionellen Kraftwerkspark, beide mit hundert Prozent Kapazität. Das verdoppelt die Stromkosten für den Endkunden. Es ist eigentlich eine verkappte Steuer. Nicht umsonst folgt uns nicht ein einziges Land der Welt bei unserer gepriesenen „Vorreiter-Rolle“ in der Energiepolitik.

Eine Rolle ist die Energiewende schon, aber eine Rolle rückwärts in mittelalterliche Technologien wie Windmühlen, Brenngläser und Furzgas. Damit lässt sich ohne großtechnische Speichertechnologie keine Industrie und kein Staat machen. Die einst grundsoliden deutschen Energieversorger wurden von der Regierung bekämpft, enteignet und zerschlagen sich in ihrer Not selbst. Helldeutschland steckt sein Geld lieber in ökologisch korrekte Unternehmen wie Prokon und German Pellets. Dann folgt das große Augenreiben. Keine Sorge, liebe geprellte Anleger, Euer Geld ist nicht weg. Das haben nur Andere. Vielleicht hat ja der Bundespräsident den immer noch möglichen Blackout gemeint, als er von „Dunkeldeutschland“ sprach.

http://www.achgut.com/artikel/der_irrsinn_mit_irsching




2015/16 in Deutschland: Die Serie milder Winter hielt an- (k)ein Grund zur Besorgnis? Teil 3: Prognoseprüfung- was taugten die Vorhersagen für den Winter 2015/16?

Bild rechts: Alles rot und braun: Ausnahmsweise waren die Modellprognosen für den Februar 2016 (viel zu mild) größtenteils richtig. Bildquelle: Amerikanischer Wetterdienst (NOAA).

Vor der Prognoseprüfung muss noch ein weit verbreiteter Irrtum geklärt werden. Viele Prognosen scheiterten an der falschen Annahme, massive El- Nino- Ereignisse wie das von 2015/16 hätten überwiegend strenge Winter in Mitteleuropa zur Folge. Die nächste Abbildung zeigt anhand des sogenannten MEI (Multivariate ENSO Index) alle El Nino- (Rot, positive Werte) und alle La- Nina- Ereignisse (blau, negative Werte) von 1871 bis 2005. Diesen wurden alle in Deutschland markant zu kalten Winter (solche ab minus 2°C abwärts im Deutschland- Mittel, hellblau) und die mildesten Winter ab mindestens +3°C (orange) seit 1871 zugeordnet (Quelle: http://www.esrl.noaa.gov/psd/enso/mei.ext/index.html ):

Von den 16 sehr kalten Wintern seit 1870/71 (hellblaue Pfeile) fallen 9 in eine La- Nina- Phase, nur 7 in eine El- Nino- Phase. Der absolut kälteste Winter seit 1870/71 (1962/63) und der bislang letzte sehr kalte Winter 1995/96 fielen in schwächere La- Nina- Phasen. Bei dieser Häufigkeitsverteilung ist keine seriöse Aussage möglich! Den bislang kräftigsten El- Nino- Ereignissen von 1982/83 und 1997/98 folgten sehr milde Winter, der von 1997/98 war mit +3,0°C sogar sehr mild und erscheint deshalb in der Abbildung mit orangem Pfeil. Auch der bislang mildeste Winter, 2006/07, fällt in eine (nur schwache) El- Nino- Phase (die MEI- Werte ab 2006 fehlen in dieser Abbildung, sind aber bekannt). Strengwinter nur wegen starkem El Nino- mitnichten!

Und nun zur Bewertung der Prognosen.

HASLINGER SEPP: (Quelle unter anderem http://www.merkur.de/lokales/bad-toelz/wetter-winter-2015-schnee-sepp-haslinger-liest-koenigskerze-5372618.html Die ursprüngliche Prognose stammte vom August. Sie versprach einen knackig kalten Hochwinter und wurde später anhand der Realität mehrfach „angepasst“. Bewertung: Der vorhergesagte „Strengwinter“ blieb aus. Eine glatte Fehlprognose- Note 6. Dass der Blütenstand der Königskerze Rückschlüsse auf die Winterwitterung zulässt, gehört ins Reich der Phantasie.

UKMO (Großbritannien): Stand 09.11.2015. Winter (D, J, F) mit mehr als 60ig prozentiger Wahrscheinlichkeit zu mild (folgende Karte):

Bewertung: Insgesamt zutreffend, aber sehr allgemein gehalten, Note 4.

METEO SCHWEIZ, Stand Nov. 2015: Leicht erhöhte Wahrscheinlichkeit besonders für einen normalen Winter. Zu milder Winter etwas wahrscheinlicher als der Zufall (33,3%); zu kalter weniger als 20% wahrscheinlich. Die „doppelten T“ sind die Fehlerbalken:

Bewertung: Nur bedingt zutreffend und dazu sehr allgemein gehalten, die am höchsten bewertete Wahrscheinlichkeit für einen normalen Winter traf nicht zu, Note 5.

LARS THIEME (langfristwetter.com), Vorhersage von Anfang November 2015: Dezember zu kalt, Januar zu mild, Februar deutlich zu kalt. Winter insgesamt normal bis etwas zu kalt. Vorhersage vom 01.12.: Dezember normal, Januar zu mild, Februar deutlich zu kalt. Winter insgesamt normal. Bewertung: Nur der insgesamt milde Januar wurde getroffen, alles andere waren krasse Fehlprognosen, Note 5.

Kaltwetter.com, Stand 18. Oktober 2016: Kaltwinter mit Schwerpunkt im Jan./Feb. 2016. Bewertung: Der Name „Kaltwetter“, einer sehr alarmistisch getönte Seite, stand diesmal nicht für Qualität. Glatte Fehlprognose, Note 6.

IRI (folgende Abbildung), Vorhersage vom Nov. 2015: Mit leicht erhöhter Wahrscheinlichkeit zu mild.

Bewertung: Insgesamt grob zutreffend, aber sehr allgemein gehalten, Note 4.

DWD (Offenbach): Mit erhöhter Wahrscheinlichkeit (etwa 55%) zu mild (Stand Nov. 2015):

Bewertung: Insgesamt zutreffend, aber sehr allgemein gehalten, Note 4.

NASA (US- Weltraumbehörde), Karten vom November 2015: Dezember (linke Karte) und Januar etwas zu mild, Feb. (hier nicht gezeigt) etwas zu kalt. Bei diesen Karten liegt Mitteleuropa am jeweils linken Kartenrand, weit oben.

Bewertung: Dezember stark unterschätzt, Januar annähernd getroffen, Februar verfehlt. Note 5.

CFSv2- Modell des NOAA (Wetterdienst der USA, folgende 2 Abbildungen, Eingabezeitraum 12. bis 22.11.2015): Dezember (links) etwas und Januar (rechts) deutlich zu mild; Februar (hier nicht gezeigt) zu mild. Die vorhergesagten Temperaturabweichungen beziehen sich auf die Mittelwerte der Periode 1981 bis 2010. Die fast täglich aktualisierten, aber leider oft falschen Prognosen unter http://www.cpc.ncep.noaa.gov/products/people/wwang/cfsv2fcst/ (Europe T2m, ganz unten in der Menütabelle; E3 ist der aktuellste Eingabezeitraum).

Bewertung: Dezember unter- und Januar überschätzt, aber keine krassen Fehlprognosen. Februar fast zutreffend, Note 4.

STEFAN KÄMPFE (23./24.11.2015): „Ein durchgehend strenger Winter bleibt aus. Es deutet sich ein eher milder, wechselhafter Winter an, dessen Temperaturmittel besonders in Norddeutschland mehr oder weniger deutlich über dem Langjährigen Mittel von 1981 bis 2010 liegt. Längere Phasen mit Frost und Schnee oder gar ein einzelner, sehr kalter Wintermonat sind trotz der milden Grundtendenz nicht völlig ausgeschlossen. Der Dezember verläuft insgesamt etwas zu mild; in den Mittelgebirgen bestehen aber zumindest zeitweise Wintersportmöglichkeiten; auch im Tiefland sind vereinzelte winterliche Episoden (mäßig kalt) möglich; sehr strenge Kälte fehlt wahrscheinlich. Geschätzte Dezember- Monatsmitteltemperatur für Erfurt- Bindersleben (Mittel 1981- 2010 +0,5°C) +0,5 bis +3,0°C (normal bis deutlich zu mild). Für Jan/Feb. 2016 lässt sich noch kein Temperaturbereich schätzen!“ Nachtrag zum Januar (Ende Dezember 2015): „Vermutlich verläuft der Januar in Mitteleuropa insgesamt eher normal bis mild (ohne neue Wärmerekorde).“ Nachtrag zum Februar (Ende Januar 2016): „Insgesamt dürfte sich der Februar 2016 durch eher veränderliches, mitunter windiges Westwetter auszeichnen.“ Bewertung: Winter insgesamt und Januar/Februar grob richtig getroffen, aber Dezember stark unterschätzt und Aussagen sehr allgemein gehalten, Note 4.

Die Bilanz fällt also ernüchternd aus, aber etwas besser als 2015. Von den 10 untersuchten Prognosen waren 2 völlig mangelhaft, 3 ungenügend, und immerhin 5 konnten als befriedigend eingestuft werden. Angesichts dieses bescheidenen Ergebnisses schon für nur wenige Monate im Voraus stellt sich die Frage nach der Sinnhaftigkeit der langfristigen Klimaprognosen. Abschließend wollen wir anhand des NASA- Modells CFSv2 dessen „Lernprozess“ anhand der Realität verdeutlichen:

Links die ältere Version mit den Eingabebedingungen vom 11. bis zum 20. Dezember 2015; mit Ausnahme von Island wurde ein sehr milder Januar für ganz Europa berechnet. Rechts mit den Eingabebedingungen vom 31.12.2015 bis zum 09. Januar 2016 zeigt sich eine ganz andere, der Realität schon eher entsprechende Temperaturverteilung, doch da war der Januar längst angebrochen… .

Fazit: Prognosen sind schwer- besonders, wenn sie die Zukunft betreffen.

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, unabhängiger Natur- und Klimaforscher




Allein im Gegenwind

«Jetzt müssen wir zuerst einmal abwarten», riet Christoph Blocher im Gespräch mit dem Newsnetz. «Während Katastrophen darf man keine langfristigen Entscheide treffen, die nicht nötig sind», wusste der Luftschutz­oberst ausser Dienst. Das Interview erschien am 17. März 2011. Sechs Tage zuvor hatte ein Tsunami die Küste von Japan verwüstet und im Reaktor von Fukushima eine Kernschmelze ausgelöst, drei Tage später hatte die deutsche Bundeskanzlerin Angela Merkel das ­Abstellen von sieben Kernkraftwerken angeordnet: die Energiewende.

Auch in der Schweiz trafen die Politiker – entgegen dem Rat von Blocher – innert kürzester Zeit einen langfristigen Entscheid: 
Sie forderten den Totalumbau der Schweizer Energieversorgung bis 2050, dabei schrieben sie die Erzeugung und den Verbrauch von Strom für drei Jahrzehnte auf die Megawattstunde genau fest. Das Umsetzen des Jahr­hundertprojekts dauert etwas länger: In der laufenden Frühlingssession, zum fünften ­Jahrestag der Katastrophe von Fukushima, soll das Parlament die Feinarbeit an der Energiestrategie 2050 so vorantreiben, dass es sie im Sommer verabschieden kann. Zeit für eine Zwischenbilanz: für eine Geschichte von ­Opportunisten und Profiteuren.

Die Wendehälse – Wer als Zeithistoriker untersucht, weshalb eigentlich ein Seebeben vor Japan die Deutschen und die Schweizer (und nur sie!) erschütterte, der erlebt eine Über­raschung. «FDP vollzieht die Energiewende», staunten die Medien schon am 17. März 2011: Die Nationalräte Filippo Leutenegger und ­Fulvio Pelli sprachen sich in einem «freisinnigen Rückwärtssalto» (St. Galler Tagblatt) für ­eine Zukunft ohne Kernkraftwerke aus – denn sie fürchteten sich vor Verlusten wegen der neu antretenden Grünliberalen bei den Zürcher Kantonsratswahlen vom 3. April. Und für die Energiewende warb auch der Basler Nationalrat und Gewerbefunktionär Peter Malama († 2012): Sie bringe dem Gewerbe reichen ­Segen, so etwa den Installateuren von Sonnenkollektoren.

Noch wendiger zeigte sich nur BDP-Präsident Hans Grunder. Der Berner kämpfte noch bei der kantonalen Volksabstimmung vom 13. Februar für ein neues Werk in Mühleberg – im Verwaltungsrat der Eigentümerin BKW sitzen schliesslich der Ex-Finanzdirektor und die Finanzdirektorin aus seiner Partei. Einen Monat später warf er sich in Pose als erster Bürgerlicher, der den Atomausstieg forderte.

Aber CVP-Präsident Christophe Darbellay liess sich beim Slalom nicht abhängen. Seine Bundesrätin, Energieministerin Doris Leuthard, machte ihrer Partei noch am 26. März «sachlich kühl, fast im Stil einer Vorlesung» (NZZ) klar, dass die Schweiz den Atomstrom weiter brauche. Aber auch sie fügte sich – mit wie viel Überzeugung, wird erst in ihren Memoiren nachzulesen sein – der Parteiräson: Nur auf der Welle aus Japan surfend, konnten die Mitteparteien vermeintlich Verluste bei den Nationalratswahlen im Oktober abwenden.

«Wir können verhindern, dass sich die Parteien im Wahlkampf in der Energiefrage gegen­seitig blockieren», jubelte deshalb am 17. April in der Sonntagszeitung, dem Publikationsorgan der Wendehälse, der FDP-Nationalrat Otto In­eichen († 2012): «Wir machen den Weg frei für die Energiewende.» Eine Allianz von «energiepolitischen Schwergewichten», von den Nationalräten Bastien Girod (GP) und Beat Jans (SP) bis zu SVP-Ständerat This Jenny († 2014), legte eine «Roadmap» mit einem Dreizehn-
Punkte-Programm vor – samt einem milliardenschweren Fonds «Energieumbau Schweiz», einer Stromlenkungsabgabe und Subventionen à discrétion dank unbeschränkter kostendeckender Einspeisevergütung.

Von den Medien vorangetrieben, forderte das Parlament in der Sommersession die eilig gebastelte Energiestrategie 2050. Bei den Nationalratswahlen verlor dennoch die FDP fünf und die CVP drei Sitze, während die Grünliberalen den Gewinn von neun Mandaten feierten. Aber Hauptsache, die Energiewende-Koalition von SP bis CVP hielt den Bundesratssitz von Eveline Widmer-Schlumpf (BDP) und sorgte so in der letzten Legislatur für die Mitte-links-
Mehrheiten im Bundesrat.

Aus der Sackgasse – Fünf Jahre danach sieht die Energielandschaft anders aus – völlig anders, als es die Heerscharen von Beamten und Beratern des Bundesamtes für Energie in ­ihren Szenarien für die nächsten vierzig Jahre planten. Schuld daran sind gerade die Deutschen, die ihre Energiewende durchzogen, also die Kernkraftwerke abstellten. Wozu das führte, zeigte der deutsche Spitzenpolitiker Peter Ramsauer (CSU), der in der entscheidenden Zeit als Verkehrsminister am Kabinettstisch sass, im Dezember einer Runde von Schweizer Energiepolitikern auf.

«Umweltfreundlich, sicher, bezahlbar» wollten die Deutschen ihre Energiewende gestalten. Das Fazit nach fünf Jahren Atomausstieg: Umweltfreundlich(er) ist die Strom-
produk­tion nicht. Von 2011 bis 2014 sank zwar der ­Anteil der Kernenergie von 17,6 auf 15,5 Prozent, während jener der erneuerbaren Energiequellen von 20,2 auf 25,5 Prozent stieg. Aber auch der Anteil von Braun- und Steinkohle nahm von 42,8 auf 43,8 Prozent zu, Deutschland stösst deshalb immer noch gleich viel CO2 aus wie 2011. Sicher ist die Versorgung nur, weil für jede Solar- oder Windanlage ein konventionelles Kraftwerk anspringt, wenn die Sonne nicht scheint oder der Wind nicht bläst. Und bezahlen lässt sich der Strom für viele kaum mehr: Die Industriemacht Deutschland hat die fünfthöchsten Strompreise Europas für Firmen und gar die zweithöchsten für Haushalte. So unangenehme Wahrheiten mochte Walter Steinmann, der Direktor des Bundesamtes für Energie, beim Referat von Peter Ramsauer nicht gelten lassen: Er wollte die Aussagen des Ex-Ministers, der bei der Energiewende mitbestimmt hatte, richtigstellen.

«Es ist wie im Sozialismus: Unterdrückung von Kritik macht ein System blind und dumm», sagt Alexander Wendt, Autor des ­Buches «Der grüne Blackout». Der Experte bei Focus weist darauf hin, dass die deutschen Stromkunden wegen der steigenden Öko-Umlagen jährlich 25 Milliarden Euro für Strom aufwenden, den die Börse für knapp 2 Milliarden handelt. Oder dass sie 2014 über 100 Millionen Euro für Strom bezahlten, den die Windparks nicht erzeugten, weil sie sonst die Netze überlastet hätten. Und er verrät, dass ihm ein führender Politiker im Vertrauen sagte: «Bei der Energiewende ist es so wie bei einem Fuhrwerk, das in die Sackgasse fährt: Es muss dort wieder herauskommen, wo es hineingefahren ist. Man braucht also nicht hinterherzulaufen. Von Unterhaltungswert ist allein das Wendemanöver.»

Der Bund der Planwirtschaftler – Die Deutschen denken an die Kehrtwende, Bundeskanzlerin Angela Merkel steht auch in der Energiepolitik unter massivstem Druck. Die Schweizer dagegen fahren weiter in die Sackgasse, dabei ist hier ebenfalls alles anders als zuvor. Die Grünliberalen steckten mit ihrer Initiative für eine Energiesteuer vor einem Jahr eine vernichtende Niederlage ein. Die Energiewende-Koalition verlor bei den Nationalratswahlen die Mehrheit (wenn man Grünfreisinnige wie Ruedi Noser oder Christa Markwalder nicht mitrechnet) und darauf auch ihre Bundesrätin, Eveline Widmer-
Schlumpf. Und Nick Beglinger, der sich mit Swisscleantech als die Stimme der Wirtschaft aufspielte, gibt angesichts seines fortlaufenden Erfolges auf. ­Dazu kommt der traurige Zufall, dass alle vier Parlamentarier, die während der letzten Legislatur starben (neben ­Otto Ineichen, Peter ­Malama und This Jenny auch der Glarner Ständerat und Axpo-Verwaltungsrat Pankraz Freitag), sich als führende Energiepolitiker fühlten.

In der Energiepolitik kann niemand mehr «Marktwirtschaft» buchstabieren. Und weil es wegen der Dutzenden Milliarden an Subventionen in Deutschland keinen Markt mehr gibt, schüttet die Schweizer Politik umso mehr Subventionen aus. Sie will die kostendeckende Einspeisevergütung weiter ausbauen, dabei bieten Solar- und Windkraftanlagen auf un­absehbare Zeit hinaus keinen Beitrag zur Versorgungssicherheit. Sie will die (verfassungswidrig eingeführten) Subventionen für Gebäudesanierungen noch aufstocken – obwohl die Schweizer Klimapolitik keinen Beitrag zur globalen Klimapolitik leistet, die selbst gemäss Berechnungen des Weltklimarates IPCC nichts gegen den Klimawandel bringt. Und sie will jetzt auch noch grosse Wasserkraftwerke subventionieren, weil der Stolz der Schweiz im 20. Jahrhundert nicht mehr rentiert.

Dagegen wehrt sich kaum mehr jemand, die Betreiber der Kernkraftwerke zuletzt. Ihre Produktionskosten liegen, wie die Sonntagszeitung vorrechnete, zwischen 4,5 und 5,5 Rappen pro Kilowattstunde – auf dem Markt gibt es dafür noch 3 Rappen. Deshalb kämpfen die Strom­versorger nicht gegen die Atomausstiegs-In­itiative der Grünen, als deren Gegenvorschlag die Energiestrategie 2050 gilt. Im Gegenteil: Bei ­einem Ja könnten sie ihre Werke abstellen, ­dafür Entschädigungen einsacken und der ­Öffentlichkeit die Kosten für das Abwracken aufbürden. So hätten die Wendehälse um Hans Grunder & Co., die im Frühling 2011 innert weniger Tage die Schweizer Energielandschaft umpflügten, ihr Ziel erreicht.

=================================================================

)*  Anmerkung der EIKE-Redaktion : Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich:

Allein im Gegenwind | Die Weltwoche, Ausgabe 9/2016 | Mittwoch, 2. März 2016

http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Markus Schär für die Gestattung des ungekürzten Nachdrucks.

==================================================================




Wissenschaftler widerlegen die den ,Stillstand‘ eliminierende Studie

Bild rechts: „Es ist nicht alles Gold, was glänzt“! Bild: SueSchi  / pixelio.de

Eine neue Studie von einer Gruppe von Wissenschaftlern – einschließlich Michael Mann von dem „Hockeyschläger“ (hier) – hat einen kontroversen Bericht der NOAA aus dem letzten Jahr widerlegt (hier), in dem behauptet worden war, dass sich die globale Erwärmung stärker beschleunigt hat, als aus den Temperaturmessungen hervorgeht.

„Alles in allem gibt es überzeugende Beweise, dass es eine vorübergehende Verlangsamung der beobachteten globalen Erwärmung gegeben habe“, schrieb Ed Hawkins in einem Blogbeitrag zu der neuen Forschung. Er ist ein Klimawissenschaftler an der University of Reading und Mitautor der Studie.

Hawkins schrieb, dass „die jüngsten beobachteten 15-Jahre-Trends alle positiv sind, aber geringer als ähnliche Trends unmittelbar zuvor während der letzten paar Jahrzehnte“. Dies „zeigt eindeutig, dass sich die Änderungsrate seit ihrem Spitzenwert verlangsamt hat“.

Die Widerlegung kommt zu einem Zeitpunkt, an dem Ermittler des Kongresses von den Klima-Bürokraten der Regierung verlangten, E-Mails und Dokumente zu übergeben, die mit der den „Stillstand“ zerschlagenden Studie zusammenhängen. Die Republikaner des Science Committee im Weißen Haus sandten der NOAA einen Brief, in dem sie die Agentur für ihre Zeitschinderei und die Versuche, Transparenz zu verhindern, verurteilen.

„Während ich anerkenne, dass die NOAA begonnen hat, teilweise der gesetzlichen Vorladung des Komitees zu folgen, bin ich enttäuscht von dem Schneckentempo und dem begrenzten Umfang der Unterlagen von der Agentur“, schrieb der republikanische Abgeordnete Lamar Smith in einem Brief an die NOAA, der der Daily Caller News Foundation vorliegt.

Smith, der Vorsitzender des Wissenschaftskomitees des Hauses ist, hatte seit Monaten nach Dokumenten verlangt, die mit der NOAA-Studie aus dem Jahr 2015 zusammenhängen und in der behauptet worden war, den „Stillstand“ der globalen Erwärmung aus den Temperaturaufzeichnungen eliminiert zu haben (hier). Die Studie war hoch kontrovers und ist augenblicklich kritisiert worden wegen der drastischen Adjustierungen der Temperaturmessungen.

Aber die NOAA hat längst nicht alle Informationen geliefert, die das Büro von Smith von der Agentur bzgl. der Studie angefordert hatte. Zunächst behauptete die NOAA, sie würde keinerlei E-Mails von Wissenschaftlern herausgeben, mit denen versucht werden soll, ein Narrativ zu erschaffen, das dem Ziel von Smith diene, regierungsamtliche Forscher zu drangsalieren (hier).

Smith wehrte sich dagegen und fuhr fort, die Agentur bzgl. der Dokumente unter Druck zu setzen und auch, sie zur Zusammenarbeit zu bewegen, dass politische Mitarbeiter und Wissenschaftler durch Ermittler des Kongresses befragt werden. Dann kochten die Dinge hoch, als ein Whistleblower Smith mitteilte, dass die fragliche Studie „durchgepeitscht“ und veröffentlicht wurde „vor allen angemessenen Begutachtungen der zugrunde liegenden Wissenschaft“.

Im Lichte dieser Entwicklung stimmte die NOAA zu, dem Komitee E-Mails von Nicht-Wissenschaftlern zu übergeben (hier). Aber selbst jetzt ist Smith noch besorgt darüber, dass es die NOAA Mitarbeitern erlaubt, ihre eigenen E-Mails zu durchforsten, was seine Ermittlungen behindert.

„Bei zahlreichen Gelegenheiten hat die NOAA es versäumt, rechtzeitig Dokumente zu übergeben und anscheinend ihre Bemühungen aufgegeben, mit den Ermittlern des Komitees zusammenzuarbeiten“, schrieb Smith.

Die im vorigen Jahr veröffentlichte NOAA-Studie des Klimatologen Tom Karl argumentierte: „aktualisierte und neu korrigierte Daten der globalen Temperatur stützen nicht das Narrativ eines ,Stillstands‘ der globalen Erwärmung“.

Jetzt haben andere Wissenschaftler Arbeiten veröffentlicht, die die Forschungen Karls in Frage stellen [und bezüglich derer in den hiesigen Medien natürlich dröhnendes Schweigen herrscht! Anm. d. Übers.]

„Wir präsentieren Ergebnisse, die die zuvor gefundene reduzierte Rate der Erwärmung stützen“, sagte ein Klimawissenschaftler der kanadischen Regierung namens John Fyfe Climate Central. „Dies widerlegt die Studie von Karl et al.“.

Follow Michael on Facebook and Twitter

Übersetzt von Chris Frey EIKE

Link: http://dailycaller.com/2016/02/25/scientists-debunk-study-eliminating-global-warming-hiatus/

Hinweis: Darin findet sich auch eine Umfrage. Gefragt wird: „Glauben Sie, dass es einen Erwärmungs-Stillstand gibt?“ Ergebnis (am 26.2.2016 um 11 Uhr: 70% ja, 30% nein.

Weiterer Hinweis: Das komplette Ignorieren des Stillstands seitens der Medien wird hier beim GWPF dokumentiert, nebst zahlreichen Beispielen.




Die Komplizenschaft von Journalen und Magazinen bei der Propagierung der betrügerischen IPCC-Klimawissenschaft

Es gab eine Zeit, als der Scientific American (SA*) eine Einzelnische bei den Zeitungs-Kiosken besetzte. Es war ein Magazin der Wissenschaft für die Öffentlichkeit. Beschrieben wurde darin authentische Wissenschaft, normalerweise verfasst von Wissenschaftlern, und es war kein pseudowissenschaftliches Magazin wie all die anderen. Das war interessant, weil die meisten Leute nicht viel von dem Geschriebenen verstanden haben. Personen, die etwas über das Thema wussten erkannten, dass es sich um eine sehr grobe Übersicht handelte, erkannten aber auch, dass es für den Verbraucher gedacht war. Man publizierte faszinierende Artikel, in denen die Öffentlichkeit auf Themen aufmerksam gemacht wurde ohne politischen Bias. Ich habe drei Artikel in Erinnerung, die in der Klimadebatte sehr wertvoll waren: John Eddys Artikel über die fehlenden Sonnenflecken; Der Beitrag von Stommel und Stommel über das Jahr 1816, dem Jahr ohne Sommer; und ein früher Artikel über den Einfluss auf die Messung der Ozean-Wassertemperatur, nachdem man von Leder- auf Metalleimer übergegangen war, gefolgt von Messungen im Kühlwasser von Schiffsmotoren.

[*Im Original wird im Folgenden nur noch diese Abkürzung SA verwendet. Aus vermutlich nachvollziehbaren Gründen werde ich dem aber nicht folgen. Anm. d. Übers.]

Inzwischen ist der Scientific American zu einem sensationalistischen Verteidigungs-Outlet für die IPCC-Wissenschaft von der globalen Erwärmung verkommen. Es scheint, als ob diese Verwandlung erzwungen worden wäre, unterscheidet sich doch der Scientific American nicht mehr von irgendeinem der andere pseudowissenschaftlichen, sensationalistischen Magazine. Parallel mit dieser Verschiebung gab es eine Abnahme der Beiträge von Wissenschaftlern und eine Zunahme von Artikeln von professionellen (?) Journalisten. Hinsichtlich Artikeln zum Thema Klima kam die Mehrheit der Beiträge von Wissenschaftlern, die direkt in der IPCC-Schwindelei involviert waren. Untergang und Verderben und Sensationalismus verkaufen sich eben besser, vor allem, wenn es zu dem politischen Bias derjenigen passt, die das Magazin produzieren.

Das Gleiche widerfuhr den beiden einst bedeutenden Journalen Science und Nature. Es gab einmal eine Zeit, als Akademiker dafür zahlten, Artikel zu veröffentlichen und auch zahlten für den Erhalt einer Ausgabe nach der Veröffentlichung eines Beitrags. Es gab einmal eine Periode, als Universitäten für Abonnements zahlten und einige wenige Wissenschaftler die Zeitschrift für sich selbst kauften. Mit den steigenden Kosten für die Herstellung des Magazins wurden die Kosten für ein Abonnement untragbar. Dies fiel zusammen mit zurückgehenden Zuwendungen von der Regierung und von privat an Forscher und Universitäten. Einige Verlagshäuser wie etwa Elsevier erkannten eine Gelegenheit für Geschäfte und übernahm. Wir alle kennen inzwischen die ,Zahlschranke‘. Wir erleben auch die Verkaufsförderung, die mit dem Kauf eines Artikels einhergeht, führt es doch zu einer fortgesetzten Zusendung von E-Mails unter dem Motto „articles that might be of interest“ [etwa: „diese Beiträge könnten Sie auch interessieren:…“] sowie zu Werbung von Amazon.

Nachdem die globale Erwärmung zu einem immer größeren politischen Thema geworden war, begannen einige Medienmitarbeiter, nach sensationslüsternen wissenschaftlichen Spekulations-Artikeln zu suchen. Sie alle wurden in den Schlagzeilen eingeleitet mit „Wissenschaftler sagen: …“. Dann folgt ein Artikel mit einigen der im Konjunktiv gehaltenen Phrasen, die Akademiker verwenden, um ihre Argumente glaubwürdiger zu machen. Ein großes Problem ist, dass nur wenige Journalisten in wissenschaftlichen Dingen geübt oder darin ausgebildet sind. Dies bedeutet, dass sie nur nach der Wissenschaft suchen, die ihrer sensationalistischen „Die-Story-ist-alles!“-Objektive dient.

Einige Journale erzeugten unterschiedliche Zugpferde, um die Verbreitung und Ausbeutung von Sensationalismus zu verbreitern. Nature begann mit Nature Climate Change im Jahre 2007. Ich wurde auf dessen Existenz und Bias auf der Heartland-Klimakonferenz im Jahre 2009 aufmerksam gemacht, als ein Reporter jener Publikation mich um ein Interview bat. Ich merkte sofort, dass er keineswegs an Objektivität oder Aufklärung interessiert war, so das ich das Interview ablehnte.

Die Politik von dessen Herausgebern wird auf ihrer Homepage so beschrieben:

Reading science

Wissenschaftlern wird oft vorgeworfen, dass sie ihre Ergebnisse nur schlecht vermitteln, aber die Verbesserung der wissenschaftlichen Bildung liegt in der Verantwortung von allen.

Richtig – aber nur, wenn diese Bildung ausgewogen und objektiv daherkommt.

Nature Climate Change gehört der Nature Publishing Group, die eine Abteilung von Macmillan Publishers Limited ist. Dies ist interessant, weil sie diejenigen Verleger waren, die in der Velikovsky-Schande involviert waren, eines der ungeheuerlichsten Beispiele der Konflikte, die zwischen Verlegern und einer Suche nach Wahrheit aufbrechen können. Man kann Velikovskys Seite der Story in seinem Buch Stargazers and Gravediggers [etwa: Sterndeuter und Totengräber] nachlesen, welches Amazon wie folgt beschreibt:

In einem der schwersten Fälle von Zensur in der Geschichte Amerikas hat eine mächtige Lobby von Wissenschaftlern des Establishments Macmillan gezwungen, eine Veröffentlichung von Immanuel Velikovsky’s „Worlds in Collision” zu suspendieren – das war der erste Schuss, der auf Velikovskys „häretische“ Standpunkte abgeschossen worden war. Hier erzählt uns Velikovsky selbst mit enormer Würde und Intelligenz die ganze Geschichte von einer der beschämendsten Buchverbrennungs-Episoden unserer Zeit. Dies ist Velikovskys Schlusswort in dieser Sache und bietet eine wichtige Einsicht in einen Skandal, der die Welt der Wissenschaft und der Presse gleichermaßen erschütterte.

Velikovsky wurde zum Ziel von Carl Sagan, einem frühen Befürworter der von anthropogenem CO2 verursachten globalen Erwärmung. Die Behauptung rückte in den Mittelpunkt der Argumentation über die Bedrohung eines höheren CO2-Niveaus. Sagan fühlte sich dermaßen bedroht, dass er ein Buch veröffentlichte mit dem Titel Scientists Confront Velikovsky [siehe Bild oben rechts!] Darin geht es um alle seine Behauptungen mit kollektiv dem Einschluss von CO2 auf der Venus. Man darf ihm kein Wort glauben.

Die Wechselwirkungen zwischen Verlegern und Wissenschaftlern an der Climatic Research Unit (CRU) wurden durch die durchgesickerten E-Mails im Zuge des Klimagate-Skandals enthüllt. Auf der Website Reason erschien im Jahre 2009 ein Artikel mit dem Titel [übersetzt] Klimagate und Schikanierung wissenschaftlicher Journale (Climategate and Scientific Journal Chicanery) von Ronald Bailey, der darin von den Erfahrungen berichtet, die Eduardo Zorita gemacht hatte:

Mit dem Schreiben dieser Zeilen werde ich vermutlich erreichen, dass einige meiner zukünftigen Studien wieder einmal wohl nie ins Licht von Veröffentlichungen kommen. Mein Forschungsgebiet ist zufällig das Klima der vergangenen Jahrtausende, wobei ich denke, dass ich von anderen Klimaforschungs-,Soldaten‘ anerkannt bin…

Ich könnte bestätigen, was an anderer Stelle geschrieben worden ist: die Forschung in einigen Bereichen der Klimawissenschaft war und ist voller Intrigen, Konspiration und betrügerischer Absprachen, wie jeder leicht den CRU-Dateien entnehmen kann. Sie zeichnen ein realistisches, ich würde sogar sagen harmloses Bild, wie die wirkliche Forschung im Bereich Klima im vorigen Jahrtausend während der letzten Jahre ausgesehen hat. Die wissenschaftliche Debatte ist in vielen Fällen zugunsten anderer Agenden gekapert worden.

Dies bedeutet nicht, dass ich denke, dass der anthropogene Klimawandel ein Schwindel ist. Im Gegenteil, es handelt sich um eine Frage, der wir sehr wohl nachgehen müssen. Aber mir ist auch klar, dass ich in dieser dicken Luft im Moment nicht von Treibhausgasen spreche – sondern über Herausgeber, Begutachter und Autoren alternativer Studien, Analysen und Interpretationen, die auf den gleichen Daten basieren, die wir zur Verfügung haben, die allesamt drangsaliert und subtil betrogen worden sind. In dieser dicken Luft sind promovierende Studenten oftmals versucht, ihre Daten zu verzerren, damit sie in das ,politisch korrekte Bild‘ passen. Einige, nein viele Zusammenhänge bzgl. des Klimawandels sind immer noch nicht bekannt. Politiker sollten sich den Versuchungen bewusst sein, diese Unsicherheiten unter einem vereinfachten Bild zu verstecken. Ich hatte das ,Vergnügen‘, all dies in meinem Forschungsbereich zu erleben.

Der wichtige Punkt hier ist, dass Zorita von den Begutachtern und Herausgebern Vergeltung erwartet, was sie zur Staffage vor und nach den Fakten macht. [Original: The important point here is that Zorita expects retribution from the reviewers and editors thus making them accessories before and after the fact.]

Eine andere Art der Kontrolle wäre es, sowohl Begutachter als auch Herausgeber zu sein. Dies scheint bei der Dominanz von IPCC- und CRU-Wissenschaftlern als Herausgeber des Journal of Climate der Fall zu sein. Donna Laframboise stellt die Frage:

Wir sollen den Schlussfolgerungen des IPCC vertrauen, weil viele der Forschungen, die als Grundlage dieser Schlussfolgerungen dienen in begutachteten wissenschaftlichen Journalen veröffentlicht worden sind.

Aber was passiert, wenn die Personen, die für diese Journale verantwortlich sind, die gleichen sind, die die IPCC-Berichte schreiben?

Nach einer Auflistung aller Personen – 13, wenn ich richtig gezählt habe – die als Herausgeber oder redaktionelle Kapazitäten des Journals fungieren, fragt Laframboise:

Macht sich denn niemand Gedanken darüber, dass es dabei keine irgendwie geartete Distanz gibt – geschweige denn irgendetwas, das einer Firewall gleicht – zwischen den Menschen, die entscheiden, ob eine Studie es wert ist, in den Heiligenschein einer Veröffentlichung in der begutachteten Literatur zu gelangen – und den Menschen, die dann IPCC-Berichte schreiben, in denen uns erklärt wird, was uns diese begutachtete Literatur über den Klimawandel sagt?

Dabei geht es nicht einmal nur darum, welche Prozentzahl der veröffentlichten Studien von einigen der oben genannten Personen als Autoren, die ihren Begutachtet-Status via des Journals of Climate verdient haben.Das ist eine andere Geschichte für einen anderen Tag.

In einem kurz nach dem Bekanntwerden der durchgesickerten E-Mails Artikel schrieb Robert Tracinski:

Noch nicht damit zufrieden, alle Wissenschaftler mit abweichenden Meinungen zu blockieren, konspirierten die CRU-Wissenschaftler auch, um ihnen freundlich gesonnene Begutachter abzusichern, auf die die sich verlassen konnten, ihre eigene Arbeit abzusegnen. Phil Jones übergab eine solche Liste an Kevin Trenberth, zusammen mit der Zusicherung, dass „alle von ihnen genau wissen, was sie sagen müssen … ohne irgendwelches Soufflieren“.

Traurigerweise waren Viele aus verschiedenen Gründen willens, dabei mitzumachen. Die Zusammenfassung von Tracinski ist sehr aufschlussreich:

Das sich hier ergebende Bild ist einfach. In jedweder Diskussion über globale Erwärmung, sei es in wissenschaftlichen Journalen oder in den Mainstream-Medien, ist das Ergebnis jedes Mal genau vorherbestimmt. Genauso wie die Temperatur-Graphiken bei der CRU immer verbogen werden, um einen aufwärts gerichteten „Hockeyschläger“ zu zeigen, muss jede Diskussion über globale Erwärmung zeigen, dass sie stattfindet und dass die Menschen dafür verantwortlich sind. Und jedwede Daten oder jedwede Studien, die diese Schlussfolgerungen widerlegten, wurde als „unwissenschaftlich“ verunglimpft, nur aus genau dem einen Grund, dass sie das etablierte Dogma bedrohen.

Ein wesentlicher Faktor, Journale und Magazine anfällig zu machen für Beeinflussungen seitens der Menschen an der CRU war, das Geschäftsmodell und die Erfordernis eines profitablen Betriebs in den Mittelpunkt zu rücken. Es war das Geschäftsumfeld, dass entweder die Wissenschaft ignorierte, wie ich in einem früheren Beitrag beschrieben habe, oder das Gelder jenen zukommen ließ, die kritische Beiträger aus dem Markt drängten. Beweis hierfür ist die Tatsache, dass ein sich wehrendes Unternehmen Schlagzeilen machte – Exxon Stands Up to the green Bullies. [Etwa: Exxon wehrt sich gegen die grünen Tyrannen].

Der wirkliche Durchbruch wird kommen, wenn diese Schlagzeile in den Mainstream-Medien auftaucht, aber man warte nicht unmittelbar darauf: Es ist noch viel mehr Geld verfügbar, solange die Finanzierung seitens der Regierung weitergeht.

Link: http://wattsupwiththat.com/2016/02/28/the-complicity-of-journals-and-magazines-in-pushing-flawed-ipcc-climate-science/

Übersetzt von Chris Frey EIKE




Trotz vierfacher Überkapazität – Windkraftstrom kann Kernkraftstrom nicht ersetzen

Auch im Jahr 2015 wurde der Ausbau der Windkraftstromerzeugung mit Hochdruck vorangetrieben. Zum Jahresende waren Windkraftanlagen (WKA) mit einer Gesamtkapazität von 44,95 GW oder 44.950 MW installiert. Demgegenüber sank die installierte Leistung aus Kernkraftwerken (Abschaltung des KKW Grafenrheinfeld) auf nur noch 10,78 GW oder 10.780 MW. Also auf weniger als 25 % oder < ¼ der Windkraftanlagenleistung.  Trotzdem blieb die von den WKA eingespeiste Menge an Elektroenergie um immer noch rd. 5 % unter der von den Kernkraftwerken erzeugten Energiemenge. Siehe Tabelle 1

Tabelle 1 (siehe Bild rechts). Erzeugungskapazität und gelieferte Energiemenge der Kernkraftwerke gegenüber den installierten Windkraftanlagen 2015.

Doch das ist noch nicht alles. Bestimmt durch die hohe zufällige Volatilität der Windstromeinspeisung  musste der gesamte konventionelle Kraftwerkspark zum Ausgleich auf extremen Verschleiß wegen notwendiger häufiger und schneller Lastwechsel gefahren werden. So sank bspw. im Januar 2016 die Windeinspeisung auf nur noch 0,8 % der installierten Leistung, um dann in der Spitze auf 71 % hochzuschnellen.

Um Netzeinbrüche zu vermeiden mussten die Netzbetreiber daher ca. 6.200 Ausgleichsmaßnahmen (Redispatch) vornehmen. Und übertrafen damit die Anzahl von Redispatchmaßnahmen des Vorjahres um rd. 80 %. (Siehe Bild 1) Wenn diese Entwicklung so weitergeht, und davon ist mit Sicherheit aus  dann wird die Zahl der Redispatchmaßnahmen im Jahre 2016 bereits die Zahl von ca. 9000 überschreiten. Wann das Netz kollabiert ist daher nur noch eine Frage der Zeit.

Bild 1: Notwendige Redispatchmaßnahmen zur Aufrechterhaltung der Netzstabilität von 2005 bis 2015. Quellen (ab 2012)  Netztransparenz und (zuvor) Medien und private Infos. Grafik Michael Limburg 

Im Januar 2016 setzt sich diese ökonomisch wie technisch schädliche Entwicklung fort, wie die Einpeisegrafik für den Monat deutlich zeigt. Die „EE“ Anlagen sind extrem weit davon entfernt  den Bedarf zu decken, obwohl ihre installierte Leistung von rd. 85 GW diesen bereits um den Faktor 2 übertrifft.

Bild 2: Einspeiseleistung Wind+ Solar im Januar 2016 gegenüber Last und installierter Leistung

Daten Entso-e; Grafik und Werte Rolf Schuster

Tabelle 2 Erzeugungskapazität und gelieferte Energiemenge von Wind + Solar  gegenüber den dem Verbrauch für Januar 2016. Daten Entso-e; Grafik und Werte Rolf Schuster




2015/16 in Deutschland: Die Serie milder Winter hielt an- (k)ein Grund zur Besorgnis? Teil 2: Der Wärmeinseleffekt- ein Treiber der Wintertemperaturen?

30 Jahre Winter in Deutschland ohne Erwärmung.

Diese drei Bilder (rechts) illustrieren die Urbanisierung selbst kleiner Orte in den vergangenen 50 Jahren. Für die Aufnahme „Bebauung“ mussten wir gute 50 m zurück über das heutige Flussbett, damit der alte Ortskern rechts im Hintergrund noch erkennbar ist. Die Häuser ganz rechts stehen im ehemaligen Flussbett (Fotos: Josef Kowatsch, "Hüttlingen, Rundgang einst und heute").

Die folgende Grafik zeigt den Wärmeinseleffekt durch Verstädterung anhand der monatsweisen Differenzen der Mittelwerte (Lufttemperatur) aus 3 städtischen Stationen (Berlin) und 3 ländlicheren Stationen in deren Nähe (Land Brandenburg). Dieser Wärmeinseleffekt durch Verstädterung, oft auch UHI- Effekt (engl.: Urban Heat Island Effect) genannt, macht nur einen Teil des gesamten WI- Effekts aus, ist aber mit knapp 0,6 K im Jahres- und gar 0,64 K im Wintermittel, sehr beachtlich. Die gefundenen Effekte können in anderen Großstadt- Regionen etwas abweichend sein:

Grafik 1: Seit 1992 gefundene UHI- Differenzen in Kelvin, gebildet aus den Mitteln dreier urbaner Stationen in Berlin und dreier ländlicher Stationen in Brandenburg. Hohen, verstädterungsbedingten Differenzen von über 0,7 K im Januar und fast 0,7 K im April stehen geringere im Spätsommer/Frühherbst gegenüber. Die jahreszeitlich bedingten UHI- Effekte sind für Berlin im Winter höher als im Jahresmittel und auf Abwärme zurückzuführen.

Insgesamt zeigt Grafik 1 deutlich den sich während eines Jahres verändernden UHI-Effekt, der als Differenz zwischen den drei städtischen und drei ländlichen Stationen aufgetragen ist. Über 24 Jahre betrug der UHI im Schnitt 0,58 K, also fast 0,6°C.

Anhand der bis weit ins 19. Jahrhundert reichenden DWD- Messreihe der innerstädtischen Station Jena- Sternwarte zeigt sich außerdem, dass ein wesentlicher Teil der winterlichen Temperaturzunahme auf dem mit steigenden Einwohnerzahlen wachsenden UHI- Effekt beruht:

Grafik 2: Mit steigenden Einwohnerzahlen in Jena setzte dort auch eine winterliche Temperaturzunahme ein, die freilich auch von anderen Faktoren wie NAO, AMO und Wetterlagenhäufigkeit (siehe Teil 1 dieses Winter- Rückblicks) überlagert wurde. Ein nicht unwesentlicher Teil der Erwärmung ist auch der natürlichen Erholungsphase der Lufttemperaturen nach der „Kleinen Eiszeit“ geschuldet.

In Jena und dessen Umland ist die Datenlage zur Ermittlung des UHI- Effekts deutlich schlechter. Hinzu kommen die enormen Höhenunterschiede von teils mehreren hundert Metern, welche Direktvergleiche erschweren. Höhenbereinigung löst das Problem nur bedingt, weil in Thüringen Lee- und Luv- Verhältnisse und starke Inversionen viel größere Temperaturunterschiede auf engstem Raum (siehe Teil 1) erzeugen können, als im nur leicht hügeligen Brandenburg. Mit Dachwig nördlich von Erfurt fanden wir jedoch eine Station mit ähnlicher Höhenlage und konnten die winterlichen Temperaturdifferenzen von Jena und Dachwig seit 1991 ermitteln:

Grafik 3: Zwischen den ähnlich hoch gelegenen Stationen Jena- Sternwarte (Innenstadt) und Dachwig (ländlich) bestand im Wintermittel 1991/92 bis 2014/15 eine UHI- bedingte Differenz von 0,7 K mit leicht abnehmender Tendenz.

Die leicht abnehmende Tendenz des UHI bedarf einer Erklärung: Eine Innenstadt hat ihren städtischen Wärmeinseleffekt schon weitgehend ausgereizt. Weitere bauliche Veränderungen im Zuge einer Innenstadtsanierung ändert am Zustand der Innenwärme meist nichts Entscheidendes („Sättigungseffekt“). Es sind vielmehr die wachsenden Außenbezirke, neue Trabantenvororte, die oftmals in den Frischluftschneisen geplant werden, so dass sich die Innenstadtwärme auch nachts hält und ein Luftaustausch erschwert wird. Der größere Anteil der Urbanisierung findet inzwischen in der Stadtumgebung oder gar auf dem Lande statt. Der gemessene UHI wird kleiner, weil die Geschwindigkeit der Urbanisierung der ländlichen Umgebung größer ist als in der Innenstadt. So erleben wir in Grafik 3, dass das ländliche Dachwig im letzten Vierteljahrhundert gegenüber Jena-Innenstadt aufholt und der UHI (nur relativ) kleiner wird.

Insgesamt bestätigen unsere bisherigen, noch nicht abgeschlossenen Studien winterliche UHI- Differenzen zwischen Großstädten und ländlichen Stationen von etwa 0,6 bis 0,7 K, die bei der Bewertung des winterlichen Temperaturanstiegs seit Beginn der Industrialisierung zu berücksichtigen sind, welche aber nur einen Teil des gesamten, WI- bedingten Temperaturanstieges ausmachen. Wie groß der winterliche Temperaturanstieg durch Verstädterung sogar in einem kürzeren Zeitraum (seit den 1950er Jahren) im Extremfall werden kann, zeigt die folgende Grafik 4 anhand der sehr ländlichen Eifel- Station Schneifelforsthaus im Vergleich mit dem rasant wachsenden Frankfurt/Main, wo der massive Flughafenausbau zusätzlich erwärmend wirkte:

Grafik 4: An beiden Stationen wurde es wärmer. Seit dem Winter 1953/54, dem frühesten Zeitpunkt der Datenverfügbarkeit beider Stationen, hat sich die am Flughafen gelegene Station Frankfurt/M. (blau) um gut 2,4 Kelvin erwärmt; in Schneifelforsthaus (nahezu ohne Siedlungseinfluss, grün) fiel die Erwärmung mit gut 1,2 Kelvin nur halb so hoch aus und dürfte in etwa dem Wirkungseffekt der zunehmend häufigeren Großwetterlagen mit westlichem Strömungsanteil entsprechen.

Überschlagsbetrachtung: Die WI-Spreizung zwischen beiden Stationen beträgt in 62 Jahren 1,2 Kelvin. Die weitere Region, also der größere Umkreis der ländlichen Station Schneifelforsthaus, erfuhr auch eine leichte Erwärmung durch menschliche Eingriffe, welche in der grünen Linie enthalten sind. Wir wollen diese Zusatzwärme in der Überschlagsbetrachtung mit x bezeichnen: Der gesamte flächenhafte WI- Effekt der Klimastation Frankfurt Flughafen in 62 Jahren beträgt somit: WI = 1,2 K + x K

Unterschiede der winterlichen WI- Effekte DWD zu Amtsberg/Erzgebirge

In Grafik 1 zeigten wir den jahreszeitlich schwankenden UHI zwischen einer Stadt und der Umgebung. Mit der Klimastation Amtsberg- Dittersdorf im Erzgebirge fanden wir nun eine Station, deren weitere Umgebung wenigstens in den letzten 30 Jahren etwa gleich geblieben ist. Gleich heißt, es gibt fast keine wachsende menschliche Zusatzwärme in der Region, die ein Thermometer mitmessen könnte. Damit wäre der UHI-Unterschied zu einer WI-behafteten Vergleichsstation auch zugleich der WI-Unterschied für diesen Zeitraum. Die Vergleichsstation sollen in diesem Falle die mehr oder weniger WI- behafteten Stationen des Deutschen Wetterdienstes für unser Land sein, von denen der DWD selbst eingesteht, dass deren Daten nicht WI-bereinigt sind. Als Zeitraum nehmen wir 30 Jahre. Betrachtet werden sollen die Wintertemperaturen, also die Monate Dezember, Januar und Februar.

Grafik 5: Die Deutschlandwerte des DWD sind in braun, die Amtsbergtemperaturwerte in blau aufgetragen. Beide Trendlinien zeigen über 30 Jahre die erwartete WI-Spreizung für die Jahreszeit Winter.

Zunächst mag man erstaunt sein: Selbst die offiziellen (braunen) DWD-Messergebnisse zeigen über die letzten 30 Jahre nur einen minimalen Anstieg der Wintertemperaturen in Deutschland. Die Wärmekatastrophenmeldungen der Medien über viel zu warme Winter können durch die offiziellen, vom DWD ermittelten Werte nicht bestätigt werden.

Nun sind die DWD-Erhebungen aber nicht wärmeinselbereinigt. Das bedeutet: Die Wintertemperaturen der letzten 30 Jahre wären sogar rückläufig, wenn nicht die menschliche Zusatzwärme die erfassten Temperaturen bei den DWD-Stationen angehoben hätte. Der in diesem Zeitraum leicht sinkende Trend von Amtsberg zeigt deshalb den realeren Temperaturverlauf der „Klimaänderung“.

Ergebnis: WI- bereinigt werden die Winter schon seit 30 Jahren etwas kälter in Deutschland. Zu bedenken ist, dass die Station Amtsberg nur fast WI-frei ist. Wir gehen von einem WI- Wert von 0,1 bis 0,2 K aus. Somit wäre die wahre Abkühlungskurve Deutschlands noch ein bisschen fallender als die Amtsberg-Trendlinie.

Betrachten wir längere Zeiträume, dann werden die Trendlinien auch bei Amtsberg steigend, da wir weltweit zwischen 1950 und 1975 ein „Kälteloch“ hatten, die Anzahl der kalten Jahre zu Beginn einer Grafik summiert sich. Aber momentan gilt: Trotz C02-Zunahme in den letzten 30 Jahren sind die Winter fast gleich kalt geblieben. Nächstes Jahr werden es dann 31 Jahre Stillstand der Wintertemperaturen sein.

Fazit: Die heutzutage etwas höheren Wintertemperaturen in Deutschland sind auch eine Folge der nach 1850 einsetzenden Verstädterung (UHI- Effekt). Doch auch weite Teile des Umlandes blieben infolge von Zersiedlung, Verkehr, Entwässerung und Meliorationseffekten sowie der massiven Anlage von Wind- und Solarparks oder Biogas- Anlagen nicht von Erwärmungseffekten verschont. Zwar ist der extrem milde Winter 2015/16 hauptsächlich von der enormen Häufung westlicher Großwetterlagen mit kräftigem Wind verursacht worden, doch haben die verschiedensten WI- Effekte diese Erwärmung noch verstärkt.

Die menschliche Zusatzwärme nimmt einen hohen Anteil bei den vom DWD ermittelten Temperaturen für Deutschland ein. Vor allem bei der Temperaturbetrachtung längerer Zeiträume wird die steigende Trendlinie der DWD- Messungen vom WI nach oben geheizt.

Allgemein gilt: Die angebliche winterliche anthropogene CO2- Erwärmung ist auch eine Wärmeinselerwärmung. Der WI- Effekt ist einer der Haupttreiber des Temperaturanstieges in den letzten 120 Jahren. Natürlich wirken auch noch andere Faktoren mit (CO2 gehört nicht dazu). Und die Wärmeinselerwärmung, die schleichend die gemessenen Temperaturen erhöht, stellt auch keinerlei Gefahr für das Weltklima dar. Natürlich messen auch Satelliten diese Wärmeinselerwärmung, die inzwischen ganze Regionen weltweit erfasst hat, einfach mit, wobei es einen Unterschied gibt: Die irdischen Messstationen befinden sich meist mittendrin, während die Satelliten die gesamte, in weiten Bereichen WI- freie Erdoberfläche erfassen.

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, unabhängiger Natur- und Klimaforscher




Fünf vermögende Umweltaktivisten, die von der globalen Erwärmung profitieren

Zählt man nur das Geld in Privateigentum, stellen Umweltgruppen ihre Gegner weit in den Schatten. Gegner des Aktivismus‘ bzgl. der globalen Erwärmung machen jährlich nur 46 Millionen Dollar locker, gegeben von 91 konservativen Think Tanks. Dies geht aus einer Analyse von Forbes hervor. Das ist etwa sechs mal weniger als das Budget von Greenpeace im Jahre 2011 in Höhe von 260 Millionen Dollar, und Greenpeace ist nur eine von vielen Umweltgruppen: Die unleugbare Wahrheit ist, dass die Aktivisten der globalen Erwärmung viel mehr Geld locker machen und wieder ausgeben als ihre Opponenten.

1:Al Gore

Der Aktivismus bzgl. derglobalen Erwärmung des ehemaligen Vizepräsidenten hat geholfen, das Vermögen seines Netzwerkes von 700.000 Dollar im Jahre 2000 bis zum Jahr 2015 auf einen geschätzten Wert von 172,5 Millionen Dollar zu bringen. Gore sowie der ehemalige Chef von Goldmann Sachs Asset Management erzielten zwischen 2008 und 2011 Profite in Höhe von 218 Millionen Dollar, und zwar durch ein Kohlenstoffhandel-Unternehmen das sie mit gegründet hatten. Bis 2008 war Gore in der Lage, atemberaubende 35 Millionen Dollar in Hedgefonds und andere Investments zu pumpen.

Gore hat auch ein bemerkenswertes Register von Investitionen in Unternehmen, unmittelbar bevor diese riesige Zuwendungen von der Regierung erhielten (hier).

2:Elon Musk

Dieser Milliardär sitzt einer Reihe von Unternehmen vor wie z. B. Tesla Motors und SolarCity, welche sich in Milliarden regierungsamtlicher Subventionen wälzen.

Im Jahre 2014 erhielt Musk 1,4 Milliarden Dollar von den Steuerzahlern in Nevada, um eine „Gigafabrik“ zu errichten für sein Elektrofahrzeug-Unternehmen Tesla Motors. SolarCity erhielt ebenfalls große Summen, um nach Nevada zu ziehen. Musk half auch bei der Gründung von SolarCity und fungiert immer noch als deren Vorsitzender.

Als Nevada Änderungen an den Subventionen für Solarenergie durchführte dergestalt, dass Musk oder SolarCity nicht mehr begünstigt waren, verließ das Unternehmen den US-Staat (hier).

Tesla verkauft auch Lithium-Ionen-Batterien Powerwalls für bloße 7340 Dollar, um Strom für Haushalte zu speichern (hier). Die ursprüngliche Absicht von Powerwall war es, Solarpaneele auf Dächern ökonomisch für Verbraucher zu machen. Powerwalls sollen sich geschätzt nach etwa 40 Jahren amortisieren (hier). Natürlich bietet Tesla lediglich Garantien für 5 bis 10 Jahre an (hier) und prophezeit, dass die Batterien nur etwa 15 Jahre lang halten werden.

3:Warren Buffet

Der Milliardär Warren Buffet hat sehr viel in Stromversorgungsunternehmen investiert wie NV Energy und hat auch von der lukrativen grünen Energie profitiert. Buffets Unternehmen Berkshire Hathaway Energy hat bis zu 30 Milliarden in grüne Energiequellen investiert (hier).

Buffet war federführend bei der Lobbyarbeit bei der Regierung von Nevada bei der Revision von Vorschriften bzgl. Net-Metering zugunsten der Versorger. Diese eine Änderung der Politik führte dazu, dass der rivalisierende Milliardär Elon Musk etwa 165 Millionen Dollar an einem einzigen Tag verlor (hier).

4:Vinod Khosla

Der indische Milliardär hat über 1 Milliarde Dollar (hier) seines eigenen Geldes, ebenso wie dasjenige der Regierung, in 50 verschiedene grüne Energie-Startups gepumpt. Er stand hinter einigen der spektakulärsten Pleiten der Greentech-Industrie. Trotz dieser wiederholten Flops pumpte er weiterhin Geld in grüne Energie, wie die New York Times schreibt.

Khosla hat viel Geld in Äthanol investiert. Dass sich dies rechnet, ist stark abhängig von der Vorschrift der US-Bundesregierung, dass in den USA verkauftes Benzin eine bestimmte Menge Äthanol enthalten muss. Steuernachlässe für Äthanol haben die Regierung bis zu 40 Milliarden Dollar zwischen 1978 und 2012 gekostet, wie The National Review schreibt.

Khosla hatte stark in das Äthanol-Unternehmen KiOR investiert und hat das Unternehmen in einem Interview noch in den Himmel gehoben. KiOR machte im November 2014 pleite und verheerte den US-Bundesstaat Mississippi, welcher KiOR einen zinslosen Kredit über 20 Jahre in Höhe von 75 Millionen Dollar gewährt hatte (hier), nachdem Khosla dem Staat versichert hatte, dass er Fabriken im Wert von 500 Millionen Dollar errichten würde, was 1000 Arbeitsplätze geschaffen hätte.

5:James Cameron

Filmregisseur James Cameron hat ebenfalls gewaltig vom Umweltaktivismus profitiert und hat eine lange Geschichte des Grünseins vorzuweisen. Er hat sich sogar zu der Behauptung verstiegen, dass „wir in einer Weise mobil machen müssen wie während des 2. Weltkriegs“, um die globale Erwärmung zu bekämpfen (hier).

Befragt zu Wissenschaftlern, die hinsichtlich der globalen Erwärmung skeptisch sind, behauptete Cameron „ich möchte diese Leugner herausrufen auf die Straße um 12 Uhr mittags und dies aus ihren Holzköpfen hinausschießen. Anybody that is a global-warming denier at this point in time has got their head so deeply up their a** I’m not sure they could hear me.” [Ich weigere mich, das zu übersetzen! Anm. d. Übers.]

Der umweltorientierte Film „Avatar“ brachte Cameron über 650 Millionen Dollar ein, was ihn zu einem der reichsten Regisseure aller Zeiten machte (hier) mit einem geschätzten Gesamtvermögen in Höhe von 700 Millionen Dollar.

Link: http://dailycaller.com/2016/02/08/5-moneyed-environmentalists-who-profit-off-global-warming/

Übersetzt von Chris Frey EIKE