1

Rundbrief der GWPF von Ende April – Energie

Eingeschaltet: der neueste Tokamak Fusions-Reaktor in UK

Die in Oxfordshire ansässige Firma Tokamak Energy hat zum ersten Mal ihren jüngsten Fusionsreaktor angeschaltet und will erreichen, dass er im nächsten Jahr 100 Millionen Grad Celsius erreicht. Bekannt unter der Bezeichnung ST40 repräsentiert der Reaktor den dritten von fünf Schritten auf dem Plan des Unternehmens, bis zum Jahr 2030 die erste Fusionsenergie in das Netz zu speisen.

Kontrollierte Fusion erfordert Temperaturen über 100 Millionen Grad Celsius, aber ein privat finanziertes Unternehmen hat dieses Ziel noch nie erreicht. Um diesmal erfolgreich zu sein konzentriert man sich bei Tokamak Energy auf kompakte, sphärische Tokamak-Reaktoren, glaubt man doch, dass diese schneller zu entwickeln sind und den schnellsten Weg zu kommerzieller Fusionsenergie bieten. The Engineer, 28. April 2017

Der erste kommerzielle Fusionsreaktor nimmt erste Hürden zur Energieerzeugung

Der neueste Fusionsreaktor ist eingeschaltet worden und hat UK einen Schritt weiter gebracht zur Stromerzeugung mit der Energie der Sterne. Man erwartet, dass das Kernstück des Tokamak ST40-Reaktors – eine superheiße Wolke elektrisch geladenen Gases oder Plasma – bis zum Jahr 2018 eine Temperatur von 100 Millionen Grad Celsius erreicht. Der neue Reaktor wurde in Milton Park in Oxfordshire von der Firma Tokamak Energy gebaut, einem privaten Unternehmen, welches Pionierarbeit leistet zur Entwicklung von Fusionsenergie in UK und der Welt. Wir enthüllen die erste Weltklasse-Anlage zur kontrollierten Fusion, gebaut und betrieben von einem privaten Unternehmen. Die ST40 ist eine Maschine, welche zeigen wird, dass Fusionstemperaturen – 100 Millionen Grad – in kompakten, kosteneffektiven Reaktoren erreicht werden können. Dies wird es gestatten, Fusionsenergie in Jahren und nicht Jahrzehnten zu bekommen. Energy Voice, 28. April 2017

Wir alle sind Opfer des Großen Grünen Schwindels

Unsere Besessenheit, Kohlenstoff-Emissionen zu reduzieren, hat schreckliche Konsequenzen gezeitigt. Unsere Versuche, altruistisch zu sein, haben den Verwundbarsten viel eher Schaden zugefügt als ihnen zu helfen. Fast genauso schlimm ist, dass jene 11 Millionen Menschen, die derzeit ein Dieselfahrzeug fahren, bestraft werden, weil sie vor einem Jahrzehnt dem Ratschlag der Regierung gefolgt waren, dass Dieselfahrzeuge helfen würden, die CO2-Emissionen des Landes zu reduzieren. Es sind die Autohersteller, die nach wie vor höchste Profite durch diesen großen grünen Schwindel einstreichen – die Verbraucher sind es mit Sicherheit nicht. Politische Berater in Downing Street weisen darauf hin, dass Theresa May auf der Seite der Verbraucher steht und skeptisch ist hinsichtlich der jüngsten, überaus einträglichen Umweltmarotte. Im vorigen Jahr hat der Stabschef der Premierministerin den Climate Change Act, welcher die Wurzel eines großen Teils dieser fehlgeleiteten Politik war, ein „monströses Gesetz nationaler Selbstbeschädigung“ genannt. Er hatte recht. Sobald die Wahl vorüber ist, braucht UK eine koordinierte Energie-Strategie und einen neuen Clean Air Act, um die Umwelt zu schützen und das Vertrauen in die Politik der Regierung wiederherzustellen. – Alice Thomson, The Times, 26. April 2017

Energiepolitik während der ersten 100 Tage von Präsident Trump

Der 29. April markiert das Ende der ersten 100 Tage von Donald Trump als Präsident. Er viele bedeutende Maßnahmen im Bereich Energie- und Klimapolitik ergriffen und scheint auf diesem Weg weiterzugehen. Was aber natürlich wirklich zählt ist, was er während der nächsten zwei bis vier Jahre erreicht und wie viel seiner Energie-Agenda danach noch in kraft ist. Journalisten und und Kritiker fahren fort, Präsidenten bzgl. ihrer ersten 100 Tage zu vergleichen, teils wegen des Einflusses von Pro-New-Deal-Historikern [?], welche jene Metrik popularisieren, um sicherzustellen, dass frühe legislative Leistungen immer als sehr eindrucksvoll erscheinen. Damit hat sich Präsident Trump selbst als ein großer Erfolgstyp bzgl. Politik erwiesen, welcher seinen wirtschaftlichen Erfolgen in nichts nachsteht. – Marlo Lewis Jr, Competitive Enterprise Institute, 25. April 2017

Der Preis von Europas grüner Narretei: Gazprom weidet sich an seiner Dominanz in Europa

Den neuesten Nachrichten zufolge sicherte die Nord Stream-Pipeline 2 von Gazprom 50% seiner Finanzierung durch Darlehen/Kredite [loans] von fünf europäischen Unternehmen. Der Generaldirektor des in Staatsbesitz befindlichen Unternehmens verhehlte seine Freude nicht. „Heute brechen wir unseren Rekord aus dem Jahr 2016 um 10 Prozent. Daher können wir in diesem Jahr neue Rekorde erwarten, und der Marktanteil von Gazprom in Europa sieht einem weiteren Anstieg entgegen“, sagte Alexej Miller in einem Interview mit Reuters. Miller hat da nicht ganz unrecht. Egal wie stark Europa dafür agitiert hat, von russischem Gas unabhängig zu werden, hat der Kontinent in Wirklichkeit seine Abhängigkeit von Gazprom seit der Annexion der Krim erhöht. Gazprom hält die Trumpfkarte in dieser Beziehung, hat es doch seine Fähigkeit und seinen Willen gezeigt, seine Versorgung im Mittwinter einzustellen, um seinem Ärger über seine Verbraucher Ausdruck zu verleihen. The American Interest, 27. April 2017

Übersetzt von Chris Frey EIKE




Das Energiewende-Desaster – und der langsame Tod der Grünen

Im März rief mich ein alter Freund an, um mir zwei Neuigkeiten mitzuteilen: erstens, er beabsichtige aus der evangelischen Kirche auszutreten. Zweitens, er werde nie wieder grün wählen. In beiden Fällen trennt er sich von einem Teil seines Lebens. Kirchenmitglied ist – beziehungsweise war – er seit seiner Konfirmation. Die Grünen wählte er zum ersten Mal 1983 und seitdem immer wieder, wenn auch seit 2002 mit abnehmender Begeisterung. Er gehörte zu den Anhängern, die damals vor der Raketenbasis Mutlangen demonstrierten und Petra Kelly zuhörten. Wenn Leute wie er sich abwenden, dann bricht gerade der Boden unter den Füßen einer Partei ein, die jahrelang die Position einer inoffiziellen Regierungspartei in Deutschland einnahm. Heute stehen die Grünen in bundesweiten Umfragen zwischen fünf und sechs Prozent – der schwächste Wert seit 15 Jahren, nur einen Schritt entfernt vom außerparlamentarischen Schicksal. In Nordrhein-Westfalen verfassten grünen-nahe Organisationen gerade eine Art Bettelbrief an die Wähler, die Partei am 14. Mai doch bitte über die Fünf-Prozent-Schwelle zu hieven.

Was ist passiert mit einer den Grünen, die bis vor kurzem noch alles fordern, alles behaupten konnten, deren Politiker stets im Bewusstsein auftraten, jeden Widerspruch wegwedeln zu können?

Es ist genau diese bis zum Überdruss exekutierte Geste, die selbst die Treuesten mittlerweile anödet: der hochfahrende, selbstgerechte Platzverweis für die Realität. Nirgends zeigt sich das prägnanter als in dem grünen Großprojekt schlechthin, der Energiewende. Keine einzige Verheißung , mit der die Grünen für diesen Wirtschaftsumbau trommelten, erfüllte sich: der Strom kostet die Verbraucher heute so viel wie nie zuvor, die durch das EEG umverteilte Subventionssumme erreichte 2016 mit 23 Milliarden Euro einen Höchststand, die ohnehin bescheidene Zahl der Beschäftigten in der Ökobranche sinkt seit 2011, der CO2-Ausstoß, der den Energiewende-Agitatoren angeblich so wichtig ist, stieg dafür auch von 2015 zu 2016 an. Und auch nach 17 Jahren gibt es keine einzige Grünenergieanlage, die ohne Subventionen wirtschaftlich überleben könnte.

Schon die ersten Ausgabe des Buchs „Der Grüne Blackout. Warum die Energiewende nicht funktionieren kann“ hatte belegt, dass die Energiewende nicht etwa an boshaften Gegnern scheitert, sondern an ihrer eigenen Fehlkonstruktion. Das Hörbuch als dritte Auflage des Titels führt die Analyse bis ins Jahr 2017 und beschreibt entlang nüchterner Zahlen und Fakten den grün getünchten Irrsinn prägnanter als je zuvor.

Mittlerweile fällen nahezu alle Experten ein und dasselbe Urteil, selbst ein vorübergehend luzider Ex-Bundeswirtschaftsministers Sigmar Gabriel, der beim Besuch des Unternehmens SMA Solar in Kassel besuchte am 17. Mail 2014 meinte: „Die Energiewende steht kurz vor dem Aus. Die Wahrheit ist, dass wir die Komplexität der Energiewende auf allen Feldern unterschätzt haben. Die anderen Länder in Europa halten uns sowieso für Bekloppte.“

  • Ein von der Bundesregierung selbst berufener Sachverständigenrat kritisierte 2014 eine „marktferne Ausrichtung“ der Energiewende.
  • Das ebenfalls im der Bundesregierung beauftragte Beratungsunternehmen McKinsey stellte im Jahr 2016 fest, die Energiewende würde alle selbstgesetzten Ziele verfehlen.
  • Zuletzt urteilte der Bundesrechnungshof im Januar 2017: „Elementare Fragen wie ,Was kostet die Energiewende den Staat?‘ oder ,Was soll die Energiewende den Staat kosten?‘ werden nicht gestellt und bleiben unbeantwortet.“

Angesichts der Milliardenverschwendung, der Ineffizienz der meisten deutschen Grünstromanlagen, des Widersinns, mit dem teuer subventionierter Grünstrom mit horrenden Kosten nach Frankreich und Belgien verklappt wird, weil ihn hier niemand braucht, angesichts der gigantischen Landschaftszerstörung im Namen der Weltrettung stellt sich die drängende Frage: warum geht der Wahnsinn trotzdem weiter?

Die Antwort: den Profiteure der Energiewende geht es immer noch gut. Die 23 durch das EEG im Jahr 2016 umverteilten Milliarden sind schließlich nicht weg, sie landen nur woanders. Auf den Konten der Grundbesitzer beispielsweise, die pro Jahr zwischen 40 000 und 100 000 Euro Pacht für ein Windrad auf ihrem Boden kassieren. In den Taschen von Geschäftsleuten, die nach wie vor Bürgermeistern und Bürgern Anteile an Windparks aufschwatzen. In den Bilanzen der Windradproduzenten wie Enercon. Und nicht zuletzt – auf dem Umweg über Spenden – in der Kasse der Grünen. Im Jahr 2016 kassierten die Grünen die höchste Einzelspende unter allen Parteien – 600 000 Euro in zwei Tranchen, überwiesen von dem Finanzmanager Jochen Wermuth, dessen Fonds in so genannte grüne Energie investiert.

Aus der ehemaligen Anti-Establishment-Partei, die mein Freund ab 1983 wählte, ist der rücksichtslose Vollstrecker einer öko-gelabelten Industrie geworden. Das Verdienst der Grünen besteht vor allem darin, dass sie jahrelang alle Kritiker der Energiewende erfolgreich als Ewiggestrige, Ignoranten und Büttel der Energiekonzerne denunzieren konnte.

Das Hörbuch „Der grüne Blackout“ schlägt den großen Bogen vom Beginn des EEG im Jahr 2000 über die hysterische Beschleunigung nach Fukushima im Jahr 2011 bis zum offenkundigen Scheitern des Großen Plans. Das Projekt wird vermutlich trotz des offenkundigen Desasters erst sterben, wenn Grüne die Politik in Deutschland nicht mehr bestimmen.

Dieser Zeitpunkt allerdings scheint näher zu rücken.

Alexander Wendt: „Der grüne Blackout. Warum die Energiewende nicht funktionieren kann“, Hörbuch/MP3-Datei als 3. erweiterte und aktualisierte Auflage /Sprecher: Mark Bremer

John-Verlag, 14,99 Euro

https://www.amazon.de/Gr%C3%BCne-Blackout-Warum-Energiewende-funktionieren/dp/3942057891/ref=sr_1_4?ie=UTF8&qid=1483360238&sr=8-4&keywords=Der+Gr%C3%BCne+Blackout

 

 

 




Elektroautos und Microsoft, der Beginn einer Erfolgs­geschichte

Beschreibung der SZ zum BMW i3 Vorgängertyp: … diesem Akku gingen nämlich oft schon knapp jenseits der 100-Kilometer-Marke die Reserven aus. Bei winterlicher Kälte sogar deutlich früher

Doch nun ist alles besser geworden. Der Neue kann inzwischen alles (was man laut der SZ braucht), zumindest sei die Reichweitenanzeige (endlich) verlässlich. Zum Laden benötigt er daheim 9:30 Stunden, an einer öffentlichen Leistungstankstelle 2:45 Stunden und an einer der ganz wenigen Super-Schnelladesäulen 40 Minuten – wobei sich das Letzte ein stolzer Besitzer gut überlegen wird, denn darunter leidet die Batterie-Lebensdauer – und ganz voll wird sie dabei vorsichtshalber auch nicht.

Die Gefahr, dass die in Deutschland seitens unserer Regierung geplanten, eine Millionen Elektroautos liegengeblieben die Standstreifen der Autobahnen oder die Parkflächen der Rastanlagen beim Warten auf Stromzugang belegen, braucht man sich nicht zu machen, denn die Empfehlung lautet: … auf Autobahnen ist der i 3 aber deplatziert. Hohe Geschwindigkeiten strapazieren die Batterie einfach viel zu stark ...
Allerdings darf man auf der Autobahn auch langsam fahren, sofern es einen triftigen Grund dafür gibt. Und „Reichweitenangst“ (siehe EIKE: Reichweitenangst, die neue Volkskrankheit) werden alle Psychologen dazu erklären, womit die Gefahr der Fahrspurbelegung durch in „Traktorengeschwindigkeit“ dahin schleichender Elektroautos nicht ganz gebannt ist und die bald bei uns „fehlenden“ Holländer [1] auf den Autobahnen doch noch pünktlich genug „ersetzen“ kann:
Auto Zeitung: Autobahn-Mindestgeschwindigkeit: Wie langsam ist erlaubt?
Es ist ein weit verbreiteter Irrtum, dass auf Autobahnen eine festgelegte Mindestgeschwindigkeit herrscht. Die Straßenverkehrsordnung schreibt lediglich vor, dass Autobahnen nur von Fahrzeugen benutzt werden dürfen, die baulich in der Lage sind, schneller als 60 km/h zu fahren.
Das bedeutet jedoch nicht, dass man auch mit einem schnelleren Fahrzeug beliebig vor sich hinschleichen darf. Wer nämlich ohne triftigen Grund langsam fährt und dadurch andere Verkehrsteilnehmer behindert, verstößt gegen die Straßenverkehrsordnung.

Eine Zukunftsvision (des Autors) vermutet deshalb, dass mobile (Diesel-betriebene?) Ladestationen bald die omnipräsenten DIXI-Klos im Straßenbild ablösen könnten.

Doch zum eigentlichen Thema
Ältere werden sich noch erinnern, wie man zu Beginn der Microsoft-Zeit mit DOS-Betriebssystem immer sehnsüchtig auf ein neues Update wartete, da immer noch (zu) viele Funktionen fehlten. Elektroautos wiederholen gerade diese einzigartige Erfolgsgeschichte:
SZ: „ … Vernünftiger ist es aber, bis 2018 zu warten. Denn dann, so heißt es jedenfalls, soll ein weiteres Batterie-Update eine Norm-Reichweite von bis zu 450 Kilometern ermöglichen.
Und so, wie man sich damals teils mit Fremdprogrammen zwischenzeitlich behelfen musste, ist es auch beim Elektroauto:
SZ: „Wer seine Sorgen dennoch nicht los wird, ergänzt den i 3 mit einem Range Extender, einem Benzinmotor, der die Batterie auflädt. Dann kostet der BMW allerdings ... „

Man versteht auf einmal, warum Vorstände wie der Daimler-Chef den (zwangs-)Umbruch so enthusiastisch begrüßen:
EIKE: Freunde, wollen wir trinken, auf die schöne kurze Zeit … und auch die Autobauer wollen die Transformation in die CO2-freie Zukunft
Diese Gelegenheit, nicht ausreichende Eigenschaften verkaufen zu dürfen und Kunden dazu zu bringen, ihr Produkt, bevor es regulär unbrauchbar wird, laufend zu erneuern, dies aber als Innovation zu preisen, bot sich bisher nur in der Softwarebranche. Nur da (wenn die SW ein eigenes Produkt ist) sind Mängel nicht nachbesserungspflichtig – sonst wäre Bill Gates schon nach den ersten Wochenenden seiner DOS-Garagenbastelei pleite gewesen.
Jedenfalls ist dank Elektroautos endlich das Autobauer-Paradies in Reichweite: Das Auto-Ende lässt sich vom Hersteller über Updates der Batteriesätze steuern.
Als Lösung wird unserer Regierung aber etwas einfallen: Es könnte zum Beispiel sein, dass Elektroautos als Sperrmüll entsorgt werden dürfen.

Und abwarten, der Softwareanteil im Auto wird auch immer höher – das Spiel mit dem Updatezwang und nicht mehr möglicher Hochrüstung kann sich dann nochmals wiederholen.

Quellen

[1] FOCUS: Ab 2025 nur noch Elektroautos Niederlande wollen Verkauf von Diesel- und Benzinautos verbieten

[2] EIKE 26.07.2016: Reichweitenangst, die neue Volkskrankheit




Es darf ruhig noch kälter und schlimmer werden – der April war immer noch zu warm

DWD Pressemitteilung: Deutschlandwetter im April 2017
Anfangs für die Jahreszeit zu warm, dann verbreitet Spätfröste
… Die Durchschnittstemperatur im April 2017 entsprach mit 7,5 Grad Celsius (°C) fast genau dem Soll der international gültigen Referenzperiode 1961 bis 1990 von 7,4 °C. Gegenüber der Vergleichsperiode 1981 bis 2010 betrug die Abweichung -0,8 Grad …

Die Konsequenz daraus liest sich wie eine mittelalterliche Unwetterbeschreibung zu Beginn eines Hungerjahres:
DWD Pressemitteilung:
Niedersachsen und Bremen: Hagel verwandelte dabei die Stadt Wunstorf und ihre Umgebung vorübergehend in eine weiße Landschaft.
Sachsen: Gebietsweise große Schäden verursachten Spätfröste in der Nacht zum 20. April in der Landwirtschaft, vor allem an Weinreben und Obstbaumblüten.
Hessen: In der Nacht zum 20. entstanden an Weinreben und Obstbaumblüten erhebliche Frostschäden.
Rheinland-Pfalz: Spätfröste bis -6 °C führten in der Nacht zum 20. zu erheblichen Frostschäden an Weinreben und Obstbaumblüten.
Saarland: Spätfröste bis zu -7 °C führten am 20. zu Frostschäden an Weinreben. Ungewöhnlich: Die Station Perl-Nennig verzeichnete insgesamt 21 Frosttage im April.
Baden-Württemberg: Große Schäden richteten Spätfröste in den Nächten zum 20. und 21. an Weinreben und Obstbaumblüten an. Im Südschwarzwald, so in Singen und Buchenbach, gab es örtlich neue Rekorde bei den April-Tiefstwerten.
Bayern: Spätfröste verursachten in den Nächten zum 20. und zum 21. Schäden am Frankenwein und an Obstbaumblüten.

Andere Meldungen:
Topagrar.com, 22.04.2017: Frostschäden: Ausfallrate bei Weinreben zwischen 10 und 95 Prozent
MDR JUMP 21.04.2017: Obstbauern und Winzer bangen um die Ernte
proplanta: Österreich: Enorme Frostschäden im Obstbau
Klagenfurt – Heftiger Schneefall hat einen «Jahrhundertschaden» für Österreichs Landwirte ausgelöst. Auf rund 100 Millionen Euro schätzte allein das Agrarministerium der Steiermark den Schaden in den Obstplantagen durch Schnee und Frost.

Zum Glück sind Bauern in Deutschland ziemlich überflüssig geworden, außer sie produzieren vorwiegend Mais zur EEG-Biogasanlagen-Fütterung, der nicht so sensibel auf das geforderte, kalte Wetter reagiert. Und die Biobauern, denen ein solches Wetter noch weit schlimmer zusetzt, „ernähren“ sich sowieso vorwiegen über Subventionen [3], deshalb stört es diese (dass unsere Regierung ihnen noch mehr Kälte vorschreibt) wohl nicht so sehr.

Und so darf man konsequent und mit viel, viel Geld weiter daran „arbeiten“, auf dass es noch etwas kälter würde, denn wie Bild 1 zeigt, sind zur Erreichung der „glücklichen“-vorindustriellen Temperaturen noch einige Grad Celsius Luft nach unten.

Bild 1 DWD Märztemperaturen seit 1750. Linke Skala Temperaturen, rechte Skala 30-Jahre Mittel. Grafik vom Autor anhand der DWD-Daten erstellt

Allerdings hatte der gerade vergangene April schon einmal die Temperatur wie um 1750, und war zum „Üben“, was Kälte für die Landwirtschaft bedeutet – und warum damals so viele Hungersnöte waren – ein kleiner Fingerzeig. Es führte damals in der Not zu einer tiefen Volks-Frömmigkeit und das wird heute von unseren „Eliten“ gegenüber der alles wissenden Ökokirche schmerzlich vermisst:

Professor Ernst-Peter Fischer von der Universität Heidelberg (Wissenschaftsgeschichte) fordert: [1] Wir müssen insgesamt in der Lage sein, den Politikern, die wirklich nachhaltig denken und vorgehen wollen, zu glauben.“

Anhand des Aprilverlaufs lässt sich wieder (wie beim Märzrückblick [2]) sehen, dass der Temperaturanstieg entgegen den Verkündigungen unserer „Klimawissenschaftler“ vor der Industrialisierung begann und damit wenig mit dem anthropogenen CO2 zu tun hat. Doch wem erzählt man das immer wieder [4]? So lange es nur für die gegenteilige
„Er-“Kenntnis Fördermittel gibt und dafür sogar das Volk, angeführt von „Intelligenz“, zum Beispiel auch Claudia Kemfert:
Klimaretter.Info: Aufbruchstimmung im Elfenbeinturm,
alternativ EIKE: Betreff: March for Science am 22.4.2017,
auf die Straße geht, wird sich so schnell nichts daran ändern.

Ergänzend, wie bei jedem Monatsrückblich, die dankenswerter Weise beim DWD hinterlegte Vorschau bis zum Jahr 2100. Die Grafik ist zwar noch vom letzten Jahr, hat sich aber nur insoweit verändert, als dass der aktuell April um 0,4 °C kälter wurde. Wenn die Computer richtig rechnen (was sie bisher beim Klimavorhersehen seltenst taten) können zumindest die verbliebenen Bauern etwas aufatmen.

Bild 2 DWD-Klimaatlas Märztemperatur-Verlauf 1881 bis 2016 mit Simulation bis zum Jahr 2100

Etwas längerfristig in die Zukunft geschaut, sieht es dann jedoch kritischer aus, außer der ganz große „Klimahellseher“ und Papstberater, Prof. Schellnhuber behält recht und die zyklisch bereits anstehende, nächste Eiszeit fällt erstmals seit 500.000 Jahren wirklich aus [5] [6].

Bild 3 Temperaturverlauf der letzten 450.000 Jahre. Quelle: climate4you.com – Ole Humlum – Professor, University of Oslo Department of Geosciences. Vom Autor um Angaben zu den letzten vier Eiszeiten der Alpen ergänzt

Quellen

[1] EIKE 08.03.2017: In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht Klimaschutz Mut

[2] EIKE 07.04.2017: Ist der März in Deutschland endlich wieder so warm wie vor 1000 Jahren?

[3] EIKE 19.09.2016: Biobauern sind die größten Lebensmittel-Vernichter Ohne Klimawandel überlebt die Biolandwirtschaft ihre Ernteverluste nicht
[4] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

[5] EIKE 17.10.2015: Fällt die nächste Eiszeit aus? PIK Chef Schellnhuber behauptet: Ja, so sicher wie das Amen in der Kirche!

[6] EIKE 25.12.2016: Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein




Neue Studie: ,Stillstand‘ bestätigt – und das Scheitern der Klimamodelle

Macht nichts, diese heute in Nature Climate Change veröffentlichte Studie von Hedemann et al. bestätigt nicht nur den „Stillstand“ der globalen Temperatur, sondern zeigt auch einen Grund dafür auf: „… der Stillstand könnte auch der internen Variabilität des Energie-Ungleichgewichtes an der Obergrenze der Atmosphäre (TOA) geschuldet sein“.

Das ist eine wichtige Aussage, zeigt sie doch, dass trotz vieler Behauptungen des Gegenteils ein CO2-getriebener Antrieb der planetarischen Temperatur nicht der Kontrollknopf ist und dass die natürliche Variabilität nach wie vor im Spiel ist.

Beachten sollte man auch den Rückgang, markiert durch die beiden farbigen ,X‘ in Abbildung 1:

Modelle und Beobachtungen fangen nicht einmal an, irgendwelche Übereinstimmungen zu zeigen.

Die spitzfindigen Ursprünge von Erwärmungs-Stillständen

Christopher Hedemann, Thorsten Mauritsen, Johann Jungclaus & Jochem Marotzke
AffiliationsContributionsCorresponding author
Nature Climate Change (2017) doi:10.1038/nclimate3274
Received 12 July 2016 Accepted 17 March 2017 Published online 17 April 2017

Während der ersten Dekade des 21. Jahrhunderts erwärmte sich die Erdoberfläche langsamer als von den Klimamodellen simuliert (1). Dieser Stillstand der Erwärmung wird in manchen Studien Modellfehlern bei den externen Antrieben zugeschrieben (2, 3, 4), während Andere auf Wärme-Umverteilungen in den Ozeanen hinweisen (5, 6, 7, 8, 9, 10), für welche die interne Variabilität ursächlich ist. Das Timing derselben kann von den Modellen nicht vorhergesagt werden (1). Allerdings sind sich Analysen von Beobachtungen nicht einig, welche Region der Ozeane dafür in Frage kommt (11, 12, 13, 14, 15, 16). Hier zeigen wir, dass der Stillstand seine Ursache auch im Energie-Ungleichgewicht an der Obergrenze der Atmosphäre haben könnte. Eine Energie-Budgetierung der Oberflächenschicht der Ozeane mittels eines 100 Member zählenden historischen Ensembles zeigt, dass Stillstände verursacht werden durch Abweichungen der Energieflüsse, die so gering wie 0,08 W/m² sein können. Sie können ihren Ursprung an der Obergrenze der Atmosphäre, im Ozean oder in beidem haben. Die Budgetierung mittels bestehender Beobachtungen kann den Ursprung des gegenwärtigen Stillstandes nicht belegen, weil die Unsicherheit in den Beobachtungen die geringen Abweichungen der Flüsse marginalisiert, welche einen Stillstand verursachen können. Die Sensitivität dieser Fluss-Abweichungen in den Beobachtungs-Datensätzen und im Energiehaushalt helfen zu erklären, warum frühere Studien einander widersprechen, und zeigt, dass der Ursprung des gegenwärtigen Stillstandes vielleicht niemals herausgefunden werden kann.

http://www.nature.com/nclimate/journal/vaop/ncurrent/full/nclimate3274.html
(paywalled)

Aus der Introduction:

Die Temperatur der Erde hat sich von 1998 bis 2012 langsamer erwärmt als man aus Untersuchungen der meisten Modell-Projektionen oder des langzeitlichen Erwärmungstrends erwarten konnte. Selbst obwohl einige Studien jetzt die Abweichung vom langzeitlichen Trend Mess-Verzerrungen zuordnen, bleibt die Lücke zwischen Beobachtungen und Modellen bestehen. Die beobachteten Abweichungen des Trends bis zu -0,17°C pro Dekade von den CMIP5-Projektionen sind zwei bis vier mal größer als der beobachtete Trend. Der Stillstand ist daher nach wie vor eine Herausforderung für die Klimawissenschaft.

Die wichtigsten Auszüge aus der Studie:

Der Input des gekoppelten Klimamodells MPI-ESM1.1 besteht aus dem vom CMIP5 vorgegebenen historischen Antrieb von 1850 bis 2005 und wurde erweitert bis 2015 mit dem RCP4.5-Szenario. Liegt die rote Linie über der grauen Linie zeigt mindestens ein Ensemble-Member einen Stillstand, definiert als eine Abweichung von über 0,17°C pro Dekade unter dem Ensemble-Mittel. Diese Abweichung ist die gleiche wie die Lücke zwischen dem Ensemble-Mittel des CMIP5 (schwarzes Kreuz) und den beobachteten GMST-Trends (gelbes Kreuz) für den Zeitraum 1998 bis 2012. Die Linien repräsentieren die Anzahl der Ensemble-Mitglieder in Bündeln von 0,05°C pro Dekade.

Aus unserer Analyse der Beobachtungen sind wir nicht in der Lage, eine TOA-Anomalie als mögliche Ursache des gegenwärtigen Stillstandes auszuschließen. Bezieht man die Beobachtungen auf ein alternatives Energie-Budget (anstatt auf dasjenige des großen Ensembles), könnte sich die absolute Position des grünen und gelben Kreuzes verschieben. Allerdings würde sich der relative Abstand voneinander und die Größe ihrer Fehlerbalken nicht ändern.

Die Rolle der TOA und des Ozeans in jedem Stillstand kann bestimmt werden mittels Vergleich ihrer Relativ-Beiträge zur Anomalie der Fluss-Divergenz. Für Stillstände im großen historischen Ensemble ist die negative (Abkühlungs-) Anomalie in 12% aller Fälle vollständig durch die TOA verursacht und durch den Ozean in 24% aller Fälle. In den verbleibenden Fällen (64%) wird die negative Anomalie verursacht durch TOA und Ozean zusammen (unterer linker Quadrant in der Abbildung). Die Variabilität der TOA ist folglich in 76% aller Fälle von Stillstand involviert.

Wir kommen zu dem Ergebnis, dass die TOA eine Quelle signifikanter interner Variabilität während des Stillstands sein kann. Unsere Ergebnisse sind nicht ein Artefakt der vom Modell erzeugten TOA-Variabilität, erzeugt doch das große Ensemble eine TOA-Variabilität, die den Mess-Aufzeichnungen ähnlich ist. Vielmehr stehen unsere Ergebnisse auf der Grundlage eines einfachen, aber dennoch robusten Prinzips, nämlich dass die Oberflächenschicht der Erde eine geringe Wärmekapazität aufweist. Die Temperatur an der Oberfläche kann daher durch kleine Variationen der großen, sich teilweise gegenseitig aufhebenden Flüsse beeinflusst werden, welche dieses größere Energie-Budget ausmachen. Vergleicht man die geringe Variabilität des TOA-Ungleichgewichtes mit dem Gesamt-Ungleichgewicht der TOA im Zuge der globalen Erwärmung, wird die Bedeutung dieser geringen Variationen bzgl. des Stillstandes verschleiert.

Dies ist das wahre Dilemma im Zentrum der Debatte um den Stillstand: Die Variabilität des ozeanischen Wärmegehaltes kann den Stillstand nicht erklären, und die Messung, die es könnte – die Fluss-Divergenz in der Oberflächen-Schicht – wird durch die Beobachtungs-Unsicherheit marginalisiert. Zwar gibt es Versuche, die Lücken bei den Beobachtungen mit Ozean-Reanalysen aufzufüllen, doch sind die resultierenden Daten während des Stillstandes von fragwürdiger Integrität und – wie wir zeigen – stimmen nicht mit dem auf CERES21 und WOA22 basierenden Budget überein. Selbst wenn diese Nicht-Übereinstimmungen beigelegt werden können, macht es das Verfahren, Satellitenbeobachtungen mit der Wärmeaufnahme der Ozeane zu verbinden, schwierig, die Beiträge von der TOA und vom Ozean zu entflechten, weil deren absolute Differenz unbekannt ist. Solange die Unsicherheit in den beobachteten Schätzungen nicht deutlich reduziert werden kann, kann daher der wahre Grund des jüngsten Stillstandes vielleicht niemals herausgefunden werden.

(Hervorhebung von mir [Watts])

Striche

Code availability.
The MPI-ESM1.1 model version was used to generate the large ensemble and is available at http://www.mpimet.mpg.de/en/science/models/mpi-esm.html. Computer code used in post-processing of raw data has been deposited with the Max Planck Society: http://pubman.mpdl.mpg.de/pubman/faces/viewItemFullPage.jsp?itemId=escidoc:2353695.

Data availability.
Raw data from the large ensemble were generated at the Swiss National Computing Centre (CSCS) and Deutsches Klimarechenzentrum (DKRZ) facilities. Derived data have been deposited with the Max Planck Society (http://pubman.mpdl.mpg.de/pubman/faces/viewItemFullPage.jsp?itemId=escidoc:2353695). Supplementary Fig. 7 uses TOA flux reconstructions provided by R Allan40 (http://www.met.reading.ac.uk/~sgs01cll/flux) and satellite observations provided by the NASA CERES project31 (http://ceres.larc.nasa.gov). For observational estimates in Fig. 3c, we make use of data provided by the NOAA World Ocean Atlas22(https://www.nodc.noaa.gov/OC5/3M_HEAT_CONTENT) and by the ECMWF Ocean Reanalysis System 4 (ref. 9; http://icdc.zmaw.de/projekte/easy-init/easy-init-ocean.html).

PDF files
Supplementary Information (3,616 KB)

Link: https://wattsupwiththat.com/2017/04/17/new-karl-buster-paper-confirms-the-pause-and-models-failure/#comment-2478621

Übersetzt von Chris Frey EIKE




Ehemaliger Obama-Funktionär: Büro­kraten manipu­lieren Klima-Statistiken, um Politik zu beein­flussen

Unterstaatssekretär Steven Koonin im Energieministerium sagte dem Wall Street Journal, dass Funktionäre innerhalb der Regierung von Präsident Barack Obama wissenschaftliche Daten verfälscht haben, um die öffentliche Meinung zu manipulieren.

Was man zu den Presseerklärungen bzgl. Klimadaten und Klima-Analysen sagen kann ist, dass sie irreführend, manchmal einfach falsch waren“, sagte Koonin unter Verweis auf Elemente innerhalb der Obama-Regierung, welche für die Manipulation von Klimadaten verantwortlich waren.

[Ob das jemals in einer Zeitung hierzulande gemeldet wird? Der „Süddeutschen Zeitung“ vielleicht? Anm. d. Übers.]

Er verwies auf eine Nationale Klima-Einschätzung aus dem Jahr 2014, welche eine Zunahme der Hurrikan-Aktivität seit 1980 als Illustration heranzieht, wie öffentliche Agenturen Klimadaten verfälscht haben. Koonin sagte, dass die Einschätzung fachlich falsch war.

Was man Ihnen nicht gesagt hat und was Sie nicht erfahren werden, wenn Sie nicht vollständig das Kleingedruckte lesen ist, dass die Aktivität in den Jahrzehnten zuvor abgenommen hat“, sagte er. Die UN veröffentlichten im Jahre 2014 Berichte, die Koonins Aussagen im Wesentlichen spiegelten.

Das IPCC der UN berichtete:

…es gibt einige Beweise von Änderungen hinsichtlich der Extreme in Verbindung mit anderen Klimavariablen seit Mitte des 20. Jahrhunderts“, und aktuelle Daten zeigen „keine signifikanten beobachteten Trends hinsichtlich der Häufigkeit tropischer Zyklone während des vorigen Jahrhunderts“.

Pressefunktionäre arbeiten mit Wissenschaftlern zusammen innerhalb von Organisationen wie NOAA und NASA. Sie sind verantwortlich für irreführende Presseerklärungen über das Thema Klima, fügte er hinzu.

Koonin ist nicht der einzige, der von Fehlverhalten spricht. Das Committee on Science, Space and Technology beispielsweise leitete ein Ermittlungsverfahren gegen die NOAA ein, nachdem ein Whistleblower bekannt gemacht hatte, dass die Wissenschaftler der Agentur mit Hochdruck eine Studie zur globalen Erwärmung verfälscht haben, um politische Entscheidungsträger zu beeinflussen.

Der Abgeordnete der Republikaner Lamar Smith (Texas), der Vorsitzende des Komitees, wird „so bald wie möglich“ anordnen, dass die NOAA Dokumente übergibt, welche in einer Vorladung zu potentiellen Klimadaten-Verfälschungen enthalten waren.

Koonin, der von 2009 bis 2011 unter Obama bedienstet war, fuhr fort, sich über die Politisierung der Wissenschaft zu beklagen und sagte, dass es der Ethos gebiete, „zu sagen, wie es ist. Sie sind ein Wissenschaftler, und es liegt in Ihrer Verantwortung, die Fakten auf den Tisch zu legen“.

Die Aktivitäten von NASA und NOAA, sagte er, sind problematisch, weil „sich die öffentliche Meinung mittels der Daten bildet, welche diese Organisationen zusammenstellen und welche in den Zeitungen erscheinen“.

Keine der Agenturen war vom Daily Caller für eine Stellungnahme erreichbar.

Mehr: http://dailycaller.com/2017/04/24/former-obama-official-says-climate-data-was-often-misleading-and-wrong/#ixzz4fGS3GICc

Link: https://wattsupwiththat.com/2017/04/25/former-obama-official-bureaucrats-manipulate-climate-stats-to-influence-policy/

Übersetzt von Chris Frey EIKE




Bedeutung und Nutzen von Mittel­werten bei der Anwen­dung auf Klima

[Bemerkung: Im folgenden Beitrag hat der Autor bei allen Temperaturangaben (in °F) die Zehntel-Ziffer unterstrichen. Ich habe sämtliche Angaben in Grad Celsius umgerechnet, aber auf die Unterstreichung der Zehntel-Ziffern verzichtet. Aus dem Beitrag geht eindeutig hervor, was der Autor damit hervorheben will. Anm. d. Übers.]

Mittelwerte

Mittelwerte sind vielfach nützlich. Ein allgemeiner Nutzen ist es, die Berechnung einer fest vorgegebenen Beschaffenheit genauer und präziser zu machen, wie etwa eine physikalische Dimension. Dies wird erreicht durch die Eingrenzung aller zufälligen Fehler beim Prozess der Messung. Unter geeigneten Umständen wie etwa der Berechnung des Durchmessers eines Balles mittels einer Schublehre können multiple Messungen einen präziseren mittleren Durchmesser ergeben. Grund hierfür ist, dass sich die Zufallsfehler bei der Ablesung auf der Schublehre gegenseitig herausmitteln und die Präzision durch die Standardabweichung gegeben wird, welche invers abhängig ist von der Quadratwurzel der Anzahl der Messungen.

Ein anderer allgemeiner Zweck ist es, die Eigenschaften einer Variablen zu charakterisieren, indem man multiple repräsentative Messungen durchführt und die Häufigkeitsverteilung der Messungen beschreibt. Dies kann graphisch erfolgen oder mittels statistischer Parameter wie Mittelwert, Standardabweichung und Asymmetrie/Wölbung [skewness/kurtosis]. Da jedoch die gemessenen Eigenschaften variieren, wird es problematisch, die Fehler bei den Messungen von der Variabilität der Eigenschaften zu trennen. Folglich erfahren wir mehr darüber, wie die Eigenschaft variiert, als über die Verteilung des zentralen Wertes. Und doch konzentrieren sich Klimatologen auf die arithmetischen Mittel sowie die daraus errechneten Anomalien. Mittelwerte können Informationen verschleiern, sowohl absichtlich als auch unabsichtlich.

Damit im Hinterkopf müssen wir untersuchen, ob zahlreiche Messungen der Temperaturen auf dem Festland, den Ozeanen und der Luft uns wirklich einen präzisen Wert für die „Temperatur“ der Erde vermitteln können.

Die „Temperatur“ der Erde

Der Konvention zufolge ist das Klima üblicherweise definiert als das Mittel meteorologischer Parameter über einen Zeitraum von 30 Jahren. Wie können wir die verfügbaren Temperaturdaten verwenden, welche zum Zwecke der Wetterüberwachung und -vorhersage ermittelt werden, um das Klima zu charakterisieren? Das gegenwärtig angewendete Verfahren ist die Berechnung eines arithmetischen Mittels für eine willkürliche Referenzperiode und dann die Subtraktion tatsächlicher Temperaturmessungen (entweder individuelle Werte oder Mittelwerte) von dieser Referenzperiode, um etwas zu erhalten, was man Anomalie nennt. Was jedoch bedeutet es, alle Temperaturdaten zu sammeln und das Mittel zu berechnen?

Befände sich die Erde im thermodynamischen Gleichgewicht, würde es nur eine Temperatur geben, die zu messen recht einfach wäre. Die Erde hat aber nicht nur eine Temperatur, sondern eine unendliche Vielfalt von Temperaturen. Tatsächlich variiert die Temperatur ununterbrochen horizontal, vertikal und mit der Zeit, was eine unendliche Anzahl von Temperaturen ergibt. Die offensichtliche Rekord-Tiefsttemperatur beträgt -135,8°F [ca. -93,2°C] und die aufgezeichnete Höchsttemperatur 159,3°F [ca. 70,7°C]. Die maximale Bandbreite beträgt also 295,1°F, die geschätzte Standardabweichung etwa 74°F, dem Empirischen Gesetz zufolge. Änderungen von weniger als einem Jahr sind sowohl zufällig als auch saisonal, längere Zeitreihen enthalten periodische Änderungen. Die Frage lautet, ob das Sammeln [von Daten an] einigen tausend Stellen über eine Periode von Jahren uns einen Mittelwert geben kann, welcher einen vertretbaren Wert beim Aufzeigen einer geringen Änderungsrate liefert?

Eines der Probleme ist, dass Wassertemperaturen dazu neigen, geschichtet aufzutreten. Die Wassertemperatur an der Oberfläche neigt dazu, die wärmste Schicht zu sein, darunter nimmt die Temperatur mit der Tiefe ab. Oftmals gibt es eine abrupte Änderung der Temperatur, Thermokline genannt. Außerdem kann aufwallendes Tiefenwasser kaltes Wasser an die Oberfläche bringen, vor allem entlang von Küsten. Daher ist die Lokalisierung und Tiefe der Datenproben entscheidend bei der Berechnung so genannter Meeresoberflächen-Temperaturen (SST). Des Weiteren muss berücksichtigt werden, dass – weil Wasser eine um 2 bis 5 mal höhere spezifische Wärme aufweist als normale Flüssigkeiten und eine vier mal höhere als Luft – es sich viel langsamer erwärmt als das Festland! Es ist unangebracht, SSTs mit Festlandstemperaturen zu mitteln. Das ist ein klassischer Fall eines Vergleiches von Äpfeln und Birnen. Falls jemand Trends der sich ändernden Temperatur erkennen will, können sie auf dem Festland offensichtlicher hervortreten als über den Ozeanen, obwohl Wassertemperaturen dazu neigen, Zufalls-Fluktuationen zu unterdrücken. Es ist vermutlich am besten, SSTs mit einer Skala zu plotten, die vier mal so groß ist wie bei den Festlandstemperaturen und beide in die gleiche Graphik einzutragen zum Vergleich.

Bei Temperaturen auf dem Festland ergibt sich oftmals das ähnlich gelagerte Problem von Temperatur-Inversionen, das heißt, es ist in den bodennahen Luftschichten kälter als in größerer Höhe darüber. Dies ist das Gegenteil dessen, was die Adiabate vorgibt, dass nämlich die Temperatur in der Troposphäre mit der Höhe abzunehmen hat. Aber dies stellt uns vor ein weiteres Problem. Temperaturen werden in Höhen aufgezeichnet, die in einem Bereich von unter dem Meeresspiegel (Death Valley) bis über 3000 Metern Seehöhe liegen. Anders als es die Allgemeine Gasgleichung vorgibt, welche die Eigenschaften eines Gases bei Standard-Temperatur und -Druck festlegt, werden alle Wetter-Temperaturmessungen bei der Mittelung in einen Topf geworfen, um ein arithmetisches Mittel der globalen Temperatur zu erhalten ohne Berücksichtigung der Standard-Drücke. Dies ist wichtig, weil die Allgemeine Gasgleichung vorgibt, dass die Temperatur eines Luftpaketes mit abnehmenden Druck abnimmt, was das Temperaturgefälle steigen lässt.

Historische Aufzeichnungen (vor dem 20.Jahrhundert) sind besonders problematisch, weil Temperaturen nur auf das nächste ganze Grad Fahrenheit abgelesen wurden – von Freiwilligen, die keine professionellen Meteorologen waren. Außerdem war die Technologie von Temperaturmessungen nicht ausgereift, besonders hinsichtlich standardisierter Thermometer.

Klimatologen haben versucht, die oben beschriebenen zusammengewürfelten Faktoren zu umschreiben mit der Überlegung, dass Genauigkeit und damit Präzision verbessert werden kann durch Mittelbildung. Als Grundlage ziehen sie 30-Jahres-Mittel jährlicher Mittel monatlicher Mittel heran, womit sie die Daten glätten und Informationen verlieren! Tatsächlich besagt das ,Gesetz über Große Zahlen‘, dass die Genauigkeit gesammelter Stichproben verbessert werden kann (falls keine systematischen Verzerrungen präsent sind!). Dies gilt besonders für probabilistische Ereignisse wie etwa das Werfen einer Münze. Falls jedoch jährliche Mittelwerte aus monatlichen Mittelwerten abgeleitet werden anstatt aus täglichen Mittelwerten, dann sollten die Monate gewichtet werden der Anzahl der Tage in jenem Monat gemäß. Es ist unklar, ob dies gemacht wird. Allerdings werden selbst tägliche Mittelwerte extrem hohe und tiefe Temperaturen glätten und somit die vorhandene Standardabweichung reduzieren.

Jedoch selbst wenn man die oben beschriebenen Probleme nur vorübergehend ignoriert, gibt es das fundamentale Problem zu versuchen, Lufttemperaturen an der Erdoberfläche präziser und genauer zu erfassen. Anders als der Ball mit im Wesentlichen einem Durchmesser (mit minimaler Exzentrizität) ändert sich die Temperatur an jedem Punkt der Erdoberfläche ständig. Es gibt keine einheitliche Temperatur für irgendeine Stelle zu irgendeinem Zeitpunkt. Und man hat nur eine Gelegenheit, jene vergängliche Temperatur zu messen. Man kann nicht multiple Messungen durchführen, um die Präzision einer bestimmten Messung der Lufttemperatur präziser machen!

Temperatur-Messungen

Höhlen sind dafür bekannt, stabile Temperaturen aufzuweisen. Viele variieren um weniger als ±0,5°F jährlich. Allgemein wird angenommen, dass die Temperatur der Höhle eine mittlere jährliche Lufttemperatur an der Oberfläche reflektieren, jedenfalls an der Stelle, an der sich die Höhle befindet. Während die Lage ein wenig komplexer ist, ist es doch eine gute Approximation erster Ordnung. (Zufälligerweise gibt es einen interessanten Beitrag von Perrier et al. (2005) über einige sehr frühe Arbeiten in Frankreich hinsichtlich Temperaturen im Untergrund. Zur Illustration wollen wir einmal annehmen, dass ein Forscher die Notwendigkeit sieht, die Temperatur einer Höhle während einer bestimmten Jahreszeit zu bestimmen. Der Forscher möchte diese Temperatur mit größerer Präzision ermitteln als es ein durch die Gänge getragenes Thermometer vermag. Der Wert sollte nahe dem nächsten Zehntelgrad Fahrenheit liegen. Diese Situation ist ein ziemlich guter Kandidat für multiple Messungen zur Verbesserung der Präzision, weil es über einen Zeitraum von zwei oder drei Monaten kaum Temperaturänderungen geben dürfte und die Wahrscheinlichkeit hoch ist, dass die gemessenen Werte normalverteilt sind. Die bekannte jährliche Bandbreite gibt an, dass die Standardabweichung unter (50,5 – 49,5)/4 oder etwa 0,3°F liegen sollte. Daher ist die Standardabweichung der jährlichen Temperaturänderung von gleicher Größenordnung wie die Auflösung des Thermometers. Weiter wollen wir annehmen, dass an jedem Tag, wenn die Stelle aufgesucht wird, der Forscher als Erstes und als Letztes die Temperatur abliest. Nach 100 Temperaturmessungen werden die Standardabweichung und der Standardfehler des Mittelwertes berechnet. Unter der Voraussetzung, dass es keine Ausreißer gibt und das alle Messungen um wenige Zehntelgrad um den Mittelwert verteilt sind, ist der Forscher zuversichtlich, dass es gerechtfertigt ist, den Mittelwert bekanntzugeben mit einer signifikanten Zahl mehr als das Thermometer direkt zu messen in der Lage war.

Jetzt wollen wir dies mit der allgemeinen Praxis im Bereich Klimatologie kontrastieren. Klimatologen verwenden meteorologische Temperaturen, die vielleicht von Individuen abgelesen werden mit geringerem Interesse an gewissenhaften Beobachtungen als die einschlägige Forscher haben. Oder Temperaturen wie etwa von den automatisierten ASOS können zum nächsten ganzen Grad Fahrenheit gerundet und zusammen gebracht werden mit Temperaturwerten, die zum nächsten Zehntelgrad Fahrenheit gerundet sind. (Zu allermindest sollten die Einzelwerte invers zu ihrer Präzision gewichtet werden). Weil die Daten eine Mittelung (Glättung) durchlaufen, bevor das 30-Jahre-Referenzmittel berechnet wird, scheint die Datenverteilung zusätzlich weniger verzerrt und mehr normalverteilt, und die berechnete Standardabweichung ist kleiner als sie es bei Verwendung der Rohdaten wäre. Es ist nicht nur die Mitteltemperatur, die sich jährlich ändert. Die Standardabweichung und Verzerrung ändert sich mit Sicherheit ebenfalls, aber dazu werden keine Angaben gemacht. Sind die Änderungen der Standardabweichung und der Verzerrung zufälliger Natur oder gibt es einen Trend? Falls es einen Trend gibt, was ist dafür die Ursache? Was bedeutet das, falls es überhaupt etwas bedeutet? Da sind Informationen, die nicht untersucht und bekannt gegeben werden, obwohl sie Einsichten in die Dynamik des Systems vermitteln können.

Man gewinnt sofort den Eindruck, dass die bekannten höchsten und tiefsten Temperaturen (siehe oben) zeigen, dass die Datensammlung eine Bandbreite bis zu 300°F haben kann, wenngleich auch näher bei 250°F. Wendet man zur Schätzung der Standardabweichung die Empirische Regel an, würde man einen Wert über 70°F dafür vorhersagen. Geht man konservativer vor und zieht man das Tschbycheff’sche Theorem heran und teilt durch 8 anstatt durch 4, ergibt sich immer noch eine Schätzung über 31°F. Außerdem gibt es gute Gründe für die Annahme, dass die Häufigkeitsverteilung der Temperaturen verzerrt ist mit einem langen Schwanz auf der kalten Seite. Im Kern dieses Arguments steht die Offensichtlichkeit, dass Temperaturen unter 50°F unter Null normaler sind als Temperaturen über 150°F, während das bekannt gemachte Mittel der globalen Festlands-Temperaturen nahe 50°F liegt.

Im Folgenden wird gezeigt, wie meiner Ansicht nach die typischen jährlichen Rohdaten aussehen sollten, wenn sie als Häufigkeitsverteilung geplottet werden, wobei man die bekannte Bandbreite, die geschätzte Standardabweichung und das veröffentlichte Mittel berücksichtigt:

Die dicke, rote Linie repräsentiert die typischen Temperaturen eines Jahres, die kurze grüne Säule (in der Skala eingeordnet) repräsentiert die Temperatur in einer Höhle bei obigem Temperatur-Szenario. Ich bin zuversichtlich, dass das Mittel der Höhlentemperatur bis zu einem Hundertstel Grad Fahrenheit präzise ist, aber trotz der gewaltigen Anzahl von Messungen der Temperatur auf der Erde bringe ich Gestalt und Verteilung der globalen Daten längst nicht die gleiche Zuversicht für die globalen Temperaturen auf! Es ist offensichtlich, dass die Verteilung eine erheblich größere Standardabweichung aufweist als die Höhlentemperatur, und die Rationalisierung mittels Teilung der Quadratwurzel der Anzahl kann nicht gerechtfertigt sein, um Zufallsfehler zu eliminieren, wenn der gemessene Parameter niemals zweimal den gleichen Wert aufweist. Die multiplen Schritte der Mittelung der Daten reduziert Extremwerte und die Standardabweichung. Die Frage lautet: „Ist die behauptete Präzision ein Artefakt der Glättung, oder ergibt das Glättungsverfahren einen präziseren Wert?“ Darauf weiß ich keine Antwort. Es ist jedoch mit Sicherheit etwas, das diejenigen beantworten und rechtfertigen sollten, die die Temperatur-Datenbasis erstellen!

Zusammenfassung

Die Theorie der anthropogenen globalen Erwärmung prophezeit, dass man die stärksten Auswirkungen nachts und im Winter sehen wird. Das heißt, der kalte Schwanz in der Kurve der Häufigkeitsverteilung sollte sich verkürzen und die Verteilung symmetrischer werden. Dies würde die berechnete globale Mitteltemperatur zunehmen lassen, selbst wenn sich die Temperaturen im hohen und mittleren Bereich gar nicht ändern. Die Prophezeiungen zukünftiger katastrophaler Hitzewellen basieren auf der unausgesprochenen Hypothese, dass mit der Zunahme des globalen Mittels sich die gesamte Kurve der Häufigkeitsverteilung hin zu höheren Temperaturwerten verschieben würde. Das ist keine gewünschte Hypothese, weil die Differenz zwischen täglichen Höchst- und Tiefsttemperaturen während des 20. Jahrhunderts nicht konstant war. Sie bewegen sich nicht in Stufen, möglicherweise weil es unterschiedliche Faktoren gibt, welche die Höchst- und Tiefstwerte beeinflussen. Tatsächlich waren einige der tiefsten Tiefsttemperaturen in der Gegenwart gemessen worden! In jedem Falle ist eine globale Mitteltemperatur keine gute Maßzahl für das, was mit den globalen Temperaturen passiert. Wir sollten die Trends der täglichen Höchst- und Tiefsttemperaturen in allen Klimazonen betrachten, wie sie durch physikalische Geographen definiert worden sind. Wir sollten auch die Form der Häufigkeits-Verteilungskurven für verschiedene Zeiträume analysieren. Der Versuch, das Verhalten des ,Klimas‘ der Erde mit einer einzelnen Zahl zu charakterisieren, ist keine gute Wissenschaft, ob man nun an Wissenschaft glaubt oder nicht.

Link: https://wattsupwiththat.com/2017/04/23/the-meaning-and-utility-of-averages-as-it-applies-to-climate/

Übersetzt von Chris Frey EIKE




Teil 2: Schnee statt Frühlings­wärme – geht der Klima­erwärmung nun auch im April die Puste aus?

Aus den Temperaturdiagrammen im Teil 1 dieses Beitrages war ersichtlich, dass der Monat April sich in den letzten 30 Jahren noch leicht erwärmte, trotz der Abkühlung im letzten Jahrzehnt. Der DWD hat den April 2017 mit 7,4 C angeben. Gegenüber der Vergleichsperiode 1981 bis 2010 betrug die Abweichung -0,8 Grad. Das hört sich kalt an, ist aber Immer noch relativ mild im Vergleich zu den Aprilmonaten vor 50 Jahren, doch die Abwärtstendenz scheint bereits vorgegeben zu sein. Der April macht eben doch nicht was er will, sondern sein Temperaturverlauf ist von vielen Einflussfaktoren abhängig, von denen wir hier in Teil 2 einige benennen wollen. Doch zunächst nochmals zur Erinnerung der Temperaturverlauf seit 1943. Anschließend werden wir einige Gründe beschreiben, die in Mitteleuropa das Klima bestimmen.

Grafik 1: Aprilverlauf in Deutschland seit 75 Jahren, momentan mit Abwärtstrend.

Doch was gilt für die Zukunft? Wir wünschen uns alle einen schönen Frühling, der wie Balsam auf unsere Seelen wirkt. Doch leider deutet wenig darauf hin. Die Jahrzehnte angenehm steigender Apriltemperaturen ab 1975 könnten bald ein Ende finden, wenn man die AMO als Indikator heranzieht. Die Atlantische Multidekaden-Oszillation (Abkürzung AMO; engl. atlantic multidecadal oscillation) ist die Bezeichnung für eine zyklisch auftretende Zirkulationsschwankung der Ozeanströmungen im Nordatlantik. Sie bringt eine Veränderung der Meeresoberflächentemperaturen des gesamten nordatlantischen Beckens mit sich, wodurch Einfluss auf die Atmosphäre ausgeübt wird.

Grafik 2: Das Diagramm des Klimaforschers Stefan Kämpfe zeigt: Mit dem Ende der aktuellen AMO- Warmphase könnte auch für den Monat April ein Temperaturrückgang einsetzen, und der deutet sich (möglicherweise) schon an. Auch wegen des überall zunehmenden Wärmeinseleffektes sind die Apriltemperaturen der letzten 20 Jahre noch auf einem hohen Niveau.

Die AMO unterliegt vermutlich einer 60ig- bis 80ig- jährigen Rhythmik; aktuell herrscht noch die Warmphase; welche vermutlich in Kürze endet- ein erstes, mögliches Indiz für eine beginnende Abkühlung. Allerdings vermag die AMO nur den Temperaturverlauf des April über längere Zeiträume zu erklären; wie auch der niedrige Korrelationskoeffizient von 0,192 (Bestimmtheitsmaß 3,7%) zeigt. Das erklärt auch, warum der April 2017 trotz (noch) hoher AMO- Werte insgesamt eher kühl ausgefallen ist. Für das Verhalten einzelner Aprilmonate kommen andere Einflussgrößen in Betracht, die aber möglicherweise zumindest indirekt und teilweise auch AMO- beeinflusst sein könnten. Zuerst die Häufigkeitsverhältnisse der Großwetterlagen; wobei die mit nördlichem Anteil zu betrachten sind, weil diese im April merklich kühlend wirken:

Grafik 3: Langfristig nahm die Häufigkeit der Großwetterlagen mit nördlichem Strömungsanteil nach HESS/BREZOWSKY leicht ab, was die leicht steigenden Apriltemperaturen in Deutschland seit 1881 mit erklären kann. Der Zusammenhang ist, bezogen auf die Einzeljahre, deutlicher als bei der AMO. Nachdem von den späten 1990er bis zu den frühen 2000er Jahren viele milde Aprilmonate mit wenig Nordwetter vorherrschten, scheint neuerdings wieder mehr Nordwetter mit leichter Abkühlung einzutreten.

Der deutlichste Zusammenhang fand sich jedoch zwischen April- Sonnenscheindauer und Apriltemperaturen, wofür die Werte von Potsdam untersucht werden mussten, weil ein langfristiges Mittel der Sonnenscheindauer für ganz Deutschland erst ab 1951 vorliegt:

Grafik 4: Enge Verzahnung von Sonnenschein- Dauer und Apriltemperaturen, sowohl langfristig, als auch in Einzeljahren. Sonnige Aprilmonate sind deutlich wärmer. Die Sonnenscheindauer beeinflusst die Variabilität der Apriltemperaturen zu 35% und damit signifikant. Wesentlich größer ist der Zusammenhang nur in den 3 Sommermonaten.

Ob auch die Ausdehnung des arktischen Meereises Einfluss ausübt? Viel Eis bedeutet, dass sich mehr und länger Kaltluft im Polargebiet trotz des Polartages hält, die dann bei Nordlagen südwärts ausbrechen kann. Leider liegen erst seit 1979 halbwegs zuverlässige Daten zur Ausdehnung des Arktis- Meereises vor:

Grafik 5: Mäßiger Zusammenhang zwischen der vom Meereis der Arktis bedeckten Fläche und den Apriltemperaturen in Deutschland. Viel Eis bedeutet tendenziell niedrigere Temperaturen (negative Korrelation), allerdings ist dieser Zusammenhang wegen der Kürze der Zeit zu unsicher. So war die Eisausdehnung 2017 die geringste seit Aufzeichnungsbeginn; aber der erhoffte milde April blieb aus.

Auch wegen des zunehmenden Wärmeinseleffektes in Deutschland uns somit in den Daten des DWD sind die Apriltemperaturen noch auf einem hohen Niveau, wie Grafik 1 uns zeigt. Eine wärmeinselarme Station wie Neugersdorf (sprich Neu-Gersdorf) im Osten Sachsens zeigt bereits einen deutlichen Rückgang in den letzten 20 Jahren.

Grafik 6: Messstation in kleinen Ortschaften, deren Umgebung sich im Betrachtungszeitraum wenig verändert hat, zeigen bereits seit 20 Jahren eine deutliche Aprilabkühlung. Die DWD-Trendlinie ist im gleichen Zeitraum eben. (siehe Grafik 4 im Teil 1)

Ganz wärmeinselfrei sind ländlichen Stationen aber auch nicht. Begründung: Es gibt nämlich nicht nur UHI- sondern auch allgemeine WI-Effekte im freien Umland wie etwa Wege- und Straßenausbau, Straßen wirken wie Wärmebänder in der freien Landschaft. Nicht unerwähnt bleiben dürfen ständige Entwässerungsmaßnahmen in Feld und Flur um den ländlichen Ort, Straßengräben auch entlang von Feld- und Waldwegen und vor allem die „Wind- und Solarparks“, welche massiv erwärmend wirken. Solarpaneele- Albedoerniedrigung durch deren dunkle Oberflächen; Windräder bremsen tagsüber den kühlenden Wind und zerstören bei Strahlungswetter nachts die bodennahen Kaltluftschichten, so dass es dort weniger abkühlen kann. Auch neue Leitungstrassen mit ihren 200 C warmen Hochtemperaturseilen können zumindest leichte Erwärmungseffkte im vermeintlich „WI- armen“ Umland bewirken. Die allgemeine Entwässerung (Straßen, Äcker) führt außerdem zu weniger Nebel und weniger tiefen Wolken (CL- Wolken wie Hochnebel oder Stratocumulus), was, vor allem im Sommerhalbjahr, mehr Besonnung und damit Erwärmung überall, also auch im „ungestörten“ Freiland, verursacht. Kurzum, wärmeinselfreie Orte gibt es in Deutschland nicht mehr.

Welchen Einfluss weitere Faktoren, so etwa die Sonnenaktivität auf die Apriltemperaturen haben, muss noch intensiver erforscht werden. Es deutet sich aber an, dass bei stark nachlassender Sonnenaktivität, so wie momentan, die ausgleichend wirkenden Westwetterlagen in ihrer Intensität schwächer und seltener werden, was zu Extremwetter neigende Nord-, Süd- und Ostlagen begünstigen könnte.

Ergebnis: Bereits seit 30 Jahren tendieren die ersten vier Monate des Jahres im Gesamtschnitt zur Abkühlung. Das belegen die Temperaturen des Deutschen Wetterdienstes. Doch diese Daten des DWD sind nicht wärmeinselbereinigt. Außerhalb der Städte, insbesondere in der WI-armen freien Natur, ist die Abkühlungstendenz bereits deutlich. Die Apriltemperaturen werden von der AMO, der Sonnenscheindauer und den Häufigkeitsverhältnissen der Großwetterlagen beeinflusst; es mehren sich Indizien für eine zumindest leichte April- Abkühlung in den kommenden Jahren bis Jahrzehnten, wobei der auch in der Freifläche zunehmende Wärmeinseleffekt die Abkühlung bremst. Sichere Prognosen sind aber nicht möglich.

Zusammenfassung: Wir haben uns in den beiden Teilen die Frage gestellt, wie sich die Apriltemperaturen über 200, über 75, die letzten 30 und die letzten 20 Jahre entwickelt haben.
200 Jahre: Anfang und Ende etwa gleich
75 Jahre: Eine Sinusschwingung, der letzte Höhepunkt wurde vor 10 Jahren überschritten, seitdem geht’s wieder abwärts.
30 Jahre: derzeit noch wärmer wie vor 30 Jahren, steigende Trendlinie.
20 Jahre: ebenes Niveau beim DWD, bei ländlichen Stationen schon seit 25 Jahren eben.
nächste 20 Jahre: das weiß niemand, wahrscheinlich vorerst Abkühlungstrend wie die Monate Januar, Februar, März, …. Mai usw.
im Jahre 2100: Und das weiß nicht einmal der liebe Gott, braucht er auch nicht zu wissen, denn die Erde ist voll mit falschen Propheten und CO2-Erwärmungsgläubigen.

Kohlendioxid kann jedoch entweder gar keine oder kaum eine erwärmende Funktion haben. Andere Faktoren bestimmen das Klima. Diese herauszufinden und vor allem das ständige Wechselspiel zu begreifen, ist eine Aufgabe der seriösen Klimawissenschaft, zu der wir uns bekennen.

Es wird Zeit, dass endlich wieder der Natur- und Umweltschutz in den Mittelpunkt des Handelns gestellt werden und nicht das Geschäftsmodell Klimaschutz mit seinem unnützen, teuren und bürokratischen Auswüchsen, die am Klimaverlauf der Erde nichts ändern, aber die Natur oftmals zerstören.

Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher




Klimawandel – FakeNews in SRF1 RUNDSCHAU am 26. April 2017

und hier:

Es ist an den beiden Screenshots zur Sendung bereits zu erkennen, wie die SRF RUNDSCHAU „Klima(schutz)“ mit „Umweltschutz“ gleichsetzt, obwohl beides nur sehr wenig miteinander zu tun hat. Aber das ist nicht der einzige Kritikpunkt, der in dem nun folgenden Blogtext thematisiert wird:

Dieser Bericht „Klimalügner: Trumps Kampf gegen den Umweltschutz (Länge: 8 min 38sek, inkl. Anmoderation) wurde am 26. April 2017, ab 20:55 als letzter von drei TV-Beiträgen in dieser gebühren-finanzierten, investigativen Schweizer TV-Sendung auf SRF1 ausgestrahlt. Es ist auch die Anmoderation durch den Moderator und Redakteur  Sandro Brotz kritisch zu erwähnen …

RUNDSCHAU Frontmann Sandro Brotz

… weil Sandro Brotz durch seine Anmoderation eine irreführende Suggestion beim Zuschauer aufgebaut hat, die in dem dann nachfolgenden TV-Beitrag von Peter Düggeli nicht bestätigt worden ist. Denn Sandro Brotz behauptete in seiner Anmoderation folgendes:

Mit Trump als [US-]Präsident ist nun auch den Wissenschaftlern das Lachen im Hals stecken geblieben. Hunderttausende haben sich am Wochenende weltweit an einem Marsch für die Freiheit der Forschung beteiligt. Trump glaubt nicht daran, dass der Mensch für die globale Erwärmung verantwortlich ist. Vielleicht sollte er mal zu den Everglades in Florida hinfahren, wie es unser Korrespondent Peter Düggeli getan hat. Alternative Fakten hin oder her. Dort zeigt sich wie real der Klimawandel schon ist.

Mit dieser Anmoderation hat Sandro Brotz eine Erwartungshaltung aufgebaut, die beim Zuschauer den Eindruck vermittelte, der dann nachfolgende Bericht von Peter Düggeli aus den Everglades in Florida würde eindeutige Beweise für die menschliche Schuld am Klimawandel bzw. die menschliche Schuld an der angeblich globalen Erwärmung liefern.

Es ist zusätzlich zu kritisieren, dass Sandro Brotz nur den verkürzten Begriff „Klimawandel“ in seiner Anmoderation verwendet hat, aber damit die angeblich „menschliche Schuld am Klimawandel“ gemeint hat, für die es aber bis heute keinen einzigen wissenschaftlichen Beweis gibt, sondern lediglich ein CO2-Anstieg als Parameter für eine angebliche Erwärmungs-Ursache in linear-mathematisch-programmierte Computerklimamodelle eingegeben worden ist. Einzig und allein auf dieser zweifelhaften Grundlage existiert die Hypothese vom angeblich CO2-bedingten Klimawandel. Und diese sachlich-korrekte Information ist kein „Alternativer Fakt“.

Dieser fehlende wissenschaftliche Beweis für die menschliche Schuld am angeblich CO2-Klimawandel zeigte sich dann auch konkret in dem knapp 8-minütigen SRF1 „RUNDSCHAU“ TV-Beitrag von Peter Düggeli:

00:57: Der Florida – Panther

Nachdem in den ersten Sekunden im TV-Beitrag von Peter Düggeli schöne Landschafts- und Tier-Aufnahmen aus den Everglades gezeigt wurden, mit einer weiblichen Offstimme und beruhigender Chillout-Musik untermalt wurden, wurde ca. bei Minute 00:57 des TV-Beitrags vom 26.04.2017 folgendes durch eine weibliche Offstimme wörtlich behauptet:

Doch was heute noch Idylle ist, könnte schon morgen nicht mehr da sein.

Aha, plötzlich wird behauptet: „könnte schon morgen nicht mehr da sein.“

Aus der propagierten Tatsache, die Sandro Brotz in seiner Anmoderation dem Zuschauer vermittelt hatte, wird nun dem Zuschauer erstmalig durch einen Konjunktiv

könnte schon morgen…

klar, dass die angeblichen Fakten, die Sandro Brotz in der Anmoderation suggestiv behauptet hatte, in Wirklichkeit alternative Fakten, besser: gar keine Fakten sind, sondern in Wahrheit fiktive Zukunftsszenarien sind,  von denen niemand wirklich weiß, ob diese Szenarien auch wirklich eintreffen werden.

Als nächstes wurde dann der O-Ton eines Bob Johnson, Direktor des Wissenschaftszentrum Süd-Florida, gesendet:

01:06: Bob Johnson

der bei Minute 01:06 dann im amerikanischen Originalton mit einer deutschen Übersetzung behauptete:

Diese Zone am südlichen Ende von Florida wird verschwinden, weil die Meeresspiegel steigen. Tiere, wie Alligatoren werden nicht mehr da sein.

Auch diese Behauptung von Bob Johnson ist keine Tatsache, sondern eindeutig ein subjektives Zukunftsszenario des Bob Johnson, denn er sagt:

wird verschwinden…

und

werden nicht mehr da sein…

Das heisst mit anderen Worten: Aktuell ist aber noch alles vorhanden. Es ist also bis heute nix in den Everglades verschwunden und/oder zerstört !!

An dieser Stelle ist bereits nach den ersten Sekunden zu Beginn des Beitrags von Peter Düggeli  jedem halbwegs-intelligenten Zuschauer klar geworden, dass Sandro Brotz mit seiner Anmoderation mit einer falschen Suggestion den TV-Zuschauer in die Irre geführt hatte. Denn Sandro Brotz hatte ja in seiner Anmoderation dem US-Präsidenten Donald Trump empfohlen – und damit suggestiv  auch jedem SRF1 RUNDSCHAU-TV-Zuschauer, er solle doch zu den Everglades fahren, denn dort könne man die Auswirkung des Klimawandels bereits sehen, so Sandro Brotz.

Stattdessen aber stellt sich nun bereits in den ersten Sekunden im Beitrag von Peter Düggeli heraus: Wenn ein TV-Zuschauer in die Everglades fährt, und dort die angeblich schon sichtbaren Auswirkungen des (angeblich menschgemachten) Klimawandels sehen will, dann sieht der Zuschauer dort nix dergleichen. Denn in Wirklichkeit/Wahrheit spielen sich die von Sandro Brotz propagierten „Tatsachen“ nur als  Zukunftsszenarien in den Köpfen der von Peter Düggeli interviewten Protagonisten ab, in diesem Fall im Kopf eines Bob Johnson.

Und die weibliche Off-Stimme im RUNDSCHAU-Betrag bestätigt dann sogar auch dieses Zukunftszenario im Kopf des Bob Johnson, ab Minute 01:19:

Bob Johnson der Direktor des Wissenschaftszentrum Süd-Floridas warnt seit Jahren, dass der Klimawandel die Everglades zerstören könnte.

Auch an dieser Stelle wieder keine Tatsache, kein Fakt, sondern nur ein fiktiver Konjunktivkönnte“ als subjektives Zukunftsszenario im Kopf einer einzelnen Person mit Namen Bob Johnson:

zerstören könnte

Und die weibliche Rundschau-Offstimme behauptet bei Minute 01:27 sogar weiter:

Deshalb fahren wir dorthin, wo sich die Bedrohung zeigt.

Oh ja, bitte, denkt sich jeder kritische und halbwegs-intelligente TV-Zuschauer, vielleicht wird ja jetzt in den nächsten Sekunden endlich ein „Beweis“ für die propagierte „Bedrohung“ gezeigt, dass menschlicher Einfluss den CO2-Klimawandel bewirkt.

01:37: Mit Peter Düggeli (rechts) und Bob Johnson fahren mit einem Schnellboot durch die Seen-und Mangroven-Landschaft der Everglades in Florida.

Der Rundschau-Zuschauer sieht nun, wie SRF Autor Peter Düggeli mit Bob Johnson in einem Schnellboot durch die Seenlandschaft der Everglades fährt …

….und die weibliche Offstimme behauptet nun bei Minute 01:37:

Florida Bay, das Mündungsgebiet zwischen den Everglades und dem Atlantik. Viele kleine Inseln mit Mangroven-Bäumen. Matt [der Fahrer des Schnellbootes] zeigt uns, wo das Meer jetzt schon bei Ebbe die Inseln  anfrisst.

01:51: Bob Johnson zeigt eine in Zukunft überflutete Insel (was aber der TV-Zuschauer nicht wirklich sieht)

Dann kommt – angeblich unmittelbar vor einer solchen „angefressenen Insel“ – bei Minute 1:51 wieder Bob Johnson zu Wort und er behauptet in amerikanisch mit deutscher Off-Stimmen-Übersetzung:

Es braucht nicht viel und die Insel ist überflutet. Laut Prognosen wird das Wasser bis 2100 um ein Meter ansteigen. Dann ist DAS offenes Meer. Die Inseln werden verschwunden sein.

Dem TV-Zuschauer wurde mit diesem O-Ton von Bob Johnson suggeriert, dass das, was er auf dem TV-Bildschirm gesehen hat, durch angeblich „menschgemachten Klimawandel“ verursacht sei.

Aber es war auf dem TV- Bildschirm in diesem SRF1 RUNDSCHAU-TV-Beitrag in Wahrheit garnichts zu sehen, was die Behauptungen von Bob Johnson und der Offstimme belegen würde. Es wurde stattdessen dem TV-Zuschauer die bildliche und sprachliche Behauptung eines Gezeiten-Wechsels von Ebbe und Flut als angeblich „menschverursacht“ eingeredet. Mehr war an angeblichen „Beweisen“ in dieser Film-Sequenz nicht auszumachen. Oder sehen Sie, lieber Blog-Leser, das anders?

Zur Erinnerung:

Im Herbst 2013 hatte das Schweizer Fernsehen in einer TV-Dokumentation in ähnlicher Weise wörtlich behauptet, ein Dorf auf einer Südsee-Insel von Kiribati sei angeblich durch den Klimawandel zerstört worden. Unsere Beschwerde beim SRF-Ombudsmann hatte damals die korrekten Zusammenhänge und Ursachen ans Licht gebracht.

Hinzu kommt, dass die aktuelle Behauptung vom 26.04.2017 in der SRF1 RUNDSCHAU,

das Wasser würde bis [zum Jahr] 2100 um einen Meter ansteigen

KEINE PROGNOSE ist, sondern faktisch (!) ein Computerszenario in Form einer szenarienbedingte Projektion, die in einem linear-mathematisch-programmiertem Computerklimamodell eingegeben worden ist, in dem CO2 ein maßgeblicher Parameter (Variable) ist. In der Realität, d.h. auf der Erde, konnte ein solcher Temperaturanstieg bedingt durch CO2 noch nicht nachgewiesen werden. Der angebliche „Temperaturanstieg“ durch CO2 findet nur in Computerklimamodellen statt.

Und: Wir haben in unseren zahlreichen Videos schon mehrfach durch einschlägige Zitate der Klima(folgen)forschung belegt und dokumentiert, dass auch die offizielle Klima(folgen)forschung bestätigt und zugibt, dass KEINE KLIMAPROGNOSEN erstellt werden. Das gilt auch für ein Szenario (= Computerspiel) eines angeblichen Meeresspiegelanstiegs bis zum Jahr 2100.

Und die „Krönung“ der #FakeNews:
Bei Minute 02:09 behauptet dann die weibliche Offstimme:

Die beiden sind immer wieder perplex, wie viele Leute nicht an die Mitschuld des Menschen am Klimawandel glauben. Dass sie z.B. die Werte von Messstationen ignorieren. Als Beamter muss Bob sich aber vorsichtig äußern.

Und Bob Johnson behauptet dann noch ab Minute 02:25 mit der Messstation im Hintergrund:

02:27: Bob Johnson mit im Hintergrund einer Meeresspiegel-Messstation

Wir müssen es halt immer wieder erklären. Wenn jemand DAS HIER sieht, ist es schwierig alles zu leugnen.

Frage von einem kritischen, halbwegs-intelligenten Zuschauer:

Wann und wo wurden denn am 26.04. im TV-Bericht von Peter Düggeli die angeblichen „Messwerte der Messstationen“ gezeigt, die von der weibliche Offstimme ab Minute 2:09 erwähnt wurden?

Der TV-Beitrag zeigt stattdessen parallel zu diesem obigen Zitat „Messwerte der Messstationen“ nur  eine im Wasser stehende Messstation, ohne aber zusätzlich statistische Datenreihen von dieser Messstation dem Zuschauer zu zeigen, die eindeutig belegen können, dass der Meeresspiegel in den letzten Jahren und Jahrzehnten an dieser Stelle oder in den gesamten Everglades bzw. an den Küsten Floridas angestiegen ist.

Die Einblendung eines solchen Belegs mit einer glaubwürdigen Messreihe wäre die elementarste journalistische Pflicht und Aufgabe des TV-Journalisten Peter Düggeli und letztendlich auch der verantwortlichen SRF1 RUNDSCHAU-Redaktion rund um Sandro Brotz gewesen, anstatt dem Zuschauer lediglich das Standbild einer in den Everglades stehenden Messstation zu zeigen und dem Zuschauer zu suggerieren, damit wäre der Beweis erbracht, dass der Mensch eine angebliche (Mit-)schuld am CO2-Klimawandel hätte.

Hallo?

Wir haben haben daraufhin selbst im Internet Messreihen über die Pegelstände in Florida in den letzten 27 Jahren recherchiert und haben festgestellt, dass definitiv seit mindestens 27 Jahren, seit 1990, kein Meeresspiegelanstieg an Floridas Messstationen festzustellen ist:



Recherchieren Sie selbst: Weitere Messstations-Grafiken aus Florida bei dieser Quelle (Aber Achtung: Lassen Sie sich dort nicht durch die Trendgrafiken täuschen).

Die SRF „RUNDSCHAU“-Redaktion würde gut daran tun, wenn sie eine mindestens 30-jährigen Messreihe mit Messwerten der im TV-Beitrag eingeblendeten Messstation vorlegen könnte…

02:21: Messstation in den Everglades

… ähnlich der drei Grafiken, wie sie – oben zu sehen – von drei Orten in Florida (Mayport, Pensacola, Key West) von unserer Seite ohne großen Aufwand im Internet recherchiert werden konnten.

Danach folgt im SRF1 RUNDSCHAU TV-Beitrag ein sekundenlanges „Trump-Bashing“, wo US-Präsident Donald Trump mit seinen altbekannten Zitaten als angeblicher „Klimaleugner“ dargestellt wird, mit dem abschließenden Zitat der weiblichen Offstimme bei Minute 03:13:

02:44 Der neue US-Präsident Donald Trump als angeblicher „Klimaleugner“.

 

Trump verhöhnt die Wissenschaft, schürt Unglauben und Verwirrung

Danach kommt ein Ken Kimmell von der HARVARD-Universität zu Wort:

03:24 Ken Kimmell

Er ist wohl parallel in der „Gewerkschaft für besorgte Wissenschaftler“ und sein O-Ton wird ab Minute 03:24 von der deutschen Offstimmen-Übersetzungen wie folgt übersetzt:

Was ist, wenn die US-Regierung eine Kehrtwende macht und nur die verrückten Wissenschaftler unterstützt, die den Klimawandel anzweifeln und versuchen andere Gründe dafür zu finden? Was, wenn die [US-] Regierung eine Propaganda-Maschine gegen den Klimawandel wird und nichts mehr dagegen unternimmt?

Zu beachten ist, dass Ken Kimmell zu Beginn seines Statements wörtlich gesagt hatte:

The fear I have that the United States government…

und diese Eingangsworte von Ken Kimmell ins DEUTSCHE wie folgt übersetzt wurden:

Was ist, wenn die US-Regierung…

Wollte man von Seiten der SRF RUNDSCHAU-Redaktion die „Angst“ der Wissenschaftler in dieser deutschen Übersetzung ausblenden, dass diese Wissenschaftler, wie Ken Kimmell, „Angst“ um ihre Forschungsgelder haben, wenn nur noch „die Wissenschaftler der Gegenseite“ mit Forschungsgeldern unterstützt werden?

Es wäre noch zusätzlich interessant zu erfahren, was Ken Kimmell im US-amerikanischen Original-Interview anstelle der Begriffe

verrückte Wissenschaftler…

und

Propaganda-Maschine…

gesagt hatte. Aber leider sind die amerikanischen Original-Worte aus dem Interview nicht deutlich genug herauszuhören.

Ab Minute 03:50 wurden dann in der SRF1 RUNDSCHAU vom 26.04.2017 Ausschnitte vom sog. „March for Science“ vom 22.04.2017 in Washington DC gezeigt, wo angeblich 40’000 Wissenschaftler „für ihre Glaubwürdigkeit“ und „gegen Trump“ auf die Straße gegangen sind:

03:50: Wissenschaftler beim „March for Science“ in Washington DC

Das folgende Zitat bei Minute 04:18 dieses angeblichen Wissenschaftlers ist als „Hohn schlechthin“ zu bewerten, wenn Sie sich in Erinnerung rufen, was wir in den obigen Zeilen über diese aktuelle SRF1 RUNDSCHAU-Berichterstattung vom 26.04.2017 recherchiert haben:

04:18 Wissenschaftler über Trump

 

Trump fehlen die Berater, die ihm helfen, wissenschaftliche Fakten zu verstehen. Er bildet sich seine Meinung nur von dem, was er im TV sieht.

Interessant, „was er im TV sieht„: Es wird Trump unterstellt, er würde sich seine Informationen nur aus dem TV holen. Jeder soll sich mal fragen, wie viele „dumme“ Menschen durch diesen grob-fehlerhaften und suggestiven  SRF1 RUNDSCHAU-TV-Beitrag vom 26.04.2017 wieder „glauben“ werden, die Everglades würden versinken, wenn wir diese perfiden medialen Suggestionen, „Halbwahrheiten“ und Falschbehauptungen nicht durch diesen Blogtext hier offenlegen und entlarven würden?

Oder auch dieses Zitat dieser angeblichen Wissenschaftlerin beschreibt genau das Gegenteil, was als wissenschaftliche Wahrnehmung festzustellen ist:

04:29 eine Wissenschaftlerin über Trump

 

Er versetzt den Planeten in Angst und Schrecken. Dagegen kämpfe ich an.

Dabei sind es die Klimawissenschaftler, die seit über 30 Jahren das Horrorszenario einer drohenden Klimakatastrophe heraufbeschwören.

Danach setzt der SRF RUNDSCHAU TV-Beitrag die Berichterstattung in den Everglades fort und die weibliche Offstimme behauptet bei Minute 04:42:

04:42 Peter Düggeli mit Bob Johnson zurück in den Everglades

Bob [Johnson] zeigt uns, wie sich die Landschaft wegen des Klimawandels verändert.

Kritische und intelligente TV-Zuschauer werden daraufhin wieder gespannt auf „Beweise“ warten, die den [menschgemachten] Klimawandel belegen. Sie warten vergeblich, denn Bob Johnson zeigt bei Minute 04:50 in die Mangroven- und Sumpf-Landschaft und behauptet:

04:50 Bob Johnson zeigt auf den „Klimawandel“

Dahinten sehen wir Mangroven-Bäume, die mehr ins Landesinnere wandern. Wegen der steigenden Meeresspiegel durchdringt das Salzwasser die Böden. Aus Everglades wird so marines Mündungsgebiet.

Und erinnern Sie sich noch: Die Offstimme behauptete bei Minute 04:42 doch

Bob Johnson zeigt uns

Außer dem Zeigen von „Mangroven-Bäumen dahinten“ wurde dem Zuschauer nix „Faktisches“ gezeigt, was objektiv einen menschgemachten Klimawandel wissenschaftlich belegen würde. Stattdessen „zeigte“ die SRF RUNDSCHAU wieder nur einen Behauptungs-Monolog eines Bob Johnson.

Und der Autor Peter Düggeli schlug dann bei Minute 05:10 journalistisch geschickt den Bogen nach Miami, in dem er die Frage stellte:

05:10 Peter Düggeli schlägt geschickt den Bogen in Richtung Miami

 

Und was passiert in der Stadt Miami, wenn das Meer steigt?

Bob Johnson antwortete daraufhin:

Wir müssen die Stadt [Miami] verändern. Straßen erhöhen und Wasser zurück ins Meer pumpen.

Daraufhin zeigt die SRF RUNDSCHAU Bilder und Stimmen aus Miami, die die angebliche Bedrohung durch den angeblich steigenden Meeresspiegel belegen würden.

06:02 Miami von oben

Die weibliche Offstimme behauptet dann bei Minute 06:02 als Zusammenfassung auf diese angebliche „Bedrohung“, zusammen mit Luftbildern auf die Kernstadt Miami:

Miami, allein die Kernstadt hat 500.000 Einwohner. Das Gebiet ist durch den Wasseranstieg bedroht.

Bemerkenswert: Die weibliche Offstimme behauptet „Wasseranstieg“ und eben nicht „Meeresspiegelanstieg“.

Denn die recherchierbaren Pegelstände über den Meeresspiegelanstieg weisen ebenfalls seit 27 Jahren in Miami Beach keinen Meerespiegelanstieg aus, schauen Sie selbst:

Wohl deshalb hat man dann bereits seit ca. 1983 die Pegel-Messungen in Miami Beach eingestellt.  Denn es ist ja auch wohl auch „einfacher“, einen fiktiven Trend durch eine Linie einzutragen und damit zu behaupten, es gäbe angeblich einen Meeresspiegelanstieg, schauen Sie mal:

Kein Witz: Auch diese Grafik mit den Trendlinien können Sie so – mit den von der NOAA eingezeichneten Trendlinien – auf der Webseite der NOAA abrufen. So wird offenkundig durch eine „gewünschte“ Trendlinie ein angeblicher Meeresspiegelanstieg „konstruiert“.

Unglaublich !!

Dieser Sachverhalt war in diesen Tagen ohne viel Mühe im Internet zu recherchieren. In der SRF RUNDSCHAU vom 26.04.2017, die mit Gebührengeldern finanziert wird, erfährt der TV-Zuschauer darüber nix.

Verstehen Sie jetzt, warum Donald Trump auch zurecht darüber nachdenkt, diese merkwürdige Ozean-Behörde NOAA abzuschaffen?

Stattdessen setzt die SRF  Rundschau am 26.04. das Klimawandel-Leugner-Bashing gegen die US-Regierung fort und kritisiert nun den neuen Chef der US-amerikanischen Umweltbehörde EPA, Scott Pruitt. Die Offstimme behauptet bei Minute 06:13:

06:22 Der neue Chef der US-Umweltschutzbehörde EPA: Scott Pruitt

 

Aber ausgerechnet der Chef der US-Umweltschutzbehörde zweifelt an der maßgeblichen Schuld des Menschen am Klimawandel.

Scott Pruitt wird dann in einem Fernsehinterview – journalistisch ausgewogen – mit seiner kritischen Auffassung ab Minute 06:22 zitiert:

Der Einfluss des Menschen aufs Klima nachzuweisen ist sehr schwierig. Ich glaube nicht, dass er [der Mensch] ein Haupttreiber der globalen Erwärmung ist.

Danach kommen im SRF RUNDSCHAU TV-Beitrag erneut Wissenschaftler, diesesmal aus Chicago, zu Wort, die Trinkwasser analysieren und die angeblich von den 30%-Kürzungen in der US-Umweltbehörde EPA betroffen sein werden. Merkwürdig: Die SRF RUNDSCHAU lässt nun Umweltwissenschaftler (!), die Trinkwasser analysieren, zu Wort kommen, obwohl Trumps Kritik an der EPA sich vornehmlich gegen überbordende Klimaschutz-Maßnahmen richtete. Die SRF RUNDSCHAU wirft also „Umweltschutz“ und „Klimaschutz“ fälschlich in einem Topf. Das gipfelte dann in der Erwähnung eines Trinkwasser-Skandals in der US-amerikanischen Stadt Flint, wo vor Jahren Trinkwasser durch Blei vergiftet worden war. Der intelligente TV-Zuschauer fragt sich zurecht:

Was hat so ein Umweltskandal um verseuchtes Trinkwasser mit „Global Warming“ zu tun?

06:56 Peter Düggeli (Mitte) mit den beiden EPA-Umweltwissenschaftlern Wayne Wipple (rechts) und Frank Lagunas (links)

Es ist dadurch deutlich erkennbar, wie die SRF RUNDSCHAU dem TV-Zuschauer zu suggerieren versuchte, die Klima(folgen)forscher würden in der gleichen löblichen Art und Weise agieren, wie die beiden Trinkwasser-Analytiker aus Chicago, die den Trinkwasserskandal in der Stadt Flint aufgedeckt haben.

Die Realität und die „Aufgabe“ der Klima(folgen)forschung sieht aber vollkommen anders aus, was auch schon Ottmar Edenhofer vom PIK in Potsdam bereits vor Jahren zugegeben und bestätigt hatte:

Ottmar Edenhofer wiederholte seine obige These über das „Umverteilen von Weltvermögen per Klimaschutz“ auch noch einmal im Februar 2011.

Die SRF RUNDSCHAU ließ dann am 26.04.2017 durch einen O-Ton die Behauptung verbreiten, die von Donald Trump geplanten Kürzungen bei der EPA würden in Zukunft die Aufdeckung solcher Umweltskandale nahezu unmöglich machen.

Frank Lagunas von der EPA, Chicago behauptet bei Minute 07:55:

07:55: Frank Lagunas

 

Zu wissen, dass Leute krank werden können, oder sogar sterben, nur weil Budgetkürzungen unsere Mittel einschränken, das ist herzzerreißend.

Dann werden von SRF RUNDSCHAU drei ehemalige Twitter-Behauptungen  von Donald Trump eingeblendet, die sich aber in Gänze auf Kritik an der Klimawissenschaft beziehen:

08:14

08:17

08:21

Beachten Sie:

Global Warming“ in den Twitter-Meldungen von Donald Trump wurde von der SRF RUNDSCHAU-Redaktion durchweg fälschlich ins Deutsche mit „Klimawandel“ übersetzt.

Die Behauptung/These, die US-amerikanischen Atomwaffentests nach dem 2. Weltkrieg hätten Einfluss auf das Klima gehabt, gab es wirklich. Und es wurde von „Klimapapst“ Schellnhuber auch schon mit dem 2. Weltkrieg als mögliche Erklärung für die globale Abkühlung von 1945 bis 1965 spekuliert:

Die weibliche Offstimme behauptet dann zum Ende des sehr beanstandungswürdigen SRF RUNDSCHAU-Beitrages von Peter Düggeli, während die Kamera über die schöne Sumpf-Landschaft der Everglades fährt:

08:27: Das „Schlusswort“ der weiblichen Offstimme, oder: „Das Wort zum Sonntag“

 

Umwelt und Natur in den Everglades. In Amerika. In dem ganzen Globus. Sie sind jetzt auch dem Klimaskeptiker Trump ausgeliefert.

Fazit:
Übelste Klimawandel-Propaganda in der SRF RUNDSCHAU am 26.04.2017

Fassen wir noch einmal die oben im Detail geschilderten Kritikpunkte in Kurzform zusammen:

  • Fälschliche Suggestion in der Anmoderation durch Sandro Brotz, es gäbe in den Everglades (Florida) angeblich Beweise für den menschgemachten Klimawandel. Denn die von Sandro Brotz suggerierten „Fakten“ entpuppen sich im TV-Bericht von Peter Düggeli dann als „Konjunktive“ und subjektive „Zukunftsszenarien“.

  • Behauptungen (Szenarien) über einen angeblichen Meeresspiegelanstieg bis zum Jahr 2100 werden fälschlich als „Prognosen“ bezeichnet.

  • Küstenerosionsvorgänge, die nur als natürliche Ebbe- und- Flut-Vorgänge auszumachen sind, werden suggestiv als „vom Klimawandel verursacht“ ausgewiesen.

  • Anstatt glaubwürdige Pegelstatistiken über einen angeblichen Meeresspiegelanstieg vorzulegen, wird nur ein Standbild einer Everglades-Messstation  gezeigt.

  • „Klimaschutz“ wird fälschlicherweise mit „Umweltschutz“ gleichgesetzt.

  • Mehrere (bewusst?) falsche Übersetzungen aus dem Amerikanischen ins Deutsche.

Wir informieren über diesen Blogtext auch Sandro Brotz und die RUNDSCHAU-Redaktion. Wir erwarten bis zum 7. Mai 2017 eine dezidierte Stellungnahme durch die SRF RUNDSCHAU Redaktion, bevor wir über weitere Schritte (Beschwerde beim SRF OMBUDSMANN) entscheiden werden. Die 20-Tagesfrist für eine solche Ombudsmann-Beschwerde läuft am 16. Mai 2017 ab.

Sollten wir eine Stellungnahme der SRF RUNDSCHAU REDAKTION erhalten, werden wir hier in unserem Blog darüber informieren.

Es steht jedem Leser dieses Blogtextes frei, ebenfalls jederzeit eine Beschwerde beim Schweizer Ombudsmann einzureichen.

————————————————–

Dieser Beitrag wurde übernommen von: https://www.klimamanifest-von-heiligenroth.de/wp/klimawandel-fakenews-in-der-srf-rundschau-am-26-april-2017/




Das wahre Gesicht grüner Politik- Statement grüner Umweltminister vor der Wahl

Nun ist es raus – Grüne können auf 50% der Stromerzeugung kurzfristig (bis 2020!) verzichten. Ein Statement grüner Umweltminister ausreichend vor der NRW-Wahl:

Düsseldorfer Erklärung
Die Zeit ist reif für den Kohleausstieg

Die globale Klimakrise zwingt dazu, die Energieversorgung grundlegend neu aufzustellen. Klimabedingte Katastrophen wie Dürren, Überschwemmungen, Stürme und Hitzewellen nehmen weltweit zu – das drängt zum entschlossenen Handeln, um die Welt im ökologischen Gleichgewicht zu halten, damit den Menschen nicht ihre Lebensgrundlage genommen wird.

Die Klimakrise ist nicht allein eine ökologische, sondern auch eine soziale und Ge- rechtigkeitsfrage. Am stärksten leiden diejenigen unter dem Klimawandel, die am wenigsten dazu beigetragen haben. Sie ist auch eine Frage der Generationengerechtigkeit: Denn sie betrügt diejenigen um ihre Zukunft, deren Gegenwart noch gar nicht richtig angefangen hat: die nach uns kommenden Generationen.

Vor diesem Hintergrund haben die Staaten der Erde im Pariser Klimaabkommen im Dezember 2015 bestätigt und verbindlich vereinbart, die globale Erwärmung auf deutlich unter 2° C zu begrenzen. Deutschland selbst hat 2015 im Rahmen seiner G7-Präsidentschaft die Dekarbonisierung – und damit das Ziel einer kohlenstofffreien Wirtschaft – verankert.

Klimaschutz gelingt nur mit Kohleausstieg

Deutschland droht sein eigenes Klimaziel für 2020 zu verfehlen. 2016 sind die Treib- hausgasemissionen sogar wieder angestiegen. Das nationale Klimaschutzziel sowie die Verpflichtung aus dem Pariser Klimaabkommen können nur erreicht werden, wenn jetzt ein schrittweiser und planvoller Ausstieg aus der Kohleverstromung eingeleitet wird.

Nordrhein-Westfalen kommt dabei eine besondere Verantwortung zu: Mit 18 Millio- nen Einwohnerinnen und Einwohnern ist NRW das bevölkerungsreichste Bundesland Deutschlands. NRW erwirtschaftet 4,6 Prozent des europäischen BIP und ist damit eine der bedeutendsten Wirtschaftsregionen Europas. Als Industrieland Nr. 1 in Deutschland ist NRW zugleich Energieland Nr. 1: Hier wird rund ein Drittel des deutschen Stroms produziert und findet etwa ein Viertel des deutschen Energieverbrauchs statt. Das bedeutet zugleich: NRW ist auch Emissionsland Nr. 1 in Deutschland: Hier fällt etwa ein Drittel aller bundesdeutschen CO2-Emissionen an (2012: rd. 305 Mio. Tonnen).

Das zeigt: Erfolgreicher Klimaschutz in Deutschland geht nicht ohne erfolgreichen Klimaschutz „Made in NRW“. Wenn wir den Kohleausstieg hier in NRW nicht schaffen, scheitert er in Deutschland.

Kohlekraftwerke gehören zu den Überresten aus der alten Energiewelt. Sie sind unflexibel, klimaschädlich und gefährden die Gesundheit der Menschen. In einem modernen, auf Umweltschutz und erneuerbaren Energien basierenden Stromsystem ist kein Platz für die Kohle. Das zeigt sich vor allem darin, dass die Energiewirtschaft selbst ihre Zukunft inzwischen ohne Kohlekraftwerke plant.

Die Kohlenutzung war nach dem Zweiten Weltkrieg der Motor für wirtschaftliches Wachstum und Beschäftigung in Deutschland. Doch bereits seit Jahrzehnten nimmt diese Bedeutung kontinuierlich ab: Von 650.000 Beschäftigten zu Beginn der 1960er Jahre verbleiben heute noch knapp 30.000 in der Stein- und Braunkohleverstromung.

Mit dem Auslaufen der Steinkohleförderung wird sich diese Zahl 2018 noch einmal um ein Viertel reduzieren. Der anstehende Abschied von der Kohleverstromung ist insofern der letzte Baustein eines langen Prozesses.

Hier die ganze Erklärung

Das die anderen System-Parteien nicht viel anders ticken zeigt dieser Beitrag

Mit Dank an Leser W. Stock




Jubiläum: 10 Jahre alternative Fakten von Claudia Kemfert

So behauptet gerade „Miss Energiewende“, Claudia Kemfert, die finstere Kohlelobby entfache eine Kampagne gegen die Energiewende. Immer dreister würden „alle möglichen Falschbehauptungen“ in die Welt gesetzt.

Deshalb lohnt es sich einmal daran zu erinnern, was Frau Kemfert, Leiterin der Energieabteilung beim Deutschen Institut für Wirtschaftsforschung, auch als „30-Sekunden-Problemlöserin“ bekannt, schon so alles behauptet hat.

Als Mitverfasserin eines  Greenpeace-Papiers und Leiterin des Bereichs Energie, Verkehr, Umwelt am DIW, versicherte sie noch 2012 , es sei „keine Strompreisexplosion zu erwarten“. Demnach sei bis zum Jahr 2020 mit einem Aufschlag von gerade einmal 0,2 bis 0,6 Cent pro Kilowattstunde auf den Großhandelspreis für Strom zu rechnen.

5 Jahre später ergibt die Besichtigung der Fakten: Im Jahre 2017 liegt alleine die EEG-Umlage mittlerweile bei 6,88 Cent. Frau Kemferts als Wissenschaft verkleidete Frohmuts-Phrasen der Vergangenheit  erinnern sehr stark an Jürgen Trittin, der einmal behauptete, die Energiewende koste pro Kopf nicht mehr als eine Kugel Eis. Die Gesamtkosten für die Energiewende werden bis 2025 mittlerweile alleine für den Strombereich auf 520 Milliarden Euro geschätzt. Eine Dame, die unter diesen Umständen anderen „Fakenews“ vorwirft, ist praktisch nicht mehr bildbar. Schon vor fast zehn Jahren schrieb DIE ZEIT:

„Doch sobald sie zu ihrem Kernthema kommt, überrascht Kemfert mit erstaunlich schludriger Arbeit. Das beginnt schon mit den Zahlen und Fakten. Da werden Milliarden mit Millionen verwechselt und Billionen mit Milliarden. Der Handel mit CO2-Emissionsrechten an der Amsterdamer European Climate Exchange wird mit absurden ‚bis zu 34 Milliarden Tonnen pro Tag‘ angegeben. Das wäre mehr als der weltweite CO2-Ausstoß pro Jahr. Ein kurzer Blick auf die Börsen-Website zeigt, dass 2008 höchstens 15 Millionen Tonnen und im Durchschnitt unter sieben Millionen Tonnen Emissionsrechte am Tag gehandelt wurden…“

Da bleibt für Frau Kemferts beeindruckende Karriere eigentlich nur noch der logische Schritt in die Politik.

Der Beitrag erschien zuerst bei ACHGUT




Australien ist mit der Energiewende schon weiter- Stromausfälle über Stromausfälle

Australien mag in manchen seiner Regelungen und Verhaltensweisen ein Vorbild sein – bei der Erzeugung von Strom mittels Windkraft ist es das nicht. Dafür aber ein gutes Beispiel für verrückte Energiepolitik. Dort passiert nämlich, was hierzulande ebenfalls droht, aber bisher immer noch abzuwenden gelungen ist: flächendeckende Stromausfälle. So haben die Bewohner einiger australischer Bundesstaaten im letzten halben Jahr mehrere Zusammenbrüche ihres Stromnetzes und Black-outs erlebt. Das Beispiel zeigt, was geschieht, wenn der Anteil alternativer („erneuerbarer“) Energien an der Stromproduktion über 40 Prozent hinausgeht. Der ist bei uns in Deutschland zwar noch nicht erreicht, soll aber erreicht werden. Die hiesigen selbsternannten Klimaschützer und Weltverbesserer streben sogar 100 Prozent an. Gelänge ihnen das wirklich, dann – im wahrsten Sinn des Wunsches – Gute Nacht, Deutschland. Dann nämlich, wenn’s Licht ausgeht, sollte man die Chance nutzen und sich im Bett auf’s Ohr legen. Schlafen ist gesund. Nur Tiefschlaf nicht in Sachen Politik.

Wegen der Stromausfälle stinksauer, daher jetzt der Schnellbau neuer Gaskraftwerke

Aber die vom Stromausfall schon betroffenen Australier fanden diese Idee wohl nicht so gut und sind wegen der häufigen Netzzusammenbrüche stinksauer. Daher muss jetzt ein Schnellprogramm für neu zu bauende Gaskraftwerke aufgelegt werden,  um die unregelmäßige Stromeinspeisung der Windkraft abzupuffern. Zuvor waren einige Kraftwerke mit Stromerzeugung aus fossilen Brennstoffen sinnigerweise stillgelegt worden –  obwohl Australien in Kohle schwimmt. Aber der „Ökostrom“ beschert den Bürgern in Down under nicht nur Stromausfälle, sondern auch teureren Strom. Der Preis für Strom ist dort auf das Preisniveau in Deutschland  gestiegen und wird weiter steigen. Doch anders als in Deutschland gibt es für stromintensive Unternehmen auf den hohen Preis keinen Rabatt.

Die Dokumentation durch eine französische NGO

Über die Stromkrise im Bundesstaat Süd-Australien gibt es eine sieben Seiten lange Dokumentation der französischen Nichtregierungsorganisation (NGO, französisch ONG) Global Electrification, die sich generell mit Strommärkten beschäftigt. Sie gilt als regierungsunabhängig und frei von Lobby-Einflüssen. Veröffentlicht ist das Dokument im Lettre geopolitique de l‘electricite Nr. 73 vom  27. März 2017. Im Folgenden gebe ich Ausschnitte daraus in der Übersetzung von Günter Unseld (NAEB Verbraucherschutz e.V.) wieder, der mich auf den Beitrag auch aufmerksam gemacht hat. Die Zwischenüberschriften sind von mir eingefügt. In der Einführung heißt es:

Der erste größere Netzzusammenbruch schon im Februar 2016

„Im Mai 2016 hatte das Bundesland Süd-Australien seine letzten beiden Kohlekraftwerke still gelegt. Der Anteil der Erneuerbaren Energien mit unregelmäßiger Stromerzeugung, d.h. Fotovoltaik und vor allem Windkraft, ging auf fast 50 Prozent zu, was einmalig auf der Welt ist. Der Strompreis erreichte neue Höhen. Nachdem es schon am 28. Februar 2016 einen größeren Netzzusammenbruch gegeben hatte, gab es sieben Monate später den nächsten großen Black-out. Von diesem Zeitpunkt an kam es immer wieder zu Netzzusammenbrüchen. Der daraus resultierende Ärger bei der Bevölkerung beschwor eine politische Krise herauf. Die Unternehmer drohten eine Abwanderung an. Und fünfzig Kleinkinder, die auf eine Transplantation warteten, überlebten das nicht.“

Für die nächsten zwei Jahre 125 Stromknappheiten-Situationen einkalkuliert

„Am 13. März 2017 reagierte die Regierung darauf mit einem außergewöhnlichen Notfallplan. Mit Priorität werden jetzt Gaskraftwerke gebaut und keine Kosten gescheut: Wenn wir den Maßstab von Frankreich anlegen, würde das 13,6 Milliarden Euro kosten und würde auf einen Notfallplan hinauslaufen, zuerst einen Gaskraftwerk-Park zu erstellen mit einer Leistung von 5 EPR Kernkraftwerken (je 1,6 Gigawatt). Innerhalb von sechs Monaten müsste das dastehen vor der nächsten Hitzewelle … und vor den nächsten Wahlen 2018. Am 26.März 2017 hat das Energieministerium für Süd-Australien für die nächsten zwei Jahre etwa 125 Situationen mit Stromknappheiten einkalkuliert und eine hohe Wahrscheinlichkeiten von Black-outs für den nächsten australischen Sommer angekündigt.“

Notstromgenerator nicht schnell genug, fünfzig Kleinkinder gestorben

Des Weiteren schildert das Dokument die Stromversorgung in Süd-Australien  v o r  der Krise, dann das Ausbrechen der Krise und beschreibt anschließend die Stromausfälle vom 28. September 2016, vom 1. Dezember 2016, von Ende Dezember 2016, vom 20. Januar 2017 und vom 8. Februar 2017. Die schon erwähnten fünfzig Kleinkinder starben, weil es nicht gelang, den Notstromgenerator rechtzeitig hochzufahren. Danach ging sofort eine riesige Auseinandersetzung über die unzuverlässige Windkraft los. Vom Stromausfall am 1. Dezember 2016 waren rund 200 000 Haushalten eine Stunde lang betroffen, und BHP Billiton (die größte Bergbaufirma in Australien) hatte vier Stunden lang keinen Strom bei seinen Arbeiten am Olympic Dam Bergwerk.

Weihnachten 2016 ohne Klimaanlagen, Kühlschränke, Internet, Mobiltelefone, Straßenampeln

Vom 23. Dezember an und am Weihnachtstag gingen während längerer Zeiten die Klimaanlagen und die Kühlschränke aus. Die lokalen Zeitungen beschrieben die großen Verluste der Supermärkte, die sich zur Weihnachtszeit mit verderblichen Waren eingedeckt hatten. Am 27. Dezember waren zunächst 155 000 Haushalte betroffen. Außer Betrieb waren das Internet, die Mobiltelefone und die Straßenampeln. Am 20. Januar fand der Netzzusammenbruch während der Nacht statt und betraf 58 000 Haushalte in Adelaide und den Vorstädten. Viele Geschäfte mussten deshalb am nächsten Tag geschlossen bleiben.

Vorsorgliche Netzabschaltung wegen der sommerlichen Hitze, weil Strom fehlte

Am 8. Februar schaltete der Netzbetreiber in kurzer Folge verschiedene Bereiche der Stadt ab, um einen totalen Netzzusammenbruch zu vermeiden. Das wurde schmerzlich verspürt, da der australische Sommer voll zuschlug. Es fehlte eine Stromleistung von 100 Megawatt, die Hitze war groß. Die Regierung beschimpfte die Netzbetreiber, sie hätten grundlos das Netz abgeschaltet, was diese aber in Abrede stellten. Seit 5. Februar waren in der Adelaide-Region über 3000 Haushalte ohne Strom.

CocaCola-Fabrik geschlossen, BHP-Billiton-Bergwerk ohne Gewinn

Weiter liest man in dem Bericht, dass die Netzzusammenbrüche jetzt in einem bisher unbekannten Rhythmus aufeinander folgen. Die Warnungen der Netzbetreiber würden jetzt ernst genommen. Die Bevölkerung sei sich einer neuen Anfälligkeit ihres Stromnetzes bewusst, das ihnen vorher unbekannt gewesen sei. Die Presse registriere unter der Bevölkerung  eine Unruhe und das Bewusstsein von finanziellen Verlusten, z.B. in den Supermärkten. Und die Todesfälle, verursacht durch den großen Netzzusammenbruch im September 2016, führten zu einem gerichtlichen Nachspiel. Der Bergbaukonzern BHP Billiton, einer der größten Arbeitgeber in Australien mit allein 3000 Beschäftigten im Kupferbergbau am Olympic Dam, weist darauf hin, dass durch die hohen Strompreise und die Stromausfälle der Gewinn 2016 in diesem Bergwerk auf Null geschrumpft ist. Die Firma Coca Cola hat ihre Fabrik in Süd-Australien geschlossen, um ihre Wettbewerbsfähigkeit zu erhalten, da der Bundesstaat jetzt die höchsten Strompreise habe und die Stromlieferungen am unsichersten sei.

Das Grundproblem bleibt

Als Grundproblem bleibt: „Auch künftig ist es schwierig, die unregelmäßige Einspeisung in das Netz zu kompensieren. Man muss genügend schnell hochfahrende Kraftwerke zur Verfügung haben. Und das ist offensichtlich in Süd-Australien zur Zeit nicht der Fall. … Der Black-out vom 28. Februar 2016 zeigt auf, dass ein plötzlicher Rückgang der Stromlieferungen über Windkraft nicht sofort kompensiert werden kann durch die anderen Kraftwerke. Kurz vor dem Black-out hatten die fossilen Kraftwerke ihre Stromproduktion heruntergefahren, da die Windkraft mit der Fotovoltaik etwa die Hälfte der Stromnachfrage abgedeckt hat.“

Ein riesiges Experiment, das auf unzuverlässigen Hypothesen beruht

Die Schlussfolgerung in dem Bericht lautet: „Zur Zeit führt Süd-Australien mit seiner 50 Prozent Windkraft-Stromversorgung ein riesiges Experiment durch, da theoretische Studien über diese Art der Stromversorgung nur aus unzuverlässigen Hypothesen bestehen. Im Einzelnen:

–   Wenn man von 35 auf 50 Prozent übergeht mit einer Stromversorgung, die aus unregelmäßigen Stromerzeugern besteht, dann  riskiert man Netzzusammenbrüche, die sowohl den Endverbraucher als auch Unternehmen schwer beeinträchtigen …

–   Die AEMO (Australien Energy Market Organisation) sieht für Süd-Australien in den nächsten zwei Jahren 125 Tage mit Strommangel-Situationen voraus. ‚tatsächlich ist es nicht möglich, bei Sommer Temperaturen über 40 Grad das Netz stabil zu halten’  

–    Schon vor der Krise waren die Strompreise doppelt so hoch wie in Frankreich  und die höchsten in ganz Australien.

–    Die Regierung, deren Vorliebe der weitere Ausbau der Erneuerbaren Energien Wind und Sonne ist, muss jetzt einen kostspieligen Notfallplan verfolgen, dessen Schwerpunkt der Bau von Gaskraftwerken ist. …

–   Das Speichern von Strom über Batterien ist eine nicht reiflich überlegte Lösung und dazu außerordentlich teuer.

–   Der Strompreis für Süd-Australien wird explodieren – einmal durch die Abschaltung der Kohlekraftwerke, aber dann vor allem durch den Crash Plan, der in wenigen Monaten durchgeboxt werden soll.“

Was Süd-Australien exemplarisch vorführt

„Für Frankeich würde derselbe Notfallplan – aber hochgerechnet auf unseren Stromverbrauch – etwa 13,5 Milliarden Euro kosten. Bei den Netzzusammenbrüchen kommen oft verschiedene Ursachen zusammen – die unregelmäßige Stromeinspeisung über Wind und Sonne ist aber ein wichtiger Grund, der mit der immer mehr zunehmenden Stromeinspeisung immer wichtiger wird. In Deutschland, wo der Anteil der Erneuerbaren schon über 30 Prozent am Stromverbrauch beträgt, erfordert eine Windflaute einen massiven Unterhalt von fossilen Back-up-Kraftwerken. Bei der European Physical Society Energy Group hört sich das so an: Die Integration von unregelmäßigen Stromerzeugern wird ab einer Größenordnung von 30 bis 40 Prozent immer schwieriger werden. Süd-Australien führt uns das exemplarisch vor!“

Ein vernichtendes Ergebnis auch für die deutsche Strompolitik

Der Lettre geopolitique de l’electricité der ONG Global Electrification (Homepage hier) erscheint mit seinen Beobachtungen der Strompolitik monatlich. Am 22. Februar (hier) sind dort die Kosten und die Klimarelevanz der deutschen „Energiewende“ analysiert worden – mit einem vernichtenden Ergebnis. Der eigenen (französischen) Regierung wurde empfohlen, dem deutschen Beispiel nicht nachzueifern. Das Gleiche hat die NGO mit der EU-Energiepolitik gemacht und geprüft, ob die Klima- und die Energieausbauziele  überhaupt realistisch und sinnvoll sind. In Deutschland fehlt eine solche unabhängige Institution – leider.

Der Beitrag erschien zuerst bei Blog von Dr. K.P. Krause




Trump: Not with me folks!

Es wird geschätzt, dass die vollständige Einhaltung der Pariser Vereinbarung letztlich das BIP von Amerika um 2,5 Billionen Dollar über einen Zeitraum von 10 Jahren schrumpfen lassen wird.

Das bedeutet, dass Fabriken und Firmen in unserem ganzen Land schließen.

Nicht mit mir, Leute! —

US Präsident Donald Trump, Harrisburg, 29 April 2017

Original:

It is estimated that the full compliance with the Paris agreement will ultimately shrink America’s GDP by 2.5 trillion dollars over a 10-year period. That means factories and plants closing all over our country. No with me, folks! –U.S. President Donald Trump, Harrisburg, 29 April 2017




Atomkraft: Und plötzlich bist Du Menschenverächter

Aus entrüsteten Zuschriften muss ich schließen, dass (vermeintliche) Tschernobyl-Leugner hierzulande Gefahr laufen, auf dieselbe Stufe wie Holocaust-Leugner gestellt zu werden: ich sei menschenverachtend, „relativierend“ und zynisch, so warf man mir vor. Meist sind solche Zuschriften mit Verweisen auf Einzelschicksale im Familien- und Bekanntenkreis versehen, die von den Verfassern auf den Reaktorunfall zurückgeführt werden.

Wie immer in solchen Fällen kann man angesichts solcher unhintergehbarer Leidensgeschichten als Wissenschaftler oder auch Politiker, welcher jenseits des Individualschicksals Bewertungen abgeben und Entscheidungen zu fällen hat, nur verlieren. Denn wer möchte sich dem Vorwurf aussetzen, er oder sie sei hartherzig einem Menschenschicksal gegenüber?

Ich vermute: genau in diesem typischen Diskussionsverlauf liegt die Ursache, warum sich hierzulande niemand mehr zutraut, eine sachlich-kritische Diskussion über die Energiepolitik unter Einbeziehung der nuklearen Option noch durchzustehen: man will sich nicht als nuklearer Volksverräter und Menschenfeind hinstellen lassen.

Machbarkeit und Akzeptanz müssen zusammenkommen

Meine Kritiker, die mit dem wohlfeilen Vorwurf der Gefühlskälte kommen, verwechseln zweierlei Sachverhalte. Man kann einerseits feststellen, dass jedes Opfer einer Industriekatastrophe eines zuviel ist, und man kann einen individuellen Zugang zum Schicksal einzelner Opfer wählen. Das ist legitim, wurde vielfach in vorbildlicher Weise unternommen, und an einigen solcher Unternehmungen war und bin ich als Historikerin Tschernobyls auch beteiligt.

Das enthebt aber andere Menschen, welche allgemeinverbindliche Entscheidungen für viele fällen müssen – das heißt politische Verantwortung tragen – nicht der Konfrontation mit den Tatsachen. Entscheider und ihre wissenschaftlichen Berater müssen durch einen Abwägungsprozess hindurch, in unserem Falle (idealiter) mit dem Ziel, herauszufinden, welche Art Energieversorgung in einem Industrieland funktioniert und auch gesellschaftlich und moralisch vertretbar ist. Machbarkeit und Akzeptanz müssen zusammenkommen.

Und bei dieser Abwägung steht die Kernenergie trotz aller Mythenbildungen immer noch besser da als all das, mit dem sie von den Atomgegnern so eifrig und optimistisch substituiert wird. Diese müssten sich konsequenterweise fragen lassen, was die Atomindustrie und ihre Opfer so heraushebt, was sie so besonders inakzeptabel macht vor anderen Opfergruppen.

Grund des Akzeptanzproblems, so meine These, ist nicht die real existierende Kerntechnik und auch nicht die nachweisbare Opferbilanz der zivilen Kernenergienutzung, die ich gar nicht leugne, obwohl mir das implizit unterstellt wird. Es ist vielmehr der rund um diese Energieform produzierte Diskurs, demzufolge die Kerntechnik als Menschheitsverderber ganz oben in der Hierarchie des Entsetzlichen und Verwerflichen steht.

Die Tendenz zur (Selbst-)Viktimisierung

Hinzu kommt die allgemeine Tendenz zur (Selbst-)Viktimisierung in unseren politischen Diskussionen. Wer nicht Opfer (der Atomkraft oder sonstiger finsterer Kräfte) ist oder für die Opfer zu sprechen vorgeben kann, dessen Argument büßt an Legitimationskraft ein. Wer sich anmaßt, dieses Argument auseinander zu nehmen und nach tatsächlichen Opfer-Verhältnissen zu fragen, ist ein „Relativierer“. Aber das ist nur einer der Wege, Diskussionen im Keim zu ersticken. Neulich hörte ich eine interessante Aussage von der Grünen-Politikerin Gudrun Zentis, die eine Förderung der Kernforschung (es ging um die Möglichkeit, das Volumen hochaktiven nuklearen Abfalls durch Transmutation zu reduzieren) mit der Begründung ablehnte, dies würde ja die Akzeptanz der Kernenergienutzung erhöhen.

Es gibt also in unserem Land Gruppen, die gar nicht an der Schnittstelle von Machbarkeit und Akzeptanz für das Gemeinwohl streiten und arbeiten wollen, um die bestmögliche Entscheidung zu erzielen, sondern die lieber alles dafür tun, eine Option erst gar nicht in die Nähe der Akzeptanz kommen zu lassen.

Das halte ich für fahrlässig. Denn wir leben in einer nicht perfekten Welt. Das bedeutet, dass wir häufig mehrere nicht perfekte Lösungswege eines Problems gegeneinander abwägen müssen. Das ist die Aufgabe von Wissenschaftlern und Politikern, die sich dann Vorwürfe gefallen lassen müssen, sie seien zynisch und respektlos den Opfern gegenüber. Alle moralisch Unanfechtbaren sollten sich freilich überlegen, auf wen sie ihren ersten Stein schleudern.

Sie sollten also ihre eigene Opferfixiertheit bis zum Ende durchhalten und beispielsweise ausrechnen, wie viele Opfer von Atemwegs- und Gefäßerkrankungen ein Kernkraftwerk zu verhindern half, indem es mehrere Kohlekraftwerke ersetzte. Und sodann abwägen, ob sie diese Schicksale akzeptabler finden als die hypothetischen Opfer eines nuklearen Unfalls in unserem Land, die sie auf jeder Demonstration beschwören.

Das Dilemma der Unfallchirurgie

Denn wir sehen, dass bei uns die Kernenergie keinesfalls durch bessere Lösungen ersetzt wird, sondern durch schlechtere – nämlich durch mehr fossile Energieträger. Wind, Sonne und guter Wille allein reichen nicht aus, um ein Industrieland zu versorgen; von den nichtexistenten Speicherlösungen über den irrwitzigen Landschaftsverbrauch bis hin zum akuten Rohstoff- und Sondermüllproblem bei den „Erneuerbaren“ stellen sich für mich so viele Fragen, dass ich den Ausstiegsbeschluss aus der Kernenergie für überhastet und unverantwortlich halte.

In diesem Konflikt zwischen Gesinnungs- und Verantwortungsethik haben die Gesinnungsmenschen vorerst die Oberhand. Verantwortungsethikern schlägt ein kalter Wind entgegen. Ihnen wird vorgeworfen, Opfer zu „zählen“ und, noch schlimmer, zu „relativieren“, womit eigentlich „kleinrechnen“ unterstellt wird. Obwohl, wie ein befreundeter Arzt mir schrieb, solche kognitiven Operationen in einer Entscheidungssituation, beispielsweise in der Unfallchirurgie, das höchste Gebot sind: Zählen und Vergleichen, die berüchtigte Triage, hilft dann Leben zu retten, wo es zu retten ist. Aus Sicht der Angehörigen eines unrettbar Verletzten blanker Zynismus und unerträgliche Vorstellung.

Entscheider in Wissenschaft und Politik müssen jedoch den Mut aufbringen, auch gegen schlechte Bilder, auch im Angesicht des Zynismus-Vorwurfs, auch unter einem Schwall von schmähenden Zuschriften ihren Weg zu gehen. Dafür sind sie zu Entscheidern gewählt worden. Dazu gehört im Falle sehr weitreichender Entscheidungen wie der Energiepolitik der Mut, Optionen und Entwicklungspfade abzuwägen, die Gelassenheit, in einer emotional aufgeheizten Atmosphäre Zeit zum Einholen von Expertise einzufordern, und die Zähigkeit, auf die Ergebnisse zu warten. Nichts davon hat man in unserer Energiepolitik nach Fukushima getan.

Man hat mehr zerstört als man aufbauen konnte

Man hat eine hastig berufene und parteiisch besetzte Ethik-Kommission vorgeschoben, wo man eigentlich eine Enquête-Kommission mit wissenschaftlichem Stab gebraucht hätte. In einem solchen Gremium hätte man den Kernverfahrenstechnikern und Fachleuten für Übertragungsnetze die gleiche Stimme einräumen müssen wie den Techniksoziologen und -ethikern. Man hätte mögliche Weiterentwicklungen der Kerntechnik ebenso ernsthaft diskutieren müssen wie die Entwicklungsaussichten von Speichertechnologien und Offshore-Windkraft.

Das hätte Zeit gekostet, die man angesichts grüner Siegeszüge in Baden-Württemberg nicht zu haben vermeinte. Daher hat man Diskussionen abgeschnitten, bevor sie beginnen konnten. Man hat Ergebnisse vorgegeben, statt ergebnisoffen zu beraten. Man hat um der billigen „Befriedung“ der deutschen Atomdebatte willen einen funktionierenden Industriezweig geopfert und ihn durch einen Weg ins Ungewisse ersetzt. Man hat als Kollateralschaden in Kauf genommen, dass deutsche Expertise auf dem Gebiet der Reaktorsicherheit international an Einfluss verliert, da unsere Experten keine kerntechnische Führungsnation mehr vertreten, sondern ein innovationsmüdes Abwicklungsland. Man hat mehr zerstört als man aufbauen konnte. Denn man wollte nicht herzlos sein – und hat den Verstand abgeschaltet.

Dr. Anna Veronika Wendland forscht zur Geschichte und Gegenwart nuklearer Sicherheitskulturen in Ost- und Westeuropa. Für ihre Habilitationsschrift hat sie in mehreren Kernkraftwerken in der Ukraine, Litauen und Deutschland, zuletzt in den KKW Grafenrheinfeld und Grohnde, Forschungsaufenthalte durchgeführt. Dr. Wendland arbeitet in der Direktion des Herder-Instituts für historische Ostmitteleuropaforschung in Marburg. Sie leitet Arbeitsgruppen im Bereich Technik-, Umwelt- und Sicherheitsgeschichte.

 

Der Beitrag erschien zuerst auf der Seite ACHGUT