1

Seit 10 Jahren Fukushima

Wäre da nicht das ZDF hinter dem Busch hervorgekrochen mit seiner Sendung „Der ewige Gau? 10 Jahre Fukushima“. Gäbe es einen Karl-Eduard Richard Arthur von Schnitzler – auch Sudel Ede genannt – Preis, das ZDF hätte ihn mit Sicherheit in der Tasche. In bester Tradition schneidet man alte Aufnahmen des West-Fernsehens neu zusammen und läßt sie von den einschlägig Verdächtigen: Green Peace, Partei Bündnis 90/Die Grünen usw. kommentieren. Selbst der alte Lehrer Arnie Gunderson mit seiner Verschwörungstheorie von dem explodierten Brennelemente-Lagerbecken darf nicht fehlen. Die Verknüpfung „Atombombe“ gleich „Atomkraftwerk“ ist einfach zu verlockend. Als Staatsfunker braucht man nicht einmal elementare handwerkliche Fähigkeiten zu beachten: Eine simple Google-Abfrage und man hätte Aufnahmen des besenreinen Lagerbeckens von Block 4 senden können. Ausgewogenheit – also die Berücksichtigung von Pro und Kontra – ist mit der Einführung der Wohnungssteuer „Rundfunkgebühr“ sowieso nicht mehr nötig. Man dient nur seinem Herrn, der die nächste Gebührenerhöhung festsetzt. Sollen die Zuschauer doch abschalten, wenn sie soviel Propaganda nicht ertragen.

Was geschah am 11. März 2011?

Um 14:46 (Japan Standard Time) erschütterte das “Tohoku Earthquake” den Osten Japans mit einer Magnitude von 9.0 auf der Richterskala. Das Epizentrum lag etwa 130 km östlich der Oshika Halbinsel in 24 km Tiefe. Quelle war ein Sprung der ineinander verhakten nordamerikanischen und pazifischen Platte. Dieser Sprung löste einen Tsunami aus, der über die japanische Küste hereinbrach. Er zerstörte mehr als eine Million Gebäude, tötete 19 729 Menschen, weitere 2 559 Opfer blieben bis heute vermißt und verletzte 6 233 Menschen zum Teil schwer. Ganze Landstriche waren innerhalb von Minuten dem Erdboden gleich gemacht. Für uns Mitteleuropäer eine unvorstellbare Naturkatastrophe von apokalyptischem Ausmaß.

Im Zusammenhang mit dem Reaktorunglück ist nur von Bedeutung, daß solche Tsunamis in Japan nicht unwahrscheinlich sind. Mit anderen (deutlichen) Worten: Dieses Kraftwerk hätte so nie an diesem Ort gebaut werden dürfen. Dies war unter Fachleuten – bitte nicht verwechseln mit „Atomexperten“ – bekannt. Es gab sogar einige wenige, die unter Inkaufnahme erheblicher beruflich Konsequenzen dabei nicht mitgespielt haben.

Die Ereignisse im Kernkraftwerk

Im Kernkraftwerk Fukushima waren drei der sechs Blöcke in Betrieb. Block 4 war bereits vollständig entladen für einen Brennstoffwechsel mit Wartungsarbeiten. Die Blöcke 5 und 6 waren in Vorbereitung zum Wiederanfahren nach erfolgtem Brennelementewechsel. Durch das Erdbeben wurden alle sechs Hochspannungstrassen unterbrochen. Die Notstromdiesel zur Eigenversorgung im Inselbetrieb starteten.

Für das Verständnis der Abläufe ist wichtig, daß zuerst alles nach Plan verlief: Durch die Erdbebensensoren wurde eine Schnellabschaltung ausgelöst und auch in Fukushima startete die Notversorgung – wie in fast allen japanischen Kernkraftwerken. Es wäre nichts passiert, wenn die Flutwelle nicht gekommen wäre oder man das Kraftwerk „wasserdicht“ gebaut hätte. Der Vorgang einer Schnellabschaltung infolge eines Erdbebens ist in Japan Routine. Die Betriebsmannschaft war allerdings bezüglich des Tsunami so ahnungslos, daß sie sogar die Abkühlung des Blocks 1 noch verzögerte, um – wie erwartet – möglichst schnell wieder ans Netz zu kommen. Dies war leider eine fatale Fehlentscheidung, wie sich bald herausstellen sollte. Es verstrich fast eine wertvolle Stunde in Ahnungslosigkeit. Hier zeigt sich, wie wichtig ein Kommunikationssystem ist, das auch bei schweren Naturkatastrophen intakt bleibt: Wäre die Betriebsmannschaft über die Gefahr eines schweren Tsunami informiert worden, hätte sie mit Sicherheit ganz anders reagiert. Bei den Reaktoren 2 und 3 wurde die Isolation der Reaktoren von dem konventionellen Teil des Kraftwerks automatisch durchgeführt und die notwendigen Notkühlsysteme ausgelöst. Bis zu diesem Zeitpunkt waren alle drei Reaktoren in einem sicheren Zustand und auch die Notkühlung funktionierte wie geplant.

Etwa 50 Minuten nach dem Erdbeben (das hätte die „goldene Stunde“ sein können) brach eine Wasserwand auf das Kraftwerk ein und schlug alle Außeneinrichtungen der Blöcke 1 bis 4 kurz und klein. Dies war die Folge des bekannten Konstruktionsfehlers: Die Lage des Kraftwerks über dem Meeresspiegel war viel zu niedrig. Bereits in den etwas abgelegenen (neueren) Blöcke 5 und 6 waren die Zerstörungen wesentlich geringer. Sämtliche Kühlwasserpumpen der Blöcke 1 bis 4 sind abgesoffen und damit war keine Außenkühlung mehr möglich. Die Notstromdiesel, die Schaltanlagen und alle Batterien im Keller des Turbinengebäudes wurden durch das hereinbrechende Meerwasser zerstört. Zunächst überlebten die Diesel von Block 2 und 4, bis sie durch die zerstörten Schaltanlagen außer Gefecht gesetzt wurden. Die Batterien von Block 3 hielten noch durch, bis sie erschöpft waren. Es gab sogar einen zusätzlichen luftgekühlten Generator für den Block 6 – wenn man nur den Strom hätte nutzen können. Durch den totalen Stromausfall (station blackout) war die Mannschaft blind und kraftlos. Man hatte bald keine Informationen durch die Messgeräte mehr und konnte auch keine elektrischen Stellglieder mehr betätigen. So ließ sich das Ventil, welches man im Block 1 geschlossen hatte, um die Abkühlung zu verringern, nun nicht mehr öffnen. Hilfe von außen ließ auf sich warten, weil die Feuerwehr erstmal die zerstörten und verschütteten Straßen räumen mußte um sich zum Kraftwerk vorkämpfen zu können. Die Kernschmelze setzte etwa 5 Stunden später in Block 1 ein. Unter den hohen Temperaturen zersetzten sich die Brennstabhüllen durch eine chemische Reaktion zwischen Wasserdampf und Zirconium. Der Kern des Reaktors – eine Konstruktion mit Toleranzen von weniger als einem Millimeter – fällt nun unkontrolliert in sich zusammen. Da die Nachzerfallswärme immer noch weiter wirkt, schmelzen Teile sogar auf. Es entsteht ein „Corium“, eine Legierung aus allen Bauteilen des Kerns, die nach dem Erkalten eine lavaähnliche Schlacke bildet. Deren Beseitigung ist die zentrale Herausforderung des Rückbaus. Man hat nicht mehr eine verfahrenstechnische Anlage vor sich, sondern einen Stahlbehälter mit einer harten, widerborstigen Masse, die man zerkleinern und bergen muß. Sinnvollerweise wird dies erst in Jahrzehnten mit noch zu entwickelnden Robotern erfolgen.

Durch den ansteigenden Druck wurde der Deckel im Reaktor 1 undicht und es entwich Wasserstoff in das obere Stockwerk. Eine ganz normale Industriehalle und kein „Betonbunker“, wie er in modernen Kraftwerken üblich ist. Etwa nach 24 Stunden explodierte das gebildete Knallgas und lieferte die spektakulären und immer wieder gern gezeigten Bilder. Nur hat dies nichts mit Kerntechnik zu tun, sondern ist eher ein Vorgeschmack auf die viel gepriesene „Wasserstoffwirtschaft“.

Im Block 2 funktionierte die Notkühlung noch drei Tage. Allerdings stieg auch dort Druck und Temperatur an, weil durch den Ausfall der Kühlwasserpumpen die Wärme nicht mehr an die Umwelt abgegeben werden konnte. Der Versuch einer Druckentlastung damit die Feuerwehr Wasser einleiten konnte, scheiterte und es kam ebenfalls zu einer Teilschmelze. Allerdings weniger schlimm als in Block 1. Es gab auch keine Knallgasexplosion, da der „Schuppen“ über dem Reaktordruckbehälter schon durch die Explosion in Block 1 soweit zerstört war, daß der Wasserstoff abziehen konnte.

In Block 3 konnte man mittels Strom aus Batterien die Notkühlung noch etwas steuern. Da aber die Wärmesenke Meerwasser nicht mehr zur Verfügung stand, kam es auch dort zu einer Kernschmelze. Hier strömte das gebildete Knallgas nicht nur in den „Schuppen“ oberhalb des Blocks 3, sondern auch über die gemeinsamen Lüftungskanäle in den „Schuppen“ des gar nicht in Betrieb befindlichen Block 4. Wieder zwei spektakuläre Explosionen von Knallgas. Nun waren alle „Schuppen“ zerstört wie nach einem Bombenangriff und der Schutt in alle Brennelemente-Lagerbecken gefallen. Um die Brennelemente bergen zu können, muß erstmal der Schutt beräumt werden. Davor wiederum mußten erstmal neue Gebäude gebaut werden um etwaige Verseuchungen bei den Bergungsarbeiten zu verhindern. Das alles brauchte und braucht Zeit.

Der Irrsinn der Evakuierung

Völlig überhastet und von „Strahlungsangst“ getrieben, ordnete man großräumige Evakuierungen an. Infolge dieser Evakuierungen kam es zu zahlreichen Todesfällen, weil man Schwerkranke von Intensivstationen und hochbetagte Pflegefälle einem Transport und Notunterkünften aussetzte. Nachweislich ist aber kein Mensch durch Strahlung gestorben. Die Strahlungsdosen sind so gering, daß man nicht einmal mit einer erhöhten Rate von Krebsfällen rechnen kann. Anfangs lagen die Strahlendosen im Sperrgebiet bei 50 bis 100mSv/year. Durch Dekontaminierung wurden die Werte auf 1 bis 20 mSv/year gesenkt. Ein wahnsinniger Aufwand, der eher an „Buße“ als an Strahlenschutz erinnert.

So ist es halt, wenn man den Weg der Wissenschaft verläßt und sich dem Populismus hingibt. Geht man den Agitatoren von Green Peace und Co auf den Leim, wird es einem nicht vergönnt, sondern die Berge von abgetragenem – und sorgfältig in Säcke verpacktem – Mutterboden (!) werden als tödliche Strahlenquellen genüßlich vorgeführt. Man hinterfragt keine Sekunde die Prognosen über „Strahlentote“ und „Krebsopfer“ unmittelbar nach dem Unglück. Nein, die gleichen Angstmacher dürfen von der „Beinahe-Katastrophe“ in Tokio schwadronieren. Man sollte das tunlichst nicht einfach als Spinnereien ewig Unbelehrbarer abtun. Ganz im Gegenteil, es ist die Vorbereitung für z. B. den Kampf gegen den Bau von Kernkraftwerken nahe Danzig. Die Antifanten müssen rechtzeitig aufgestachelt werden. Mit Angst läßt sich nicht nur hervorragend regieren, sondern auch Spannungen mit (nicht folgsamen) Nachbarländern schüren. Die „Energiewende“ ist längst zu einem politisch-wirtschaftlichen Geschwür geworden, neben dem jede „Masken-Affäre“ wie Tauschgeschäfte unter Kindern auf dem Schulhof anmuten. Gerade dieses Filmchen und die darin auftretenden Darsteller sind ein Beispiel dafür, wie inzwischen eine ganze Generation „Angstmacher“ sich lukrative Posten ergattert hat, die diese wahrscheinlich nie mit ihren studierten Berufen hätten erreichen können.

Die Moritat vom Atommüll

Unsere Filmschaffenden vom ZDF-Kollektiv „schneide und sende“ haben beharrlich alte Wochenschauberichte von Arbeitsmännern, die durch Ruinen kraxeln, endlosen Tanklagern, Berge von Plastiksäcken etc. zusammengeschnitten. Man kennt diesen Arbeitsstil noch von der Berichterstattung über Trump: Immer wurde nur Material anderer (gleichgesinnter) Sender „nachgesendet“, niemals jedoch eine Rede von Trump im Original gesendet. Ist das einfach nur Faulheit oder hat Betreutes-Denken-TV Angst, die Zuschauer könnten zu viel von der tatsächlichen Welt erfahren? Wo sind die Aufnahmen vom Kraftwerksgelände heute, wo man sich längst ohne jede Schutzkleidung bewegen kann? Wo sind die Aufnahmen von den Ingenieuren vor Ort in ihren Computer Räumen (von denen manche deutsche Universität nur träumen kann), die die Arbeiten steuern und überwachen? Es wird doch sonst so gern von künstlicher Intelligenz, Robotertechnik, Simulationstechnik etc. geschwätzt. All das hätte man im Einsatz in der Ruine von Fukushima filmen können. Dazu hätte man sich vor Ort noch mit den führenden internationalen Fachleuten auf diesen Gebieten unterhalten können. Paßt natürlich alles nicht in das ideologisch gewünschte Bild einer sterbenden Technik. Ahnungslose Rentner (die Zielgruppe des ZDF) hätten sonst noch glauben können, sie hätten einen Bericht von der Hannover Messe gesehen.

Stattdessen Luftbilder von einem Tanklager. Eigentlich ein Beweis, wie umsichtig man vorgeht. Man hat nicht einfach das radioaktive Wasser ins Meer gekippt – was nebenbei gesagt, kein großer Schaden gewesen wäre – sondern hat es aufwendig zur Aufbereitung zwischengelagert. Hat man so etwas schon mal bei einem Unfall in einem Chemiewerk gesehen? Wie wäre es gewesen, wenn man mal die Reinigungsanlagen gefilmt hätte und die betreuenden Wissenschaftler z. B. aus Russland und Frankreich befragt hätte, wieviel Gehirnschmalz dafür notwendig war, Konzentrationen in Trinkwasserqualität zu erzielen? Stattdessen minutenlanges Gejammer über Tritium. Aber Vorsicht, das Narrativ vom unbeherrschbaren Atommüll hätte bei manch einem Zuschauer hinterfragt werden können.

Die Konsequenzen

Die Welt hat nach Fukushima erstmal den Atem angehalten. Man ist wie nie zuvor in der Technikgeschichte zusammengerückt und hat die tragischen Ereignisse analysiert. Heute gehen selbstverständlich russische, chinesische und amerikanische Fachleute gegenseitig in ihren Kernkraftwerken ein und aus. Suchen Schwachstellen und beraten sich gegenseitig. Dies geschieht über alle politischen Gegensätze und Spannungen hinweg. Fukushima war ein Ereignis für die Kerntechnik, wie der Untergang der Titanic für die Seefahrt. Schrecklich, aber nicht zerstörend. Nur unsere Führerin hat den „Mantel der Geschichte wehen gespürt“. Sie, die als so bedächtig dargestellte, hat sofort fest zugegriffen. Man könnte auch sagen, wie ein Skorpion tödlich zugestochen, um ihre öko-sozialistischen Träume zu beschleunigen. Milliardenwerte mit einem Federstrich vernichtet und Deutschland international ins Abseits gespielt. Chapeau Frau Merkel, sie werden ihren Platz in der Geschichte einnehmen.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Beim Diesel treten die Messlügen offen zutage

In Stuttgart werden neue Verbotsschilder für Dieselfahrzeuge montiert. »Diesel (außer Lieferverkehr) erst ab Euro 6/VI frei« steht darauf. Damit geht in der baden-württembergischen Landeshauptstadt Stuttgart der Krieg gegen das Auto in seine nächste Runde. Seit dem 1. Juli gilt auch für neue Diesel mit der Abgasnorm Euro 5 ein flächendeckendes Fahrverbot. Bisher fehlen noch die Schilder, die werden jetzt an 160 Standorten aufgestellt.

Diese Verbote für das Stadtgebiet, für Bad Cannstatt, Feuerbach und Zuffenhausen stehen in der aktuellen Fassung des Luftreinhalteplans. Ab dem 1. Oktober sollen die Fahrverbote kontrolliert und auch mit Geldbußen bestraft werden, betont die Stadt. Auch neue, nur ein paar Jahre alte Euro-5 Dieselfahrzeuge dürfen dann nicht mehr fahren.

Der dubiose Abmahnverein »Deutsche Umwelthilfe e.V.« hat erneut geklagt und will ein flächendeckendes Fahrverbot für Euro 5 Diesel. Stuttgarter Verwaltungsrichter hatten wiederum der DUH Recht gegeben. Die hatte als Grund angeführt, dass das Land eine günstige Entwicklung der Luftsituation in Stuttgart prognostiziert habe, nach der keine weiteren Fahrverbote notwendig seien. Dabei habe sie sich auf Modellrechnungen bezogen. Ein anderes Gutachten ergebe jedoch prognostiziere höhere Werte. Ein Streit mit windigen Simulationsrechnungen ohne realen Bezug zu Daten.Der erweist sich als Witz, weil bereits die bisher geltenden weitreichenden flächendeckenden Fahrverbote bis in die dörflichen Vororte auf Modellrechnungen basieren, nicht auf realen Messungen.

Aus dem Rathaus hört man kaum etwas dazu. Am 8. November findet die nächste Wahl des Oberbürgermeisters statt. Der heillos überforderte Oberbürgermeister Fritz Kuhn (Grüne), der seit 2013 amtiert, wirft nach nur einer Amtszeit das Handtuch und tritt nicht mehr an. Gewalttätige Antifa-Randalen mit versuchtem Totschlag, immer heftigere Ausschreitungen migrantischer Trupps und zunehmender Aufruhr wegen wahnwitziger werdenden Fahrverboten in der einstigen Hochburg bürgerlicher Solidität, dürften auch bei dem dunkelgrünsten Überzeugungstäter an den Nerven zerren. Zusätzlich wird im Gemeinderat diskutiert, ob der Migrationshintergrund der Randalierer, die Teile der Innenstadt demolierten, eine Rolle bei der Aufklärung der Ursachen spielen dürfe.

In der Landesregierung, die die Fahrverbote anordnet, warfen mit einem Paukenschlag Umweltminister Franz Untersteller und Finanzministerin Edith Sitzmann (beide Grüne) das Handtuch und geben zum Ende der Legislaturperiode auf. In der Villa Reitzenstein in Stuttgarter Halbhöhenlage, dem Amtssitz des Ministerpräsidenten, benötigt der mittlerweile 72-jährige Winfried Kretschmann mittags immer ausgedehntere Ruhepausen, so wird berichtet.

Immer deutlicher treten die Messlügen offen zutage. Bereits der Corona-»Lockdown« hatte Merkwürdiges offenbart: Kaum Verkehr, dennoch ähnliche NO2-Werte wie sonst. Die zuständige Umweltbehörde LUBW kann dies nicht erklären. Die sauber gewordenen Dieselfahrzeuge können es kaum gewesen sein. Ein Verbot wird also nichts bringen.

Dagegen rücken immer mehr die Manipulationen bei den Messstellen in den Vordergrund. Es gibt viele Ungereimtheiten. Die Messstationen in Deutschland stehen häufig zu nahe an Straßen und hohen Gebäuden. Das behindert die Luftzirkulation.

In anderen EU-Ländern war man darauf bedacht, sie soweit wie möglich von den Straßen entfernt aufzustellen, sodass geringere Messwerte herauskommen. Die Messgeräte, die in Stuttgart verwendet werden, dürfen zudem nicht zur Messung an verkehrsnahen Standorten verwendet werden. Denn der Prüfbericht, auf dem das Zertifikat für diese Messgeräte beruht, ist mangelhaft.»Ein Eignungsnachweis für verkehrsnahe Messungen fehlt.« Das sagt klipp und klar Martin Schraag, Messingenieur mit jahrzehntelanger Berufserfahrung mit Elektrogeräten im Gesundheitsbereich, ein Bereich, der mit am stärksten reguliert und kontrolliert ist. Er hat Erfahrung mit internationalen Normengremien und hat sich genauer mit der Messtechnik befasst, die in den Luftmesscontainern am Straßenrand steht.

Sein Ergebnis: »Gemessen wird mit der sogenannten Chemilumineszenz-Messtechnik, die Messgeräte müssen nach der Europanorm EN 14211 zertifiziert und betrieben werden, und so eine Messunsicherheit von weniger als 15 Prozent bezogen auf die jeweiligen EU-Grenzwerte von 40 μg/m³ und 200 μg/m³ einhalten.«
»Zertifiziert wurden die in Deutschland eingesetzten Messgeräte vom TÜV Rheinland TÜV Rheinland Energy GmbH) im Auftrag des Umweltbundesamts, betrieben werden die Geräte von den Laboren der Landesbehörden.«

»Die EN 14211 umfasst bei der Bestimmung der Messunsicherheit eine ganze Reihe von Umwelteinflüssen, deren Auswirkung auf die Messunsicherheit in Labortests anhand zweier Prüfgeräte nach dieser Norm geprüft wird. Da Labortests nur bedingt die Realität abbilden können, werden die zwei Prüfgeräte zusätzlich einem Feldtest unterzogen, wo sie nebeneinander an einem verkehrsnahen Standort betrieben werden sollen. Nach drei Monaten dürfen die gemittelten NO2-Messwerte der beiden Geräte nicht mehr als 5 Prozent voneinander abweichen.«

»Die EN 14211:2012, nach der die seit 2012 eingesetzten NO2-Messgeräte geprüft sein müssen, gibt Kriterien für den Standort der Feldtests vor: – Verkehrsbezogene Messstation (<= 10 m vom Fahrbahnrand) – Mittlere NO2-Konzentration > 30 % des 1-Stundengrenzwerts, sofern die Eignungsprüfung nicht auf niedrigere Bereiche abzielt (Anm.: > 30 % des 1-Stundengrenzwerts sind > 60 μg/m³ NO2).«

»Folgerichtig muss der für die Zertifizierung erstellte Prüfbericht alle Information über den Standort für die Feldtests dokumentieren.« Doch diese Angaben fehlen. Im Prüfbericht des Horiba APNA 370, dem Gerät, das in Baden-Württemberg zur NO2-Messung eingesetzt wird, fehlt eine aussagekräftige Dokumentation des Standorts der Feldtests. Vermerkt ist lediglich die Information, dass der Feldtest auf einem großen Parkplatzgelände in Köln erfolgt sei.

Schraag: »Das ist keine ausreichende Ortsangabe. Es fehlt auch eine Angabe, für welche NO2-Konzentration geprüft werden sollte. Erst aus den Messdaten lässt sich erkennen, dass die durchschnittliche NO2-Konzentration auf dem Parkplatzgelände eher bei 30 μg/m³ lag. Die Prüfbedingungen haben also mit den realen Verhältnissen von Messstationen in Baden-Württemberg, deren Messergebnisse Grundlage zu vielen Fahrverbotsprozessen waren, absolut nichts zu tun.«

Das ist jedoch nicht der einzige Fehler.

Das Ergebnis von Martin Schraag: »Offensichtlich erfüllen die Zertifikate für NO2-Messgeräte des TÜV Rheinland nicht – wie in den Zertifikaten behauptet – die Anforderungen der Europanorm 14211.«

Er fragte beim Labor der Landesanstalt für Umwelt Baden-Württemberg nach. Dort verwies man lediglich auf das bemängelte Zertifikat des TÜV-Rheinland und sah keinen Handlungsbedarf.

Martin Schraag fasst zusammen: »Es ist offensichtlich, dass die in Baden-Württemberg verkehrsnah eingesetzten NO2-Messgeräte nicht für Standorte, wie einem Stuttgarter Neckartor oder einer Reutlinger Neckarstraße EN 14211-konform zertifiziert und aufgestellt wurden. Der Gerätetyp wurde unter weit günstigeren Bedingungen als die des tatsächlichen Einsatzes feldgetestet. Trotz der günstigen Prüfbedingungen war die im Feldtest erreichte Standardabweichung ca. 4 Prozent von 5 Prozent. Es ist denkbar, dass die Prüfgeräte unter realen, verkehrsnahen Bedingungen den Grenzwert für den Feldtest nicht eingehalten hätten. Ein Blick in den Prüfbericht des TÜV Rheinland und in die EN 14211 hätte das LUBW-Labor alarmieren müssen.«

Den staatlichen Stellen, dem Labor wie auch dem Umweltbundesamt sind diese Fehler bekannt. Dennoch dienen die Daten dieser falschen Messungen als Grundlage für weitreichende Fahrverbote. Im Klartext: Sie messen Mist, die Daten dieser Geräte an den jeweiligen Messorten in den Strassen sind ungültig.

Dennoch liefern diese Messergebnisse die Grundlage für eine beispiellose Vernichtung an Werten. Autos, die teilweise erst drei, vier Jahre alt sind, sollen nicht mehr in die Stuttgarter Innenstadt fahren dürfen. So fragen sich die von erheblichen Wertverlusten betroffenen Dieselfahrer, ob sie ein Recht auf Schadensersatz haben.

Zur Erinnerung: Am Stuttgarter Neckartor in der Innenstadt, wurde 2019 ein NO2-Jahresmittelwert von 53 µg/m3 angegeben. Für das erste Quartal dieses Jahres veröffentlich die Landesanstalt für Umwelt Baden-Württemberg einen Wert von 40 µg/m3. Vom 1. bis 10 Juli zeigten die Werte am Neckartor sogar unter 30 µg/m3 an, also unterhalb des Grenzwertes von 40µg/m3. Trotzdem werden in Stuttgart Verbotsschilder montiert. Das Verbot in Stuttgart basiert auf alten, deutlich höheren Messwerten und einer Datensimulation aus dem Jahre 2017!

Zum Vergleich: in den USA gelten 103 µg/m3, am Arbeitsplatz gelten 900 µg/m3. Der natürliche NO2-Gehalt in der Luft schwankt um 10 bis 20 µg/m3. Die Messungenauigkeit wird für die Chemiluminiszenz-Verfahren mit 15 Prozent angegeben. Das bedeutet: In diesen mininalen Bereichen ist eine eindeutige Messung kaum mehr möglich, selbst wenn Messgeräte zertifiziert und damit geeignet wären. Mehr als fahrlässig also, angesichts solcher minimaler Daten mit Tausenden von vorzeitigen Toten Panik zu betreiben.

Zumal diese Daten manipulativ und mit nicht zertifizierten Messsystemen zustande gekommen sind. Mehr Schwindel geht kaum.

Der Beitrag erschien zuerst bei TE hier




MÖRDERISCHE ZAHLEN

Suche nach der Katastrophe

Michael Crichton (1942-2008) hat in seinem Leben viele Bücher geschrieben und davon über hundert Millionen verkauft. Am bekanntesten ist sein “Jurassic Park“, das Drama einer Familie im neu eröffneten Erlebnispark, wo Flora und Fauna aus der Zeit des Jura wiederbelebt worden waren. Da lief dann einiges aus dem Ruder, denn „…das Leben findet seinen Weg.“

Seine enormen Erfolge hielten ihn nicht davon ab, nach dem Stoff für weitere Romane zu suchen. Einer sollte die größte Katastrophe aus Menschenhand schildern. Da kam ihm Tschernobyl in den Sinn.

 

Woher kommen die Zahlen?

Erste Recherchen erstaunten ihn. Da waren Berichte von UPI aus 1986, dem Jahr des Unglücks, mit 2000 Todesopfern, während die NY Post von 15.000 sprach. Wie kann so etwas kommen? Es ging hier um Menschenleben, nicht um Säcke voll Reis in China!

Die Diskrepanzen verschwanden nicht, obwohl die Jahre doch Klarheit bringen sollten. Die NY Times berichtet 2002, 18 Jahre später, immer noch von 15.000 Toten – im krassen Gegensatz zur Untersuchung durch die UN Atombehörde: es gab in Wirklichkeit nicht mehr als 56 Opfer. Was für eine groteske Fehlmeldung: 15.000 statt 56, das ist ein Faktor von 250, das kann kein Versehen sein. Aber welche Absicht steckt dahinter?

Nicht anders war es bei den Prognosen für die langfristige Wirkung der Strahlung. CNN erwartete 3,5 Millionen Opfer, AFP sprach von einer halben Million und die erwähnte UN Analyse von 2005 ergab 4000 Fälle. CNN und die UN lagen also um den Faktor 1000 auseinander!

Woher nehmen die Medien diese Zahlen, und woher die Dreistigkeit, sie zu veröffentlichen? Unter den Empfängern der Nachricht sind ja Betroffene, die da lesen, dass sie krank werden, dass sie sterben müssen und ihre Kinder missgestaltet sein werden. 3,5 Millionen in der Region Tschernobyl waren von diesem Schicksal betroffen – gemäß CNN!

 

Welt in Angst

Welches Trauma wird sie für den Rest ihres Lebens begleiten, und wie viele werden an dem psychologischen Stress zu Grunde gehen! Über diesen Mord durch falsche Zahlen werden wir nie etwas erfahren.

Crichton war zutiefst erschüttert und er gab dem neuen Roman ein anderes Thema: Korruption von Wissenschaft durch die Politik. Sehen Sie sich seinen Vortrag von 2005 dazu an.

 Video über die Entstehung des Buches State Of Fear

Die Toten werden noch kommen

Ein viertel Jahrhundert nach Tschernobyl kam Fukushima; es wurde medial noch widerlicher  ausgeschlachtet. Das Video mit der explodierenden Halle lief alle fünf Minuten über die Bildschirme, Tag und Nacht. Wem wurde damit geholfen?

Als in einer der endlosen Talkshows der Einwand gemacht wurde, es hätte doch noch gar keine Toten gegeben, entgegnete Maybrit Illner mit der sehr taktvollen Prognose: „Die werden schon noch kommen, das ist es ja.“ Der Bildschirm zeigte dann japanische Babys mit Gasmasken und titelte schadenfroh: „Fukushima: schlimmer als Tschernobyl“.

 

Vorhersehbar

Zwei Tage nach dem Unglück hatte mich ein südafrikanischer News Channel für ein Statement in eine Sendung zugeschaltet. Der Moderator von eNEWS, Jeremy Maggs, fragte, mit wie vielen Opfern in Fukushima zu rechnen sei. Da ich Reaktoren dieses Typs in Deutschland schon von innen gesehen hatte, äußerte ich vorsichtig, dass außer im Reaktor selbst wohl niemand zu Schaden gekommen wäre.

Die Aussage wurde von den anderen Teilnehmern mit Kopfschütteln quittiert, aber die Experten der Vereinten Nationen kamen zu keinem anderen Ergebnis. Im Mai 2013 veröffentlichte UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) einen Bericht über die Folgen des Unfalls ( https://www.unscear.org/unscear/en/fukushima.html ). Hier die zentrale Aussage:

 

3. Health implications

38. No radiation-related deaths or acute diseases have been observed among the workers and general public exposed to radiation from the accident.

39. The doses to the general public, both those incurred during the first year and estimated for their lifetimes, are generally low or very low. No discernible increased incidence of radiation-related health effects are expected among exposed members of the public or their descendants.

 

3. Auswirkungen auf die Gesundheit

38. Bei den Arbeitnehmern und der Öffentlichkeit, die der Strahlung des Unfalls ausgesetzt waren, wurden keine strahlenbedingten Todesfälle oder akuten Krankheiten beobachtet.

39. Die Dosen für die breite Öffentlichkeit, sowohl die im ersten Jahr angefallenen als auch die für ihre Lebensdauer geschätzten, sind im Allgemeinen niedrig oder sehr niedrig. Bei exponierten Mitgliedern der Öffentlichkeit oder ihren Nachkommen ist keine erkennbare erhöhte Inzidenz strahlenbedingter gesundheitlicher Auswirkungen zu erwarten.

Ein paar Monate vor dem UN Bericht und 24 Monate nach dem Unglück gab es doch sicherlich schon aktuellere Informationen und man sollte annehmen, dass die finanziell gut ausgestattete Arbeitsgemeinschaft der öffentlich-rechtlichen Rundfunkanstalten Deutschlands in der Lage gewesen wäre, sich mit dem elementarsten Zahlenmaterial zu versorgen.  Dennoch sprach man in der Tagesschau am 11.3.2013 von 16.000 Toten durch das Reaktorunglück. Die richtige Zahl wäre die Null gewesen!

https://www.youtube.com/watch?v=Mg3z4GhJX3s

Hat die ARD denn kein Geld für die elementarste Qualitätskontrolle? Werden die Sprecher bestochen, damit sie etwas Falsches sagen?

Nicht nur die deutschen Medien übertrieben in solch unverantwortlicher Weise.  Die japanischen Behörden mussten auf öffentlichen Druck hin die Bevölkerung aus dem Umkreis des Kraftwerks evakuieren. Die Strahlendosis lag hier nicht über der natürlichen Radioaktivität mancher Gebiete der Erde, es bestand also keine Gefahr. Dennoch wurde evakuiert.  Weil nun die Infrastruktur vom Tsunami total zerstört war, wurde der Abtransport zu einer riskanten Expedition, bei der viele, insbesondere älteren Menschen, ums Leben kamen – sie waren Opfer der Medien und derer Falschmeldungen geworden.

 

Kein Zufall

Wären es zufällige Fehler, dann würden nicht alle in die gleiche Richtung von der Wahrheit abweichen. Es steckt also eine Strategie dahinter! Durch Falschmeldungen soll die Bevölkerung in eine Richtung gelenkt werden, die sie nicht wählen würde, wenn sie Zugang zur Wahrheit hätte. Dabei sind Medien doch eigentlich dazu da, uns objektive Grundlagen für unsere Entscheidungsfindung zu geben; damit wir das persönliche Wohl optimieren können. Aber man belügt uns vorsätzlich. Cui bono? Wer profitiert davon?

In der jetzigen Situation mit der Corona Pandemie ist das kein gutes Gefühl. Kann man den offiziellen Zahlen diesmal trauen? Jetzt geht es nicht um die Bevölkerung in der Ukraine oder Japan, jetzt geht es um uns. Vielleicht sollte man während der Tagesschau immer noch einen zweiten Bildschirm vor dem geistigen Auge haben, auf dem ein perfekt gekleideter und gekämmter Sprecher der ARD mit ernster Miene von 16.000 Toten in Fukushima erzählt.

Michael Crichton ist bei seiner Suche nach der größten von Menschen gemachten Katastrophe anscheinend doch fündig geworden: es ist die Fütterung der Informationsgesellschaft mit vergifteter Nahrung durch eine zutiefst unethische Elite. Das dramatisiert er in seinem Buch „State of Fear“ / „Welt in Angst“. Vielleicht finden wir da auch die Antwort auf die oben gestellte Frage „cui bono?“.

 

Dieser Artikel erschien zuerst bei www.think-again.org und im Buch „Grün und Dumm“ https://think-again.org/product/grun-und-dumm/

 

 




Medien-Frame der Woche: Der „Weltklimarat“ sieht eine Zunahme von Extremwetter-Ereignissen durch den Klimawandel, behauptet das ZDF. Das stimmt so nicht

Die wichtigsten Daten darin – abgesehen davon, dass es grundsätzlich um Tote und Unglücke geht – fallen für 2019 eher positiv aus. Die Zahl der Naturkatastrophen-Toten ging stark zurück, von 15 000 im Jahr 2018 auf 9000 im vergangenen Jahr. Die angerichteten Schäden sanken leicht, von 160 auf 150 Milliarden Dollar. Alles in allem, so Munich Re, lägen die Schäden für 2019 im inflationsbereinigten Schnitt der letzten 30 Jahre.Der Bericht eignet sich schon wegen dieser Zahlen nicht für Klimakatastrophen-Berichterstattung. Außerdem behauptet das Rückversicherungsunternehmen darin keinen direkten Zusammenhang zwischen globalen Klimaveränderungen und Naturkatastrophen, etwa den beiden tropischen Zyklonen, die 2019 den Großraum Tokio heimsuchten und Schäden von 24 Milliarden Dollar anrichteten.

In ihren Berichten griffen sowohl Tagesschau als auch heute-Nachrichten den Munich Re-Bericht auf: und setzten promt ein Klima-Frame. Die Tagesschau teasert ihre Meldung folgendermaßen an:

„Naturkatastrophen 2019
150 Milliarden Dollar Schäden weltweit
Stürme, heftiger Regen und Hitzewellen – Naturkatastrophen haben 2019 Schäden in Höhe von 150 Milliarden Dollar verursacht, berichtet der Rückversicherer Munich RE. Experten sehen auch einen Zusammenhang mit dem Klimawandel.“

In dem eigentlichen Artikel auf tagesschau.de, den ein Nutzer dann aufklicken kann, kommen allerdings keine Experten vor, die einen Zusammenhang zwischen den Naturkatastrophenschäden 2019 und den Klimaveränderungen behaupten. Zitiert werden nur Munich Re-Vorstand Torsten Jeworrek mit der sehr allgemeinen Aussage, man könne den „Klimawandel spüren und sehen“, und der „Chef-Klimaexperte“ des Konzerns, Ernst Rauch, der lediglich für die Zukunft mehr Hagelgewitter voraussagt.

Überraschend ist beides nicht, denn die Prognose künftiger Schäden dient bei großen Versicherern als Begründung, die Versicherungsprämien hoch zu halten beziehungsweise zu erhöhen. Das gehört zum Geschäft und ist nichts, was man dem Unternehmen vorwerfen müsste. Aber weder handelt es sich bei den von der Tagesschau zitierten Managern um unabhängige Experten, noch „sehen sie einen Zusammenhang“ zwischen den Versicherungsschäden 2019 und den globalen Klimaentwicklungen.

Die Kollegen vom ZDF gehen bei der Klima-Einrahmung des Munich Re-Reports noch einen großen Schritt weiter.

Auf heute.de vergleicht die Redaktion zunächst die reine Zahl von Naturkatastrophen 2019 – also nicht Toten und Schadenshöhe – mit dem Durchschnitt der Jahre 1989 bis 2018, wobei nicht verraten wird, warum sie diesen krummen 29-Jahres-Vergleichszeitraum heranzieht – um festzustellen, die Katastrophenanzahl für 2019 läge „deutlich“ über diesem Schnitt. Um dann eine Verknüpfung zwischen dem Munich Re-Report und einer angeblichen Feststellung des Zwischenregierungs-Rats zum Klimawandel IPCC (in deutschen Medien regelmäßig als „Weltklimarat“ übersetzt) herzustellen, der damit „bestätigt“ werde.

Bei heute.de heißt es:


„Zwischen 1989 und 2018 waren es im Schnitt 520, im letzten und vorletzten Jahr dagegen deutlich über 800. Der Bericht bestätigt damit, was Wissenschaftler, zum Beispiel die des Weltklimarates (IPCC), schon länger feststellen: Die Zahl von Extremwetterereignissen nimmt weltweit durch den Klimawandel zu.

Der Satz „Die Zahl von Extremwetterereignissen nimmt weltweit durch den Klimawandel zu“ ist auf der ZDF-Seite zwar aufmerksamkeitsverstärkend gefettet – es fehlt aber ein entsprechender Link zu einem IPCC-Bericht, der das tatsächlich feststellen würde. In dem heute.de-Text folgt auch kein Zitat, das die Behauptung belegen würde, der IPCC hätte diese Feststellung getroffen. Was nicht verwunderlich ist. Denn in seinem Report von 2018 geht die Organisation auf das Thema Extremwetter-Ereignisse umfangreich ein.

Nur nicht so, wie das ZDF behauptet. Dort schreiben die IPCC-Autoren vielmehr, sie hätten „geringes Zutrauen“ (“low confidence“) in Daten, die einen Langzeittrend in der Zunahme von Intensität, Frequenz und Dauer tropischer Zyklone in den letzten 40 Jahren zeigen sollen. Ebenfalls „geringes Zutrauen“ habe das IPCC in Trendbeobachtungen zu „kleinräumlichen Phänomene wie Tornados und Hagel“, dazu seien die Daten zu widersprüchlich und die Beobachtungssysteme zu wenig geeignet:

„There is low confidence in any observed long-term (i.e., 40 years or more) increases in tropical cyclone activity (i.e.,intensity, frequency, duration), after accounting for past changes in observing capabilities. It is likely that there has been a poleward shift in the main Northern and Southern Hemisphere extratropical storm tracks. There is low confidence in observed trends in small spatial-scale phenomena such as tornadoes and hail because of data inhomogeneities and inadequacies in monitoring systems.“

Für wahrscheinlich hält das IPCC seinem Bericht zufolge die Verlagerung außertropischer Stürme Richtung Norden, außerdem die Zunahme der Zahl warmer Tage und Nächte und die Abnahme von kalten. Das überrascht wenig – und hat vor allem nichts mit dem Thema Naturkatastrophen zu tun.
Mit seinem Bericht von 2018 bestätigte das IPCC eine ganz ähnliche Aussage aus seinem Report von 2013: Es gibt keine hinreichenden Daten für einen Zusammenhang zwischen Klimaveränderungen und Wetterextremen.

Fazit: ARD und ZDF stecken den Naturkatastrophen-Schadensbericht eines Versicherers in einen Klima-Deutungsrahmen, obwohl die Daten in dem Munich Re-Bericht weder einen alarmierenden Trend noch einen Zusammenhang zwischen Extremwetter und Klimaentwicklung hergeben. Das ZDF behauptet zudem eine Aussage des IPCC zu einem Zusammenhang von Extremwetterereignissen und Klimawandel, die das IPCC gerade nicht so getroffen hat.

Der Beitrag erschien zuerst bei Publico der Blog des Autors hier

 




Der Tschernobyl-Gedenktag 2019

„Man sollte darüber sachlich diskutieren“, so schreibt Herr Lossau auf Seite 1. Das ist natürlich richtig und sehr zu begrüßen. An der sachlichen Diskussion fehlt es in Deutschland seit sehr vielen Jahren und daher wollen wir hier einen Beitrag zur Sachlichkeit leisten. Es werden zwei Argumente gegen die Kernkraft angeführt:

 

Das erste Argument: Gefahr durch Freisetzung von Radioaktivität

Es gab auf der Welt drei Unfälle mit Kernkraftwerken, Three-Mile-Island, Tschernobyl und Fukushima.

  1. InThree-Mile-Islandgab es infolge ungenügender Bestückung der Anlage mit Meßinstrumenten eine teilweise Kernschmelze, es wurde jedoch (fast) keine Radioaktivität freigesetzt. Eine technische Anlage wurde zerstört, aber Menschen kamen nicht zu Schaden. Unter Fachleuten gibt es dazu keine Meinungsverschiedenheit, unter „Experten“ gibt hierzu immer andere Ansichten, die gern in den Medien veröffentlicht werden.
  2. In Tschernobylgab es an einem unsicheren Reaktortyp bei einem Experiment eine Leistungsexkursion, so daß der Reaktor vollkommen zerstört wurde und Radioaktivität freigesetzt wurde. Das war nun wirklich ein schlimmer Unfall, er füllte weltweit – und besonders in Deutschland – seitenweise die Zeitungen. Über die Folgen gab es wie immer viel Streit. Auch dort war eine technische Anlage zum Schrott geworden. Unersetzlich sind Menschenleben, und dazu gibt es von der kundigen Fachfrau Dr. Anna Veronika Wendland eine vorzügliche Zusammenstellung, wo Fakten und Fakes gegenüber gestellt wurden (hier). Das besondere Risiko von Kernkraft ist die Strahlung, und diesem Risiko fielen 28 Personen unter den etwa 140 Personen mit der Strahlenkrankheit zum Opfer.
    Wir wollen hier nur die namentlich bekannten Opfer des Unglückes benennen. Es gibt dazu noch unzählige „virtuelle“ Opfer, das sind die nach der LNT-Formel berechneten hypothetischen Opfer, die weder verifizierbar noch falsifizierbar sind. Die Zahlen dazu bewegen sich im Bereich von Millionen, dazu lese man (hier), (hier).
  3. Der Unfall von Fukushimawurde von der CDU/CSU unter Frau Merkel benutzt, in Deutschland die Kernenergie gänzlich zu Fall zu bringen, nachdem zuvor eine Laufzeitverlängerung der Kernkraftwerke um 10 Jahre im Bundestag beschlossen worden war. Auch der Unfall von Fukushima füllte die Schlagzeilen unserer öffentlichen Medien.
    Die Fachmedien in Deutschland gaben andere Nachrichten heraus, da ist als erstes die GRS zu nennen „Gesellschaft für Anlagen- und Reaktorsicherheit“ (hier). Die Fachleute der GRS brachten damals im März 2011 aktuelle Meßdaten der Ortsdosisleistung von den automatischen Meßstellen am Kraftwerksgelände heraus, immer versehen mit zusätzlicher Beschriftung in deutscher Sprache. Ich habe damals diese täglichen Meldungen verfolgt, alle paar Tage die Diagramme für meine Unterlagen ausgedruckt. Damals war zu sehen: Es tritt Radioaktivität aus, was verboten ist. Aber außerhalb des Kraftwerkgeländes kann es niemals zu realer Schädigung von Menschen kommen, weil der Strahlenpegel zu gering war. Inzwischen ist dieses in der Fachwelt weltweit anerkannt, in Fukushima gab es keine Strahlenopfer. Auch in Deutschland wird das berichtet, nicht immer in allen Medien, aber ein wichtiges Leitmedium soll hier zitiert werden: Der SPIEGEL hat dazu einen beachtenswerten Bericht mit der Überschrift „Schön verstrahlt“ geschrieben (hier). Es steht da geschrieben Viele Menschen starben dagegen an den Folgen der weiträumigen Evakuierung. … Kranke wurden aus Intensivstationen abtransportiert, Alte aus ihrem Pflegeheim geholt, … Die vorsichtigste Berechnung geht von mindestens 150 Todesfällen aus. Eine Studie der Standford University kommt auf 600 Evakuierungsopfer … War die vollständige Evakuierung also ein Fehler?“Das ist richtig, nicht die Strahlung hat in Fukushima Opfer gefordert, sondern die Strahlenschutzmaßnahmen. Wir kommen damit zu der eigenartigen Erkenntnis, daß der Strahlenschutz viel mehr Todesopfer gefordert hat als die Strahlung. Es ist SCHUTZ vor Strahlenschutzmaßnahmenerforderlich, also ein Strahlenschutz-SCHUTZ.

Strahlung kann wie alle Substanzen gefährlich werden, aber nur in hoher Dosis. Dazu gibt es mit Alkohol ein passendes anderes Beispiel. Dieser ist ein Gift, aber nur in hoher Dosis, jeder weiß das. In mäßiger Dosis ist Alkohol harmlos, wenn nicht sogar nützlich für Lebensfreude und Gesundheit.
Ähnlich ist es mit Strahlung, allerdings führt dieses Thema hier an dieser Stelle zu weit. In 16 000 Reaktorbetriebsjahren westlicher Reaktoren ist kein Mensch durch deren spezifischem Risiko der Strahlung geschädigt worden, geschweige denn gestorben.

 

Das zweite Argument: Die ungelöste Endlagerung

Bei der Endlagerung geht es um den in Kernkraftwerken anfallenden Abfall. Wie die Berichte in DIE WELT zeigen, fehlt es an einer klaren Definition: Was ist „Abfall“? Bis um das Jahr 2000, als die Regierung Schröder – Trittin den Kernenergieausstieg einleitete, war alles klar:

Abfall sind die im Reaktor anfallenden Spaltprodukte, denn diese sind wegen ihrer starken Radioaktivität gefährlich und verlangen einen Schutz. In der Großen Halle in Gorleben mit 420 Stellplätzen sind 108 Stellplätze mit Castoren belegt, in denen sich ca. 3000 Glaskokillen mit eingeglasten Spaltprodukten befinden. In 5 Castoren befinden sich abgebrannte Brennelemente und 307 Stellplätze sind noch frei.

Heute hat sich einiges geändert, es werden die abgebrannten Brennelemente als Abfall bezeichnet, obwohl nur 5% darin stark strahlende Spaltprodukte sind und der Rest von 95% unverbrauchtes Uran ist. Uran ist wegen seiner riesigen Halbwertszeit von 4,5 Milliarden Jahren schwach radioaktiv, etwa genauso radioaktiv wie Kalium-40, von dem wir als Menschen täglich mit unserer Nahrung etwa 100 Becquerelverspeisen. Mit dieser Änderung in Verständnis zu dem Wort „Abfall“ hat sich die Menge des Abfalls um das 20-fache erhöht, damit auch das Problem seiner Lagerung – ein Sieg der Kernenergiegegner, denen jedes neue Problem oder jede Kostensteigerung willkommen ist.

 

„Das Ende des Endlagers“, auf Seite 20 von DIE WELT

Als eine Lösung aller Probleme wird der Dual-Fluid-Reaktor (DFR) vorgeschlagen. Dieser Reaktor ist ein Schneller Reaktor, er wurde erfunden von einer Gruppe junger engagierter Wissenschaftler (hier).

Ich bin froh darüber, daß es diese Gruppe gibt, die sich Gedanken um die Kernkraft macht. Es sind kluge junge Leute, und es ist erstaunlich, daß sie sich in der heutigen kernkraftfeindseeligen Gesellschaft halten kann. Ich habe von dem Wissen dieser Leute sehr profitiert und bin darüber dankbar.

Der DFR gehört zur Gruppe der fortschrittlichsten Generation-4 Reaktoren. Ein internationales Forum hat 6 Konzepte vorgeschlagen, es beteiligen sich 13 Staaten, Deutschland ist nicht dabei. Wer etwas für die Zukunft machen will – weil er sein eigenes Land nicht abschaffen will – wählt Kernspaltungsenergie, denn diese ist nach heutiger Kenntnis unerschöpflich. Deutschland war bei zwei Typen der Generation-4 vor langer Zeit bereits führend:

  1. Der HTR stand in Hamm-Uentrop, er wurde nach einer Betriebszeit von 16 000 Stunden – das sind zwei Jahre – wegen immer neuer Auflagen der NRW-Behörden vom Betreiber entnervt aufgegeben.
  2. Der Schnelle mit Natrium gekühlter Brüter in Kalkar war zu 95% fertig gestellt, man wartete zum Einsetzen der Brennelemente fast 6 Jahre vergeblich auf die letzte Teilgenehmigung, dann gab man ebenfalls auf.

Heute ist Rußland führend beim Schnellen Natrium-Brüter, dort wurde der Brüter BN-600 (doppelt so groß wie Kalkar) schon etwa 35 Jahre ohne Probleme betrieben. Die Inbetriebnahme des Reaktors BN-800 im russischen Kernkraftwerk Beloyarsk im Juni 2014 ging in den Medien unter. Ein BN-1200 ist in Konstruktion. Rußland und China haben Verträge geschlossen über den Bau von zwei BN-800 in China. Auch die chinesische Führung kümmert sich also um die zukünftige Stromversorgung seiner Bürger. Rußland und China bekommen also den geschlossenen Brennstoffkreislauf, und der ergibt für die Kernkraft eine 200-fach längere Reichweite der Uranvorräte als ohne Brüter.

 

In Rußland sind heute noch etwa 10 Reaktoren vom Typ Tschernobyl in Betrieb. Auch diese Reaktoren können sicher betrieben werden, das hat Rußland inzwischen gezeigt. Proteste gegen diese Reaktoren sind nicht bekannt, auch nicht von Protestorganisationen wie Greenpeace, IPPNW oder GRÜNEN Parteien. Die zwei Reaktoren vom Typ Tschernobyl in Ignalina (Litauen) wurden stillgelegt, weil es die EU als Bedingung zum Beitritt des Landes zur EU verlangt hatte.

Auch alle Reaktoren der Generation-4 erzeugen Spaltprodukte, das sind die Abfälle nach dem früheren Verständnis. Diese Abfälle sind nach ca. 300 Jahren bis auf ein natürliches Niveau abgeklungen. Das gilt auch für die eingeglasten Abfälle in der großen Halle in Gorleben. Um Menschen sicher vor Schäden durch diese Abfälle zu schützen, ist eine Endlagerung in der Tiefe NICHTerforderlich, man kann das auch auf der Erdoberfläche bewerkstelligen.

 

Schlußbemerkung

Es läuft einiges falsch mit der Kernenergie, besonders in Deutschland. Der Grund sind falsche Gesetze. Gesetze können falsch sein, denn sie werden von Menschen gemacht und Menschen können irren. Das ist bei der Strahlenschutzgesetzgebung ganz sicher der Fall. Ebenso beim Kernenergieausstieg unseres Landes, der ja eine Folge der jahrelang geschürten Strahlenangst ist. Viele Fachleute der Strahlenbiologie und aus der Kernenergiebranche protestieren gegen diese falschen Gesetze, aber sie kommen höchstens auf ihren Fachtagungen oder in ihren Fachzeitschriften zu Wort. Die hauptamtlichen Strahlenschützer sehen die Dinge teilweise anders, denn ihnen geben falsche Gesetze die Lebensgrundlage. Unsere Massenmedien hätten die Macht zu einer Veränderung, aber bisher haben sie diese Macht nicht genutzt, das ist bedauerlich. Manchmal wird daher in Bezug auf die unsere Massenmedien von Lückenmedien oder Lügenmedien gesprochen.




Als würde die Sonne 24 Stunden am Tag scheinen

»Der Dorfteich war im Mittel einen Meter tief, trotzdem ist die Kuh ersoffen.« Mit diesem Spruch wird vor allzu sorglosem Umgang mit Zahlen gewarnt, die aus statistischen Berechnungen folgen. Obwohl mathematisch exakt ermittelt, entpuppt sich ein Mittelwert bei genauerem Hinsehen manchmal als gefährliche Halbwahrheit.

Die Aussage »Erneuerbare decken 38 Prozent des Stromverbrauchs« ist eine solche Halbwahrheit.

Die Angabe von jahresgemittelten Prozentwerten ist zwar meist ausreichend zur Charakterisierung der Beiträge sowohl der konventionellen als auch der nichtvolatilen erneuerbaren Energiequellen wie Biomasse und Wasserkraft an der Stromversorgung. Ganz anders ist es allerdings bei den volatilen Erzeugern wie Windund Sonnenenergie. Deren Einspeiseleistung weist extreme Schwankungen auf, die sich nicht wie gewohnt durch eine Verteilung entsprechend einer Gaußschen Glockenkurve beschreiben lassen.

Große Fluktuationen von Windstrom: Anzahl der Stunden des Jahres 2018 in Abhängigkeit von der Einspeiseleistung aller Windkraftanlagen an Land in Deutschland. Grafik Rolf Schuster

In der Grafik ist dargestellt, an wievielen Stunden des Jahres 2018 eine bestimmte Leistung durch alle Windenergieanlagen (WEA) an Land in Deutschland in das Stromnetz eingespeist wurde. Leistungsangaben wurden auf volle Gigawatt gerundet. Die Verteilung ist unsymmetrisch. Die minimale Leistung von 0,2 GW wird bei windschwachen Perioden erbracht. Die mittlere Leistung von 10,5 GW (markiert durch einen Pfeil) multipliziert mit der Gesamtstundenzahl 8760 h ergibt die Elektroenergie, die in dem betrachteten Zeitraum insgesamt durch WEA eingespeist wurde: 91,9 TWh. Im Jahresmittel wurden nur ein Fünftel der installierten Leistung von 52 GW eingespeist. Die mittlere Last betrug im vergangenen Jahr 58,1 GW. Weiterhin ist zu erkennen, dass die wahrscheinlichste Leistung am Maximum der Kurve (2,5 GW) kleiner ist als die mittlere Leistung und dass die maximale Leistung bei Starkwind (41,5 GW) ein Mehrfaches der mittleren Leistung beträgt.

Dieses komplexe Verhalten bestimmt die Grenzen der Integration volatiler Erneuerbarer in das Energieversorgungssystem. Andererseits steht aber gerade der verstärkte Zubau volatiler Quellen im Fokus der Maßnahmen im Rahmen der Energiewende in Deutschland. Ein solcher würde eine weitere Vergrößerung der Standardabweichung der Verteilung zur Folge haben. Die maximale Leistung würde weiter ansteigen, ihr Minimalwert bliebe hingegen bei einem Wert nahe Null.

Ein Ausweg aus diesem Dilemma bestünde in der Speicherung von Elektroenergie bei einem Leistungsangebot oberhalb der mittleren Leistung, damit diese zu Zeiten geringer Windbzw. Sonnenleistung wieder eingespeist werden kann. Speicher mit den dazu erforderlichen Speicherkapazitäten stehen allerdings weder jetzt noch in absehbarer Zukunft zur Verfügung.

Die Angabe der zeitgemittelten Prozentwerte im Zusammenhang mit dem Zubau von volatilen Erzeugern ist insofern irreführend, da dadurch vorgetäuscht wird, das Speicherproblem sei bereits gelöst und der Strom aus erneuerbaren Energiequellenstünde schon jetzt stetig – nämlich gerade mit dem Wert der mittleren Leistung – zur Verfügung.

Auf der politischen Ebene wird daraus leichtfertig geschlossen, der prozentuale Anteil von Erneuerbaren von derzeit angeblich 38 Prozent könne innerhalb weniger Jahre auf 65 Prozent und mehr gesteigert werden. Würde der mittlere Anteil von Windund Sonnenstrom im Netz auf wesentlich mehr als etwa ein Viertel gesteigert werden, könnte unter den gegenwärtigen technologischen Bedingungen das durch physikalische Gesetze geforderte Gleichgewicht zwischen Einspeisung und Verbrauch nicht mehr eingehalten werden.

Die Methode der Verschleierung von Tatsachen durch Mittelwertbildung über stark fluktuierende Zeitreihen hat leider auch in offizielle Studien und Analysen Einzug gefunden. In einer Veröffentlichung der Denkfabrik »Agora Energiewende«, die auch die Bundesregierung berät, findet man z. B. die Darstellung einer über 24 Stunden gemittelten Einspeisung von Sonnenstrom [1]. Die dadurch ermittelten »geglätteten Ganglinien« suggerieren, dass die Sonne auch um Mitternacht scheint bzw. dass eine Speichermöglichkeit des gesamten um die Mittagszeit in Deutschland gewonnenen Sonnenstroms über einen ganzen Tag existiert. Weder das eine noch das andere ist evident.

Eine inhaltliche und auf wissenschaftlichen Grundlagen beruhende ehrliche und kritische Analyse aller Maßnahmen der Energiewende ist dringend erforderlich. Nur so wird es möglich sein, sich dem ursprünglichen Ziel der Energiewende, einer ökonomisch und ökologisch verträglichen Transformation des Energiesystems unter Berücksichtigung der Versorgungssicherheit zu nähern. Dazu müssen alle auf physikalischen Erkenntnissen beruhenden technischen Möglichkeiten in die Betrachtungen einbezogen werden.

 

[1] Agora Energiewende (2017): Die Energiewende im Stromsektor: Stand der Dinge 2016. Rückblick auf die wesentlichen Entwicklungen sowie Ausblick auf 2017, S. 8.

Der Beitrag erschien zuerst bei TU Dresden hier

 

 




Der Meeresspiegelanstieg

Pegel-Nordsee-10000Der Meeresspiegel an der deutschen Nordseeküste steigt seit dem Ende der letzten Eiszeit, also seit ca. 10.000 Jahren an. In den letzten 10.000 Jahren ist ein Anstieg von 50 Meter zu verzeichnen. Das sind durchschnittlich 50 cm pro Jahrhundert. In den letzten 1.000 Jahren ist der Meeresspiegel im Schnitt mit ca 20 cm pro Jahrhundert angestiegen. In den letzten 100 Jahren ist der Meeresspiegel an der Nordsee mit etwa 25 cm pro Jahrhundert angestiegen, eine Beschleunigung ist in den letzten Jahren nicht in Sicht. Hier eine Übersicht über das mittlere Tidenhochwaser MThw und mittlere Tidenniedrigwasser MTnw am Pegel Norderney, seit 1890.

Pegel-Norderney-2015b

Pegel-Norderney-2015cDas MThw ist in den letzten 100 Jahren in der Nordsee um ca. 25 cm angestiegen, dass MTnw nur um ca 10 cm. Seit 2010 hat sich der Anstieg gar entschleunigt und nicht beschleunigt. (Siehe 5-jähriges gleitendes Mittel in Abb. 2).

Ich frage mich, wie Leute zu genau gegenteiligen Ergebnissen kommen können? In Zeiten des Internets ist es eigentlich ganz einfach sich die Daten selbst zu besorgen und zu interpretieren. Dafür habe ich hier nur 1/2 Stunde gebraucht. Mit fällt immer wieder auf, dass Leute, die Pro Klimaschutz im Internet kommentieren und agieren, weder Willens, noch in der Lage sind sich ein eigenes Bild zu bilden. Statt dessen greift man auf Aussagen von sog. Experten zurück und stellt diese per Copy and Paste einfach als unumstößliche Wahrheit hin. Nachdenken nicht erwünscht!

Pegel Norderney Riffgat

 

 

P.S.

Das sich im globalen Meeresspiegelanstieg leichte Differenzen zeigen, liegt an Wetterphänomenen wie El-Ninos Und La-Ninas. In El-Nino-Phasen mit warmen Meeresoberflächentemperaturen im Ost-Zentralpazifik liegt der Meeresspiegel höher, in kalten La-Nina-Phasen niedriger. Der globale Meeresspiegel steigt im Mittel mit 30 cm pro Jahrhundert an

.

Der Beitrag erschien zuerst bei ScienceSceptical hier

SL+Nino34




Die „parallele Logik“ für eine Dekarbonisierung der Welt

Eine kritische Würdigung dieser Sendung ist hier auf EIKE zu finden.

Dieses große Lob gilt allein dem MONITOR-Forum, das gegenwärtig eine sachliche und sehr konträre Diskussion zwischen Befürwortern und Gegnern eines vorgeblich menschengemachten Klimawandels ermöglicht. Diese Diskussion wurde von der Redaktion zunächst mit einer Beschreibung der besagten Sendung eröffnet, also mit dem üblichen Skeptiker-Bashing. Aber dann, man lese und staune, konnten dort auf dem MONITOR-Forum konträre Ansichten völlig unzensiert ausgetauscht werden, wie es die dortigen Spielregeln versprechen, Zitat vom MONITOR-Forum:

Mitdenken. Mitreden. Mitstreiten.
Das MONITOR-Forum soll eine freie und unzensierte Plattform sein. Um Missbrauch zu verhindern wird das Forum moderiert – die Einträge werden erst nach vorheriger Kontrolle durch die Redaktion veröffentlicht. Wir bitten um Ihr Verständnis – und ggf. etwas Geduld
.“

Respekt, in diesem MONITOR-Forum werden vom Klimamainstream abweichende Meinungen tatsächlich nicht unterdrückt. Und damit kann man die Hoffnung verbinden, dass dieses Beispiel in der gesellschaftlichen Diskussion Schule machen möge. Denn man hebt eine gesellschaftliche Spaltung nicht auf, indem man einer kritischen Minderheit den Mund verbietet.

Im Verlauf dieser Diskussion auf dem MONITOR-Forum wurde aus der Vorgehensweise in der Studie “Quantifying the consensus on anthropogenic global warming in the scientific literature” von Cook at al. (2013) über einen 97%-Konsens für den vorgeblich menschengemachten Klimawandel (Anthropogenic Global Warming = AGW) eine „parallele Logik“ abgeleitet. Diese  „parallele Logik“ wurde dann als derjenige Hütchentrick entlarvt, mit dem aus einer verketteten Aussage (1)->(2)->(3) die verständnisstiftende Bezugsgröße (2) entfernt wird, um damit dann in der Öffentlichkeit eine „parallele Wahrheit“ (1)->(3) verbreiten zu können:

(1)    Zunächst wird eine Gruppe als 100%-Gesamtmenge (1) untersucht. Aus der zugrunde liegenden Fragestellung ergeben sich dann mehrere Teilmengen mit einem jeweils einheitlichen Spezifikum, die in ihrer Summe wiederum diese 100% ergeben.

(2)    Dann wird eine beliebige Teilmenge(2) mit einem ganz bestimmten Spezifikum ausgegliedert (1)->(2) und als neue 100%-Basis einer näheren Untersuchung unterzogen. Deren prozentuale Unter-Teilmengen beziehen sich dann in Summe ausschließlich auf die ausgegliederte Teilmenge (2).

(3)    Am Ende wird für eine dieser Unter-Teilmenge eine Aussage (3) abgeleitet und mit einem Prozentsatz aus der 100%-Teilmengenbasis (2) belegt, wobei der originäre Bezug (1)->(2)->(3) für den Wahrheitsgehalt dieser Aussage von entscheidender Bedeutung ist.

(4)    Die aus (1)->(2)->(3) abgeleitete Aussage bleibt also nur so lange wissenschaftlich gültig, wie die „Umetikettierung“ in Punkt (2) nicht verloren geht oder unterdrückt wird.

(5)    Und jetzt kommt der Hütchentrick der „parallelen Logik“ zum Tragen: Früher oder später wird die Aussage (1)->(2)->(3) einfach ohne die zwingende Einschränkung aus (2) direkt mit der ursprünglichen Gesamtmenge aus (1) in Beziehung gesetzt und führt zu einer ganz neuen „parallelen Wahrheit“ (1)->(3).

Vergleichen wir nun diese „parallele Logik“ mit dem Ergebnis von Cook et al. (2013):

(1)    Es wurden die Zusammenfassungen von 11.944 wissenschaftlichen Arbeiten aus der begutachteten wissenschaftlichen Literatur auf Aussagen zu AGW untersucht.

(2)    66,4 Prozent der Zusammenfassungen machten keine Angaben zu AGW und die verbleibenden 32,6 Prozent mit einer Position zu AGW wurden näher untersucht.

(3)    Von diesen 32,6% mit Aussagen zu AGW bestätigen 97,1% die AGW-Theorie.

Inzwischen wird das Ergebnis der Studie von Cook et al. (2013) aber öffentlich als 97%-Zustimmung aus der Gesamtmenge der dort untersuchten Klimaartikel und als Beweis für einen wissenschaftlichen 97%-AGW-Konsens verbreitet, so beispielsweise auch von Cook et al. (2016) selbst, wo man in der Kernaussage von allen publizierenden Klimawissenschaftlern spricht.

Die Differenz zwischen Propaganda und Wissenschaft beträgt am Beispiel von Cook et al. (2013) also genau 65,4%, nachfolgend der Beweis mittels konventioneller Logik:    

„Parallele Logik“ [%]: (1)->(3) mit 97,1% Zustimmung ohne Hinweis auf (2)

Konventionelle Logik [%]: (1)->(2)->(3) mit 97,1% Zustimmung aus 32,6% (1) = 31,7%

 [97,1% von Cook (2013) @Teilmenge(2)] – [31,7% von Cook (2013) @Gesamtmenge(1)] = 65,4%

Die mathematische Analyse verfügt genauso wenig über eine „parallele Logik“, wie sich die Wissenschaft selbst eine „höhere Wahrheit“ zuschreiben kann. Vielmehr hat sich die Wissenschaft im historischen Rückblick immer mehrheitlich mit demjenigen gesellschaftlichen System arrangiert, in dem sie tätig geworden ist. Die Unterscheidung zwischen Wahrheit und Ideologie unterliegt daher jedem Einzelnen von uns selbst. Man kann also entweder selbständig nachdenken, oder man muss eben alles glauben, was einem so erzählt wird.

Merke: „Wer nichts weiß, muss alles glauben(Marie von Ebner-Eschenbach)

Das 97-Prozent-Problem war übrigens schon vor langer Zeit einmal Thema hier im KS-Blog.

Der Beitrag erschien zuerst bei die kalte Sonne hier




Die Lügenmacher! Programmhinweis heute Abend um 21:45 im Ersten

Endlich, endlich einmal – so sollte man meinen- berichten Süddeutsche Zeitung im Verbund mit wdr und ndr über ihre innere Situation und wie so manche Story bei Ihnen selbst zustande kommt. Da wirkt die deftige Überschrift schon recht tapfer.

Doch, wie gefehlt! Berichtet wird nicht über die Arbeit so mancher Journalisten zu ihrer eigenen Arbeit, sondern über vermeintliche oder reale „Raubverlage“. Was das sein soll, hat schon unser Kollege Prof. Dr. Horst Lüdecke vergeblich versucht heraus zu kriegen, als er zu diesem „Thema“ so ganz auf die Schnelle und per ordre di mufti zu einigen inquisitorischen Fragen einer der Beteiligten des „Investigativteams“, Frau Katrin Langhans von der Süddeutschen Zeitung, Stellung nehmen sollte. Er wurde nicht fündig, aber erkannte schnell die Absicht dahinter. Seinen Bericht finden Sie hier!

Video Mitschnitt des Interviews mit EIKE Vizepräsident Michael Limburg durch die Damen des Rechercheverbundes von ndr, wir und sz nämlich Svea Eckart ndr (federführend) Katrin Langhans (sz) und Katja Riedel (wir) im Homeoffice- Das Interview wurde mit Zustimmung der Interviewer von mir am 9.5.18 aufgezeichnet und jetzt veröffentlicht.

Diese bösen „Raubverlage“ – und wie es journalistische Sorgfalt und Ehrlichkeit so verlangt, werden all diejenigen – in diesem Fall Wissenschaftsverlage- über ein und denselben Kamm geschoren, wagen es doch tatsächlich auch Manuskripte zu veröffentlichen, welche die großen Monopolverlage nicht veröffentlichen. Aus welchen Gründen auch immer. Horst Lüdecke nannte in seinem Bericht einige von ihnen. Und, noch viel,viel schlimmer, diese Verlage wollen auch noch Geld dafür haben. Na sowas! Vermutlich arbeiten die hehren Investigativ – Journalisten allesamt für Gotteslohn. Wenn Verlage für Ihren Aufwand also Geld haben wollen, dann ist das schon mal von vornherein verwerflich.

Heute Abend – um 21.45 Uhr wird also EIKE auch dabei sein. Und natürlich die AfD. (Ab Minute 13:45). Das allein deswegen, weil ich mein privates Recht auf Mitwirkung bei einer politischen Partei mitzuwirken wahrnehme, die fest auf dem Boden des Grundgesetzes steht, und – noch viel, viel schlimmer, weil diese mich gebeten hatte als Gutachter bei einer Anhörung im Brandenburgischen Landtag aufzutreten. Die Leser mögen entscheiden, ob dass was ich zu sagen habe, falsch ist. Fakenews also.

Die Sendung hat daher den verräterischen Titel „Die Lügenmacher“

Dazu waren 3 der „Investigativ-Journalisten“ auch bei mir: Nämlich Svea Eckart vom ndr, Katrin Langhans von der SZ und Katja Riedel vom wdr. Federführend war wohl Frau Eckart. Katja Riedel und ein anderer Kollege machten die Aufnahmen im Brandenburgischen Landtag.

Was die Genannten aus dem Interview und der Begleitung Brandenburgischen Landtag für Ihre Story „Die Lügenmacher“ verwendet haben, sieht man hier.   

Schon aus der Überschrift ist abzuleiten, dass es nicht Gutes ist. Man versucht in einem Rundumschlag, die sog. Klimaskeptiker und AfD mit echten Betrügern in einen Topf zu werfen und auf diese Weise moralisch zu erledigen, mindestens aber ihre Glaubwürdigkeit und wissenschaftliche Seriosität  zu unterminieren.

Das Motiv derer, die das betreiben, bleibt leider im Dunkeln. Der Wille zur ehrlichen Aufklärung kann es jedenfalls nicht sein. Allein der eiserne Wille zur Diffamierung bleibt übrig.

Sehen Sie also selber (Minute 13:45 bis 18:45), was den Storymachern des „Rechercheteams“ alles an Halbwahrheiten und Verdrehungen dazu einfällt!

Erschreckend aus meiner Sicht war mal wieder – während des gesamten Interviews-  die klar erkennbare solide Unkenntnis der Fragesteller. Insbesondere über die Hintergründe mancher Behauptungen, mit denen sie mich „konfrontierten“.

Ahnungslos waren beide aber dafür besonders dreist. Insbesondere Frau Langhans bei ihren insistierenden Fragen. Nicht nur für sie ist das eine zutreffende Beschreibung. Urteilen Sie selbst.




Markus Lanz trifft Dirk Steffens – Postfaktiker unter sich

Bei Markus Lanz, dem beliebten Seicht- und Dauertalker des ZDF- darf man nicht jedes Wort auf die Goldwaage legen. Schon gar nicht, wenn er– was er immer tut- beim Talken sorgsam im politisch korrekten Mainstream bleibt. Und man kann von ihm eigentlich auch nicht verlangen, dass er bei jeder Hochzeit, auf der er tanzt, alle Gäste und die Brautpaare kennt. Denn fast jeden Tag tanzt er auf einer anderen Hochzeit. Doch leider tut er so, als ob er alle kennte und will dazu noch seinen Gästen und Zuschauern immer aufs Neue weismachen, dass man mit ihm – egal bei welchem Thema- auf Augenhöhe fachsimpeln könne.

Video nicht mehr verfügbar

Videoausschnitt aus der ZDF Sendung vom 21.2.17 Markus Lanz im Gespräch mit Dirk Steffens über Klimawandel, Trump und AfD. Mit Dank an FMDsTVChannel Falls gesperrt: Nur oben den Videotitel (weiße Buchstaben), oder das unterstrichene ‚Auf YouTube ansehen‘ im Videofenster, anklicken und dann kann man sich das Video bei YouTube ansehen.

Anmerkung 21.4.17 9:10 Uhr: Gestern gegen 13:00 Uhr hatte ich Dirk Steffens auf seiner FB-Seite den folgenden Kommentar hinterlassen:

Michael Limburg Hallo Herr Steffens. ich hatte mir gestern Ihren lustigen Beitrag zu Klimawandel, Trump und AfD bei Markus Lanz am 21.2.17 angeschaut. Da ich Sie und ihre Arbeit eigentlich schätze und mir selten eine Ihrer Terra X Sendungen am Sonntag entgehen lasse, war ich umso überraschter wie wenig Sie von dem verstehen, über das Sie in der Sendung herzogen. Ich konnte daher nicht anders, als das in einer Glosse zu verarbeiten: https://eike.institute/…/markus-lanz-trifft…/ Was mir Sorgen macht ist, ob Sie bei den Themen, bei denen ich nicht so viel oder gar nichts von verstehe und die Sie in Ihren Sendungen behandeln, genau so daneben liegen. Kann ich mir eigentlich und hoffe das sehr, nicht vorstellen. Trotzdem Nichts für Ungut Ihr M.L.

Wenige Stunden später war dieses Video von unser Website nicht mehr zugänglich. Eine andere Reaktion gab es nicht.

Das macht er mit treu wissendem, manchmal zwinkernden Augenaufschlag auf sehr sympathische (oder müsste ich schreiben „empathische“?) Weise.

So auch beim Kollegengespräch am 21.Februar 2017. Gast und Gesprächspartner war diesmal Dirk Steffens, ebenso wie Markus Lanz ein bekannter Fernsehjournalist und ebenso voll auf der Mainstreamwelle schwimmend.

Übrigens fällt trainierten Fernsehguckern schon des längeren auf, dass Journalisten, wenn sie denn schon keine kompetenten Gesprächspartner für ihre Show gewinnen können, sie sich eben selber interviewen. Nach dem alten Motto, ich kenne jemanden der jemanden kennt, der evtl. Ahnung von etwas hat. Und darüber lässt sich nicht nur wundervoll palavern, sondern man kann sogar ganze Sendezeiten füllen.

So auch hier. Dieses Glanzstück journalistischer Naivität bei gleichzeitig schon lustig anzusehender Selbstüberschätzung ist noch bis zum 22.05.17 in der ZDF Mediathek zu sehen. Und natürlich hier. Diese Sendung ist zudem vom ZDF passgenau schon für Kinder ab 6 Jahren freigeben. Wobei ich mich als besorgter – aber wohl aus Zeit gefallene – Großvater frage, welche Eltern ihre Kinder ab 6 Jahren noch um 23:00 Uhr vor dem Fernseher hocken lassen. Aber das ist ein anderes Thema.

Video nicht mehr verfügbar

Video Ausschnitt mit Kommentaren des Gespräches zwischen Markus Lanz und Dirk Steffens der Sendung vom 21.2.17 . Mit Dank an FMDsTVChannel. Falls gesperrt: Nur oben den Videotitel (weiße Buchstaben), oder das unterstrichene ‚Auf YouTube ansehen‘ im Videofenster, anklicken und dann kann man sich das Video bei YouTube ansehen. 

Anmerkung 21.4.17 9:10 Uhr: Gestern gegen 13:00 Uhr hatte ich Dirk Steffens auf seiner FB-Seite den folgenden Kommentar hinterlassen:

Michael Limburg Hallo Herr Steffens. ich hatte mir gestern Ihren lustigen Beitrag zu Klimawandel, Trump und AfD bei Markus Lanz am 21.2.17 angeschaut. Da ich Sie und ihre Arbeit eigentlich schätze und mir selten eine Ihrer Terra X Sendungen am Sonntag entgehen lasse, war ich umso überraschter wie wenig Sie von dem verstehen, über das Sie in der Sendung herzogen. Ich konnte daher nicht anders, als das in einer Glosse zu verarbeiten: https://eike.institute/…/markus-lanz-trifft…/ Was mir Sorgen macht ist, ob Sie bei den Themen, bei denen ich nicht so viel oder gar nichts von verstehe und die Sie in Ihren Sendungen behandeln, genau so daneben liegen. Kann ich mir eigentlich und hoffe das sehr, nicht vorstellen. Trotzdem Nichts für Ungut Ihr M.L.

Wenige Stunden später war dieses Video von unser Website nicht mehr zugänglich. Eine andere Reaktion gab es nicht.

Donald Trump wagt es den menschgemachten Klimawandel anzuzweifeln

Mit diesem Dirk Steffens – gelernter Journalist für Rundfunk und Fernsehen- unterhielt sich Lanz über die Ungeheuerlichkeiten des Donald Trump, der es nicht nur gewagt hatte, völlig gegen alle journalistischen Erwartungen Präsident der USA zu werden, sondern – vielleicht noch viel schlimmer- gar am menschgemachten Klimawandel zweifelt. Denn, so Lanz, das sei doch „..die große Herausforderung….das können wir noch gar nicht richtig einschätzen“ . Das fand Steffens auch, und wunderte sich außerdem, dass sich bei Trump trotz Ausübung der journalistischen Hauptaufgabe Steffens:

Wenn man jemandem eine Lüge nachweist, dann hat man einen publizistischen Erfolg errungen.. und kann dem Menschen dem man diese Lüge nachweist dadurch schaden..“

so gar kein Erfolg einstellen wolle. Und schaut bei dieser Feststellung Beifall heischend in die Runde. Leider hat der Journalist Steffens und seine Kollegen dem Trump bisher nun leider nicht geschadet! Worauf Lanz, sich der Ironie dieser Klage gar nicht bewusste werdend, zustimmend nickt und sagt:

Das gilt nicht mehr!

Denn Trump – so Steffens weiter- machte ja den Ex-Exxon Chef Rex Tillerson zu seinem Außenminister, obwohl die (von EXXON)„ja schon 1977 wussten“ dass die Verbrennung fossiler Brennstoffe das Klima erwärmen würde. Weil, so seine m.M.n. für einen Wissenschaftsjournalisten schon recht einfältige Begründung …weil ein Forscher von denen – ein Mr. Jack Black dies ja schon 1977 behauptet hatte.[2] Und – man glaubt es nicht- Mr. Tillersons Exxon hätte danach Millionen für Studien ausgegeben, um das Gegenteil zu beweisen.

Schon an dieser Stelle hätte man sich gewünscht, dass ein Wissenschaftsjournalist[1] der Dirk Steffens vorgibt zu sein, wenigstens etwas vom das Wesen der Wissenschaft kennen würde, nämlich immer bereit zu sein alle vermeintlichen Fakten immer und immer wieder in Frage zu stellen. Nicht so bei Dirk Steffens, der gab nur den Wissenschaftsjournalist-Darsteller. Weil diese Studien, so Steffens, dass wüsste er ganz genau, wären (natürlich) allesamt falsch gewesen.

Und – oh Schreck – Exxon wagt es doch tatsächlich trotzdem zu überlegen, ob und wo in der schmelzenden Eiswüste der Arktis sich ggf. die Suche nach fossilen Brennstoffen lohne. Um damit nach Steffens, ihr einziges Ziel zu erreichen, nämlich auch dort die heilige Umwelt zu zerstören, wie im Lanz beflissen soufflierte. Steffens folgerte daraus, dass Exxon somit die Umweltzerstörung zu ihrem Geschäftsmodell gemacht hätte…

Da kriege ich natürlich Horrorvisionen, klar!

Die kriegte ein erheblicher Teil des Publikums auch, viele klatschten aber trotzdem.

Leider war ihm bei aller verständlichen Entrüstung entgangen, dass Tillerson, Geschäftsmann der er ist, und der die Rieseninvestitionen die EXXON in „Erneuerbare“ Energien getätigt hat, schützen will– neben Tochter Ivanka und Schwiegersohn Kouchner- der Hauptgegner einer konsistenten Klimaschutzausstiegspolitik der Trump Regierung ist. Er ist nämlich dagegen, dass die USA aus dem Pariser Klimaabkommen aussteigen.

Doch Steffens wäre nicht Steffens, wenn er nicht flugs seine Entrüstung darüber vermarkten würde, gründete er doch sofort das „Team Weltrettung“: Darunter macht es Dirk Steffens eben nicht.

Werbevideo für Dirk Steffens Team Weltrettung

Danach freute sich Steffens noch darauf mit Lanz im Schlauchboot über den Nordpol fahren zu können, weil der ja bald (irgendwann, genaues weiß man ja nicht) im Sommer eisfrei sein würde. Worüber es dann sicher eine spannende Reportage von Dirk Steffens im ZDF geben wird, mit ausführlicher Vor- und Nachbereitung von und mit Markus Lanz. Vielleicht würde dann auch das Team Weltrettung immer noch vonnöten sein. Fast möchte man es ihm wünschen. Es gibt doch noch soviel zu tun

Stichwort „postfaktischer Unsinn “

Dann leitete Buchautor Dirk Steffens unter dem Stichwort „postfaktischer Unsinn“ von Trump auf die AfD über und zog deren Aussagen im Grundsatzprogramm zur Klimathematik aus seiner Jackentasche. Die hätte er eigens mitgebracht, erzählt er amüsiert. Und darin, so Steffens .. „sei jeder zweite Satz genauso falsch wie das, was Trump erzählt“.

Dann legte mit seinem ganzen breiten Wissen über das AfD Programm los, beflissen assistiert von seinem Gastgeber Markus Lanz.

Es sei eben fast alles falsch, was in diesem Programm übers Klima stünde, z.B. auch die Aussage, dass die Klimapolitik auf hypothetischen Klimamodellen beruhe! Die beruhe nämlich auf Messdaten, wie Steffens ebenso wichtigtuerisch klar, wie falsch hinzufügte.

Anmerkung: Wenn sie auf Messdaten beruhen würden, dann wäre die gesamte Klimahype schon längst verdunstet und die wenigen Klimaforscher, die sich noch vom winzig klein gewordenen Kuchen der Klimaforschungsfinanzierung ernähren könnten, wären wieder in ihrem Elfenbeinturm verschwunden. Siehe auch Hinweis 2, weiter unten

Und, dass die Klimamodelle, wie im Programm behauptet, vom IPCC erstellt würden, monierte er auch noch. Vermutlich hatte er sich zuvor bei Harald Lesch -seinem Bruder im Geiste und in der gleichen Anstalt tätig- schlau gemacht. Der sagt das nämlich auch. Und hat recht damit. Die Aussage ist zwar sachlich korrekt, allerdings der Kürze des zur Verfügung stehenden Platzes im Programm geschuldet, ändert aber an den falschen Ergebnissen der Modelle überhaupt nichts. Doch das merkte Steffens nicht einmal, ebensowenig wie sein Stichwortgeber Lanz. Denn, dass diese Modelle grottenfalsche Ergebnisse liefern, egal ob vom IPCC nur in Auftrag gegeben oder selber gemacht, war für ihn keine Erwähnung wert.

So ist das eben wenn man – ohne es selber zu merken- über die Dinge schwadroniert, von denen man nichts versteht.

Der nächste Satz im Programm, dass CO2 ein unverzichtbarer Bestandteil des Lebens sei, so Steffens weiter, stimme hingegen nur so halb. Denn, so erläuterte er dem begierig lauschenden Lanz, ein bisschen davon sei tödlich und zu viel sei auch tödlich.

Dabei fiel dem guten Mann vor lauter Selbstüberhöhung nicht mal auf, dass das wohl für jede lebenswichtige Substanz gilt, z.B. auch für Wasser.

Aber da diese Aussage im AfD Programm steht– die, wenn man auch nur etwas Ahnung vom Thema hat- eindeutig richtig ist, muss sie aber, weil sie ja von der AfD komme, apriori erst mal falsch sein. Das ist Steffen´sche Logik vom Feinsten.

 

Der Kaiser hatte mal wieder keine Kleider an

Und „hanebüchener Unsinn“ sei auch, dass im Programm stünde …durch mehr CO2 wüchsen die Pflanzen besser. Das stimme zwar – wie er später einräumte- aber nur innerhalb eines gewissen Korridors, den er leider zu nennen vergaß.

Aber jenseits davon sei es einfach GaGa.

Da nickten und lachten ringsum alle Gäste selbstgefällig (siehe Bild unten) über den Unsinn, den die AfD da verzapft hatte.

Anmerkung: Der von Steffens erwähnte breite Korridor sei hier vorgestellt.

Unsere Leser wissen, dass Pflanzen unterhalb von 200 ppm CO2 Konzentration den Hungertod sterben, (und mit ihnen alles Leben auf dieser Welt) erst bei ca. 1000 ppm das Optimum für viele wichtige Getreidepflanzen erreicht wird. Und erst oberhalb von 6000 oder mehr ppm für Mensch und Tier eine Gefahr ausgeht.

Der Apollo Astronaut Walt Cunningham berichtete bspw. auf der jüngsten Heartland Climate Conference in Washington DC, dass die Atemluftüberwachung der Apollo Kapseln zunächst auf einen Alarmwert für CO2 von 3000 ppm  eingestellt gewesen seien, der später dann auf über 6000 erhöht worden sei. 6000 ppm, da ist noch viel Luft nach oben. Die NASA ist jedenfalls nicht dafür bekannt leichtfertig mit dem Leben und Gesundheit ihre Astronauten umgegangen zu sein.

Und auch dass wusste „Wissenschaftsjournalist“ Steffens nicht,  dass, selbst wenn man alle bekannten und auch nur vermuteten Brennstoffe dieser Erde verbrennen würde, deren Emissionen nicht ausreichen würden, um die CO2 Konzentration der Atmosphäre auch nur in die Nähe von 800 ppm zu bringen.

Also bleibt nur als Feststellung über diesen „Experten“: Der Kaiser hatte mal wieder keine Kleider an. Und die Hofschranzen merkten es nicht einmal!

Aus der Sendung Gast Norbert Rosing, Fotograf; Hier beim beifälligen Lachen über die Aussage im AfD Programm, dass CO2 wertvoll für alle Pflanzen sei. 1992 machte er seine Leidenschaft zum Beruf und wurde Natur- und Tierfotograf. Er erzählt, weshalb ihn Eisbären als Fotomotiv besonders reizen. 

Nun, damit soll es zunächst mal der Exegese der Lanzschen Sendung und des AFD Klimaprogrammes genug sein. Soviel selbstgefällige Dummheit innerhalb nur weniger Minuten sollte man niemanden, auch nicht kleinen Kindern – trotz Freigabe ab 6 Jahren- zumuten, auch weil die Sendung nicht mal als Klamauk für den Kinderkanal KiKA herhalten kann. Dazu war sie zwar einfältig, aber nicht lustig genug.

Wer trotzdem Lust und Zeit hat, mag sich diese Sendung, für Kinder ab 6 Jahren und alle, die deren Wissensniveau und Naivität, vielleicht unbemerkt, nie verlassen haben, selber anschauen. Sie ist noch bis zum 22.05.17 online abrufbar. Der Blogger FMDsTVChannel hat die vergnüglichsten Fakennews daraus herauskopiert, kommentiert und bei Youtube eingestellt. Sie finden diesen Mitschnitt unter dem Titel „Dirk Steffens‘ Klima-Irrsinn ENTLARVT !!!“ hier. Und natürlich oben in diesem Beitrag.

Was ist die Moral von der G´schicht?

Glaub keinem Unterschichtenfernsehen nicht, auch wenn es als unterhaltsames Bildungsfernsehen daherkommt.

und … Es waren mal wieder zwei Experten für Fakenews bei der Arbeit.

Hinweise

[1] 9. Preis Journalist des Jahres 2015 der Zeitschrift medium magazin, Kategorie „Wissenschaft“

[2] Wie wenig „Wissenschaftsjournalist“ Dirk Steffens von Wissenschaft – und insbesondere Klimawissenschaft versteht, dafür umso mehr von Agitation und Propaganda zeigt dieses Zitat (hier entnommen Punkt 8) zum geringen Kenntnisstand der Klimawissenschaft vor gut 20 Jahren – also Mitte der 90 Jahre des vorigen Jhh.

Vor 20 Jahren hat das IPCC vorhergesagt, dass wir eine Erwärmung um 0,3°C pro Dekade bekommen werden. Der bisherige Erwärmungstrend lag deutlich noch unterhalb ihrer niedrigstmöglichen Abschätzung egal welchen wesentlichen Datensatz man heranzieht. Damals wussten die Wissenschaftler noch nicht, dass es in Eisbohrkernen eine Verzögerung von 800 Jahren gab (wobei die Temperatur Jahrhunderte vor einem Anstieg des Kohlendioxids gestiegen ist). Im Jahr 1992 haben die Wissenschaftler noch nicht mitbekommen, dass die Erwärmung schon bald achtzehn Jahre lang zum Stillstand kommen würde. Sie wussten nicht, dass 28 Millionen Radiosonden zeigen würden, dass ihre Modelle auf falschen Hypothesen über Wasserdampf beruhen. Sie wussten nicht, dass 3000 ARGO-Bojen schließlich zum ersten Mal adäquat die Ozeane vermessen würden (seit 2003) – und herausfinden würden, dass die Ozeane nicht wie in ihren Modellen simuliert die fehlende Energie speichern oder sich auch nur annähernd so schnell aufheizen wie die Modelle vorhergesagt hatten. Mit anderen Worten, selbst wenn es 1992 einen Konsens gegeben hat, ist das irrelevant.

Dirk Steffens hingegen will uns glauben machen, und glaubt es offenbar selber, und mit ihm sein gutgläubiger Kollege Markus Lanz, dass ein Forscher wie Jack Black, damals Exxon Angestellter, schon vor 40 Jahren alles wesentliche zum anthropogenen Einfluss auf das Klima mittels des Verbrennens fossiler Brennstoffe wusste. The Science is settled! Wie Arnie Schwarzenegger schon vor Jahren tönte. Warum schickt man dann nicht alle Klimaforscher nach Hause, um was Nützlicheres zu tun? Fragen über Fragen!

 




Harald Lesch, die Claudia Roth des Klima­wandels: Glaubt einfach, was ich erzähle – Nach­prüfen schadet nur!

Wie die bekannte Claudia Roth der GRÜNEN appelliert er, anstelle Belege zu bringen, vorwiegend an die „Betroffenheit“, die seine „unbezweifelbaren“ Aussagen erzeugen sollen, weshalb man ihn inzwischen synonym als klimatisches Pedant der GRÜNEN-Politikerin bezeichnen kann, obwohl ihm der bei den GRÜNEN sonst oft übliche (bei Frau Roth vorhandene) Studienabbruch fehlt.

Der Autor hat sich (wieder) die Mühe gemacht, Beispiele seiner inzwischen oft schon abstrus überzogenen Thesen zu sichten und darzustellen, dass Vieles einer Nachprüfung nicht Stand hält, oder zumindest wesentlich Klimawandel-unkritischer betrachtet werden kann.

Video: Frag den Lesch – Neues aus der Klimaküche

https://www.youtube.com/watch?v=mfALmgAwPKQ&feature=youtu.be

Video: [2] Frag den Lesch – Neues aus der Klimaküche 

Im Video geht es angeblich über das Neueste vom Klimawandel. Zumindest wird es in der Lesch-typischen, stammelnden und auslassungsreichen Vortragsweise so erzählt.

Einleitung

H. Lesch: … Neuigkeiten von den Klimamodellen … Klimawandel, das stimmt ja sowieso nicht …. denn dass der Mensch einen Einfluss auf das Klima hat, auf den Klimawandel, das ist eindeutig, übereindeutig. … in den 90er Jahren dachte man, da könnte noch eine gewisse Unsicherheit sein, das ist aber vorbei … die neuesten Entdeckungen, muss man leider sagen, aber auch Bestätigungen muss man leider noch mehr sagen, die zeigen ganz klar – wir sind dran schuld.

Und dann wird über eine ganz neue Entdeckung erzählt,

Biofilme auf Gletschern:

H. Lesch: … Neu herausgekommen ist ein Effekt … eine ganz neue Entdeckung …. warum schmelzen die Gletscher so viel schneller… Ruß und andere Staubteilchen regnen auf die Gletscher … diese bilden Biofilme aus .. dadurch, dass die unsichtbaren Biofilme auf der Oberfläche der Gletscher sind, wird ne ganze Menge Energie in den Biofilmen deponiert und dadurch schmelzen die Gletscher schneller. Die Biofilme sind etwas, das man vorher nicht kannte, aber jetzt weiß, aha das verstärkt nochmal den Effekt des Klimawandels, also der Erwärmung.

Der Autor ist dieser wichtigen Entdeckung, welche den Treibhauseffekt zusätzlich verstärkt, nachgegangen. Bei der Max Planck Gesellschaft findet sich dazu eine Pressemitteilung:

Bakterien heizen Gletschereis auf
Mikroorganismen siedeln sich auf dem Eis an Staubteilchen aus der Atmosphäre und lassen den Gletscher dadurch schneller schmelzen… Mikroben leben von Kohlenstoff aus Gletschern
Das nutzt auch der Klimaforschung, denn ein besseres Verständnis des Kohlenstoffspeichers in Gletschern und des Transports von Kohlenstoff in andere Ökosysteme kann dazu beitragen, aktuelle Klimamodelle zu verbessern. Es ist schon lange bekannt, dass organischer Kohlenstoff, der für Jahrtausende in Gletschern gespeichert war, beim Abschmelzen freigesetzt wird und Mikroorganismen als Nahrung dient. Die nun vorliegende Studie zeigt, dass auch durch die Fixierung von anorganischem Kohlenstoff durch Mikroorganismen auf Gletschern organischer Kohlenstoff entsteht, der rasch von benachbarten Organismen verbraucht wird.

Zur Pressemitteilung ist die Studie genannt, welche wohl auf einer Dissertationsarbeit beruht:
Heidi J: Smith et al.: [3] Biofilms on glacial surfaces: hotspots for biological activity
Leider steht in dieser Studie nirgends auch nur ein vager Hinweis zum quantitativen Einfluss auf das Klima oder die Gletscherschmelze. Auf Nachfrage des Autors beim Max Planck Institut kam dazu die folgende Antwort: … Tatsächlich gibt es bisher noch keine quantitativen Daten zu dieser Studie. Das wird sicher Gegenstand weiterer Untersuchungen sein.

Was sagte Herr Lesch

Und nun vergleiche man diese Antwort mit Herrn Leschs Darstellung:

H. Lesch: „ … Die Biofilme sind etwas, das man vorher nicht kannte, aber jetzt weiß, aha, das verstärkt nochmal den Effekt des Klimawandels, also der Erwärmung… „.

Prognosen von Klimamodellen

Weiter geht es im Video:
H. Lesch: Es gibt jetzt klare Prognosen dafür, dass die Prognosen von Klimamodellen eintreten … Eine Vorhersage war in der Tat, dass durch die allgemeine Erwärmung sich die Wolkenbänder systematisch vom Äquator hinaus in Richtung nach Norden und nach Süden bewegen müssten. Und genau das ist nun entdeckt worden. Und eine weitere Vorhersage der Klimamodelle ist eingetreten: Sobald die Atmosphäre eine bestimmte Temperatur überschreitet, schießen die Wolken weiter nach oben … aber inzwischen sind nicht nur Gewitterwolken davon betroffen, sondern die gesamte Dynamik ist davon betroffen.

Wieder muss man Datenquellen raten. Doch könnte sich die Aussage auf die folgende Studie beziehen:

Juli 2016, [4] Evidence for climate change in the satellite cloud record,
deren Pressemitteilung vorwiegend im Englischsprachigen Raum publiziert wurde.
Doch WELT N24 hat auch darüber berichtet: Wegen des Klimawandels haben wir weniger Wolken
… Unklar waren bislang auch die Auswirkungen der globalen Erwärmung auf den Wolken-Bedeckungsgrad. Das lag vor allem daran, dass Wettersatelliten die Veränderungen nur teilweise zuverlässig wiedergeben, unter anderem wegen verschiedener Umlaufbahnen, unterschiedlicher Kalibrierung und Veränderungen der Sensorenempfindlichkeit im Laufe der Zeit. Das Forscherteam analysierte nun die Datenreihen verschiedener Satelliten und rechnete störende Einflüsse heraus.
Die Auswertung über 27 Jahre zeigt, dass der Bedeckungsgrad vor allem der mittleren Breiten abnimmt – weil sich der subtropische Hochdruckgürtel ausdehnt und sich die Tiefdruckzone der mittleren Breiten – insbesondere über dem nördlichen Atlantik – polwärts verlagert. Dagegen stieg der Bedeckungsgrad etwa über dem Atlantik und Pazifik nördlich des Äquators. Zudem berichten die Forscher, dass die oberste Wolkenschicht höher reicht als früher.

Seit dem Jahr 1984 gibt es ein ISCCP Cloud-Cover Daten-Projekt. Und Studien, welche die Veränderungen der Wolken-Bedeckungsgrade über die verschiedenen Breiten analysieren und versuchen, mit den Simulationsergebnissen in Einklang zu bringen, gibt es wie Sand am Meer. Allerdings oft mit ernüchternden Ergebnissen, zum Beispiel,

dass zwischen Messungen und Simulationsergebnissen nicht nur große Abweichungen bestehen, sondern die Effekte schlichtweg noch nicht ausreichend verstanden sind. Dazu kommt, dass beispielsweise ein Projekt beim CERN ermittelte, dass die Wolkenbedeckung viel stärker als bisher angenommen von natürlichen Einflüssen abhängt, somit im vor-industriellen Zeitalter eventuell viel größer als bisher angenommen war und das aktuelle Verhalten somit weit mehr (als bisher angenommen) von natürlichem und weniger (als bisher angenommen) vom CO2-Forcing abhängt

Theorien und Annahmen gibt es also viele und die Ergebnisse erscheinen insgesamt etwas chaotisch, weshalb die Klimamodellierer bezüglich der Wolken immer noch ziemlich hilflos sind:
M. Calisto at al., 2014: Cloud radiative forcing intercomparison between fully coupled CMIP5 models and CERES satellite data (Anmerkung: CMIP5 „Coupled Model Intercomparison Project 5“ sind neue Klimamodellierungen)

We have found that none of the models are consistent with the CERES data for all four variables considered….
we can say that despite consistent improvements in complexity and resolution of the models, none of the CMIP5 models presented here fits perfectly to the satellite data. Most of the models show a large bias in sea-ice regions, the tropical Pacific, and subtropical stratocumulus regions (Figs. 5 and 6). An accurate representation of clouds and their radiative effects still remains a challenge for global climate modeling.

[Übersetzung von Chris Frey: Wir sind zu dem Ergebnis gekommen, dass keines der Modelle konsistent ist mit den CERES-Daten für alle betrachteten Variablen … wir können sagen, dass trotz konsistenter Verbesserungen hinsichtlich Komplexität und Auflösung der Modelle keines der hier präsentierten CMIP5-Modelle genau zu den Satellitendaten passt. Die meisten Modelle zeigen einen großen Bias in Gebieten mit Meereis, dem tropischen Pazifik und subtropischen Stratocumulus-Regionen. Eine genaue Repräsentation von Wolken und deren Strahlungs-Auswirkungen bleibt nach wie vor eine große Herausforderung für die globale Klima-Modellierung.

Ende Übersetzung]

The Daily Star, May 27, 2016 : Scientists make news clouds which may lessen global warming
… Nobody knows just how cloudy skies were in the old days. Scientists have figured there were far fewer clouds than now, Kirkby said. But the discovery of a new natural route to cloud formation suggests that cloud cover was in fact greater than scientists had assumed.

If so, the way these simulations work, it would mean that greenhouse gases haven’t been quite as potent in producing warming so far as scientists thought. So, ton for ton, they may not be quite as potent in producing future warming either.
A new discovery about how clouds form may scale back some of the more dire predictions about temperature increases caused by man-made global warming. That’s because it implies that a key assumption for making such predictions is a bit off. „What this will do is slightly reduce and sharpen the projections for temperature during the 21st century,“ said researcher Jasper Kirkby.

[Übersetzung von Chris Frey: … Niemand weiß, wie wolkig es während der alten Tage war. Wissenschaftler haben herausgefunden, dass es weit weniger Wolken gegeben hatte als jetzt, sagte Kirkby. Aber die Entdeckung eines neuen natürlichen Weges der Wolkenbildung zeigt, dass die Wolkenbedeckung tatsächlich höher war als die Wissenschaftler vermutet hatten.

Falls das so ist, die Funktionsweise dieser Simulationen, würde das bedeuten, dass Treibhausgase nicht in der Lage gewesen wären, eine den Vermutungen der Wissenschaftler entsprechende Erwärmung zu erzeugen. Eine neue Entdeckung darüber, wie sich Wolken bilden, kann einige der düsteren Prophezeiungen hinsichtlich der vom Menschen verursachten Erwärmung abschwächen. Und zwar deswegen, weil es impliziert, dass eine grundlegende Hypothese für derartige Prophezeiungen ein wenig abwegig ist. „Das Ergebnis hiervon wird sein, dass die Projektionen der Temperaturen im 21. Jahrhundert etwas reduziert werden“, sagte der Forscher Jasper Kirkby.

Ende Übersetzung]

Einer Studie, der es auf einmal gelang, aus längst bekannten, teilweise aber ungeeigneten Satellitendaten
[4] „this is because observational systems originally designed for monitoring weather have lacked sufficient stability to detect cloud changes reliably over decades unless they have been corrected to remove artefacts ,
durch „Herausrechnen störender Einflüsse“ plötzlich einen „genauen“ Wolkenverlauf zu rekonstruieren und dann durch geeignet angepasste
[4] „Here we show that several independent, empirically corrected satellite records exhibit large-scale patterns of cloud change between the 1980s and the 2000s that are similar to those produced by model simulations of climate with recent historical external radiative forcing
Simulationsläufe nachzuvollziehen, ist jedenfalls mit äußerster Vorsicht zu betrachten. Es entsteht leicht der Eindruck der typischen “Beweisführung” in der Klimakunst: Nachträglich Messdaten zu “erzeugen”, dann Simulationen so lange anzupassen (es wurden wohl die CO2- und Aerosol-Forcinwerte so lange verändert, bis die zurückgerechneten Kurvenverläufe ungefähr passten), bis diese Daten wenigstens im Ansatz in einer Rücksimulation herauskommen und dann zu behaupten, damit ist die Qualität der Simulationen belegt (die das Ergebnis allerdings weder vorhersagen, noch ohne nachträgliche “Anpassung” zurückrechnen konnten).

Auf kaltesonne kam dazu jüngst eine größere Zusammenfassung:
kaltesonne, 27. August 2016: Wolken – die großen Unbekannten im Klimasystem
Lange Zeit hatten uns die Klimawissenschaftler vorgegaukelt, es gäbe nur noch i-Punkte in den Klimagleichungen zu setzen. Heute wissen wir, dass dies ein schwerer Fehler war. Noch immer gibt es viele große Unbekannte in den Klimamodellen. Im Februar 2015 räumte das Deutsche Klimakonsortium (DKK) ein:
Wolken – die großen Unbekannten im Klimasystem
[…] Wolken sind für systematische Messungen nicht nur schwer zugänglich, sie unterliegen auch ständiger und schneller Veränderung, sind in Form, Entstehung, Zusammensetzung und Höhenvorkommen unterschiedlich und haben deshalb verschiedene Auswirkung auf die Energiebilanz in der Atmosphäre. So wirken Wolken in tieferen Atmosphärenschichten kühlend, weil sie Sonnenstrahlen reflektieren und weniger Energie die Erdoberfläche erreicht. Hohe Eiswolken, Zirren genannt, wirken hingegen eher wärmend, da sie die Wärmeabstrahlung der Erde nicht in die Atmosphäre entlassen, sondern wieder Richtung Erdoberfläche reflektieren. […] Frank Stratmann untersucht im weltweit einzigartigen Leipziger Wolkensimulator (Leipzig Aerosol Cloud Interaction Simulator, LACIS) die Wechselwirkungen zwischen Aerosolpartikeln und Wolkentropfen: Im Kleinen wird die Wolkenbildung simuliert, die sich normalerweise bis zu einer Höhe von 15 km über der Erdoberfläche abspielt. […]
In Stratmanns Vortrag heißt es:
Was ist der Stand:
Wolken in Klimamodellen werden in der Regel nicht im Detail modelliert weil:
a) es teilweise an grundlegendem physikalischem Verständnis mangelt
b) eine Prozessmodellierung numerisch zu aufwändig ist
c) es ein grundsätzliches Skalenproblem gibt
(Wolken – Kilometerskala, Modellauflösung – Hundertkilometerskala)
d) Wolken werden in parametrisierter Form behandelt
Klimamodelle müssen anhand von Messwerten validiert werden
kaltesonne: Im Mai 2015 brachte auch proplanta.de Klimarealimus:
Forscher nehmen Wolken ins Visier
Wie beeinflussen die Wolken den weltweiten Klimawandel? Forscher haben darauf noch keine umfassenden Antworten.
Klar sei nur eines, sagt Professor Thomas Leisner, Klimaforscher am Karlsruher Institut für Technologie (KIT): «Wenn sich das Klima ändert, ändern sich auch die Wolken – und umgekehrt». Doch in welchem Maße? Und in welche Richtung? In der deutschlandweit einzigartigen Wolkenkammer «Aida» versuchen Leisner und seine Mitarbeiter, Antworten zu finden. Zwei zentrale Fragen stellen sich:
Werden die Wolken im Klimawandel mehr kühlend oder mehr erwärmend wirken?

Das Max Plank Institut umschreibt die Problematik recht umständlich, aber mit ähnlichem Ergebnis: Wo liegen die Grenzen der Vorhersagbarkeit des Erdsystems?
… Anderes ist jetzt erst möglich geworden, wie etwa das Ersetzen der Wolkenparametrisierung durch konvektionsauflösende Modelle, wodurch die Simulationen eine deutlich stabilere konzeptuelle Grundlage erhalten.
Um unsere Modelle zu evaluieren und zu initialisieren, benutzen wir in zunehmendem Maße Beobachtungsdatensätze, aus denen wir grundlegende,
neue Einsichten in das sich ändernde Erdsystem gewinnen: von der Vertikalstruktur der Wolken über die zunehmende Wärmeaufnahme des Ozeans bis hin zu den immer genauer werdenden Beschreibungen der Landbiosphäre. Die globalen Beobachtungen werden durch eine neue Generation von Messkampagnen ergänzt, zum Beispiel für die Wolkendynamik in den Subtropen oder die meridionale Umwälzbewegung im Ozean.

Was sagte Herr Lesch

Die Aussage: „ H. Lesch: Es gibt jetzt klare Prognosen dafür, dass die Prognosen von Klimamodellen eintreten.“
ist damit auf jeden Fall nicht belegt und entspringt eher einem Wunschdenken. Zudem ist eine solche Aussage auch Unsinn, doch trotzdem entlarvend typisch „ … es gibt Prognosen, dass die Prognosen eintreten …“.
Beim Klima-Simulieren werden viele verschieden parametrierte Simulations-Läufe gemacht und dann „ermittelt“, welcher der „richtigste“ sein könnte. Irgend eine Prognose tritt dadurch irgendwann immer ein. Nur ist in der Regel vorher nicht bekannt, welche es werden wird. Anders herum werden die Simulationen rückwirkend den wahren Verläufen angepasst und dazu verkündet: „hätte man es damals so parametriert, wären die heutigen Ergebnisse herausgekommen“.
Wer die himmelschreienden Ungenauigkeiten nicht glaubt, sehe sich das in den vielen Vulnerabilitätsstudien mit ihren Simulationsläufen an:
EIKE: Der Himmel fällt uns auf den Kopf und ohne die Glaskugel im Computer würden wir es nie erfahren

Wie schwierig es ist, Ursache und Wirkung zu unterscheiden, lässt sich am folgenden Verlaufsbild der tropischen Wolkenbedeckung ahnen.

Bild 3 Tropische Wolkenbedeckung und Temperatur seit 1983 (Wolken: ISCCP) Quelle: WUWT, Blogbeitrag

Meeresspiegel

Weiter geht es bei Herrn Lesch mit dem Meeresspiegel:
H. Lesch: … und warmes Wasser braucht mehr Platz … und schon ist man beim Meeresspiegelanstieg: Da gibt es ebenfalls neue Daten und die sagen uns ebenfalls nichts Gutes. … Zumal sich eben auch die Kontinente noch anheben z.B. genau dann wenn die Gletscher verschwinden die … wenn das Eis verschwindet …
Wie hoch ist tatsächlich der Meeresspiegelanstieg … Man hat Modelle benutzt und hat lokale Messstationen deren Wasseranstieg, deren Meeresanstieg zu rekonstruieren. Dann macht man das mit zwei, drei, vieren . ist eine Evolution von Modellen. … auf diese Art und Weise ist es gelungen, eine klipp und klare Aussage darüber zu machen, dass die Meere in den letzten 100 Jahren so stark angestiegen sind wie in den letzten 3000 Jahren nicht mehr …
und das ist klar, klipp und klar

Wieder muss man Datenquellen raten, aber es finden sich dazu passende Fundstellen, wie:
[1] Temperature-driven global sea-level variability in the Common Era
Wie so oft, hat ein Studienteam ganz neu festgestellt, dass man die Daten der Vergangenheit bisher falsch interpretiert hat und mit den „richtigen“, statistischen Methoden berechnet, die Zukunft viel schlimmer (als bisher publiziert) werden wird. Und wie so oft, wenn eine schlimme Klimaapokalypse zu verkünden ist, war auch Herr Rahmstorf (PIK) im Team dabei.
Die Studie kommt auch im EIKE-Artikel: Anstieg des Meeresspiegels: Nur Fakten, vor, doch soll hier auf eine Besprechung auf scinexx eingegangen werden.
scinexx.de:
[6] Meeresspiegel: Schnellster Anstieg seit 3.000 Jahren Bisher vollständigste Berechnung der klimabedingten Veränderungen des globalen Meeresspiegels
Jetzt ist es amtlich: Der globale Meeresspiegel ist im 20. Jahrhundert schneller angestiegen als jemals zuvor in den letzten 3.000 Jahren. Von 1900 bis 2000 stiegen die weltweiten Pegel um 14 Zentimeter. Gäbe es dagegen den anthropogenen Klimawandel nicht, wäre der Meeresspiegel vielleicht sogar gleichgeblieben, wie Forscher im Fachmagazin „Proceedings of the National Academy of Sciences“ berichten. Zudem wären allein den US-Küsten 4.000 Überschwemmungen seit 1950 erspart geblieben.
Dass die Meeresspiegel durch die globale Erwärmung ansteigen, ist mittlerweile sattsam bekannt. Unter anderem deshalb prognostizieren Klimaforscher zunehmende Überschwemmungen und selbst in den USA gehen schon die ersten Inseln unter.
Zudem wurde lange Zeit mit
falschen Basiswerten gerechnet, so dass sich erst kürzlich herausstellte, dass der Anstieg doch steiler ist als gedacht.
„Eine statistische Herausforderung“
Robert Kopp von der Rutgers University und seine Kollegen haben es nun dank komplexer Analysen erstmals geschafft, die Entwicklung des Meeresspiegels in den letzten 3.000 Jahren zu rekonstruieren. „Kein lokaler Pegelstand liefert uns den globalen Meeresspiegel“, erklärt Kopp. „Denn an jedem Standort wird der Wert von zahlreichen Prozessen beeinflusst, die ihn vom globalen Mittel abweichen lassen. Hieraus das globale Signal zu isolieren – das ist die statistische Herausforderung“
Wie sensibel der Ozean auf Klimaveränderungen reagiert, zeigt ein weiteres Ergebnis:
Zwischen den Jahren 1000 und 14000 sank der Meeresspiegel um rund acht Zentimeter ab, wie die Forscher feststellten. Diese Entwicklung trifft mit einer Phase zusammen, in der sich globale Klima um 0,2 Grad Celsius abkühlte. „Es ist erstaunlich, dass wir diese Pegelveränderungen sogar bei einer so schwachen Abkühlung sehen“, sagt Kopp.

Selbst allerschlimmste Fehler fallen einer Fachredaktion nicht auf

Im scinexx-Artikel steht (hier extra als screenshot, damit man es glaubt, sofern es doch noch von der Redaktion korrigiert werden sollte), dass der Meeresspiegel zwischen den Jahren 1.000 und 14.000 um rund 8 cm sank:

Bild 4 Screenshot aus dem scinexx Artikel [6] zur Studie [1]
Diese Textstelle liest sich in der Studie allerdings wie folgt:

[1] „ … with a notable decline over 10001400 CE coinciding with 0.2 °C of global cooling

Der Redakteur hat (sicher versehentlich) aus den richtigen 1.400 CE in der Studie falsche 14.000 CE getippt. Das kann jedem mal passieren. Nur lag der Meerespegel vor 14.000 Jahren wie allgemein bekannt um 80 m (und nicht 8 cm) tiefer und die Temperatur ebenfalls um fast 20 Grad (und nicht 0,2 Grad). Dass dieser – fast schon jedem Klimalaien sofort ins Auge springende – Fehler niemandem in der Redaktion aufgefallen ist (und keinen Leser zur Reklamation veranlasste), zeigt, welcher krasse Unsinn beim Klimawandel publiziert werden kann, ohne „anzuecken“.

Bild 5 Pegel- und Temperaturverlauf seit ca. 25.000 Jahren. Quelle: Zentralanstalt für Meteorologie und Geodynamik, ZAMG

Im Studienteam müssen wahre Rekonstruktionsgenies gewesen sein

Im scinexx Artikel steht: „Der globale Meeresspiegel ist im 20. Jahrhundert schneller angestiegen als jemals zuvor in den letzten 3.000 Jahren“. In der Studie selbst findet sich dazu das folgende Bild:

Bild 6 Die erste (angeblich) wirklich genaue Rekonstruktion des Meeresspiegelverlaufs seit 2400 Jahren. Quelle: [1]
Dieser „endlich ganz genaue berechnete Verlauf“ zeigt seit den letzten 2400 Jahren (bis ca. 1900) eine Spanne von gerade einmal ca. 15 cm.

Nun hat der Autor historische Pegelrekonstruktionen schon einmal in einer kleinen Analyse gesichtet und ist dabei zum Ergebnis gekommen, dass die Pegel-Änderungsspanne um Dimensionen höher ist, und schlimmer, aufgrund der katastrophalen Proxi-Ungenauigkeiten gar kein „wirklicher“ Global-Verlauf mit brauchbarer Genauigkeit rekonstruiert werden kann:
EIKE 07.04.2016: [5] Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

Daraus eine Proxy_Rekonstruktion (Bild 7), welche dem IPCC AR5 entstammt. Die Proxys überstreichen in diesem Zeitraum eine Spanne von mindestens 100 cm. Vor allem aber sind sie regellos verteilt (Verdacht, dass sie teils Zufallswerte darstellen). Jedenfalls lässt sich kein „wahrscheinlicher“ mittlerer Kurvenverlauf daraus berechnen, weil die notwendigen, statistischen Basisannahmen nicht erfüllt sind. Natürlich kommt im Rechner immer eine Mittelwert-Kurve heraus – nur stimmt sie nicht.

Bild 7 IPCC Proxibild der vergangenen 3000 Jahre (gestrichelte Linien durch den Autor ergänzt). 0 = Jahr 1950

Original-Bildtext: Figure 13.3 (a) Paleo sea level data for the last 3000 years from Northern and Southern Hemisphere sites

Der folgende Verlauf eines Proxys der Malediven, indischer Ozean (Bild 8) soll zeigen, wie leicht die Annahme, einen so steilen Pegelanstieg wie aktuell hätte es die letzten 3000 Jahre noch nie gegeben, auch falsch sein kann. Es fällt aber kaum auf, da die schnellen Änderungen in den vielen Mittelungen verschwinden.

Bild 8 [5] Fig. 1. Sea level curve for the last 5000 years for the Maldives.
Nun eine Tabelle mit den Pegeländerungen weltweit verteilter Proxis aus dem EIKE-Artikel (Bild 9). Die Pegel-Spannweiten der letzten 2000 Jahre liegen zwischen -1,4 … +3,2 m. Laut der ganz neuen Studie will man daraus mittels ganz moderner Statistik heraus bekommen haben, dass der globale Mittelwert in diesem Zeitraum um nicht mehr als 15 cm geschwankt hätte. Das ist mehr als absolut unglaubwürdig. Bei den katastrophal streuenden Daten lässt sich auch mit noch so viel „Statistik“ kein wahrer Mittelwertverlauf mit dieser Genauigkeit bestimmen, beziehungsweise belegen.

Bild 9 [5] Meerespegel-Verlaufsrekonstruktionen aus weltweit verteilten Pegelproxys (ohne Pegel Mittelmeer)
Zum angeblich so alarmistischen, jüngeren Pegelanstieg noch ein Link:

EIKE: Anstieg des Meeresspiegels: Nur Fakten
Nur weil der Meerespegel eben nicht alarmistisch ansteigt, wird mit immer neuen „bahnbrechenden, statistischen Analysen“ versucht, einen zu konstruieren.

Was sagte Herr Lesch

Die Aussage: H. Lesch: „ … auf diese Art und Weise ist es gelungen, eine klipp und klare Aussage darüber zu machen, dass die Meere in den letzten 100 Jahren so stark angestiegen sind wie in den letzten 3000 Jahren nicht mehr … und das ist klar, klipp und klar,
darf man bedenkenlos anzweifeln, da sie sich auf eine Studie bezieht, welche unseriöse und vielen anderen Analysen deutlich widersprechende Ergebnisse präsentiert. Klipp und klar ist nur, dass damit gar nichts klar ist.

Fazit

Herr Lesch hat inzwischen mehrere Vorträge zum Klimawandel „gedreht“. Es ist (für jemand dazu kritisch eingestellten) wirklich eine Qual, sich seine Darstellungen dazu anzusehen und zu hören. Man merkt dabei auch, wie wenig „Wissenschaftsvorträge“ nutzten, wenn keine Quellen bekannt gegeben werden.
Im Kern sind seine Vorträge dazu inzwischen zur reinen Agitation und Kanzelpredigt, moderner: Vermittlung einer Message, verkommen. Mit „Wahrheitsvermittlung“ haben sie jedenfalls rein gar nichts mehr zu tun. Vor Kurzem verkündet er inzwischen, beim Klimawandel gäbe es überhaupt keine Zweifel, was die (alarmistischen) Studien schreiben, wäre einfach „wahr“ und somit gäbe es dazu auch keinen Dissens mehr (die Rezension zu einem seiner Videos, in welchem er vor großem Publikum genau dies konkret sagt, erscheint noch).
Es fragt sich nur: Was treibt einen Professor dazu, sich sein Renommee selbst so konsequent kaputt zu machen? – Und, warum unsere Fernsehanstalten solche Ökokirchen-Predigersendungen als „Wissenschaft“ bringen.

Quellen

[1] R. E. Kopp et al. (mit S. Rahmstorf): Temperature-driven global sea-level variability in the Common Era

[2] ZDFHD, Video: Frag den Lesch – Neues aus der Klimaküche Quelle: YouTube, Veröffentlicht am 28.11.2016

[3] npj, Heidi J Smith at al., 8 June 2016: Biofilms on glacial surfaces: hotspots for biological activity

[4] Joel R. Norris at al., 11 July 2016: Evidence for climate change in the satellite cloud record

[5] EIKE 07.04.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

[6] scinexx.de: Meeresspiegel: Schnellster Anstieg seit 3.000 Jahren

[7] ScienceScepticalBlog: Die Top 5 Lügenmärchen der Klimaforscher
http://www.science-skeptical.de/klimawandel/die-top-5-luegenmaerchen-der-klimaforscher/0015719/