1

Medien wollen „klickbaren Horror“– jetzt kommen die „Dürrekatastrophen“

Aufhänger für europäische Leser und Zuschauer ist der ungewöhnlich heiße und trockene Sommer 2018, der natürlich ein Beweis für die Heißzeit sei, wohingegen die eiskalten Winter vorher und nachher selbstverständlich keine Gegenbeweise seien. Am Freitag flatterte mir ein Bericht des Klimaretter-Magazins Die Welt über die angebliche Austrocknung Andalusiens auf den Bildschirm, die die dortigen Obstbauern bedroht. Das ist für Mitteleuropa relevant, weil all das spanische Obst in unseren Supermärkten daher kommt. (Lesen Sie die Kommentare! Die sind besser als das Geschreibsel des Welt-Aktivisten.)

Bei einer Umfrage zum Thema bei unserer Redaktionskonferenz meldete sich unser Vizepräsident Michael Limburg mit der Information, daß Spanien gebirgiger als die Schweiz sei. Die Berge reichen meist bis an die Küste, so daß fruchtbare Ebenen im Lande sowieso rar sind. Heißt, Spanien besteht natürlicherweise zu großen Teilen aus (Stein-)Wüste. Immer schon, zu Cäsars Zeiten, zu Kalifs Zeiten, zu Isabellas Zeiten, und zu Gretas Zeiten.

Der Europäische Rechnungshof (EU, was will man erwarten) tut sich trotzdem als Klimaforschungsanstalt hervor:

…Laut einem Sonderbericht des Europäischen Rechnungshofs vom Dezember 2018 könnten drei Viertel der Landesfläche Spaniens bald Wüste sein. Das macht Spanien zu einem der vom Klimawandel am stärksten betroffenen Länder Europas

Gut, der iberische Boden ist eine Wüstenei. Wie sieht es mit dem Wasser aus? Kollege Limburg war zum Osterfest in Spanien und erlebte „sintflutartige Regenfälle“. Die übervollen Wasserreservoire mussten sogar ableiten. Hoffentlich fahren viele Tagesschau-Gucker nach Spanien in Urlaub und sehen das auch….

Kollege Chris Frey packte mir zum Thema Dürre gleich einen ganzen Stapel von erfundenen Katastrophen und Gegenbeweisen auf den Tisch, die zum Teil schon Jahre alt sind. Der politmediale Komplex rechnet offenbar mit der Vergeßlichkeit der Leser und Wähler, und zwar völlig zu Recht.

Eine Auswahl:

Wir kleinen verfemten Klimaleugner aus der thüringischen Provinz sind zum Glück nicht die einzigen Zweifler, die versuchen, Stöcke in das Schwungrad der Bürgertäuschung zu werfen. Der ehemalige Chef-Wetterfrosch der ARD, Jörg Kachelmann, sagt am Freitag auf Twitter und im eigentlich linken Organ Meedia:

„Über 90 Prozent aller Geschichten zu Wetter und Klima sind falsch oder erfunden.“

Konkret zu den Dürrewarnungen aus FAZ, Bild, ARD:

„frei erfunden“.

Der Deutsche Wetterdienst DWD, der von den Qualitätsmedien als Quelle angegeben wird, habe nie vor einer Dürre gewarnt:

„Das ist eine Lüge“

, die Deutsche Presseagentur dpa habe „zugedichtet“. Eine erfolgte Korrektur sei ignoriert worden, weil die Medien

„klickbaren Horror“

wollten. Für Kachelmann sei der Dürrekatastrophenquatsch vom 24. April „ein Dammbruch“. Eine klare Lüge sei trotz zahlreicher Widersprüche über 24 Stunden in etlichen Medien aufrechterhalten und auch noch verbreitet worden. Auch am Freitag habe es noch nicht aufgehört.

Zum Problem der „Lügenpresse“ gefragt, sagt Kachelmann:

„Was die Berichterstattung zu naturwissenschaftlichen Themen angeht, erlebe ich eine Verkommenheit weiter Teile des Medienbetriebes, die mich beelendet.“

[kein Schreibfehler, es geht um Elend]

„…tunlichst ignorieren, was dpa und andere […] mit deren [DWD] Inhalten machen.“

Eine Ergänzung von mir dazu: Entweder man schaut heute die Tagesschau wie früher die gelernten DDR-Bürger die Aktuelle Kamera. Dazu muß man bei jeder Meldung gründlich rätseln, was davon stimmen könnte, was davon tendenziös dargestellt wurde, und welche entscheidenden Aspekte gezielt verschwiegen wurden.

Oder man läßt es schlicht sein. Wer heutzutage noch die Quantitätsmedien und sein Regionalblättchen nur kurz und oberflächlich konsumiert, kann sich sicher sein, bei fast allen Themen manipulierte Meldungen zu erhalten. Sogar beim Wetter! Da ist es besser, nichts zu lesen oder zu schauen.

Wer nichts weiß, ist klüger, als jemand, der nur Lügen kennt.




Offener Brief zum Klimawandel und zur Klimapolitik, 1 v. 3

Dieser Brief wurde ursprünglich vom dänischen Geologen Prof. em. Dr. Johannes Krüger an den dänischen Premierminister Lars Løkke Rasmussen gerichtet. Anschließend wurde der Brief ins Norwegische übersetzt und – mit geringfügigen Änderungen – an die norwegische Ministerpräsidentin Erna Solberg gerichtet, zusammen mit den Unterschriften von 20 norwegischen Wissenschaftlern, die allesamt Klimaforscher sind.

– – –

Afs. Johannes Krüger
Professor emeritus, dr. scient.
Institut for Geovidenskab og Naturforvaltning
Københavns Universitet
Geocenter Danmark
Øster Voldgade 10
DK-1350 Copenhagen K

12 März, 2019

Statsminister Lars Løkke Rasmussen
Statsministeriet
Prins Jørgens Gård 11
1218 København K

Die Medien sind mit Berichten über das Scheitern des Gesundheitssystems, den Missbrauch von Sozialgeldern und anderen ähnlichen Berichten überschwemmt. Diese Berichte sind oft ans Licht gekommen, weil Journalisten entschlossen waren, die richtigen Fragen zu stellen. Kürzlich erhielten drei Journalisten den Cavling-Preis für die Offenlegung der Beteiligung der dänischen Bank an einem Geldwäscheskandal in Höhe von 200 Mrd. €.

Geht es jedoch um Klimawandel und globale Erwärmung, dann lehnen die Medien es ab, sich eingehend mit investigativem Journalismus zu beschäftigen. Sie verlassen sich fast ausschließlich auf sogenannte Klimaexperten, die so tun, als würden sie die gesamte wissenschaftliche Gemeinschaft vertreten. Es gibt mehrere Beispiele extremer Äußerungen über den Klimawandel, die von den Medien unkritisch übernommen werden oder dass Journalisten die Medien als Plattform für Klimakampagnen und Aktivismus nutzen. Zum Beispiel lies ein Moderator kategorisch ein ernstes Gegenargument nicht zu, geschehen in einer Debatte zu „Klimarealismus lehnt die Verantwortung ab“ (in Kristeligt Dagblads Ethisk, 4. Februar 2019). Das dabei die Regeln für eine gute Medienethik verletzt werden, scheint nicht zu stören. Die Aufmerksamkeit der Medien richtet sich fast ausschließlich auf diejenigen, die die Behauptungen des IPCC der Vereinten Nationen (UNCC) unterstützen [und hier besonders die vom Bericht der Arbeitsgruppen ”unbeeinflusste”  Zusammenfassung für Entscheidungsträger und Politiker, Einschub des Übersetzers]

Die Frage nach der Ursache des heutigen Klimawandels und seinen zahlreichen Auswirkungen ist weitaus umstrittener, als es vom IPCC und den Nachrichtenmedien vertreten wird. Denn die wissenschaftlichen Messungen und Beobachtungen [der Realität] zeigen etwas, das sich vom Ergebnis der unzulänglichen computergenerierten Klimamodelle unterscheidet. Politiker sind jedoch nicht in der Lage, diese Informationen zu verstehen und als Grundlage für eine rationale Entscheidungsfindung zu verwenden, weil sie relevante Erkenntnisse ignorieren. Dies ist darauf zurückzuführen, dass das politische Umfeld ebenso wie die Medienwelt stark durch Gruppendenken und Selbstzensur geprägt ist [-political correctness].

Ich war schockiert, als mir ein Schüler der 9. Klasse erzählte, dass er sich entschlossen hatte, eine Ausarbeitung über die stark eingeschränkte Redefreiheit in der Klimadebatte zu schreiben (alle anderen in der Klasse schrieben über die schädlichen Auswirkungen von CO2). Der begabte Student hatte ein Interview mit einem der Klimasprecher in Christiansborg (dänisches Parlament) über die globale Erwärmung. Er war entsetzt darüber, dass der betreffende Politiker die CO2-Emissionen nur als reines Übel darstellte.

Deshalb wende ich mich an Sie und andere ausgewählte Politiker in der Hoffnung, dass Sie sich zum Lesen des Folgenden einige Zeit in Anspruch nehmen werden. Ich bin sicher, dass es Ihnen nützliche Denkanstöße geben wird. Wir stehen vor Parlamentswahlen, bei denen die Klimaproblematik auf der Tagesordnung steht und einer gründlichen Überarbeitung bedarf.

Die Zurückhaltung der Medien und der Politik, sich über Ergebnisse der internationalen Forschung zu informieren, welche nicht mit der Botschaft des IPCC übereinstimmen, wird sicherlich verstärkt, durch die wiederholte Verbreitung unhaltbarer Behauptungen: Wie z.B. das 97% der Klimaforscher der Ansicht wären, dass der größte Teil der globalen Erwärmung von Menschen verursacht werden würde (AGW = Anthropogenic Global Warming) und dass es katastrophale Folgen für den Planeten haben wird, wenn wir nicht handeln.

Die Medien verkündeten die Behauptung von 97% Konsens, als ob jegliche globale Erwärmung von Menschen gemacht sei. Dieses Bild stammt insbesondere aus einem Artikel von J. Cook et al. (2013): ): ‚Quantifying the consensus on anthropogenic global warming in the scientific literature‘ [„Quantifizierung des Konsenses über die anthropogene globale Erwärmung in der wissenschaftlichen Literatur“], in der die Autoren 11.944 Zusammenfassungen von Artikeln zum globalen Klimawandel und zur globalen Erwärmung in vier Kategorien klassifiziert haben. Von diesen Zusammenfassungen nahmen 7.930 keine Stellung zu AGW und wurden aussortiert. 3.896 folgten der Behauptung  von AGW oder lehnten sie nicht ab, während  118 AGW ablehnten oder Zweifel daran äußerten. Vor diesem Hintergrund schlussfolgern Cook et al., dass 97% der Klimawissenschaftler die AGW-Hypothese unterstützen.

Diese Geschichte, die eigentlich keinen Platz in einer ernsthaften Klimadiskussion [unter Wissenschaftlern] verdient, steht im Mittelpunkt von B. Shollenberger in: The Climate Wars: How the Consensus is Enforced  [„Die Klimakriege – wie der Konsens durchgesetzt wird“] und von A. Montford Full paper (pdf) – Fraud, Bias And Public Relations: The 97% ‘Consensus’ And Its Critics [„Betrug, Voreingenommenheit und Öffentlichkeitsarbeit – der 97% Konsens und seine Kritiker‘]

[Stellungnahmen auf WUWT, auf Eike, und sogar der Spiegel schreibt ausgewogen]

 Cooks Ausarbeitung ist irreführend. Zum einen, weil es nicht hinnehmbar ist, 7.930 relevante Klimastudien zu verwerfen, und zum anderen, weil Cooks Daten, deren Zugang zunächst untersagt wurde, weil der Computer angeblich zusammengebrochen wäre, tatsächlich nur 41 Artikel enthielten, die die Behauptung von AGW bedingungslos unterstützten. Denn es stellte sich heraus, dass die Gruppe von 3.896, die anscheinend die Behauptung von AGW unterstützt hat, auch Wissenschaftler umfasst, die glauben, dass der Mensch nur 20–30% zur globalen Erwärmung beiträgt, und – was noch schlimmer ist – sogar so genannte Skeptiker, die glauben, dass der menschliche Beitrag nur wenige Prozent beträgt. Ein Fehler der Zugangssicherung auf einer Webseite enthüllte, dass Cooks Artikel ursprünglich [nur] auf die Medien abzielte – um tatsächlich unkritische Journalisten als Botschafter zu verwenden. Aber Cooks Artikel ist manipulativ. Es ist, als würde man aus einem Maulwurfshügel einen Berg machen.

Der Konsensanspruch von 97% lauert noch immer und wird nicht nur verwendet, um Skeptiker abzulehnen und jede ernsthafte Klimadebatte zu blockieren, sondern auch um ein wissenschaftliches Alibi für politische Entscheidungen zu schaffen. Die ehemalige norwegische Premierministerin Gro Harlem Brundtland erklärte: „Im Klimafall ist es unmoralisch zu zweifeln.“ Aber Zweifel sind genau das Markenzeichen der Wissenschaft, während Anti-Skeptizismus Pseudowissenschaft ist und die Redefreiheit und eine gesunde Demokratie herausfordert.

Das IPCC wird von vielen als das Orakel des Klimawandels wahrgenommen. Das IPCC ist jedoch eine politische Organisation, die von Politikern ernannt wurde und mit dem Mandat beauftragt ist, Politiker in Bezug auf die „Klimapolitik“ zu beraten, und die Verbindung mit den menschlichen CO2-Emissionen nicht in Zweifel zu stellen. Rupert Darwall hat die Ursprünge des IPCC untersucht. Sein Fazit: Das IPCC ist eine Organisation, die sich selbst überprüft. Politiker üben die Kontrolle über ihre wissenschaftlichen Berichte aus, die untermauert werden müssen und gleichzeitig ein Alibi für politische Entscheidungen sind. Die Schlussfolgerungen der Zusammenfassung für politische Entscheidungsträger [werden durch grüne Aktivisten und Funktionäre vorgegeben, wie von Donna Laframboise ausführlich recherchiert wurde]  richten sich an Politiker und Nachrichtenmedien. Die Wissenschaftler, die den IPCC-Prozess dominieren, verhalten sich daher eher wie Politiker anstatt als unabhängige Wissenschaftler und sind sich sehr wohl bewusst, dass ihre Daten und Schlussfolgerungen gravierende Probleme haben.

Dies wurde von Chris Landsea in einem offenen Brief enthüllt, als er sich aus Protest gegen den Umgang des IPCC mit dem Thema der Statistik von Stürmen, die „auf vorgefertigten Agenden beruht und wissenschaftlich unzuverlässig ist“, aus der Hauptautorenschaft beim IPCC zurückzog. Diese und andere Manipulationen wurden auch aus den durchgesickerten E-Mails des sogenannten Climategate im Jahr 2009 ersichtlich, einem Skandal, der anschließend geschickt unter den Teppich gekehrt wurde.

Politik, Wissenschaft und besondere Interessen vermischen sich so zu einem gefährlichen Cocktail, der zu einem weit verbreiteten Denken und Selbstzensur der Gruppe geführt hat. 154 Regierungen unterzeichneten die Erklärung von Rio im Jahr 1992, in der auf äußerst schwachen wissenschaftlichen Grundlagen behauptet wurde, dass die CO2-Emissionen des Menschen die Ursache der globalen Erwärmung sind. Dies ist der Ursprung einer klimapolitischen Agenda und etwas völlig Unbekanntes: die Schlussfolgerung der wissenschaftlichen Untersuchung wurde vorher festgelegt. Seitdem hat das IPCC zur zunehmenden Politisierung der wissenschaftlichen Disziplin beigetragen. Die gesamte Agenda der Klima- und Energiepolitik basiert auf der Ansicht [dem Dogma] – dass CO2 die Ursache für alles Mögliche ist. Die Überprüfung des Geschehens ist daher eine wichtige soziale Aufgabe, wenn man die aufgeklärte Demokratie stärken will.

Im Folgenden werden einige konkrete Beispiele für Tatsachenbeobachtungen und robuste Forschungsergebnisse angeführt, die für den IPCC unbequem sind und denen sich Politiker und die Öffentlichkeit nicht bewusst sind. Es ist kein Überblick über emotional aufgeladene Briefe, Beiträge zur hitzigen Debatte oder die Auswirkungen des Klimaalarmismus auf Kinder, Enkelkinder und die aussichtslose Zukunft unseres Planeten. Es konzentriert sich stattdessen auf Beobachtungen und Fakten.

 

„Hot Spot“ – menschlicher Fingerabdruck zur globalen Erwärmung!

Im IPCC-Bericht von 2007 wird argumentiert, dass steigende Treibhausgasemissionen die Ursache für die globale Erwärmung sind und dass die Modelle zeigen, dass sich die Erwärmung in einem „Hot Spot“ in einem weiten Bereich über dem Äquator in einer Höhe von 8 bis 12 km manifestieren würde. Es wird angenommen, dass sich aufgrund der erhöhten CO2-Konzentration in der Atmosphäre das Gleichgewicht zwischen kurzwelliger Sonnenstrahlung und der langwellig aus der Erde austretenden Strahlung auf ein höheres Niveau in der Atmosphäre in eine kältere Schicht bewegt. Diese Schicht wird anschließend aufgewärmt, um das Gleichgewicht zu halten. Den Modellen zufolge sollte die Atmosphäre über dem Äquator fast doppelt so schnell erwärmt werden wie die Erdoberfläche, wodurch sich in der oberen Troposphäre ein „Hot Spot“ entwickeln könnte. Wie in Abbildung 1 dargestellt, entspricht die vorhergesagte Erwärmung jedoch nicht der Realität. Daten von Ballonen seit 1958 und von Satelliten seit 1979 zeigen in höheren Lagen einen viel geringeren Temperaturanstieg als auf Bodenhöhe. Was laut IPCC ein deutliches Signal für die besorgniserregende Wirkung der anthropogenen CO2-Emission sein sollte, das zeigt sich nicht.Abbildung 1: Ein entscheidender Punkt in der CO2-Hypothese geht davon aus, dass die Atmosphäre in 8–12 km Höhe über den Tropen etwa doppelt so schnell wie die Bodenoberfläche erwärmt wird und einen „Hot Spot“ erzeugt. Wie in der Abbildung gezeigt, besteht jedoch eine erhebliche Diskrepanz zwischen den Ergebnissen der Klimamodelle des IPCC und der Realität. Quelle: Douglas et al. International Journal of Climatology 2008. Grafiken: O. Humlum.

Fehler und Unsicherheiten in den IPCC-Klimamodellen

Die vom IPCC-Projekt verwendeten Klimamodelle prognostizieren drastische globale Temperaturanstiege, Meeresspiegelanstiege und andere schädliche Auswirkungen in den nächsten 100 Jahren aufgrund der CO2-Emissionen des Menschen. Nach Angaben des IPCC ist der gesamte Temperaturanstieg nach 1970 auf einen erhöhten Treibhauseffekt zurückzuführen, ohne den die Temperatur gesunken wäre. Es ist jedoch eine Pseudo-Wissenschaft, wenn das IPCC behauptet, dass die Klimamodelle richtig sind – die Software-Modelle berücksichtigen die wesentlichen Aspekte des komplexen Klimasystems nicht und stimmen mit den beobachteten Temperaturen nie überein. Konsequenterweise glauben viele Forscher daher, dass natürliche Klimaschwankungen die treibenden Kräfte des globalen Klimawandels [sind und] bleiben.

Um ein Klimamodell als Grundlage für politische Entscheidungen verwenden zu können, muss sichergestellt werden, dass ein Modell alle Hauptfaktoren des komplexen Klimasystems enthält. Wissenschaftler auf der ganzen Welt können jedoch eine lange Liste von physikalischen und chemischen Prozessen bereitstellen, die nicht vollständig verstanden werden und daher in den Klimamodellen entweder weggelassen oder nur unzureichend dargestellt werden. Daher stimmen die Ergebnisse der Klimasimulationen nicht mit den beobachteten Daten überein. Dies gilt zum Beispiel für Cloud-Formationen, die auf räumlicher Ebene stattfinden, was viel zu klein [und damit zu umfangreich] ist, als das selbst Supercomputer damit umgehen können. Dies gilt auch für viele natürliche Schwankungen des Klimasystems über einen langen Zeitraum und für Probleme, die ein so wichtiges Element wie den Strahlungsausgleich der Erde simulieren.

Unsicherheit besteht auch hinsichtlich der Bedeutung der Aerosolkonzentration der Atmosphäre. Diese Staubkörner können die Albedo der Sonnenstrahlung erhöhen und die Erde abkühlen lassen. Aerosole können jedoch auch Wärme von Sonnenstrahlen absorbieren und so die Bildung von Wolken verhindern. Viele dieser Prozesse sind nicht ausreichend quantifiziert und gehören daher zu den größten Herausforderungen für Klimamodellierer. Die Modellbauer selbst sind sich natürlich der Beschränkungen ihrer Modelle bewusst, aber politische Entscheidungsträger und die Öffentlichkeit sind sich dessen nicht bewusst [oder wollen nichts davon wissen].Abbildung 2. Sowohl das Modell von James Hansen als auch das Modell im 3. IPCC-Bericht aus dem Jahr 2001 weichen von den Beobachtungen ab, die durch die grüne Kurve dargestellt werden. Sie zeigt den Trend der globalen Jahrestemperatur 1980–2014 als gleitender Durchschnitt der monatlichen Durchschnittswerte aus den drei am häufigsten verwendeten Datensätzen. Bis etwa 2002 steigt die Temperatur allmählich an, danach hört der globale Temperaturanstieg auf. Quelle: University of Alabama in Huntsville, USA (UAH), Fernerkundungssystem, USA (RSS) und Hadley Center für Klimavorhersagen und -forschung an der Climate Research Unit der University of East Anglia, Großbritannien (HadCRUT).

Abbildung 3. Vergleich zwischen Beobachtungen von Ballonen und Satelliten und dem Durchschnitt der Temperaturabweichung von 102 Klimamodellen ab 1979 bei 5–6 km über den Tropen für den Zeitraum 1979–2016. Die Grafik wurde von Atmosphärenforscher John Christy während einer Anhörung im US-Repräsentantenhaus präsentiert. Quelle: J. R. Christy 2017: Annahmen, politische Implikationen und die wissenschaftliche Methode. Climate Science.

Wie in Abbildung 2 dargestellt, konnte keines der IPCC-Klimamodelle die tatsächlichen globalen Temperaturen projizieren. Eine andere Projektion, die ebenfalls fehlschlägt, ist in Abbildung 3 dargestellt. Sie zeigt eine vereinfachte Version eines Diagramms, das von den US-Atmosphärenforschern J. Christy während einer Anhörung des Senats im Repräsentantenhaus am 29. März 2017 in den Vereinigten Staaten präsentiert wurde und die Gültigkeit der Klimamodelle des IPCC in Frage stellte. Es zeigt eine zunehmende Divergenz zwischen Modellen und Beobachtungen. Keines der IPCC-Klimamodelle hat seit 2000 die „Erwärmungspause“ projiziert.

Ende Teil 1 von 3

Übersetzung durch Andreas Demmig

01.05.2019 Korrektur Tippfehler

 

Eine niederländische Übersetzung der norwegischen Version wurde auf Climategate.nl veröffentlicht:

Open brief Noorse klimaatrealisten aan premier Erna Solberg




Die größte Steuererhöhung des Jahrhunderts

Trotzdem reibt sich die Politik schon unterm Bundestags-Tisch die Hände: Endlich kann die Groko die Welt retten und dabei noch Geld ins immerklamme Staatssäckel kriegen. Richtig viel Geld, dass dann für die Rettung der Welt mit vollen Händen ausgegeben werden kann. Eine politische Win-Win-Situation. Deswegen unterstützen sie auch die Schulschwänzer, die eine Funktion übernommen haben, für die man noch vor einem Jahr extra eine Ethikkommission einsetzen musste.

Seit einigen Wochen wird die Einführung einer CO2-Steuer „diskutiert“. Na ja, nicht mit den Bürgern, sondern eher untereinander, so von Fraktion zu Fraktion. Dabei geht es eigentlich nur noch um die Höhe der Steuer und wie man das als „sozialverträglich“ verkaufen kann. Die Linkesten sind eher für 50 Euro pro Tonne CO2-Ausstoss – „sonst wirkt es nicht“. Die weniger Linkesten sind für 20 Euro pro Tonne – „sonst merken es die Leute zu sehr“. Alle zusammen sind natürlich für sozialen Ausgleich der Mehrkosten für unsere Bürger – „für mehr Gerechtigkeit“. Wie das gehen soll? Das wissen sie auch nicht. Vielleicht wird ja für soziale Leistungsbezieher das Dieselprivileg erhalten.

Also – eine solche Steuer auf CO2 ist die Erfindung des Steuer-Perpetuum mobiles. So genial etwa, wie die Mehrwertsteuer, nur eben obendrauf. Oder hat schon mal jemand irgendetwas gekauft, für dessen Herstellung kein CO2 ausgestoßen wurde? Sprich – keine Energie eingesetzt wurde?

Ein ganzes Heer von CO2-Ausstoß-Berechnern

Am Bürger Normalverbraucher geht derzeit noch die ganze Diskussion vorbei, weil noch kaum jemand die Tragweite einer CO2-Steuer erfasst hat. Alles wird nämlich teurer, natürlich bezahlt von schon versteuerten Einnahmen. Ich nenne mal ein paar Beispiele, was so auf die CO2-Steuerzahler zukommen könnte – immer zwei Zahlen je für 20 und 50 Euro pro Tonne als Berechnungsgrundlage:

Ein Tank voll Benzin wird nur 3 bis 7 Euro teurer. Aber eine Tesla Batterie wird 350 bis 800 Euro teurer. Die Produktion eines Golfs erzeugt vier Tonnen CO2, das macht 80 bis 200 Euro auf den Preis. Wobei mir die vier Tonnen eher spanisch vorkommen: vielleicht hat ja VW eine CO2-Abschalt-Software erfunden?

Ein Flug nach Mallorca produziert knapp eine Tonne CO2. Der Ballermann-Reisende ist mit 20 bis 50 Euro plus dabei. Dafür kriegt er vielleicht die Sektsteuer erstattet – auf Antrag beim Amt. Ein Flug von Frankfurt nach New-York macht vier Tonnen in der Holzklasse, also wird er 80 bis 200 € teurer. Auf dieser Linie gibt es aus Gerechtigkeitsgründen keine Sektsteuererstattung.

Achtung, liebe Karnivoren: Ein Kilo Fleisch entspricht 36 Kilo CO2. Folgerichtig wird es rund 10 bis 25 Cent teurer. Der Verbrauch pro Jahr so um 60 kg, macht 6 bis 15 Euro pro Jahr und Kopf. Dieses Kleinvieh macht für den Staat bis zu 1,2 Milliarden. Aber auch die lieben Vegetarier sind betroffen: Soja!!! – pures CO2. Und es ist noch lange nicht erwiesen, dass sich Veganer 100 Prozent klimaneutral ernähren. Da muss der Professor Sinn nochmal ran.

Der Knaller: Die Internet-CO2-Steuer

Vom Brötchen bis zum Kondom mit Kirschgeschmack, alles erzeugt bei der Herstellung CO2 und muss deshalb zur Verhinderung des Weltuntergangs besteuert werden. Findige Politiker denken schon übers Ausatmen nach.

Doch nun kommt der Knaller für unsere Freitagshüpfer: Die Internet-Nutzung wird unbezahlbar. Warum? „Der CO2-Ausstoß aller Serverfarmen und Rechenzentren ist höher als der aller weltweiten Fluggesellschaften“, sagte Reinhard Ploss, Vorstandsvorsitzender des Chipherstellers Infineon. Allein der Stromverbrauch des Internets verursacht so viel CO2 wie der weltweite Flugverkehr.

Bereits im Jahr 2005 wurden rechnerisch rund zwanzig Eintausend-Megawatt-Großkraftwerke allein dafür benötigt, um den Strombedarf des Internets und der zugehörigen Datenzentren zu decken. Also gibt’s folgerichtig wohl eine Internet-CO2-Steuer, basierend auf konsumierten Datenmengen. Nix mehr mit Musik streamen und Instagram gucken. Und bestimmte Plattformen, die sowieso nur Fake-News produzieren, können von der Politik schon allein aus Umweltschutzgründen verboten werden – Vorteile über Vorteile.

Diese ganzen Zahlen sagen jedoch nichts aus, wenn man sie nicht in Beziehung zum wahren Leben setzt. So liegt der durchschnittliche jährliche CO2-Ausstoß in Deutschland laut Umweltbundesamt bei zirka 10 Tonnen pro Kopf. Experten sagen: Will man den Temperaturanstieg um mehr als zwei Grad in diesem Jahrhundert verhindern, ist es nötig, diesen Ausstoß auf eine Tonne (!!!) Treibhausgas pro Kopf bis zum Jahr 2050 zu reduzieren.

Da bietet es sich förmlich an, jedem Bürger aus Gründen der Gerechtigkeit ein monatliches CO2-Guthaben zuzuteilen. Da guglt Ihr aber dumm aus der Wäsche, liebe #Felidwgugler. Nach dieser Rechnung wäre nämlich fürs Fliegen zum Eisschlecken nach Florida, fürs Internet zum Schmuddelfilme gucken, fürs lecker Schnitzel essen und danach genüsslich Rülpsen sowie für alle möglichen anderen lieb gewordenen Gewohnheiten in Zukunft praktisch Ende Gelände.

Ein Kilo Schnitzelfleisch? Sorry, nur noch 30 Kilo CO2 auf Ihrem Guthaben… Doch keine Angst, für Bundestagsabgeordnete, Klimawissenschaftler und Nationalpreisträger gibt es Sonderkontingente.

Der Beitrag erschien zuerst bei ACHGUT




Claudia Roth auf Forschungsreise zum Klimawandel

41.000 Flugkilometer Strapazen fürs Klima

Während der normale Bürger auf Flugreisen bald ganz verzichten soll, ist es klar, dass die, welche den Verzicht begründen, besonders viel fliegen müssen, um überall dorthin zu gelangen, wo sich Begründungen dazu finden. So wie Greta mit Bahn und Schiff, ergänzt mit einem Elektroauto, von Veranstaltung zu Veranstaltung oder Demo kutschiert, würde es für wirkliche Klimaretter viel zu viel ihrer wertvollen Zeit kosten. Zum Glück bekommen die Klimaspezialisten auf Forschungsexkurs auch Business-Class, so dass sich deren Unbequemlichkeiten beim notwendigen weit-Fliegen in Grenzen halten.

Und so hat sich eine hochkarätige Spezialistentruppe aus Berlin auf den Weg und ungefähr 41.000 Flugkilometer in die hintersten Winkel unseres Planeten aufgemacht, um mit eigenen Augen dem schlimmen Klimawandel sozusagen direkt ins Gesicht zu schauen. Was und warum, steht auf der Homepage von C. Roth beschrieben:
Claudia Roth: [2] … Claudia Roth reiste zusammen mit Prof. Dr. Matthias Zimmer (CDU) und Dr. Frithjof Schmidt (Bündnis 90/Die Grünen) in die besonders von der Klimakrise betroffenen Länder Bangladesch, Kiribati und Fidschi. Dort suchte sie den Austausch mit Entscheidungsträger*innen, Betroffenen, Wissenschaftler*innen und der Zivilgesellschaft. Die Delegation machte sich vor Ort eindrücklich ein Bild davon, wie schon heute Millionen von Menschen zu Vertriebenen werden, Orte und ganze Inselstaaten durch den ansteigenden Meeresspiegel bedroht sind – und vor welch enormen existenziellen, finanziellen und logistischen Herausforderungen die Menschen stehen …

Diese Klimawandel-Spezialtruppe bestand demnach aus drei, besonders mit dem Klimawandel betrauten Personen:
Frau C. Roth: Bundestags-Vizepräsidentin, ausgewiesene Abbrecherin jeglicher seriösen Ausbildung, aber Beispiel für „gelebte“ Resozialisierungschancen im Politikbetrieb durch Hieven in lukrative Staatsämter,
Prof. Dr. Matthias Zimmer (CDU): Politikwissenschaftler, Neuere Geschichte, Völkerrecht. Vorsitzender Ausschuss für Menschenrechte und humanitäre Hilfe, ordentliches Mitglied im Ausschuss für Menschenrechte und humanitäre Hilfe, im Ausschuss für Arbeit und Soziales, stellvertretendes Mitglied im Ausschuss für Umwelt, Naturschutz, Bau und Reaktorsicherheit, Ausschuss für Gesundheit.
Dr. Frithjof Schmidt (Bündnis 90/Die Grünen): Sozialwissenschaftler, Publizistik und Germanistik. Obmann im Unterausschuss Vereinte Nationen, internationale Organisationen und Globalisierung, ordentliches Mitglied im Auswärtigen Ausschuss, stellvertretendes Mitglied im Verteidigungsausschuss.

Wer meint, es wäre vielleicht eine Privatreise auf Kosten der Steuerzahler gewesen, irrt. Neben dem Drang zur Erlangung aktuellen Klima-Folgenwissens lag eine Einladung der parlamentarischen Versammlung von Fidschi vor [1]. Wie jeder verstehen wird, darf so etwas genau so wenig ignoriert werden, wie beispielsweise die erwartete (und bekommene) Gratulation zum 40. Jahrestag der blutigen Revolution im Iran [11]. Schließlich legt auch die Regierung von Fidschi höchsten Wert darauf, (zur Sicherstellung der künftigen Zahlungen aus dem Klimahilfsfonds) regelmäßig von ausgewiesenen, westlichen Befürwortern der CO2-Klimakirche besucht zu werden.

Um die unvermeidbaren Reise-Ausgaben zu optimieren, wurden an diese Forschungsexkursion zusätzliche, höchst strapaziöse Brennpunktbesichtigungen in Bangladesch und Kiribati angehängt, Zwischenstopps im australischen Brisbane, auf den Salomonen und Nauru waren ebenfalls erforderlich. Alles in allem eine Exkursion, die sicher niemand, außer um das Wohl des Klimas besonders besorgte und vorbereitete Parlamentarier durchführen würden.

Bild 1 C. Roth wohl beim Fachsimpeln über Klimawandelprobleme. Screenshot von der Homepage [2]

Das Exkursionsergebnis: Alle schlimmen Ahnungen wurden bestätigt

Zurückgekommen, musste die Fachtruppe leider berichten, dass sich auf dieser Reise alle schlimmen Vorahnungen bestätigt haben. Wirklich jeder Befragte oder Mitteilsame in den bereisten Ländern wusste über schlimme Auswirkungen zu berichten. Wie schlimm es bereits ist, kann man auf der Homepage von C. Roth neben dem Textbeitrag augenscheinlich anhand einer zusätzlichen Bilderstrecke – wohl die Ausbeute dieser Forschungsexkursion – erkennen:
Claudia Roth: [2]Eines machte die Reise besonders deutlich: Die Dringlichkeit, unverzüglich global umzusteuern, das Pariser Klimaabkommen umzusetzen und die globale Erderwärmung  auf 1.5°C zu reduzieren muss oberste Priorität erlangen, wenn wir das Schlimmste noch verhindern wollen. Nur durch radikalen Klimaschutz können irreversible Kettenreaktionen im Erdsystem und damit weitreichende Auswirkungen auf die Überlebensbedingungen und die Menschenrechte weltweit verhindert werden. Zugleich benötigen die schon heute besonders betroffenen Regionen und Menschen konkrete Unterstützung in der Anpassung und der Bewältigung bestehender Schäden.

Dazu ein Auszug der an den Reisebericht angehängten Belegbilder, welche die Klimawandel-Dramatik schildern:

Bild 2 Auszug aus der Bildfolge zum Bericht [2]
Bild 3 Auszug aus der Bildfolge zum Bericht [2]
Bild 4 Auszug aus der Bildfolge zum Bericht [2]
Bild 5 Auszug aus der Bildfolge zum Bericht [2]
Bild 6 Auszug aus der Bildfolge zum Bericht [2]

Wenn Viele wenig Wissen, addiert es sich nicht

Es ist statistisch ableitbar, dass drei Personen mit – sagen wir einmal ganz, ganz großzügig, je 50 % Wissen – in Summe nicht 150 %, sondern im Gegenteil, insgesamt erheblich weniger als 50 % „Wissen“ ergeben. Denn Wissen addiert sich statistisch nicht, sondern muss multipliziert werden. Unabhängig von der Statistik lassen sich dafür aber auch andere Begründungen finden: Sie sind ideologisch „vorgepolt“ und glauben unbesehen alles, was man ihnen erzählt. Und sie blockieren sich gegenseitig dabei, eventuell an neues Wissen zu gelangen. Und genau so ist es wohl auch gekommen.
Zudem hat diese Fachgruppe es anscheinend auch nicht für erforderlich gehalten, sich wenigstens minimal mit Daten zu versorgen und sich fachbezogen auf die Exkursion vorzubereiten. Als Folge konnte (und wollte) anscheinend niemand aus dieser „Power-“Truppe Fragen stellen, welche zu wirklichen Erkenntnisgewinnen hätte führen können.

Das fällt nicht nur dem Autor auf. Auf „youwatch“ findet sich bereits eine Rezension, der man eigentlich nichts hinzufügen muss:
youwatch 13.04.2019: [3] Die Klimaretterin. Claudia Roth fliegt um die Welt
Der Autor macht es nur, um die Darstellungen mit Bildmaterial und Zusatzinformationen zu den von youwatch nicht rezensierten Klimawandel-Erkundungsorten zu ergänzen und so der „Klimawandel-Powertruppe“ (die allerdings wohl mit Sicherheit nicht bei EIKE hineinschauen wird) aufzuzeigen, welche Fragen man vielleicht hätte stellen können und was dann vielleicht herausgekommen wäre.

Bangladesch

In Bangladesch ließ sich das Trio von Regierungsmittgliedern erzählen, wie CO2-Klimawandel-geschunden das Land bereits ist, vor allem aber, dass bestimmt alle (schon immer gewesenen Probleme) dieses flachen Schwemmlandes, seit es einen Klimawandel-Reparationsfonds gibt, nur noch wegen der westlichen CO2-Emission entstehen. Zwar ahnt Frau Roth selbst, dass einiges auch eigenes Verschulden des Landes sein könnte, aber im Grunde scheint sie wohl überzeugt davon, was und wie es ihr berichtet wurde:
Claudia Roth, Homepage: [2] In Bangladesch befinden sich 30 Prozent des bebauten Landes in einer von Überflutungen gefährdeten Küstenregion, die 35 Millionen Menschen beheimatet. Schon heute müssen Küstenbewohner*innen ihre Dörfer verlassen, weil die Böden aufgrund von Salzeintrag durch den Meeresspiegelanstieg nicht mehr bestellbar sind, oder weil Fluten ihre Dörfer buchstäblich verschluckt haben. Jeden Tag migrieren alleine 2.000 Menschen nach Dhaka; die allermeisten von ihnen leben in den zahlreichen Slums der Hauptstadt.
… Mit den Sunderbans sind auch die größten Mangrovenwälder der Erde  und UNESCO-Weltnaturerbe durch die Erderwärmung und fossile Energie-Abhängigkeit gefährdet. Dabei bietet die grüne Lunge der Region den wichtigsten Schutz vor Zyklonen im Küstengebiet.  Immer häufiger auftretende Salzwasserüberflutungen greifen die Mangrovenwälder zunehmend an; zudem wird derzeit in der Nähe des empfindlichen Ökosystems unter Beteiligung eines Unternehmens aus Deutschland ein Kohlekraftwerk errichtet.

Nun hat der Autor zur Klimawandelproblematik bei Bangladesch ebenfalls schon einmal eine „Besichtigungstour“ durchgeführt. Allerdings vom Wohnzimmer aus und klimagünstig mittels googl:
EIKE 10.05.2017: [4] Die Volkshochschule Hannover und ihre Ausstellung: Wir alle sind Zeugen – Menschen im Klimawandel

Daraus als Auszug eine Ergebniszusammenfassung des Berichtsteils zu Bangladesch:

[4] Bangladesh geht unter: Eine immer gute Story

Fragt man Menschen vor Ort (meistens sind es Aktivisten oder Regierungsvertreter), bekommt man sofort und unisono schlimmste „Tatsachen“ erzählt:
Infobroschüre: [x] Bangladesch: Anstieg des Meeresspiegels und Wirbelstürme.
… „Mein Name ist Shadu Charan Mondol. Ich bin 72 Jahre alt und lebe in Shingertoly am Ufer des Flusses Malancha in Bangladesch. Mein Haus steht auf dem Deich (links auf dem Foto). Es wurde schon sechsmal zerstört, weil der Deich nicht hielt. Bei Flut drückt das Meer immer weiter den Fluss hinauf. Der Wasserspiegel begann vor 60 Jahren anzusteigen, aber seit 10 Jahren steigt er schneller. Die Springfluten in Juni und Juli sind sogar noch gefährlicher: sie verursachen die höchsten Wasserstände. Wir wurden schon mehrere Male gezwungen, den Deich vom Fluss zurückzuverlegen; das ist aber ein Dauerproblem, und für eine weitere Rückverlagerung haben wir keinen Platz mehr übrig.” (März 2009)
WISSENSCHAFTLICHER HINTERGRUND: ANSTIEG DES MEERESSPIEGELS…
Der globale Anstieg des Meeresspiegels trifft Bangladesch aufgrund seiner geographischen Lage stärker als im weltweiten Durchschnitt: Der BengalSAARC Meteorological Research Council hat auf der Basis von Daten aus den letzten 22 Jahren festgestellt, dass das Meer 3 – 6 mm pro Jahr ansteigt.

Zum Glück ist google unerbittlich und kann etwas Information darüber finden.

Bild 7 (im Artikel Bild 9)

Es lohnt immer, auf dem PSMSL-Viewer die Stations-Pegeldaten der betroffenen Länder direkt nachzusehen. Zuerst erkennt man wieder, dass meistens ausgerechnet die „betroffensten“ Länder äußerst lückenhafte – und meist nur kurze – Datensätze haben und bei vielen gerade auch Daten der jüngeren Zeit (zumindest in öffentlich zugänglichen Datensätzen) fehlen. Bangladesch gehört dazu. Die verfügbaren Pegelverläufe sehen wie folgt aus:

Bild 8 (im Artikel Bild 10) Pegeldaten der drei in der SAARC Studie genannten Stationen. Vom Autor: auf das Jahr 2000 normiert, Endpunkte durch waagrechte Linien gekennzeichnet. Quelle: PSLSM-Viewer

Im Artikel wurde gezeigt, dass diese Pegel-Verlaufshinterlegungen fehlerhaft und zeitverschoben sind. Korrigiert sehen die Verläufe wie im Bild 9 aus. Eine signifikante Zunahme (über diese Zeiträume) kann nun aus den Pegeldaten nicht abgeleitet werden – nur starke Schwankungen.

Bild 9 (im Artikel [4] Bild 12). Daten vom Bild 8 vom Autor durch Offset und Multiplikation, sowie Phasenverschub soweit möglich in Deckung gebracht.
Bei manchen Pegelverläufen sieht man es auch direkt.

Und das zeigen auch Pegelbilder von der indischen Seite des Golfes, wo die Pegeldaten weiter reichen und besser sind.

Bild 9 Pegelverläufe auf der indischen Seite des Golfes von Bengalen (dort sind längere Zeitreihen verfügbar). Quelle: PSLSM Viewer

Und die Pegel vom Pazifik, wo sie noch aktueller verfügbar sind:

Bild 10 (im Artikel Bild 14) Pegelverläufe von TUVALU, Kiribati und umliegenden Südsee-Atollen mit einem Pegelwert von Australien. Alle Verläufe auf das Jahr 2014 normiert. Grafik vom Autor anhand der PSMSL Pegeldaten erstellt

Fazit
Es ist demnach auch im Golf von Bengalen kein unnatürlich, verstärkter Pegelanstieg erkennbar. Auch dort gilt das Gleiche wie oft auf der Welt, wenn die bekannten Horrormeldungen erscheinen: Pegelmeldungen, so sie einmal beim IPCC, in Studien, oder einfach Zeitungsmeldungen erschienen sind, werden nicht mehr hinterfragt und der oft gemeldete Untergang erfolgt daraus als Weiterführung in Simulationen [x].

Bild 11 Pegelverlauf um Indien (und Bangladesch) nach einer Pegelstudie von N.A. Mörner [5]

Das Meer steigt langsam, sinken tut das Land aber schnell

Es ist auffällig, dass oft in angeblich schlimm klimawandel-gebeutelten Küstenzonen nicht das Meer überproportional steigt, sondern das Land überproportional sinkt. Schon mehrfach wurde darüber berichtet [12] [13].Ursachen können eine Tektonik sein, häufig ist es aber auch exzessive Wasserentnahme aus sumpfigen Küstenstreifen. Dieses Sinken kann bis zu 20 mm im Jahr betragen und damit das 5 … 10-Fache des Meerespegelanstiegs. Neu ist, dass man dafür durch einfaches Melden an bestimmte, westliche Staaten problemlos den Klimawandel und darüber den reichen Westen verantwortlich machen kann. Und wie man sieht, wird vor Ort anscheinend über Alles und Jedes, aber partout nicht über Solches gesprochen.
Denn im Schwemmland von Bangladesch ist es ebenso:
[7] Sea level rise in Bangladesh is higher than the mean average rate of global sea level rise over the past century, because of the effects of tectonic subsidence
kaltesonne: [10] So berichtete 2013 der Geologe Till Hanebuth über Ergebnisse aus dem Deltabereich Bangladeschs. Sein Team fand natürliche Absenkungsraten von mehr als 4 Millimeter pro Jahr. Diese Rate ist deutlich höher als der klimatisch-bedingte Meeresspiegelanstieg
[5] Nils Axel Mörner, 2010: SEA LEVEL CHANGES IN BANGLADESH NEW OBSERVATIONAL FACTS

Auch sonst „das Übliche“, nur kein Klimawandel

[8] Durchschnittlich vier Bengalen-Zyklone treffen jährlich die Küsten Bangladeschs und Indiens (A). Besonders häufig sind sie im August–September; ihre Hauptzugbahnen sind dann der eng schraffierte Bereich; die selteneren Zyklone im Oktober–November beeinträchtigen überwiegend die Östküste Indiens (weit schraffierter Bereich). Vor allem im Mündungsgebiet von Ganges und Brahmaputra sind die Schäden hoch: Das Gebiet liegt sehr tief, so dass die Sturmfluten weit landeinwärts dringen können; der Rückstau in den Flüssen lässt das Land außerdem „von hinten“ ertrinken.
Die Mangrovenwälder … waren für Bangladesch lange Zeit der wirksamste Schutz vor den Sturmfluten, die durch die Bengalen-Zyklone ausgelöst wurden und mit verheerenden Überschwemmungen und starker Küstenerosion einhergingen.
Ihre Abholzung ließ das Ausmaß der Schäden um ein Vielfaches ansteigen.
[14] … Die Überschwemmungen werden verstärkt durch den Holzeinschlag im Mangrovenwald und im Khasigebirge. Die Ausweitung der landwirtschaftlichen Anbauflächen durch Brandrodung hat an ganzen Bergflanken zu Kahlschlägen geführt. Die Regenmassen der Sommermonate spülen dort den Boden ab. Früher versickerten sie allmählich im Waldboden, und das schützende Blätterdach verminderte den Aufprall. Der Boden speicherte die Feuchtigkeit und gab sie in trockeneren Monaten ab. Heute lagert sich der abgespülte Boden als Sediment in den Flussarmen des Deltas ab. Die Schlammfracht erhöht die Flusssohle und die Ufer. Bei den großen Abflussmengen nützen Dämme daher nur wenig; gewaltige Überschwemmungen sind die Folge …

In einem alten WIKIPEDIA Eintrag konnte man es ebenfalls lesen. Inzwischen wurde dieser durch einen alarmistisch getexteten ausgetauscht:
Wikipedia:
Nach den gängigen Szenarien ist jedoch ein wesentlich geringerer Meeresspiegelanstieg zwischen 18 und 59 cm wahrscheinlich; seine Folgen lassen sich mit effektiven Küstenschutzmaßnahmen, deren Kosten etwa 0,1 % des BIP betragen, beherrschen.[6] Nach neuesten Untersuchungen hat sich die Fläche des Landes während der letzten 32 Jahre im Schnitt um 20 km² pro Jahr vergrößert.

[9]Zu den schwerwiegendsten Umweltproblemen des Landes gehört die Vergiftung von Grundwasser mit dem Halbmetall Arsen, von der etwa 10-20 Millionen Menschen in den Grenzregionen zu Indien betroffen sind. Obwohl hohe Konzentrationen des Giftes sofort tödlich wirken, ist der Großteil der betroffenen Menschen einer schleichenden Vergiftung ausgesetzt, die sich anfänglich durch Hautausschlag und Magenprobleme äußert. Zwar existieren über die Ursachen der Kontaminierung unterschiedliche Angaben, fest steht aber, dass es sich um eine Menschen gemachte Katastrophe handelt. Überdüngung und der Einsatz von Pflanzenschutzmitteln werden ebenso genannt wie illegale Abfallentsorgung der Schwerindustrie nahe der indischen Grenze. Andere Experten nennen das Auswaschen von arsenhaltigen Gesteinsverbindungen aus tief liegenden Bodenschichten, auf deren Niveau der Grundwasserspiegel infolge des wachsenden Wasserkonsums abgesunken ist.
Ein weiteres Problem mit nicht nur ökologischer, sondern auch außenpolitischer Dimension ist der Farakka-Staudamm. Der 1974 fertig gestellte Damm liegt im indischen Westbengalen nur 18 km von der Grenze zu Bangladesch entfernt. Seit seiner Inbetriebnahme führte der Baral, ein Seitenarm des Ganges, in der Trockenzeit acht- bis elfmal weniger Wasser als zuvor. In der Folge traten im Südwesten von Bangladesch regelmäßig Dürren auf, die Böden versalzten und die Fischbestände gingen zurück. In den Sunderbans wurde die Vegetation unwiderruflich geschädigt …
Dissertation: [15] … In Bangladesch führte die Errichtung des Farrakka Staudammes dazu, dass die Wassermenge im Ganges in den Wintermonaten der Jahre 1975 bis 1988 um durchschnittlich 44 Prozent zurückging150 (siehe Foto 4). Das wiederum führt in Bangladesch zum stellenweise dramatischen Absinken des Grundwasserspiegels, zu Problemen bei der Bewässerung und – was vermutlich am problematischsten ist – zum Rückstau und Eindringen von Salzwasser in die Ganges-, Padma- bzw. Meghnamündungen.

Wenn mit Einsetzen des Sommermonsuns die Wassermassen in den Flüssen anschwellen, öffnet Indien am Ganges/Padma die Schleusen des FarakkaStaudamms. Die Überschwemmungssituation in Bangladesch wird dadurch in beträchtlichem Maße zusätzlich verschärft. Dies trifft die Menschen im Lande unvorbereitet, denn es gibt bezüglich der Dammöffnung keinerlei Absprachen und Informationsaustausch zwischen Indien und Bangladesch.

Jährlich 5 m, bei Extremen sogar bis zu 9 m hohe Flutwellen waren schon immer, 1,5 … 2 mm/pa Pegelanstieg sind aber das Problem …

Und gegen diese 1,5 … 2 mm/pa hat der verantwortliche, reiche Westen Billiarden EURos zur CO2-Vermeidung auszugeben und 100 Milliarden EURos jährlich an Reparation zu leisten.
Um zu veranschaulichen, welcher Schwachsinn hinter der CO2-Vermeidung zur (angeblich damit möglichen) Reduzierung von Überschemmungen in Bangladesch steckt, ein Pegelvergleich:
Dissertation: [15] … Der folgenschwerste Zyklon in der jüngeren Geschichte des Landes traf die Küste im November 1970. Damals kamen rund eine halbe Million Menschen in einer bis zu neun Meter hohen Flutwelle ums Leben.
Die Höhenanagaben zu Flutwellen variieren stark. Bis zu 5 m für starke Zyklone scheinen aber „normal“ zu sein. Danach ergibt sich grafisch der folgende Vergleich:

Bild 12 Pegelvergleich Flutwellen und natürlicher Meerespegel-Anstieg bis 2100 im Golf von Bengalen. Grafik vom Autor

In der Dissertation ist auch etwas zu den Überschwemmungen selbst gesagt (Anmerkung: Obwohl in dieser Dissertation fast nur Extremereignisse beschrieben und analysiert werden, kommt der Begriff „Klimawandel“ darin nicht vor):
Dissertation: [15] … Auf der Basis dieser statistischen Daten wird eine langfristige Entwicklung deutlich. Es zeigt sich, dass die Variabilität der Überschwemmungsintensitäten seit den 1970er Jahren sehr zugenommen hat, d.h., dass einerseits die Überschwemmungen häufiger fast ganz ausblieben, es andererseits wenige extrem starke Überschwemmungen (v.a. 1987, 1988, 1998 und 2004) gab. Diese Entwicklung könnte durch eine höhere Variabilität der Niederschläge hervorgerufen sein. Ein weiteres Erklärungsmuster ist nach HOFER der Bau von Dämmen, der in Bangladesch nach der Unabhängigkeit in den 1970er Jahren stark forciert wurde. Dies würde bedeuten, dass die baulichen Maßnahmen einerseits zu einem Rückgang durchschnittlicher, für die Landwirtschaft wichtiger Überschwemmungen geführt haben, dass andererseits aber das Auftreten besonders starker Überschwemmungen durch den Bau von Dämmen nicht verhindert werden konnte oder sogar begünstigt wurde.
Überdies sind durch die rapide Bevölkerungszunahme die überschwemmungsgefährdeten Gebiete in Bangladesch heute weitaus dichter besiedelt als Mitte des 20. Jahrhunderts. Dementsprechend stiegen auch die Anzahl der von Überschwemmungen betroffenen Personen sowie der volkswirtschaftliche Schaden für das Land permanent an und steigen auch weiterhin …

Nun noch das Bevölkerungswachstum, und eine weitere Ursache für viele der geschilderten Probleme (wie sie auch in der Dissertation [15] gelistet sind) werden klar.

Bild 13 Bangladesch Bevölkerungsdaten. Quelle: http://www.pdwb.de/kurz_ban.htm

Die Bewertung der Expertentruppe vom Bundestag

Das Expertenteam mit Claudia Roth weiß aber, dass das alles falsch sein muss, zumindest nicht Hauptursache(n) sein kann, beziehungsweise nicht sein darf. Denn erzählt wurde ihnen doch, dass es der Klimawandel und damit die alleinige Schuld des Westens ist. Und wirklich findet sich vor den wachsamen Argusaugen des Teams ein ganz aktuelles Corpus Delicti. Das kann zwar noch nicht am Wandel schuld sein, aber bald wird es diesen mit Sicherheit verstärken:
Cladia Roth: [2]zudem wird derzeit in der Nähe des empfindlichen Ökosystems unter Beteiligung eines Unternehmens aus Deutschland ein Kohlekraftwerk errichtet …
Damit will dieses Expertenteam wohl mitteilen: Warum bauen diese Depperla noch altertümliche Kraftwerke! Jeder weiß doch, dass moderner Strom in jeder gewünschten Ausführung durch Zertifikate übers WEB zur Steckdose kommt. Und welche schlimme Deutsche Firma mischt da mit? die werden wir nach der Heimreise gehörig an den Pranger stellen.

Die weiteren Erklärungen, warum C. Roth sich dank persönlichem Augenschein absolut sicher ist, dass Bangladesch von uns Klimawandel-Reparationszahlungen zu bekommen hat, bitte selbst nachlesen [2].

Fidschi

Zu den Südseeatollen gibt es bereits so viele Analysen, welche zeigen, dass diese bisher keinesfalls aufgrund eines AGW-Klimawandels unterzugehen drohen, dass eine neue Darstellung sich erübrigt.
EIKE 16. November 2017: Nochmals Fidji, die eher aufsteigenden, als untergehenden Atolle
EIKE 20.12.2016: Der Klimawandel wird bildlich gesprochen immer schöner, die Daten darüber nicht
EIKE 03.11.2017: Das Wochenende, an dem die Welt (wieder) begann unterzugehen
EIKE 27. April 2018: SOS Südsee – Der Ozean steigt nicht übernatürlich, dafür umso stärker die Propaganda in der öffentlich-rechtlichen Berichterstattung (Teil 2)
EIKE 08.06.2017: Crashinformation zu den „untergehenden“ Pazifikinseln, Teil 2: Zusatzinformationen

Und nun lesen, was die Besichtigung vor Ort für die Experten „ergeben“ hat:
Claudia Roth, Homepage: [2]Der Besuch des aus 33 Atollen bestehenden Kirbati zeigte die buchstäbliche Fragilität der kleinen Inselstaaten durch den ansteigenden Meeresspiegel. Die höchste Erhebung des Hauptatolls liegt nur drei Meter über dem Meeresspiegel, das Atoll ist oft nur wenige Meter breit und wirkt wie ein dünner Strich inmitten gewaltiger Wassermassen. Kam die „King-Tide“ früher nur maximal einmal im Jahr, rechnen die Bewohner*innen inzwischen fast monatlich mit starken Fluten. Das Überleben Kiribatis und die Bewohnbarkeit der Atolle hängt damit maßgeblich von den Anstrengungen der Weltgemeinschaft ab, die Erderwärmung auf 1.5°C zu reduzieren.
Gleiches verdeutlichte auch der Außenminister Fidschis, Inia Seruiratu. Die Veränderungen klimatischer Verhältnisse hin zu mehr Regen, mehr Überflutungen und häufigeren Sturmfluten seien auch auf Fidschi deutlich spürbar.

Und was nicht nur der Autor, sondern auch andere sich dazu zu sagen trauen:
youwatch: [3]Vergessen hatte Claudia Roth offenbar, daß es im Herbst 2017 eine Klimaschutzkonferenz in Bonn gegeben hat, bei der offensichtlich wurde, daß die Fidschi-Inseln mitnichten vom gewaltigen Ozean überspült werden. Auf der Fidschi-Insel Ono mußte zwar bspw. das Dorf Narikoso nach „weiter oben“ umziehen, weil es direkt am Strand ein bißchen feucht und ungemütlich geworden war. Aber man hätte dort einfach vorher den Mangrovenwald nicht roden sollen, um Platz für das Dorf am Strand zu schaffen. In der Folge erodierte nämlich der Boden und wurde weggespült. Das Dorf mußte  deswegen „höhergelegt“ werden, was auch „nachhaltig“ möglich gewesen ist, da die Insel etwa 300 Meter hoch ist. Dafür, daß die Bewohner ohne Küstenschutzmaßnahmen direkt am Pazifik siedeln wollten, konnte das böse Weltklima gar nichts. Ob es der grünen Claudia wohl jemand erzählt hat, als sie vier überaus lehrreiche Tage lang auf Steuerzahlers Kosten in dem Schnorchler- und Taucherparadies verweilte?

Oder war die irrtümliche Reise dem Versäumnis eines wissenschaftlichen Mitarbeiters der grünen Bildungsbeflissenen geschuldet, der vergessen hatte, auf einen SPIEGEL-Artikel vom Juni 2012 zu verweisen, der sich mit dem Rätsel der versinkenden Inseln beschäftigte? Der SPIEGEL berichtete damals, Geologen und Sprachforscher aus Frankreich hätten das Südseeparadies erkundet, nachdem die Vereinten Nationen dort die ersten Klimaflüchtlinge der Welt verortet habe. Recht eigentlich sei das Absinken der tektonischen Erdplatte das Problem, auf der die Inseln des Südpazifiks liegen, hieß es. Die Fidschi-Inseln sind größtenteils vulkanischen Ursprungs und der Pazifik ist ein tektonischer Raum mit zahlreichen Erdbeben. Das kommt von der westlich von den Fidschis gelegenen „Australischen Platte“, die sich unter die östliche „Pazifische Platte“ schiebt. Die Fidschi-Inseln liegen ganz in der Nähe der Nahtstelle dieser beiden Kontinentalplatten. Das wird es wohl sein, was den Eindruck eines „Anstieg des Meeresspiegels“ verursacht. Ganz unzweifelhaft braucht man schon jemanden, der gestrickt ist wie Claudia Roth, um ihm weiszumachen, daß das, was er auf den ersten Blick sieht, auch die Ursachen hat, die er als erstes unterstellt.

Dazu eine Ergänzung aus [16], die zeigt, wie sich tektonische Bewegungen (durch Erdbeben) auf den Tidenpegel auswirken, und wie daraus dann offiziell ein falscher Pegel-Anstiegstrend ausgewiesen wird (den die dadurch „geschädigten“ – mindestens ganz kurz davor stehenden – Regionen dann dem Westen “um die Ohren hauen“.

[16], Pegeldarstellung der NOAA. Diese zeigen immer die Rohdaten ohne isostatische Korrekturen. Ausgewiesen werden +5,04 mm/pa Pegelanstieg seit 1993.

Bild 14 Guam, Apra Harbour, Tidenpegelbild der NOAA

Nun die Analyse der gleichen Rohdaten mit einer sorgfältiger durchgeführten Sichtung und Beachtung der isostatischen Verzerrungen durch mehrere Erdbeben. Das Ergebnis sind anstelle der bei der NOAA angegebenen, steigenden 5,04 mm/yr seit 1992, fallende Pegelstände von -1,15 mm/pa seit 1999:

Bild 15 Die Pegel von Bild 13 mit Darstellung der Pegelverzerrung durch Erdbeben (Landsenkungen). [x] Parker & Ollier (2018), Figure 3
Parker & Ollier (2018): … The relative sea levels have been continuously reducing from January 1948 to August 1993 at a rate of -1.08 mm/year. Since January 1999, the sea levels have been continuously falling at a rate of -1.15 mm/year.
Praktisch alle Pazifikatolle (und teils auch die großen Inseln) liegen auf der riesigen Kontinental-Bruchzone des Pazifischen Feuerrings und damit auf einer hyperaktiven Erbebenzone (siehe Japan mit seinen vielen, extremen Erdbeben und Erdbeben-bedingte Tsunamis).

Man beachte, dass die Angabe der NOAA als Begründung zur CO2-Vemeidungspflicht angezogen werden; Billiarden EUR sinnloser Ausgaben (auch) wegen Statistik- und Analysemängeln, die seit vielen Jahren von den regelmäßig 30. bis 50.000 „Klimazirkus-„ Teilnehmern nicht bemerkt werden (wollen).

Gleiche Orte, vollkommen verschiedene Bewertungen

Die Problembewertung des Autors sollte für jeden offensichtlich sein, doch nochmals in Kurzform: Eine CO2– Vermeidung als Lösung der vom Expertenteam des Bundestags geschilderten Probleme dürfte der größte, kollektive (technische) Schwachsinn dieses Jahrhunderts sein. Dass dieser Schwachsinn inzwischen auch von Kindern gefordert wird, ändert an der Tatsache nichts.

Doch nun die Bewertung des Expertenteams, ausgedrückt durch C. Roth:
Claudia Roth, Homepage: [2]Die Reise hat deutlich gezeigt: Die Realität vor Ort lässt  es nicht zu, die Klimakrise weiterhin kleinzureden, geschweige denn zu leugnen, oder die Hände in den Schoß zu legen. Die Menschen vor Ort haben große Erwartungen an die Industriestaaten und an Deutschland: Sie erwarten hohe Anstrengungen zur Eindämmung der Klimakrise und tatkräftige Unterstützung bei bestehenden Schäden durch die Hauptverursacher dieser menschgemachten Krise. Und sie erwarten einen würdevollen und gerechten Umgang mit denjenigen Menschen, die am wenigsten zur Klimakrise beitragen und dennoch im Kontext dieser Krise gezwungen sind, sich ein neues Zuhause zu suchen. Der Handlungsbedarf ist dringend. Neben dem radikalen Kampf gegen die Klimakrise muss es deshalb unsere Aufgabe sein, die betroffenen Staaten darin zu unterstützen, effektive und würdevolle Lösungen vor Ort zu entwickeln. Es ist eine Frage historischer Klimagerechtigkeit, dass wir in den Industriestaaten nicht weiter den Kopf in den Sand stecken, sondern Verantwortung übernehmen.

Es bleibt nur eine Erkenntnis: Das Internet taugt nichts. Darüber bekommt man vollkommen falsche Informationen. Nur Expertenteams, die sich die Reisen leisten dürfen, gelangen an das wirkliche Wissen.
Dies hat auch ein (wohl vergleichbares) Expertenteam eines Öffentlich Rechtlichen bestätigt.
EIKE 24. April 2019: Kiribati versinkt wieder, das ist professionell recherchiert

Vielleicht war es doch nur eine „wissenschaftlich“ verbrämte Lustreise

Beim Betrachten der Bilder aus dem „Bericht“ von C. Roth [2] kommt zumindest der Autor definitiv nicht zu dem Schluss, dass sich darin stichhaltige Belege für einen CO2-bedingten, schon schlimm gewordenen Klimawandel fänden. Eine am Meer gelegene Müllhalde gehört sicher nicht dazu. Aber man sieht sehr wohl, dass diese „Powertruppe“ von Experten wohl überall freundlichst empfangen und hofiert wurde.
Und damit kommt man zu einem Punkt, der Deutschlands Klimahysterie durchzieht: Die Verbrüderung mit solchen Gruppen im In- und auch Ausland, welche möglichst laut und vehement von Deutschland CO2-Reparationen fordern. Die ehemalige Umweltministerin, Frau Hendricks tat sich dabei besonders und hemmungslos hervor [17], wie man sich unter Jubel mit Aktivisten verbündet, die nur an eines wollen: Geld aus Deutschland, und das bedingungslos, da es ja CO2-Reparationszahlungen sind.

Einleuchtend ist: wer alleine, oder als Delegation mit hohen Geldversprechungen im Rucksack zu solchen „Klimawandel-“ betroffenen Regierungen reist und deren Forderungen wohlwollend und vorbeugend ohne irgend einen sachlichen Einwand automatisch bestätigt mit nach Hause nimmt, ist sofort ein guter Freund und wird hinten und vorne nur noch „gebauchpinselt“. So lässt sich eine solche Reise bestimmt exklusiv genießen. Schon den Start, aber auch das viel, viel dickere Ende bezahlt ja das Volk.
Anbei ein Link zu einem netten Artikel, der das Thema ebenfalls aufs Korn nimmt:
Achgut: Ich bin für Klimawandel. Leben Sie wohl.

Quellen

[1] The European, 22.04.2019: Claudia Roth, die grüne Heuchelei und die Flugreisen

[2] Claudia Roth, Homepage 12.04.2019: Globale Verantwortung für existentiell durch die Klimakrise bedrohte Menschen und Regionen: Reise nach Bangladesch, Kiribati und Fidschi

[3] youwatch 13.04.2019: Die Klimaretterin. Claudia Roth fliegt um die Welt

[4] EIKE 10.05.2017: Die Volkshochschule Hannover und ihre Ausstellung: Wir alle sind Zeugen – Menschen im Klimawandel

[5] Nils Axel Mörner, 2010: SEA LEVEL CHANGES IN BANGLADESH NEW OBSERVATIONAL FACTS

[6] EIKE 27.Mai 2011: Der Große Schwindel mit dem Meeresspiegel – Es gibt keinen alarmierenden Anstieg des Meeresspiegels

[7] European Parliament 2007: DG INTERNAL POLICIES OF THE UNION Policy Department Economic and Scientific Policy Climate Change Impacts and Responses
in Bangladesh

[8] Petermanns Geographische Mitteilungen, 143, 1999, Helmut Brückner: Küstensensible Geo- und Ökosysteme unter zunehmendem Stress

[9] Südasien Info: Umweltprobleme

[10] kaltesonne, 19. Februar 2015: Flussdeltas in Indien und Bangladesch saufen ab: N24 lässt Küstenabsenkung als Folge der Sedimentverfestigung als wichtigsten Grund unerwähnt

[11] Der Tagesspiegel: Iran Steinmeier schickte Glückwünsche zum Jahrestag der islamischen Revolution

[12] EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen

[13] EIKE 31.12.2018: Verwirrter Lauterbach: Klimawandel am Vulkanausbruch schuld. Nachtrag

[14] Dierke: Bangladesch – Überschwemmungen

[15] Institut für Agrarpolitik, Marktforschung und Wirtschaftssoziologie, Universität Bonn Lehrstuhl für Wirtschaftssoziologie, Dissertation 2005: Leben mit der Überschwemmung im ländlichen Bangladesch Die Vulnerabilität der betroffenen Menschen und Perspektiven für eine angepasste Entwicklung

[16] EIKE 27. April 2018: SOS Südsee – Der Ozean steigt nicht übernatürlich, dafür umso stärker die Propaganda in der öffentlich-rechtlichen Berichterstattung (Teil 2)

[17] EIKE 18.10.2016: Wie steht es um den Untergang der Marshall-Inseln?




EIKES Werk und SPIEGELS Beitrag

Früher waren sie schneller. Die Leute beim SPIEGEL. Und da mussten sie nicht nur „berichten was ist“ – sondern auch noch eine penible Überprüfung des Geschriebenen durch eine gut besetzte Dokumentationsabteilung über sich und ihre Storys ergehen lassen. Heute soll das zwar was die über 60 Kopf starke Dokumentationsabteilung anbelangt und man Frau Dr. Melanie Amman vom SPIEGEL Hauptstadtbüro glaubt, auch noch so sein, aber offensichtlich hat die soviel zu tun, dass sie nicht allen Artikeln über die AfD, über EIKE und den Klimawandel die nötige Aufmerksamkeit schenken kann. Und mit der Forderung des legendären SPIEGEL Gründers Rudolf Augstein  zu „berichten was ist ist“ begnügt man sich schon lange nicht mehr. Denn anders ist nicht zu erklären, warum den SPIEGEL-Autorinnen Ann-Kathrin Müllerund Vera Deleja-Hotko   eine Halbwahrheit, manchmal sogar eine ganze – aber juristisch sicher verpackte- Lüge an die andere setzen dürfen, und ihnen erst jetzt auffällt, dass die AfD sich gegen das Märchen vom menschgemachten Klimawandel positioniert. Das tat die zwar schon schon lange vor der letzten Bundestagswahl, doch nun erst merken sie es! Nun, ja. Langsam eben. Und das EIKE, ein wissenschaftliches Institut und ein Verein, wie das PIK, dies ebenso und nicht nur seit Anfang 2007 macht, sondern jedem der will, die wissenschaftlich harten Fakten dazu liefert. Tag für Tag, Jahr für Jahr!

SPIEGEL Artikel „Die Angstmacher“ vom 27.4.19

Vielleicht hatten sie das alles aber auch nicht so richtig auf dem Schirm, kamen vor lauter Haltung zeigen, sozusagen aus dem Mußtopp, als die Redaktionsleitung von Ihnen eine Story zu Greta und  Klimawandel und AfD und Rechtspopulisten verlangte. Schließlich steht die Wahl zum EU-Parlament an. Da muss medial geklotzt werden. Für die „richtige“ Seite. Und so liest sich das dann auch.

Der SPIEGEL – nicht erst seit der Relotius – Affäre- aufs Schwerste angeschlagen, kann es daher nicht lassen. Er müsste zwar das Richtige tun, um seine in Massen entschwundenen Leser zurück zu holen, oder den weiteren Niedergang seiner Auflage wenigstens zu verlangsamen, doch was ist das Richtige?

Offensichtlich – so scheint man dort zu glauben – weiter so wie bisher! Das heißt weiter auf das schon halbtote links-grüne Pferd, weiter auf vor allem linke Haltungs-Journalistinnen zu setzen.  Denn die als  Co-Autorin zeichnende Vera Deleja-Hotko, brüstet sich bei Twitter schon mal damit als Antifa-Aktivistin bei Demos gegen rechts mitzulaufen und nun als „Hospitantin“ bei verschiedenen linken Blättern schreiben darf. Ob das für die Auflage des SPIEGEL reicht, darf getrost bezweifelt werden.

Und so brachten sie dann auch nur einen ängstlich resignierenden Artikel mit dem blöden Titel „Die Angstmacher“ zustande.

So wird das nichts, Leute! Kommt man nicht umhin, ihnen mitleidig zuzurufen.

Denn was sie und ihre Kollegen Ann-Kathrin Müller und Gerald Traufetter dann darin rauslassen zeigt vor allem eines: Frust! Viel Frust

Und der zeigt sich vor allem darin, dass sie wie üblich, eine Halbwahrheit an die andere zu setzen, und manche Lügen durch Weglassen, verbreiten. Zwischendurch gibt es natürlich auch ein paar Fakten, doch so ins Bild gesetzt, dass das gewünschte Ergebnis – reim Dich oder ich fress Dich- herauskommt.

Für den kühlen Beobachter zeigt der Artikel aber nur eines: hilfloses Erstaunen, ja Entsetzen, gepaart mit Neid, darüber, wie es diese doch eigentlich NoNames bei EIKE es trotz aller medialen Ausgrenzung geschafft haben ihr so sicher geglaubtes, langjähriges links – grünes Meinungsmonopol zu brechen. Und, dass sich sogar der gestandene Wissenschaftsjournalist des Spiegel Gerald Traufetter dazu hergibt diesen Artikel, der besser in eine wirre Schülerzeitung gepasst hätte, mit zu unterschreiben, zeigt nur, wie sehr denen dort das Wasser bis zum Hals stehen muss.

Wie kam es dazu?

Nahezu überfallartig wurde ich von der Hospitantin Vera Deleja-Hotko  am Donnerstag dem 25.4.19 gegen 10:00 Uhr auf meinem Handy in Spanien angerufen. Gerade als ich mit meiner Frau beim Hotelfrühstück saß, den Mund voll mit Toast, die zischende Kaffeemaschine und div. laut aufeinander einredenden spanische Mitgäste im Hintergrund. Sie war kaum zu verstehen.

Ein oder zwei Tage zuvor hatte sie bei unserem Präsidenten Dr. Holger Thuß angerufen war aber wegen der Osterferien abgeblitzt, und auch vor dem Anruf bei mir hatte sie bei unserem wissenschaftlichen Pressesprecher Klaus-Eckart Puls versucht, zu Fragen nach unserer politischen Arbeit ihre Vorurteile bestätigt zu bekommen. Der erklärte ihr zwar geduldig manches fachliche, doch er weigerte sich mit ihr darüber zu sprechen und verwies an mich.

Kaum hatte sie mich an Strippe, schoss sie schon eine Reihe von wilden, mit Fragen vermengten Behauptungen, ab, die ich nach bestem Wissen und Gewissen beantwortete. Das interessierte sie aber wenig, denn obwohl ich sie abschließend bat mir die beidseitig gemachten Aussagen per Mail zu bestätigen, schickte sie mir zwar eine Mail, die aber nur das halbe Gespräch wiedergab, von dem sie aber behauptete, dies seien (alle) ihre Aufzeichnungen.

Was wollte sie wissen?

  • Sie wollte natürlich wissen, ob EIKE überparteilich ist, das habe ich ihr bestätigt.
  • Sie wollte wissen ob einzelne Mitglieder das auch sind. Meine Antwort: Sie sind es oder sind es nicht, je nach persönlich privater Entscheidung etc. Aber das würde nicht bei uns abgefragt werden
  • Sie wollte wissen, wie wir mit Heartland und Cfact zusammen arbeiten, meine Antwort: – ja, lose!
  • Sie wollte wissen, ob die uns finanzieren. Meine Antwort: Nein, tun sie nicht, es sei denn sie beteiligen sich an unseren Konferenzen, dann tragen sie ein Scherflein dazu bei.
  • Ich wies sie außerdem auf den Widerspruch hin, u. a. von WIKIPEDIA und allen, die bei denen abschreiben, also allen, dass wir zwar verleumdet werden von der fossil Lobby finanziert zu werden, aber in der Realität uns selber nur ausbeuten, alle ehrenamtlich und von unseren Homeoffices aus arbeiten würden und uns nur ein kleines Büro in Jena leisten können. Wenn die Millionen nur so flössen, müsste das wohl anders aussehen.
  • Dann wollte sie was zu Herrn Lüning wissen und seinem Institut in der Schweiz. Letzteres kenne ich kaum. Herrn Lüning hingegen gut und wir arbeiten auch gut zusammen.
  • Ich wies auch darauf hin, dass so gut wie alles was in Wikipedia über EIKE steht entweder gelogen oder total verdreht ist. Wenn sie etwas wissen wolle, dann möge sie anrufen, aber nicht von denen abschreiben.
  • Mehrmals erwähnte ich dann die Privatheit meines Engagements bei der AfD. Aber, so fragte sie, wenn ich von der AfD als Sachverständiger „geladen“ (so sagte sie mehrmals, richtig wäre „eingeladen“ gewesen) würde, dann folgte ich dieser Einladung als EIKE Mitglied. Das habe ich bestätigt und hinzugefügt, dass jeder Experte von EIKE jeder Einladung einer demokratischen Partei folgen würde, wenn die das wollten.
  • Dann wollte sie noch wissen, wer bei EIKE schreiben darf, ich sagte, dass entscheiden wir intern, auch was veröffentlicht wird und was nicht. Nicht jeder der wolle, würde auch veröffentlicht, das ist ein geführter Blog.
  • Und unsere Newsseite so erklärte ich ihr geduldig und ausführlich ist sozusagen die Bildzeitung und die Publikationsseite die wiss. Seite. Natürlich würden auch neue Publikationen auf der Newsseite angekündigt.
  • Sie tat so als ob sie all das begriffen hätte.

Abschließend bat ich sie um eine Zusammenfassung unseres Gespräches per Mail, die dann auch – wenn auch deutlich verkürzt- kam, und so aussah (mit meinen Ergänzungen in rot):

 

Sehr geehrte Frau Deleja-Hotko,

danke für diese Zusammenfassung, ich habe sie in einigen wenigen Punkten ergänzt, damit werden Missverständnisse oder Fehlinterpretationen vermieden.

Ich verbleibe mit freundlichen Grüßen
Ihr
Michael Limburg
Vizepräsident EIKE (Europäisches Institut für Klima und Energie)
Tel: +49-(0)33201-31132
http://www.eike-klima-energie.eu/

 

Am 25.04.2019 um 11:40 schrieb Deleja-Hotko, Vera <vera.deleja-hotko@spiegel.de>:

 

Sehr geehrter Herr Limburg,

wie gewünscht eine Bestätigung für das gerade geführte Gespräch.

Wir sprachen über folgende Punkte:

Oberpunkte: Themen, die besprochen wurden
Unterpunkte: Aussagen von Ihnen, die ich mir notiert habe

  • Beiträge, die auf der Webseite und auf Twitter geteilt werden
    • Es gibt begutachtete wissenschaftliche Publikationen, die in Fachzeitschriften erscheinen und viele Beiträge auf der News-Seite, die aktuelle Themen aufgreifen.
  • Arbeitsweise/-form von EIKE
    • Der Großteil der Mitglieder ist in Rente und arbeitet von zu Hause aus.
    • Unsere Mitglieder sind oftmals Professoren (Physiker, Geologen, Meteorologen, Ingenieure etc.), die sich nach der Pensionierung trauen, die Dinge beim Namen zu nennen.
    • Mindestens einmal im Jahr findet eine Mitgliederversammlung und eine Konferenz statt.
    • Wir arbeiten ehrenamtlich und finanzieren uns durch Spenden.
  • Parteimitgliedschaft von EIKE-Mitgliedern
    • Herr Puls hat sich evtl. geirrt. Es gibt EIKE-Mitglieder, die ebenso Mitglied von Parteien (CDU,CSU, FDP etc.) sind. Dies wird aber von uns nicht abgefragt. Ich bin bei der AfD.
    • Das Institut EIKE ist jedoch parteipolitisch unabhängig. Das erfordert nicht nur die Satzung sondern auch unser Selbstverständnis. Für die AfD arbeite ich als Privatperson. Wenn ich als Sachverständiger von der AfD empfohlen und dann von der ausführenden Stelle (Ausschuss) eingeladen werde, bin ich für EIKE da und somit parteipolitisch unabhängig.
  • Kontakte zu anderen Instituten
    • Wir sind lose verbunden mit dem Heartland Institute und auch mit CFACT. Wir laden uns gegenseitig auf Konferenzen ein.
    • Herr Thuß hat mit CFACT und CFACT Europe nichts zu tun. Er war damals nicht der Präsident, sondern Mithelfer bis 2007 (Gründung von EIKE) beim Aufbau von CFACT Europe. CFACT Europe wurde 2011 eingestellt.
  • Sebastian Lüning & IFHGK
    • Herrn Lüning kennen wir lange und gut.
  • Büro in Jena
    • Wir haben ausreichend Überschüsse, um uns seit längerem eine Miete für ein Büro leisten zu können.
    • Dort sitzt und arbeitet Herr Thuß und zeitweise Praktikanten.

Wikipedia

fast sämtliche Information die man bei  Wikipedia über EIKE findet sind entweder gelogen oder verdreht, um uns in schlechtes Licht zu rücken. Deswegen rate ich von der Verwendung von Wikipedia-Information dringend ab.

Beste Grüße

Vera Deleja-Hotko

———————–

SPIEGEL-Verlag Rudolf Augstein GmbH & Co. KG
Hauptstadtbüro
Alexanderufer 5
10117 Berlin

Tel.: 030/88 66 88-153

E-Mail: vera.deleja-hotko@spiegel.de

Was sie in der Mail wegließ konnte man dann im Print-Artikel lesen:

  • Es war völlig klar, dass die Vereinsnummer wieder aufs Tapet kommt, obwohl ich der Frau deutlich gemacht hatte, dass auch das hochgelobte PIK ein Verein ist, und dies daher kein Gattungsmerkmal sei.
  • Es war völlig klar, dass auch die Nummer mit Dr. Holger Thuß und Cfact Europe wieder gebracht wird, obwohl ich ihr gesagt hatte, dass Dr. Holger Thuss niemals Präsident von Cfact Europe war, wie es von WIKIPEDIA behauptet wird. Sie brachte es trotzdem, wenn auch zum „Vorstand“ umetikitiert, denn sie brauchte ja die Verbindung zu den „großen Summen“ die Cfact von Exxon erhalten hatte. Dass das 2008, also vor über 10 Jahren das letzte Mal war und Greenpeace und Cie. wohl immer noch bedacht werden, behielt sie lieber für sich
  • Es war völlig klar, dass sie den Unterschied zwischen unserer wissenschaftlichen Publikations- und der Newsseite verwischen wollte, obwohl ich ihr telefonisch mehrfach den Charakter beider Seiten (Stichwort für die News = Bildzeitung) klarmachte. Auch da tat sie so als ob sie verstanden hätte.

So verlief also die geprüfte hingebungsvolle Recherchearbeit des SPIEGEL. Zumindest bei mir und meinen Kollegen.

Warum fällt mir beim Schreiben dieser Rezension nur immer der Spruch von Ignazio Silone ein:

„Wenn der Fachismus wiederkommt, dann wird er nicht sagen, ich bin der Faschismus, er wird sagen: ich bin der Antifaschismus“

Vermutlich, weil heute die mediale Wirklichkeit so aussieht. Machen Sie sich selbst ein Bild. Aus Copyright-Gründen können wir den Artikel leider nicht anhängen. Evtl. können Sie den SPIEGEL im Wartezimmer Ihres Arztes lesen, oder sie müssen in den sauren Apfel beißen und gute 5,30 € dafür hinblättern.

Um allen Fragen der Leser, warum wir uns diese Leute antun, vorzubeugen, sollten Sie dies wissen:

  • Wir tun das, weil es für uns eine Win-Win-Situation ist. Wir können dabei nur gewinnen und die „Haltungzeiger“ bei den Medien können nur verlieren.
  • Missachten sie uns, werfen ihnen ihre Leser das vor, evtl. machen sie wenIger Auflage, die sie so nötig brauchen wie ein Verdurstender das Wasser. Ohne Auflage keine Anzeigen, keine Käufer, keine Jobs.
  • Lügen sie über uns, auch durch Halbwahrheiten oder Weglassen, oder Verdrehungen – werden sie im Internet erwischt und an den medialen Pranger gestellt. Gepaart mit der berechtigten Frage: Wer glaubt denen noch?
  • Berichten sie ehrlich über uns, werden sie zwar evtl. von der Politik und anderen Medien-Kollegen gemobbt, könnten sich aber wenigstens im Spiegel wieder anschauen. Die Kollegen der anderen unabhängigen Blogs beweisen es täglich.
  • Wir können daher nur gewinnen. Es ist keine Frage des Geldes, sondern nur der Zeit!

 

 




Sven Plöger und das 5-fache Motiv ein Grad Celsius aus dem #Treibhauseffekt verschwinden zu lassen !!

Die fünf stichhaltigen Argumente, die den Vorsatz von Sven Plöger belegen, in Kurzform:

1. E-Mail von KLIMAMANIFEST an Bettina Böttinger vom 29.03.2019
2. Treibhauseffekt-Zitate in Büchern von Sven Plöger (2009 bis 2013)
3. Maildiskussion in 2014 mit Frank Böttcher (Co-Autor von Sven Plöger)
4. Diverse Beschwerdeverfahren beim WDR seit 2013 bis 2016
5. Telefonat vom 09.06.2017 mit WDR-Journalistin Charlotte Gnändiger

Deshalb: Es war nachweislich VORSATZ als Sven Plöger am 11.04.2019 in der WDR-LIVE-Sendung „Ihre Meinung“ 1 °C aus dem natürlichen Treibhauseffekt einfach hat verschwinden lassen, als er den globalen Absoluttemperaturwert einfach von 15 °C auf 14 °C bzw. den Wert aus dem Treibhauseffekt von 33 °C auf 32 °C heruntergesetzt hat. Wir haben den Sachverhalt bereits seit 12.04.2019 in einem kurzen, 5-minütigen Video erklärt, hier:

Der Video-Blogger von FMDsTVChannel hat den wichtigen Sachverhalt in seinem durch uns inspirierten Video ergänzend in einer animierten Sequenz ab Minute 2:38 noch etwas deutlicher rübergebracht, auch ein wichtiger O-Ton von „Klimapapst“ Hans Joachim Schellnhuber ist dort ebenfalls zusätzlich zu hören. Wir haben diese wichtige Video-Passage mit dem folgenden 3-minütigen-Video noch weiter ergänzt und optimiert:

Wenn Sie die obigen beiden Videos gesehen und verstanden haben, werden Sie nun auch womöglich noch besser verstehen, warum wir seit Jahren auf die Beantwortung der Fragestellung pochen, auf welchen Absoluttemperaturwert sich das 2-Grad bzw. 1,5-Grad bezieht:

Hinzukommt: Wir haben bis dato mindestens 27(!) verschiedene 2-Grad-Ziele recherchiert und die Klima(folgen)forschung teilt bis heute nicht mit, welches „2-Grad-Ziel“ denn das RICHTIGE/KORREKTE ist.

Sehr passend dazu auch diese Print-Artikel-Überschrift im Schweizer „TAGESANZEIGER“ vom 25.04.2019 auf Seite 3:

Fragen Sie sich: Wo liegt denn die Normaltemperatur der Fichte, wenn die Fichte kein Fieber hat? Fragen Sie diesen „tollen“ Revier-Förster Heinz Studer mal, ob er Ihnen den Normal-Temperaturwert der Fichte nennen kann, wenn er behauptet, die Fichte hätte (angeblich) Fieber.

Denn wenn Ihnen die NORMAL-Temperatur als absoluter Wert nicht mindestens ein-einziges Mal definitiv glaubwürdig ermittelt und mitgeteilt wird, sind Sie der Willkür ausgeliefert und es kann Ihnen mit x-beliebigen steigenden Temperaturkurven vorgegaukelt werden, Sie hätten (angeblich) Fieber oder es würde eine gefährliche Erderwärmung existieren, eine Täuschung, wie sie im Dezember 2016 durch den ARD-Meteorologen Karsten Schwanke mit der Öffentlichkeit versucht wurde, über die wir aber u.a. mit folgender .gif-Datei aufgeklärt haben:

Aber warum GENAU können wir behaupten, dass es VORSATZ war, dass Sven Plöger die 1 °C aus dem natürlichen Treibhauseffekt hat verschwinden lassen?

Das hat mehrere Gründe, die wir nachfolgend nennen und dokumentieren werden:

Der Hauptgrund allen voran ist die Tatsache, dass die Moderatorin Bettina Böttinger und damit die zuständige WDR-Redaktion von „Ihre Meinung“ seit dem 29.03.2019 per Mail über die wichtige 15°C-Argumentation informiert war und zwar durch unser Mail, hier:

Aber – wie so häufig bei den öffentlich-rechtlichen TV-Sendern – bekommt man dann eine unpersönliche, automatische Antwort, die aber trotzdem beweist, dass unsere Mail vom 29.03.2019 beim WDR angekommen ist:

Der WDR war also nachweislich informiert. Setzen Sie diesen Nachweis auch in Beziehung zu der Video-Aufforderung von Bettina Böttinger vom 29.03.2019:

Wenn es diesem öffentlich-rechtlichen Sender wirklich um Aufklärung und die Repräsentanz aller und insbesondere sehr relevanter Recherchen und Auffassungen gehen würde, hätte dieser grösste deutsche gebühren-finanzierte TV-Sender den Widerspruch, der in endlosen Schulbücher nachzulesen ist, zum Thema in der Sendung gemacht.

Stattdessen passierte u.a. DAS:

In der Sendung „Ihre Meinung“ am 11.04.2019 kam es dann zu diesem peinlichen Fehler: Es wurde die „2“ bei CO2 fälschlich hochgestellt:

Screenshot aus WDR „IHRE MEINUNG“ vom 11.04.2019 (gelbe Pfeile durch www.klimamanifest.ch)

Obwohl es sich oberflächlich nur um eine vermeintliche Kleinigkeit handelt, sagt dieser Fehler doch sehr viel über die zweifelhafte „Kompetenz“ der im Hintergrund tätigen WDR-Journalisten (hier: Jens Eberl) aus. Abgesehen davon, dass sich bis heute niemand vom WDR für den Fehler entschuldigt hat, auch nicht der über Twitter informierte und verantwortliche WDR-Journalist Jens Eberl. Die WDR „Ihre Meinung“-Sendung vom 11.04.2019 war somit leider die übliche Klimawandel-Propaganda der öffentlich-rechtlichen TV-Medien, denn die paar kritischen Stimmen waren in der Sendung unbedeutend und hatten keine wirklich stichhaltigen Argumente zur Entlarvung des Erderwärmungs-Schwindel.

Übrigens: Dem ach-so-renommierten Grimme-Institut in Marl ist dieser gleiche CO2-Fehler bereits im Jahr 2011 passiert.

Und so lobt der WDR seine Moderatorin und Vorzeige-Journalistin Bettina Böttinger auf der Webseite zur Sendung „Ihre Meinung“ (rot-Markierungen durch Klimamanfest.ch):

Aber nun zurück zu unserer Mail an den WDR vom 29.03.2019:

Als Anlage war unserer Mail vom 29.03.2019 eine Schulbuchseite 194 aus einem aktuellen KLETT-Geographie-Schulbuch aus dem Jahr 2017 incl. Titel-Cover als 2-seitige .pdf-Datei beigefügt:

Im oberen Teil der Schulbuchseite 194 findet sich eine drei geteilte Grafik, die in der dritten Grafik „c“ – ganz rechts – den Schülern zeigt und erklärt, woran man (angeblich) einen – so wörtlich – „durch den Menschen verstärkten Treibhauseffekt“ erkennt:

…nämlich an einem globalen Temperaturwert oberhalb von 15°C. Das Schulbuch spricht – so wörtlich – von „+15°C + X„:

Aber die Grafik auf der Schulbuchseite 194 unten, die die globalen Temperaturen ausweist, zeigt aber keine globalen Absoluttemperaturwerte, die seit 1880 die 15°C aus dem natürlichen Treibhauseffekt überschritten haben, was lernende Schulkinder aber womöglich auf den ersten Blick nicht sehen und nicht erkennen:

Erst wenn man die Absoluttemperaturen zusätzlich ergänzt, erkennt jeder Schüler, dass der Höchstwert der globalen Durchschnittstemperatur seit 1880 nur zwischen 14,5°C und 14,6°C, also unterhalb von 15°C liegt:

Die Temperaturlinien mit den globalen Absoluttemperaturen wurden von www.klimamanifest.ch zur besseren Sichtung zusätzlich hinzugefügt.

Diese Recherche über die wichtige Klett-Geographie Schulbuch-Seite 194 ist auch als 18-minütiges Video verfügbar. In dem Video werden am Ende auch noch weitere Schulbuch-Seiten aus anderen Schulbüchern gezeigt:

Diese Argumentation aus dem obigen 18-minütigen Video lässt sich auch auf einer A4-Seite anschaulich für jeden klimastreikenden #Fridays-for-Future – Klimaaktivisten darstellen, um ihm in aller Kürze zu zeigen, dass die Gefährlichkeit der Erderwärmung definitiv ein Schwindel und eine Täuschung ist:

.pdf

In den offiziellen globalen Klima-Langberichten, die die Weltwetterorganisation (WMO) in Genf seit 1993 einmal jährlich veröffentlicht, lagen die Globaltemperaturen in den letzten 5 Jahren auch nur zwischen 14,57°C [2014] und 14,83°C [2016]; das Jahr 2018 wurde von der WMO bei 14,68°C ausgewiesen:

Also allesamt unterhalb von 15°C. Besonders eindrucksvoll erwähnte der ZDF-Wetterfrosch Benjamin Stöwe im ZDF-Morgenmagazin am 19.01.2017 den globalen Temperaturwert für das Jahr 2016:

Video nicht mehr verfügbar

In der „Summary für Policy Makers“ (SPM) des 4. IPCC-Bericht 2007 und auch im wissenschaftlichen IPCC-Langbericht aus dem Jahr 2007 sind die globalen Absoluttemperaturwerte seit 1850 auch abzulesen. Der globale Absoluttemperatur für das Jahr 1850 lag demnach bei ziemlich genau 13,69°C:

Ausschnitt aus: https://www.de-ipcc.de/media/content/IPCC2007-WG1.pdf#page=6 (rote Linien und roter Text von www.klimamanifest.ch nachträglich ergänzt)

Interessant auch: Stefan Rahmstorf bestätigte am 17.03.2019 auf Twitter, dass er einer der Autoren der betreffenden IPCC-Dokumente aus 2007 gewesen sei und er redete sich dann in der Twitter-Diskussion um Kopf-und-Kragen.

Dieser absolute globale Temperatur-Wert von 13,69°C für das Jahr 1850 bzw. als globale Mitteltemperatur für den Zeitraum 1850 – 1990 lässt sich auch über die Seite 6 und die Seite 8 des aktuellen Klimawandel-Langbericht der WMO in Genf für das Jahr 2018 belegen. Recherchieren und rechnen Sie dort mal selbst. Die Zahlen passen, die Zahlen sind konsistent.

Besonders peinlich ist deshalb die Behauptung des Klimafolgenforschers vom PIK in Potsdam, Anders Levermann, der auf die Frage, welcher globale Absoluttemperaturwert denn für das Jahr 1850 bzw. beim Beginn der Industrialisierung ausgewiesen wird, bei der Anhörung am 28.11.2018 im Deutschen Bundestag, anstatt den eigentlich korrekten Wert 13,69°C hätte nennen müssen, aber stattdessen den Wert „15 °C“ nannte, kein Witz, hören Sie selbst:

Video nicht mehr verfügbar

Soviel zur Kompetenz der Klimafolgenforscher aus Potsdam. Wir hatten schon des Öfteren den Eindruck, dass diese „Experten“ Ihre eigene Wissenschaft nicht kennen, geschweige denn verstanden haben.

Aber vielleicht hat ja Anders Levermann nur genauso „gedacht“, wie dieser Schüler hier, der dieses Bild gemalt hat?:

Erkennen Sie die Parallelen zur Schulbuch-Seite 194?

Bis hierhin ist festzuhalten, dass sowohl in relevanten IPCC-Berichten, als auch in Veröffentlichungen der Weltwetterorganisation (WMO) in Genf die globalen Absoluttemperaturwerte zu finden sind, die dort immer unterhalb von 15°C aus dem natürlichen Treibhauseffekt ausgewiesen worden sind. Unsere Recherchen ergaben bis heute, dass weder der IPCC, noch die WMO seit 1988 bzw. seit 1993 eine absolute globale Mitteltemperatur oberhalb von 15°C ausgewiesen hatten.

Es ist ja auch nicht sehr verwunderlich, weil die Erde seit dem Ende der „Kleinen Zeit“ (ca. um 1850) das damals niedrige globale Temperaturniveau bis heute „versucht“, wieder aufzuholen, aber dabei immer unterhalb von global 15°C geblieben ist. Die TAGESSCHAU.DE-Grafik vom 27.12.2013 weist zeitlich nach der „Kleinen Eiszeit“ eine Globale Mitteltemperatur oberhalb von 15°C aus, was aber bekanntlich – gemäss WMO in Genf – nicht korrekt ist. Die folgende, von uns selbst erstellte Animation korrigiert den „Fehler“ in der Grafik, denn die Grafik ist ansonsten korrekt:

Ergänzende und richtigstellende und von klimamanifest.ch-erstellte Animation über eine Grafik von TAGESSCHAU.DE vom 27.12.2013 über die Globale Mitteltemperatur nach der „Kleinen Eiszeit“.

Schauen Sie auch unser ergänzendes Aufklärungsvideo in dem #SagsMirInsGesicht-Gespräch mit Kai Gniffke, wie der für die obige TAGESSCHAU.DE-Grafik verantwortliche ARD-Meteorologe Tim Staeger die Grafik in Zukunft „geändert“ hatte, damit die Temperatur-Diskrepanz nicht mehr auffällt, im Video wird es erklärt ab Minute 1:03:25:

Video nicht mehr verfügbar
 

Auch in TV-Berichten der öffentlich-rechtlichen Sender sind in den letzten Jahren vereinzelt in Grafiken diese korrekten globalen Absoluttemperaturwerte unterhalb von 15°C ausgewiesen worden, z.B. in der 20-Uhr-TAGESSCHAU am 07.12.2009:

Screenshot aus TAGESSCHAU (DAS ERSTE) vom 07.12.2009 (gelbe Linie ergänzt durch www.klimamanifest.ch)

SRF „TAGESSCHAU“ am 07.12.2009:

Screenshot aus SF1 „TAGESSCHAU“ am 07.12.2009 (Hinweis: Der Schreibfehler „IPPC“ ist so in der Original SF1-Sendung enthalten gewesen)

ZDF „HEUTE-JOURNAL“ vom 06.12.2009:

Screenshot aus ZDF „HEUTE JOURNAL vom 06.12.2009

Und auch noch im RBB am 11.10.2017 in einem Filmbericht über „25 Jahre PIK POTSDAM„, kein Witz:

Screenshot aus: RBB am 11.10.2017

So, nun setzen Sie diese obigen Screenshots mit der Behauptung in Beziehung, die am 08.12.2009 in der WDR-Sendung „QUARKS & Co“ bei Erklärung des angeblich „natürlichen Treibhauseffektes und im Beisein von Stefan Rahmstorf (PIK POTSDAM) gefallen ist:

Screenshot aus WDR „QUARKS & Co“ vom 08.12.2009. Der Text „15°C, jetzt ist die Erde perfekt“ als Schriftzug nachträgllich ergänzt, denn der Text wurde am 08.12.2009 in der WDR-Sendung nur von der Offstimme gesprochen.

Und es gibt ja neben diesem noch mehr einschlägige Zitate in dem obigen Plöger-Video, z.B. dieser folgende O-Ton von Harald Lesch vom 17.04.2016, den wir im obigen Nachtrags-Video ebenfalls eingebunden haben:


…und auch sogar die NASA (!) weist auf ihren Webseiten die 15°C als Wert aus dem natürlichen Treibhauseffekt (=greenhouse-effect) aus:

Quelle: https://climate.nasa.gov/faq/19/what-is-the-greenhouse-effect/ (Abruf: 22.04.2019, 22:00 MESZ) (rot-Markierung durch www.klimamanifest.ch ergänzt)

und hier:

Quelle: https://climate.nasa.gov/causes/ Abruf: 22.04.2019, 22:15 MESZ (rot-Markierung durch www.klimamanifest.ch ergänzt)

…und auch sogar die WMO (!) in Genf weist auf ihrer Webseite rechnerisch die 15°C als Wert aus dem natürlichen Treibhauseffekt (=greenhouse-effect) aus, denn :

Quelle: https://public.wmo.int/en/our-mandate/focus-areas/environment/greenhouse%20gases (Abruf: 22.04.2019, 22:22) (rot-Markierung durch www.klimamanifest.ch ergänzt)

und sogar auch bei Svante Arrhenius werden die „15°C“ als „mittlere absolute Temperatur der Erdoberfläche“ ausgewiesen:

…und es gibt noch viel, viel mehr O-Töne, Grafiken und Zitate, die eindeutig die 15°C als „Normal-Temperatur“ ausweisen, auch wenn es nur sehr selten so deutlich mit den „15°C“ formuliert wird, wie im Buch von Mojib Latif aus dem Jahr 2003:

Oder auch in dem Buch „Eiskeller oder Treibhaus“ von dem Ende der 1980er-Jahren sehr bekannten Wissenschafts-Journalisten Heinz Haber werden die „15°C“ als „Normaler Mittelwert“ bezeichnet:

Insofern steht auf der Klett-Geographie-Schulbuchseite 194 und auch vielen anderen deutschen Schulbüchern nix Falsches, sondern nur genau DAS, womit die offizielle Klima(folgen)forschung seit über 30 Jahren die Gefährlichkeit der globalen Erderwärmung begründet. Insofern weicht auch der bekannte Schweizer Klimaforscher Thomas Stocker dieser argumentativen Tatsache aus und sagte am 02.09.2018 gegenüber dem Schweizer Fernsehen (SRF) ausweichend:

Schulbücher sind nicht geeignet, um eine wissenschaftliche Debatte zu führen.

Merkwürdig, Herr Stocker, denn – wie gesagt – in Schulbücher steht nur genau die gleiche relevante Argumentation der offiziellen Klima(folgen)forschung, mit der auch seit Jahren die Gefährlichkeit der Erderwärmung begründet wurde und bis heute wird. Und ein Thomas Stocker ist bis heute nicht in der Lage, den angeblichen Treibhauseffekt logisch-konsistent zu erklären, was wir bereits vor Jahren in einem Video als „Unbequeme Wahrheit #3“ thematisiert haben. In dem Video werden Sie auch darüber informiert, dass auch der IPCC ab dem 3. IPCC-Bericht 2001 bei den Temperaturwerten beim angeblichen Treibhauseffekt (greenhouse-effect“) ebenfalls „getrickst“ hatte:

Video nicht mehr verfügbar

Wichtiger Recherche-Tipp zu Thomas Stocker: „Der Schweizer Klimaforscher Thomas Stocker beantwortet Fragen seiner Kritiker !!

Obwohl im aktuell 5. wissenschaftlichen IPCC-Bericht 2013/2014 der Ausweis von Absoluttemperaturwerten aus dem sog. „Greenhouse-effect“ (=Treibhauseffekt) komplett verschwunden ist, findet sich doch im Glossar des IPCC-Berichts 2013/2014 beim Thema Energy budget of the Earth“ auf Seite 1453 – also ganz weit hinten – ein interessanter Satz, der die „15°C“ als argumentativ-wichtig weiterhin belegt:

Screenshot von Seite 1453 vom 5. IPCC-Bericht 2013/2014 (https://www.ipcc.ch/site/assets/uploads/2018/02/WG1AR5_all_final.pdf#page=1469) gelb-rot-Markierung durch www.klimamanifest.ch

Denn mit dieser wichtigen 15°C-Argumentation zum Beleg eines natürlichen Treibhauseffektes argumentiert auch der Deutsche Wetterdienst (DWD) z.B. auf Twitter:

Und in dem dort verlinkten Blogtext von „Welt der Physik“ der deutschen physikalischen Gesellschaft (DPG) findet sich diese anschauliche Grafik:

Und Sie kennen dort in der Grafik erkennen, dass die „15°C“ (siehe Temperaturwertanzeige rechts auf der Erdoberfläche) als Erdbodenabstrahlung an den „390 W/m²“ (aus dem Stefan-Boltzmann-Gesetz) gekoppelt sind und diese Grafiken mit den argumentativ „390 W/m²“ Erdbodenabstrahlung finden sich auch in den IPCC-Berichten von 1995 bis 2007. Deshalb kann/darf man den Wert aus dem Treibhauseffekt von 15°C nicht einfach auf 14°C heruntersetzen – wie das Sven Plöger am 11.04.2019 in der WDR-Live-Sendung aber gemacht hatte. Denn dann ist die gesamte Treibhauseffekt-Argumentation nicht mehr stimmig und nicht mehr konsistent.

Logisch nachvollziehbar wird unsere Argumentation auf Basis der 15°C, um die Temperaturbasis für die Gefährlichkeit einer Erderwärmung zu definieren, ja auch noch zusätzlich, wenn Sie sich die 23-Seitige Recherche-Dokumentation über Publikationen anschauen, wo seit Jahren ein globaler Absoluttemperaturwert oberhalb von 15°C ausgewiesen worden ist:

Und sehr wichtig:
Und kein „Geringerer“ als Stefan Rahmstorf vom PIK in Potsdam hat im Februar 2018 unsere drei wichtigen Prämissen mit unserer logischen Schlussfolgerung unwidersprochen bestätigen müssen (.pdf):

Stefan Rahmstorf hat in seinem Blogtext im Februar 2018 versucht unsere Recherche zur globalen Absoluttemperatur als angebliches „Verwirrspiel“ zu diskreditieren, was ihm aber nicht gelungen ist, weil wir all seine Argumente in unserem Blogtext entkräftet und widerlegt haben. Nicht zuletzt die bereits erwähnte 23-seitige Recherche über globale Absoluttemperaturen belegt, dass Rahmstorf und die gesamte Klima(folgen)forschung selbst die Urheber und die Verantwortlichen für das angebliche „Verwirrspiel“ sind, denn mindestens diese Klima(folgen)forscher mit Namen Schönwiese, Graßl, Latif, Crutzen, Hennicke, Hansen, Schellnhuber, Kromp-Kolb haben selbst in den letzten 30 Jahren bei der globalen Absoluttemperatur nachweislich „Verwirrung“ gestiftet, in dem sie nachweislich in ihren Publikationen globale Absoluttemperaturen oberhalb von 15°C ausgewiesen haben.

Denn auch ein Stefan Rahmstorf hat ein „Problem“:
Unsere Argumentation steht de facto auch auf drei Seiten in seinem Buch „DER KLIMAWANDEL“, was das folgende 5-minütige Video dokumentiert:

Und auch im aktuellen Referenten-Entwurf aus Februar 2019 für das geplante Bundes-Klimaschutzgesetz (KSG) steht unter § 1 Zweck des Gesetzes ein Hinweis auf die „globale Durchschnittstemperatur„:

Auszug aus Referentenentwurf zum Bundesklimaschutzgesetz (Februar 2019) (Rot-Markierungen durch www.klimamanifest.ch)

Und nun zurück zur WDR-Sendung „Ihre Meinung“ vom 11.04.2019 mit Sven Plöger:

Bettina Böttinger wurde in unserer Mail vom 28.03.2019 bekanntlich gebeten, sie möge sich bitte – als intelligente Journalistin – mit dem Inhalt auf dieser Schulbuchseite 194 logisch auseinandersetzen und womöglich – so hatten wir erhofft und vielleicht auch erwartet – wird sie sich dann bei uns melden. Aber es kam kein Anruf, stattdessen setzte Sven Plöger in der Sendung „Ihre Meinung“ am 11.04.2019 den globalen Temperaturwert aus dem natürlichen Treibhauseffekt von 15°C auf 14°C herunter:

Das kann man dann schon als kriminell bezeichnen, was Sven Plöger am 11.04.2019 gemacht hat. Auf Sven Plöger passen deshalb auch die drei Bezeichnungen: Gauner, Schwindler, Scharlatan !! (wie auch für Harald Lesch)

…und mit dem folgenden Flyer täuschen auch die #Scientists4Future, zu denen auch Sven Plöger mit Listeneintrag gehört, also die 23.000 (angeblichen) Wissenschaftler, auf die wir in diesem Blogtext auch später noch zu sprechen kommen:

Diese #Scientists4Future verschweigen

1., dass sich die Globaltemperatur in den letzten 2 Jahren (2017 und 2018) wieder gesenkt hatte
und

2., der Wert aus dem „natürlichen Treibhauseffekt“ von 15°C gar nicht überschritten worden ist
und

3., die NASA mit James Hansen Ende der 1980er-Jahren nachweislich höhere globale Absoluttemperaturwerte (+15,4°C) ausgewiesen hatte, über die u.a. auch der SPIEGEL damals berichtet hatte.

 

Die weiteren vier stichhaltigen Argumente, die den Vorsatz von Sven Plöger belegen,

2. Treibhauseffekt-Zitate in Büchern von Sven Plöger (2009 bis 2013)
3. Maildiskussion in 2014 mit Frank Böttcher (Co-Autor von Sven Plöger)
4. Diverse Beschwerdeverfahren beim WDR seit 2013 bis 2016
5. Telefonat vom 09.06.2017 mit WDR-Journalistin Charlotte Gnändiger

können Sie per Klick auf www.klimamanifest.ch recherchieren.

 




Abkühlung der Hysterie bzgl. globaler Erwärmung

Zunächst darf ich der Leserschaft versichern, dass ich kein Klimawandel-„Leugner“ bin. Niemand bestreitet, dass sich das Klima ständig geändert hat seit dem Ende der letzten großen Eiszeit vor 12.000 Jahren. Ich habe genügend wissenschaftliche Literatur durchgearbeitet, um der gut dokumentierten Ansicht zu folgen, dass unser Planet die Mittelalterliche Warmzeit MWP (950 bis 1250) und die Kleine Eiszeit LIA (1550 bis 1850) durchlaufen hat. Auch bin ich darüber informiert, dass solare und ozeanische Zyklen das globale Klima gesteuert haben.

Die NASA schreibt jetzt von signifikanten Änderungen der globalen Temperatur. Der NASA (und anderen) zufolge gab es auf dem Globus einen persistenten Erwärmungstrend im vorigen Jahrhundert von 1911 bis 1940. Dann kehrte sich dieser Trend um, und bis 1970 erfolgte Abkühlung (1). Jetzt berichtet die NASA, dass die Temperatur während der letzten 10 Jahre um 0,31°C gestiegen sei und dass sich dieser Trend unterscheidet von den 0,31°C Erwärmung, welche die NASA für die dreißiger Jahre nennt (2). Aber bei näherem Betrachten der Daten und Verfahren der NASA sollte jedweden Leser skeptisch hinsichtlich der darin genannten Ergebnisse machen.

Festlands-Temperaturen

Es stellt sich heraus, dass es über lange Zeiträume tatsächlich ziemlich schwierig ist, Temperaturänderungen konsistent zu messen. Die Probleme ergeben sich aus Änderungen des Messverfahrens (damals Quecksilber-Thermometer, heute Thermistoren) sowie Änderungen der Umgebung der Messpunkte. Verdeutlichen lässt sich dieses Problem am Love Field Airport in Dallas, wo mittlere Temperaturen monatlich seit 1940 gemessen werden. Im Verlauf dieser Zeit mutierte dieser Airport von einem kleinen Flughafen nahe einer kleinen Stadt (3) zu einem großen urbanen Flughafen mit 200 Flugbewegungen täglich. Diese Änderungen haben den Flughafen massiv erwärmt. Da ist es kein Wunder, dass die gemessenen Temperaturen dort seit 1940 einen Aufwärtstrend um etwa 1,6°C aufweisen (4)

Aber wenn wir uns die Temperaturen in Centerville in Texas anschauen – erheblich weniger von Landverbrauch-Änderungen betroffen – sehen wir den gegenteiligen Trend. Die mittlere gemessene Temperatur in Centerville zeigt einen abnehmenden Trend und liegt jetzt um ca. 0,2°C unter dem Wert im Jahre 1940 (5).

Als Folge dieses städtischen Wärmeinsel-Effektes haben Wissenschaftler auf der ganzen Welt nach ,naturnahen‘ Wetterstationen gesucht (oder sie konstruiert), um Temperaturänderungen besser erfassen zu können. Diese Stationen befinden sich in Gebieten, in denen keine städtischen Entwicklungen vonstatten gegangen sind und dies auch nicht zu erwarten sind. An diesen Stationen zeigen sich keine bedeutsamen Änderungen der gemessenen Festlands-Temperaturen. Die besten Daten kommen von der NOAA, welche im Jahre 2002 114 ländliche Temperatur-Messpunkte in den USA einrichtete. Beim Betrachten derselben erkennt man keinen persistenten Anstieg der US-Temperaturen (6). Tatsächlich war das Jahr 2018 um etwa 0,2°C kühler als die ersten beiden Jahre mit Messungen. Februar und März zusammen waren der kälteste Zeitraum von zwei Monaten, der jemals vom USCRN aufgezeichnet worden war.

Monatliche Temperaturänderungen an USCRN-Stationen

Und nicht nur in den USA bleiben die Temperaturen in ländlichen Gebieten stabil – vielmehr ist das auf dem gesamten Globus so. Jeder Temperaturanstieg verschwindet, wenn Änderungen des Landverbrauchs eliminiert werden. Hier folgen Temperatur-Graphiken aus ländlichen Gebieten in den Niederlanden, in Irland, Chile, der Antarktis, Japan (7) und China (8):

Außerdem sind es Klimawissenschaftler selbst, welche die von der NASA herangezogenen globalen Festlands-Temperaturdaten in Frage stellen. 17 führende Klimawissenschaftler (darunter welche von der NOAA) haben jüngst eine gemeinsame Studie erstellt, in der sie nach einem neuen Netzwerk globaler Wetterstationen rufen, in welchen „mangelhafte Messungen und flächendeckende Änderungen bei den Mess-Netzwerken und Verfahren vermieden werden“ (9).

Aber selbst diese Bemühungen, Temperaturänderungen messtechnisch zu erfassen, könnten nicht ausreichen – sogar die ,naturnahen‘ USCRN-Temperatur-Messpunkte sind weiterhin in Richtung höherer Temperaturen durch Änderungen des Landverbrauchs betroffen. Beispiel: Neben einem USCRN-Messpunkt bei der University of Rhode Island wurde ein Parkplatz und eine Straße gebaut (10). Prompt kam es an diesem Messpunkt zu einer Erwärmung um 0,34°C (11)(12):

Ozean- und Satelliten-Temperaturmessungen

Die NASA-Schätzungen der globalen Temperaturen stützen sich auch stark auf Schätzungen der Temperaturen im Ozean und der Luft darüber. Ozean-Temperaturen wurden über all die Jahre mit höchst inkonsistenten Verfahren gemessen (mit Eimern von Schiffen aus, in in Schiffsmotoren einströmendem Kühlwasser, Bojen und jüngst Satelliten). Zusätzlich zu den technischen Änderungen bei den Messungen gibt es kurzfristige jährliche Ozean-Zyklen wie etwa El Nino/La Nina sowie langfristige (multidekadische) Zyklen wie die Pacific/Atlantic Decadal Oscillations. All diese beeinflussen die Wassertemperatur in vielen Tiefenstufen über Jahrzehnte. Ein kürzlich erschienener Report von UC San Diego beschrieb das Problem: „die Bestimmung von Änderungen der mittleren Temperatur in allen Ozeanen der Welt hat sich als fast unmöglich erwiesen wegen der Verteilung unterschiedlicher Wassermassen“ (13).

Angesehene Klimawissenschaftler nehmen die Herausforderung der Messungen in den Ozeanen auf und kamen zu Ergebnissen, die sich sehr von den Ergebnissen im NASA-Report unterscheiden. Satellitenmessungen von der University of Alabama zeigen einen Anstieg der Lufttemperaturen über den Ozeanen seit 1980 (dem Ende der jüngsten Abkühlungsperiode), jedoch nur um 0,13°C pro Dekade (14). Beide wesentlichen Messreihen von Satelliten zeigen Temperaturen, die derzeit niedriger liegen als im Jahre 1998, wenngleich mit unterschiedlich starker Abweichung (15). Der Ozeanograph Carl Wunsch von der Harvard University schätzte, dass die mittlere Temperatur in den Ozeanen von 1994 bis 2013 um 0,02°C gestiegen war (16). Das Scripps Institute of Oceanography schätzte den Temperaturanstieg in den Ozeanen während der letzten 50 Jahre auf 0,1°C. Die Wissenschaft und die Historie der Messung von Ozean-Temperaturen ist alles andere als ,settled‘, und es gibt viele glaubwürdige Schätzungen, dass sich die Ozean-Tempeaturen keineswegs rapide ändern oder auch nur ansatzweise in der Nähe der von der NASA geschätzten Rate steigen.

Zurück zur Temperaturschätzung der NASA

Bei ihren globalen Temperatur-Abschätzungen steht natürlich auch die NASA vor all diesen Problemen und noch weiteren. Es gibt in vielen Teilen der Welt kaum zuverlässige Daten im globalen Maßstab (Afrika, Naher Osten). Viele der historischen Daten waren von Änderungen des Landverbrauchs sowie Änderungen der Messverfahren betroffen. In ihrem Bemühen, diese Probleme anzugehen, hat die NASA die Messpunkte und Verfahren drastisch geändert, welche man anwendet, um Temperaturen während der letzten Jahrzehnte abzuschätzen (17). Einige Beobachter fragen sich, ob die neuen Messpunkte und Verfahren das gleiche Muster aufweisen würden wie es bei den ursprünglichen Verhältnissen der Fall gewesen wäre.

Die NASA hat nicht nur die Messpunkte adjustiert, deren Angaben sie verwendet hatte, sondern auch die Daten selbst, welche in ihren Schätzungen eingehen (18). Hier sind einige Beispiele gelistet, und zwar vom Flughafen Darwin in Australien sowie Reykjavik in Island. Sie zeigen die großzügigen Änderungen der Daten, welche die NASA übernommen hat (19):

In diesen Graphiken sollte man viele problematische Elemente beachten:

1) Die nicht adjustierten Daten zeigen während der letzten 80 Jahre an diesen Punkten keine Erwärmung

2) Die nicht adjustierten Daten werden so schwach dargestellt, dass der Graph kaum zu erkennen ist. Warum zeigt die NASA diesen auf derartige Weise?

3) Die NASA änderte jeden Datensatz dahingehend, dass es in der Vergangenheit kälter war – die „adjustierten, bereinigten“ Daten sind kühler als die „nicht adjustierten“ Daten – und die „homogenisierten“ Daten sind noch einmal kühler. Eine kältere Vergangenheit erlaubt es der NASA zu behaupten, dass die gegenwärtigen Temperaturen dramatisch höher liegen.

Die NASA hat die Daten dieser Messpunkte „adjustiert, bereinigt und homogenisiert“, ebenso wie tausende anderer Daten auch, um den Datensatz zu erzeugen, den die NASA heranzieht. Dann fügt sie noch Satellitendaten hinzu und bringen ein Gitternetz-Verfahren an, bis sie schließlich mit einem finalen Ergebnis der Temperaturänderung aufwartet.

Unnötig zu sagen, dass die Änderungen der NASA Gegenstand beträchtlicher Diskussionen – innerhalb der klimawissenschaftlichen Gemeinschaft, der Gemeinschaft der Klima-„Skeptiker“ und sogar innerhalb der NASA selbst (20) sind. Die „nicht adjustierten“ Rohdaten wurden bedeutend adjustiert (21). Die Satelliten-Messungen sind dem Klimaforscher bei Berkeley Earth Zeke Hausfather zufolge sehr kontrovers: „Falls man Adjustierungen nicht mag, sollte man die Satelliten-Aufzeichnungen nicht heranziehen“ (22). Ein Hauptproblem besteht darin, dass die mittleren Adjustierungen zwischen Roh- und Enddaten erheblich nur in eine Richtung vorgenommen worden waren – die Adjustierungen lassen die Vergangenheit kälter werden – wodurch die gegenwärtigen Temperaturen im Vergleich wärmer daherkommen (23). Die NASA selbst ist offenbar nicht glücklich mit ihren derzeitigen Formeln und plant, demnächst mit einer vierten Version von „Adjustierungen“ aufzuwarten (24).

Andere Indikatoren der globalen Temperatur

Die Debatte um Temperatur-Adjustierungen und Schätzungen seitens der NASA können rasch in mathematische Manipulationen ausarten, die weit über diesen Beitrag hinausgehen. Wissenschaftler diskutieren über Änderungen der globalen Temperatur mit einer Größenordnung von einem Prozent oder einem Grad Celsius. Glücklicherweise gibt es aber noch eine Vielfalt anderer Klima-Indikatoren, mittels welcher man Temperaturänderungen erkennen kann. Der von der NASA befürworteten Theorie zufolge haben die Menschen seit über 70 Jahren den Kohlendioxid-Gehalt der Atmosphäre zunehmen lassen (25) – und dieses zusätzliche CO2 hat zu nachweislich höheren Temperaturen geführt, welche wesentliche Aspekte des globalen Klimas beeinflussen.

Zum Glück für unseren Planeten gibt es keine Hinweise auf Änderungen der großräumigen Klima-Indikatoren, die sich mit der Temperatur ändern. Hier folgen einige Beispiele:

US-Festlandstemperaturen: Im Jahre 1986 erklärte James Hansen vor dem Kongress, dass ein steigender CO2-Gehalt in den USA bis zum Jahre 2020 einen Temperaturanstieg um drei bis vier Grad verursachen würde (26). Diese Prophezeiung war spektakulär falsch – die Temperaturen haben sich, wenn überhaupt, nur um einen Bruchteil verändert:

Anstieg des Meeresspiegels: Die NASA (und später auch Al Gore) haben klargestellt, dass auf einem wärmeren Planeten Eis schmelzen und die Meere sich ausdehnen würden – mit einem Anstieg bis zu 1,20 m bis zum Jahre 2050. Ein beschleunigter Anstieg würde potentiell küstennahe Städte überfluten. Aber die NOAA stellt eindeutig fest, dass eine Beschleunigung des Anstiegs seit Beginn von Messungen nicht festzustellen ist (29). Falls ein sich erwärmender Planet den Meeresspiegel beschleunigt steigen lassen soll, aber eine solche Beschleunigung nicht festzustellen ist – dann scheint es vernünftig anzunehmen, dass sich der Planet nicht erwärmt:

Hurrikane und andere nachteilige Wetterereignisse: Zu Beginn dieses Jahrhunderts erklärten uns Klimawissenschaftler, dass es eine Zunahme von Hurrikanen aufgrund der höheren Wassertemperatur im Ozean geben werde. Stattdessen war eher das Gegenteil der Fall: von 2006 bis 2016 erlebten die USA eine bemerkenswerte Hurrikan Dürre auf dem US-Festland (30). Tatsächlich hat die Aktivität tropischer Wirbelstürme während der letzten 50 Jahre keinerlei Trends bzgl. Häufigkeit und Stärke gezeigt (31). Außerdem meldete das IPCC im Jahre 2013, dass es auch hinsichtlich anderer Extremwetter-Ereignisse wie Dürren, Überschwemmungen und Tornados keinen Trend gebe:

Gletscher: Beobachter runzeln häufig ihre Stirnen, wenn sie schmelzende Gletscher sehen und dafür dir globale Erwärmung verantwortlich machen. Mit Sicherheit kann man sagen, dass es jüngst auf der Nordhemisphäre zu einem Rückzug der Gletscher gekommen war. Aber die Gletscher haben sich schon seit dem Ende der Kleinen Eiszeit im Jahre 1850 zurückgezogen, und zahlreiche Studien haben ergeben, dass sich viele Gletscher zu Beginn des 20. Jahrhunderts viel schneller zurückgezogen haben als heute (32). Glacier Bay in Alaska ist ein gutes Beispiel für den langzeitlichen Abschmelz-Trend:

Schneefall: Im Jahre 2001 sagten die Wissenschaftler beim IPCC (der globalen Autorität bzgl. Klimawandel), dass steigende globale Temperaturen zu einer Reduktion von Schneefällen und sogar zu einem Ende der Wintersport-Industrie führen können (33). Jedoch haben sowohl die NOAA als auch die Rutgers University festgestellt, dass die Schneefallmenge auf der Nordhemisphäre seit 1970 einen Aufwärtstrend aufweist. Falls durch höhere Temperaturen weniger Schnee fällt – sollte dann nicht mehr Schnee ein Indikator für niedrigere Temperaturen sein (34)?

Das sind großräumige Indikatoren, die nicht zum Gegenstand von Debatten um Messungen werden sollten. Sie sind nicht Schauplatz von „Adjustierungen“. Sie alle sagen mir, dass der NASA-Report hoffnungslos verzerrt ist in Richtung eines Temperaturanstiegs, der gar nicht stattfindet.

Zur Motivation der NASA, höhere Temperaturen zu melden

Warum sollte die NASA mit Ergebnissen kommen, die sich derartig von Ergebnissen anderer Klima-Beobachtungen unterscheiden? Man beachte hierzu die Historie globaler Temperatur-Abschätzungen seitens der NASA. Im Jahre 1986 machte James Hansen seine Theorie über die globale Erwärmung in seiner Anhörung vor dem US-Senat bekannt. Die folgenden 27 Jahre war Hansen Chef-Wissenschaftler der NASA und zuständig für die Vorbereitung und Präsentation jener Schätzungen. Ist es unrealistisch anzunehmen, dass die „Adjustierungen“ und Verfahren, die er nach seiner Aussage vor dem Senat angewendet hat, dazu dienten, seine Vorhersagen als korrekt erscheinen zu lassen? Welcher Anteil der NASA-Schätzungen ist einfach eine sich selbst erfüllende Prophezeiung?

Es ist nicht nur die NASA, die unter signifikantem Druck steht, der vermutlich den Bias in ihre Ergebnisse bringt. Klimawissenschaftler können in der gleichen Lage sein wie jene in anderen Bereichen (Ernährung, Arzneimittel, Psychologie), wo der Wunsch nach Erzeugung eines vorbestimmten Ergebnisses die Inputs, Verfahren und Ergebnisse ihrer Wissenschaft beeinflusst. Alarmistische Ergebnisse („wärmstes jemals!“; „Katastrophe steht bevor!“ oder „dringende Maßnahmen erforderlich!“) erzeugen allesamt Schlagzeilen; Vortragsverpflichtungen, Reisen zu Klimakonferenzen (IPCC) sowie zusätzliche Förderung ihrer Forschung. Finden die Wissenschaftler entgegen gesetzte Ergebnisse („nichts ändert sich wirklich“; „es ist einfach Wetter“; „Zufalls-Ereignisse wie üblich“), dann bekommen sie keinerlei Publicity und keine Förderung. Stattdessen werden sie angegriffen („pro Big Oil“; „Anti-Umwelt“ oder am schlimmsten „Klimawandel-Leugner“) (35). Tatsächlich gibt es tausende wissenschaftlicher Studien mit Ergebnissen, die denen der NASA entgegen stehen, aber diese bekommen nicht einmal ansatzweise die Aufmerksamkeit der Medien und finden auch keinen Eingang in die Schätzungen der NASA.

Summary

Es ist höchste Zeit für eine offenere und fairere Berichterstattung und Debatte über globale Temperaturen und Klimawandel. Jedes Mal bei Auftreten eines Wetter-Schadensereignisses machen die Medien dafür den Klimawandel verantwortlich, der nicht stattfindet. Es gibt jetzt Menschen, die durch die Straßen marschieren, um gegen eine nicht existente Krise zu protestieren. Auf der ganzen Welt werden Billionen Dollar ausgegeben, um eine angebliche Temperatur-Krise zu verhindern, die nicht im Gange ist. Diese Mühen und Gelder könnten weitaus sinnvoller aufgewendet werden, um unsere Umwelt zu schützen, für die Bildung der Menschen und tatsächlich, um dem Planeten zu helfen. Wir können Geld aufwenden, um unsere Ökosysteme vor Giften zu schützen, unsere Ozeane sauber zu halten, nachhaltige Landwirtschaft zu fördern sowie Natur-Habitate auszuweiten und zu schützen. Es ist an der Zeit, wirkliche Maßnahmen zu ergreifen, um unseren Planeten zu schützen und zu einem besseren Ort zu machen – und mit den Sorgen hinsichtlich Klimawandel aufzuhören, die völlig fehl am Platze sind.

References

[1] https://climate.nasa.gov/vital-signs/global-temperature/

[2] Temp anomalies per NASA site: 2018 +.82 ° C less 2008 +.51 ° C =+.31 ° C. 1939 -.03 ° C – 1929 -.34 ° C =+.31 ° C

[3] Dallas population 400,000. Love Field had three daily flights. Wikipedia

[4] Data per iweathernet.com. Authors trend analysis – least squares regression.

[5] Iweathernet.com Authors trend analysis – least squares regression.

[6] https://www.ncdc.noaa.gov/temp-and-precip/national-temperature-index/time-series?datasets%5B%5D=uscrn&parameter=anom-tavg&time_scale=p12&begyear=2004&endyear=2019&month=3 See also https://agupubs.onlinelibrary.wiley.com/doi/10.1002/2015GL067640 for discussion of this data series. Trend is not significant at any reasonable level of certainty. Measurements themselves are subject to +/-.3°C at source.

[7] Temperatures from Japanese Meteorological Association.

[8] https://www.sciencedirect.com/science/article/pii/S0048969718331978

[9] Journal of Climatology 3/1/18 – https://rmets.onlinelibrary.wiley.com/doi/10.1002/joc.5458

[10] Data available at: https://www1.ncdc.noaa.gov/pub/data/uscrn/products/monthly01/CRNM0102-RI_Kingston_1_W.txt

[11] https://iowaclimate.org/2018/04/09/infrastructure

[12] Moose, Wy in Grand Teton National Park is experiencing record park visitors. Are they affecting measured temperatures at the USCRN site there?

[13] https://www.sciencedaily.com/releases/2018/01/180103160129.htm)

[14] https://www.nsstc.uah.edu/climate/2019/february2019/tlt_201902_bar.png Note this is closer to one third of the NASA estimated increase.

[15] http://www.drroyspencer.com/2014/10/why-2014-wont-be-the-warmest-year-on-record/

[16] https://www.tandfonline.com/doi/full/10.1080/16000870.2018.1471911)

[17] https://data.giss.nasa.gov/gistemp/history/

[18] https://data.giss.nasa.gov/gistemp/history/

[19] https://data.giss.nasa.gov/cgi-bin/gistemp/stdata_show.cgi?id=501941200000&dt=1&ds=5

[20] Sample paper on the debate from Journal of Geophysical Research – “There remain important inconsistencies between surface and satellite records.” https://pielkeclimatesci.files.wordpress.com/2009/11/r-345.pdf

[21] https://realclimatescience.com/2019/03/nasa-tampering-with-reykjavik-raw-temperature-data/

[22] https://www.carbonbrief.org/explainer-how-surface-and-satellite-temperature-records-compare

[23] https://data.giss.nasa.gov/gistemp/history/

[24] https://data.giss.nasa.gov/gistemp/

[25] CO2 has risen from 315 ppm to 380 ppm per Mauna Loa Observation 1960 – 2018.

[26] https://reason.com/archives/2016/06/17/climate-change-prediction-fail/print).

[27] https://www.ncdc.noaa.gov/temp-and-precip/national-temperature-index/time-series?datasets%5B%5D=uscrn&parameter=anom-tavg&time_scale=p12&begyear=2004&endyear=2019&month=2.

[28] https://www.nytimes.com/1988/06/24/us/global-warming-has-begun-expert-tells-senate.html?/pagewanted=all

[29] NOAA Tides & Currents – https://tidesandcurrents.noaa.gov/sltrends/sltrends_station.shtml?id=9414750

[30] US Hurricanes: https://journals.ametsoc.org/doi/pdf/10.1175/BAMS-D-17-0184.1

[31]Global Cyclone activity: https://agupubs.onlinelibrary.wiley.com/doi/10.1029/2011GL047711

[32] http://appinsys.com/globalwarming/gw_4ce_glaciers.htm

https://www.the-cryosphere-discuss.net/tc-2018-22/tc-2018-22.pdf https://www.researchgate.net/publication/312185500_High_sensitivity_of_North_Iceland_Trollaskagi_debris-free_glaciers_to_climatic_change_from_the_%27Little_Ice_Age%27_to_the_present

[33] https://www.theguardian.com/environment/2001/jan/23/globalwarming.climatechange)

[34] In 2019, Mother Nature is making this point emphatically with at or near record snowfall and cold temperatures across North America and Europe.

[35] Prof. Ross McKitrick http://www.rossmckitrick.com/uploads/4/8/0/8/4808045/gatekeeping_chapter.pdf and Judith Curry are well known commentators on this phenomenon.

Link: https://wattsupwiththat.com/2019/04/21/cooling-down-the-hysteria-about-global-warming/

Übersetzt von Chris Frey EIKE




Westinghouse eVinci Microreactor

Ohne Zweifel zählt Westinghouse zu den besonders innovativen Unternehmen auf dem Gebiet der Kerntechnik. Deswegen verwundert es auch nicht, daß sie sich mit ihrem „eVinci“ weltweit an die Spitze der Entwicklung sogenannter „Mikro-Reaktoren“ setzen. Dabei handelt es sich um „Kleinst-Kernkraftwerke“ im Leistungsbereich einiger hundert Kilowatt bis zu etwa 25 Megawatt elektrischer Leistung. Gemeinsam ist dieser Klasse, daß sie vollständig (in Serie) in einer Fabrik gefertigt werden und komplett auf einem LKW (etwa in einem Container) ausgeliefert werden sollen. Man zielt damit auf einen völlig neuen Markt: Das Kernkraftwerk nicht mehr als Milliarden teueres Großkraftwerk, sondern als dezentrales „Block-Heiz-Kraftwerk“. Ironischerweise ist diese Entwicklung erst durch die wetterabhängige Erzeugung mit Wind und Sonne so richtig angefacht worden. Die einstigen Vorteile des guten alten Stromnetzes – Versorgungssicherheit bei günstigen Kosten – drohen durch die „Regenerativen Energien“ systematisch zerstört zu werden. Will man nicht zurück ins Mittelalter, sind also schnellstens neue Lösungen gefragt.

Das Konstruktionsprinzip

Will man direkt in die Städte oder Industrieanlagen (Raffinerien, Chemieparks etc.) ist die maximale Leistung auf einige zehn Megawatt begrenzt. Diese Kernkraftwerke müssen für einen Inselbetrieb ausgelegt sein: Ohne ein Netz in Betrieb zu nehmen (Schwarzstart), nahezu unterbrechungsfrei laufen (kein Brennelementewechsel), äußerst robust auf Lastschwankungen reagieren können und nicht zuletzt – „sicher sein“.

Bei allen schweren Störfällen – Three Mile Island, Tschernobyl, Fukushima – war der Verlust des Kühlmittels (Wasser) ausschlaggebend. Während des Unfallgeschehens kamen noch Reaktionen des Kühlmittels mit den Reaktorwerkstoffen hinzu: Die Bildung von Wasserstoff und die anschließende Knallgas-Explosion führte z. B. in Fukushima erst zur Freisetzung von radioaktiven Stoffen. Es ist damit logisch, daß der gesamte Kühlwasserkreislauf besondere Sorgfalt bei jeder Wiederholungsprüfung erfordert (Zeitdauer und Kosten) und all seine Bauteile den Kostentreiber „nuclear grade“ erfüllen müssen. Hinzu kommt, daß insbesondere bei Druckwasserreaktoren erhebliche Druckverluste auftreten, die durch Pumpen mit großer Antriebsleistung ersetzt werden müssen. Ein Ausfall der Stromversorgung, wie z. B. in Fukushima durch die gewaltige Flutwelle, ergibt damit sofort ein ernsthaftes Sicherheitsproblem. Könnte man das Kühlmittel Wasser ersetzen und darüberhinaus noch ein rein passives „Umwälzverfahren“ anwenden, ergebe sich sofort ein Quantensprung in der Sicherheitstechnik.

Seit Anbeginn der Kernkrafttechnik hat man Natrium als Kühlmittel verwendet. Neben seinen herausragenden thermodynamischen Eigenschaften, besitzt es auch hervorragende neutronenphysikalische Eigenschaften. Allerdings war früher die Marschrichtung eine völlig andere: Man wollte sogenannte „Schnelle Brüter“ bauen, die aus Uran-238 mehr leicht spaltbares Plutonium-239 erzeugen, als sie während ihres Betriebs verbrauchen. Ursache war die falsche Annahme, daß die Vorräte an (wirtschaftlich) gewinnbarem Natururan nur sehr klein wären. Heute schwimmen wir weltweit nicht nur in Natururan, sondern auch bereits in Plutonium. Im Gegenteil, das Plutonium wird als „Endlager-Risiko“ und damit Handikap der Kernenergie betrachtet.

Strebt man einen „Schnellen Brüter“ an, muß dieser ein möglichst großes Volumen haben (Ausfluß von Neutronen) und daraus ergibt sich automatisch eine große Leistung. Schon muß man wieder die gleichen Sicherheitsprobleme wie bei einem Druckwasserreaktor lösen und stets im Griff behalten: Großes Kühlmittelvolumen, das auch noch zum Abtransport der Wärme ständig (aktiv) umgepumpt werden muß und unter keinen Umständen verloren gehen darf. Will man jedoch nur einen Reaktor (relativ) kleiner Leistung bauen, kann man diese Probleme geschickt umschiffen.

Wärmerohre als Kühlmedium

Beim eVinci wird der Wärmetransport vom festen Kern zum Arbeitsgas durch Wärmerohre (heat pipes) bewerkstelligt. Wärmerohre sind (dünne) Metallrohre mit einem Docht versehen, die teilweise mit einer Flüssigkeit gefüllt sind und anschließend gasdicht verschweißt werden. Das mit Flüssigkeit gefüllte Ende steckt in der Wärmequelle (Reaktorkern) und das mit Dampf gefüllte Ende in der Wärmesenke (Arbeitsgas). Die Flüssigkeit im Rohr wird nun kontinuierlich verdampft, breitet sich im Rohr aus und kondensiert am gekühlten Ende. Dort bildet sich ein Flüssigkeitsfilm, der durch die Kapillarwirkung im Docht wieder zum heißen Ende zurück strömt. Das Wärmerohr ist also stets mit Sattdampf gefüllt und besitzt dadurch annähernd die gleiche Temperatur an beiden Enden. Ist die Rohrwand dünn und besteht aus gut leitendem Material, können große Wärmeströme durch die Rohroberfläche übertragen werden. Das Wärmerohr kann immer nur in eine Richtung die Wärme transportieren, ist aber durch den „Docht“ nicht von der Lage abhängig.

Das Temperaturniveau hängt von der Flüssigkeit ab. Im eVinci sollen mit Natrium gefüllte Wärmerohre eingesetzt werden. Natrium hat einen Schmelzpunkt von ungefähr 98°C und einen Siedepunkt von 883°C bei Atmosphärendruck. Die übliche Bandbreite für mit Natrium gefüllte Wärmerohre beträgt etwa 600°C bis 1200°C. Strebt man eine „niedrige“ Temperatur von 600°C an, muß man im Wärmerohr einen sehr geringen Druck von etwa 0,06 bar einhalten. Die Kombination aus Temperatur und Druck ist keine besondere Herausforderung, da man sich damit noch im Bereich konventioneller Stähle bewegt.

Die Wärmerohre funktionieren vollständig passiv. Der einzige Antrieb ist die Wärmeproduktion im Kern – gleichgültig ob im Betrieb oder als Nachzerfallswärme nach einer Abschaltung. Da jedes einzelne Wärmerohr ein in sich geschlossener Kühlkreislauf ist, stellt ein Versagen einiger Rohre für den Reaktor kein großes Problem dar. Im Gegensatz zu einem kleinen Loch in einem Druckwasserreaktor, das bereits die Sicherheitskette auslösen muß.

Der Aufbau des Kerns

Der Kern besteht aus einem massiven Stahlblock, der mit ca. 2000 Längsbohrungen von etwa 1,5 m Länge versehen ist. In den Längsbohrungen stecken die Brennelemente und die Wärmerohre. Das Verhältnis zwischen „Brennstäben“ und Wärmerohren beträgt etwa 1:2. In der Fertigung dieses „durchlöcherten Stahlblocks“ liegt ein zentrales Fertigungsproblem des Reaktors. Mit einfachem Bohren wird es nicht gelingen, da die Wände zwischen den Bohrungen möglichst dünn sein sollten um eine gute Wärmeübertragung zu gewährleisten. Der Stahlblock gibt der ganzen Konstruktion Halt, Schutz und transportiert die Wärme gleichmäßig zu den Wärmerohren. Es kann also nichts auslaufen und es steht auch nichts unter Überdruck.

Allerdings fehlt hier noch der Moderator. Bei einem Druckwasserreaktor übernimmt das Wasser selbst die notwendige Abbremsung der Neutronen. Beim eVinci soll Zirkoniumhydrid (ZrH2) diese Aufgabe übernehmen. Wahrscheinlich auch als Legierung aus Uran, Zirkon und Wasserstoff. Für diese Legierungen existieren jahrzehntelange Betriebserfahrungen in den TRIGA-Forschungsreaktoren. Diese Brennstoffe besitzen ein ausgeprägtes Verhalten zur Selbstregulierung der Leistung (stark negativer Temperaturkoeffizient der Reaktivität): Erhöht sich die Brennstofftemperatur ungebührlich, bricht die Kettenreaktion praktisch sofort ein und infolge auch die Wärmeproduktion. Ein Schmelzen des Brennstoffs wird sicher verhindert.

Der Brennstoff

Als Brennelemente sollen die – auch hier schon näher beschriebenen – TRISO Elemente verwendet werden. Sie besitzen ausgezeichnete Eigenschaften bezüglich hoher Temperaturbeständigkeit und dem Rückhaltevermögen von Spaltprodukten. Erinnert sei nur an die zwanzigjährige Erfolgsgeschichte des Kugelhaufenreaktors in Jülich. Unzählige Versuche in Deutschland und China haben die „Walk-Away-Sicherheit“ nachgewiesen. Dieser Brennstoff kann auch nach schwersten Störfällen, wie z. B. in Fukushima, nicht schmelzen und damit größere Mengen radioaktiver Stoffe freisetzen.

Allerdings benötigt man bei solch kleinen Reaktoren höher angereichertes Uran als bei Leichtwasserreaktoren. Ferner wird hier das „Batterie-Konzept“ angestrebt. Man liefert den betriebsbereiten Reaktor, schließt ihn an und läßt ihn für mindestens zehn Jahre (nahezu) vollautomatisch und ohne Unterbrechung laufen. Quasi ein Blockheizkraftwerk ohne Tankstelle. Durch die Wahl der TRISO-Brennelemente ist man zukünftig sehr flexibel. Neben Uran (HALEU) sind auch Plutonium und Thorium einsetzbar. Nur die Brennstoffherstellung muß verändert werden.

Das Arbeitsmedium

Da bei dieser Konstruktion der Kern mit seiner Neutronenstrahlung durch die Wärmerohre physikalisch vom Arbeitsmedium CO2 getrennt ist, hat man stets ein „sauberes“ Arbeitsmedium. Man muß also nicht noch einen sekundären Dampf-Kreislauf wie z. B. beim Kugelhaufenreaktor (radioaktiver Staub durch Abrieb der Brennelemente) oder einem mit Natrium gekühlten Reaktor (Aktivierung des Natriums durch schnelle Neutronen) hinzufügen. Dies spart Bauvolumen, Bauteile (die Funktion des Zwischenwärmetauschers übernehmen die Wärmerohre) und letztendlich Kosten. Im Prinzip ist man damit in der Wahl des Arbeitsmediums völlig frei. Allerdings sollte man die „Drucklosigkeit“ dieses Reaktortyps nicht grundlos aufgeben. Druckdifferenz bei hoher Temperatur bedeutet automatisch Wandstärke und damit Gewicht. Der Vorteil des einfachen Transports könnte schnell verloren gehen.

Beim eVinci ist zur Stromproduktion eine Gasturbine mit CO2 als Arbeitsmedium vorgesehen. Mit CO2 als Betriebsstoff besitzt man in der Kerntechnik jahrzehntelange Erfahrung (z. B. die gasgekühlten Kernkraftwerke in Großbritannien). CO2 läßt sich aber auch sehr gut als Medium für eine Gasturbine einsetzen. Man kommt damit mit wesentlich kleineren Arbeitsdrücken als bei Wasser aus. Die hohe angestrebte Betriebstemperatur von 600°C+ bei diesem Reaktor, erlaubt trotzdem akzeptable Wirkungsgrade. Noch wichtiger ist die Temperatur am kalten Ende des Turbinenaustritts: Eine Gasturbine arbeitete – anders als eine Dampfturbine – ohnehin mit so hohen Temperaturen, daß problemlos eine Kühlung mit Umgebungsluft möglich ist. Ein nicht zu unterschätzender Vorteil für alle „Wüstengebiete“ bzw. Flüsse, bei denen die zulässige Temperaturerhöhung bereits ausgereizt ist. Momentan ist der Einsatz von Turbinen mit überkritischem CO2 Kreisprozess geplant. Solche Turbinen gibt es bereits für diese Leistungsklasse. Ein weiterer Vorteil für die Beschränkung als „Mikroreaktor“. Des weiteren will man sich im ersten Schritt auf eine Temperatur von 600°C beschränken, sodaß man sich noch voll im Bereich konventioneller Kraftwerkstechnik bewegt.

Wieder ein Papierreaktor mehr?

Danach schaut es diesmal wahrlich nicht aus. Der eVinci besteht aus Komponenten, an denen bereits seit Jahrzehnten in den „National Laboratories“ geforscht und entwickelt wird. Das Gesamtkonzept mag revolutionär anmuten, die Grundlagen sind längst in aller Stille geschaffen worden. Deshalb ist der Terminplan auch sehr eng gestrickt. Fertigstellung eines Prototyps – noch ohne Kernbrennstoff – bis Ende 2020. An diesem „Modell“ sollen die Fertigungsverfahren ausprobiert werden und die Berechnungsverfahren etc. verifiziert werden. Inbetriebnahme eines Prototyps durch Westinghouse noch 2024. Bereitstellung von genehmigungsfähigen und lieferbaren Reaktoren für das Verteidigungsministerium bis 2026. In diesem Zusammenhang ist interessant, daß die kanadischen Genehmigungsbehörden ein paralleles Genehmigungsverfahren aufgenommen haben. Ziel dort ist die Versorgung abgelegener Minen mit Strom und Wärme. Es ergibt sich damit erstmalig die Situation, daß die Entwicklung eines „Prototypen“ – wie in guten alten Zeiten – in der Hand des Energieministeriums verbleibt. Parallel wird ein kommerzielles Genehmigungsverfahren von zwei nationalen Behörden gleichzeitig entwickelt. Konkurrenz belebt das Geschäft. Das bisher praktizierte „Totprüfen“ durch immer neu erfundene Sicherheitsnachweise – in Stundenlohnarbeit versteht sich – scheint diesmal ausgeschlossen.

Betrachtet man die Ströme an Forschungsgelder innerhalb der Kerntechnik in den USA der letzten zwei Jahre, so wird der Stellenwert dieses Projekts deutlich. Dies betrifft sowohl die absolute Höhe, als vor allem den relativen Anteil. Große Summen fließen bereits in Fertigungsverfahren. So wird eine vollautomatische Fertigung für die Wärmerohre entwickelt. Diese soll die Produktionskosten auf unter ein Zehntel der bisherigen Kosten senken. Gleiches gilt für die Produktion von TRISO-Brennelementen und eine neue Anreicherungsanlage für HALEU. Erklärtes Ziel ist ein Kraftwerk für einen Preis unter 2000 US$/kW anzubieten. Ausdrücklich in Konkurrenz zu Erdgas-Kombikraftwerken. Diese Kraftwerke sollen innerhalb von 30 Tagen ab Auslieferung vor Ort einsetzbar sein. Sie sollen in Fabriken, ähnlich denen für Flugzeugtriebwerke, in Serie gefertigt werden.

Warum das alles?

Man mag es gut finden oder nicht. Mal wieder scheint der Krieg Vater aller technischen Entwicklungen zu sein. Das US-Militär befindet sich mitten im Umbruch. Weg von der jahrzehntelangen Jagd auf irgendwelche Taliban mit Kalaschnikows und am Ende der Träume von der „Friedensdividende“ aus dem Zusammenbruch der Sowjetunion. China wird immer aggressiver (Südchinesisches Meer) und Parallelen zum Japan der 1930er Jahre erscheinen immer beängstigender. Hinzu kommt der Potentat Putin mit seinen Eskapaden in Osteuropa und Syrien, der sich inzwischen als die beste Werbeabteilung der amerikanischen Rüstungsindustrie erweist. Man muß sein Geschwafel über seine Wunderwaffen nur wörtlich nehmen und schon hat man Vorlagen für neue Rüstungsprogramme. Im Rahmen der Umstrukturierung wird immer deutlicher, daß der nächste „große Krieg“ voll elektrisch wird: Immer mehr Radaranlagen, immer mehr Datenverkehr, immer mehr Computer und sogar Laser-Waffen. All dies erfordert immer mehr elektrische Leistung, möglichst nah an der Front. Diese Energieerzeugungsanlagen müssen aber ständig mit Treibstoff versorgt werden, was zusätzliche Kräfte bindet – besonders in den Weiten des Pazifiks. Ganz ähnlich ist die Entwicklung bei der Marine. Hinzu kommt dort die neuartige Bedrohung durch präzise Mittelstreckenraketen. Eine Antwort auf diese Bedrohung ist die Kombination aus klassischen Schiffen mit „Roboter-Schiffen“. Diese Schiffe machen aber nur Sinn, wenn sie – ohne Besatzung – quasi endlos über die Weltmeere ziehen können. Kernreaktoren bieten sich als Antrieb geradezu an, sind aber mit heutiger Technik nicht finanzierbar. Billige Mikroreaktoren wären eine Lösung.

Immer wenn sich Militärs etwas in den Kopf gesetzt haben, bekommen sie kurz über lang ihre Wünsche erfüllt. Ganz besonders, wenn in breiten Bevölkerungskreisen eine Angst vor einer konkreten Bedrohung vorhanden ist. Dann spielen Kosten keine Rolle mehr. In den USA ist es schon immer Tradition gewesen, neuartige militärische Entwicklungen möglichst schnell in die zivilen Märkte überzuführen (Spielekonsolen, GPS etc..). Geheimhaltung ist sowieso nur beschränkt möglich, aber große Stückzahlen senken die Kosten. In diesem Sinne, ist in der Tat mit dem schnellen Aufbau von „Reaktor-Fabriken“ zu rechnen. Dies paßt auch zum aktuellen Zeitgeist: Donald Trump ist mit dem Slogan angetreten, die Industriearbeitsplätze zurück zu holen. Er hat dabei sicherlich nicht an Nähereien für Hemden gedacht. Alle, die dies milde als „populistisch“ abgetan haben, könnte das Lachen bald vergehen.

Der Beitrag erschien zuerst bei NUKEKLAUS hier




Der Tschernobyl-Gedenktag 2019

„Man sollte darüber sachlich diskutieren“, so schreibt Herr Lossau auf Seite 1. Das ist natürlich richtig und sehr zu begrüßen. An der sachlichen Diskussion fehlt es in Deutschland seit sehr vielen Jahren und daher wollen wir hier einen Beitrag zur Sachlichkeit leisten. Es werden zwei Argumente gegen die Kernkraft angeführt:

 

Das erste Argument: Gefahr durch Freisetzung von Radioaktivität

Es gab auf der Welt drei Unfälle mit Kernkraftwerken, Three-Mile-Island, Tschernobyl und Fukushima.

  1. InThree-Mile-Islandgab es infolge ungenügender Bestückung der Anlage mit Meßinstrumenten eine teilweise Kernschmelze, es wurde jedoch (fast) keine Radioaktivität freigesetzt. Eine technische Anlage wurde zerstört, aber Menschen kamen nicht zu Schaden. Unter Fachleuten gibt es dazu keine Meinungsverschiedenheit, unter „Experten“ gibt hierzu immer andere Ansichten, die gern in den Medien veröffentlicht werden.
  2. In Tschernobylgab es an einem unsicheren Reaktortyp bei einem Experiment eine Leistungsexkursion, so daß der Reaktor vollkommen zerstört wurde und Radioaktivität freigesetzt wurde. Das war nun wirklich ein schlimmer Unfall, er füllte weltweit – und besonders in Deutschland – seitenweise die Zeitungen. Über die Folgen gab es wie immer viel Streit. Auch dort war eine technische Anlage zum Schrott geworden. Unersetzlich sind Menschenleben, und dazu gibt es von der kundigen Fachfrau Dr. Anna Veronika Wendland eine vorzügliche Zusammenstellung, wo Fakten und Fakes gegenüber gestellt wurden (hier). Das besondere Risiko von Kernkraft ist die Strahlung, und diesem Risiko fielen 28 Personen unter den etwa 140 Personen mit der Strahlenkrankheit zum Opfer.
    Wir wollen hier nur die namentlich bekannten Opfer des Unglückes benennen. Es gibt dazu noch unzählige „virtuelle“ Opfer, das sind die nach der LNT-Formel berechneten hypothetischen Opfer, die weder verifizierbar noch falsifizierbar sind. Die Zahlen dazu bewegen sich im Bereich von Millionen, dazu lese man (hier), (hier).
  3. Der Unfall von Fukushimawurde von der CDU/CSU unter Frau Merkel benutzt, in Deutschland die Kernenergie gänzlich zu Fall zu bringen, nachdem zuvor eine Laufzeitverlängerung der Kernkraftwerke um 10 Jahre im Bundestag beschlossen worden war. Auch der Unfall von Fukushima füllte die Schlagzeilen unserer öffentlichen Medien.
    Die Fachmedien in Deutschland gaben andere Nachrichten heraus, da ist als erstes die GRS zu nennen „Gesellschaft für Anlagen- und Reaktorsicherheit“ (hier). Die Fachleute der GRS brachten damals im März 2011 aktuelle Meßdaten der Ortsdosisleistung von den automatischen Meßstellen am Kraftwerksgelände heraus, immer versehen mit zusätzlicher Beschriftung in deutscher Sprache. Ich habe damals diese täglichen Meldungen verfolgt, alle paar Tage die Diagramme für meine Unterlagen ausgedruckt. Damals war zu sehen: Es tritt Radioaktivität aus, was verboten ist. Aber außerhalb des Kraftwerkgeländes kann es niemals zu realer Schädigung von Menschen kommen, weil der Strahlenpegel zu gering war. Inzwischen ist dieses in der Fachwelt weltweit anerkannt, in Fukushima gab es keine Strahlenopfer. Auch in Deutschland wird das berichtet, nicht immer in allen Medien, aber ein wichtiges Leitmedium soll hier zitiert werden: Der SPIEGEL hat dazu einen beachtenswerten Bericht mit der Überschrift „Schön verstrahlt“ geschrieben (hier). Es steht da geschrieben Viele Menschen starben dagegen an den Folgen der weiträumigen Evakuierung. … Kranke wurden aus Intensivstationen abtransportiert, Alte aus ihrem Pflegeheim geholt, … Die vorsichtigste Berechnung geht von mindestens 150 Todesfällen aus. Eine Studie der Standford University kommt auf 600 Evakuierungsopfer … War die vollständige Evakuierung also ein Fehler?“Das ist richtig, nicht die Strahlung hat in Fukushima Opfer gefordert, sondern die Strahlenschutzmaßnahmen. Wir kommen damit zu der eigenartigen Erkenntnis, daß der Strahlenschutz viel mehr Todesopfer gefordert hat als die Strahlung. Es ist SCHUTZ vor Strahlenschutzmaßnahmenerforderlich, also ein Strahlenschutz-SCHUTZ.

Strahlung kann wie alle Substanzen gefährlich werden, aber nur in hoher Dosis. Dazu gibt es mit Alkohol ein passendes anderes Beispiel. Dieser ist ein Gift, aber nur in hoher Dosis, jeder weiß das. In mäßiger Dosis ist Alkohol harmlos, wenn nicht sogar nützlich für Lebensfreude und Gesundheit.
Ähnlich ist es mit Strahlung, allerdings führt dieses Thema hier an dieser Stelle zu weit. In 16 000 Reaktorbetriebsjahren westlicher Reaktoren ist kein Mensch durch deren spezifischem Risiko der Strahlung geschädigt worden, geschweige denn gestorben.

 

Das zweite Argument: Die ungelöste Endlagerung

Bei der Endlagerung geht es um den in Kernkraftwerken anfallenden Abfall. Wie die Berichte in DIE WELT zeigen, fehlt es an einer klaren Definition: Was ist „Abfall“? Bis um das Jahr 2000, als die Regierung Schröder – Trittin den Kernenergieausstieg einleitete, war alles klar:

Abfall sind die im Reaktor anfallenden Spaltprodukte, denn diese sind wegen ihrer starken Radioaktivität gefährlich und verlangen einen Schutz. In der Großen Halle in Gorleben mit 420 Stellplätzen sind 108 Stellplätze mit Castoren belegt, in denen sich ca. 3000 Glaskokillen mit eingeglasten Spaltprodukten befinden. In 5 Castoren befinden sich abgebrannte Brennelemente und 307 Stellplätze sind noch frei.

Heute hat sich einiges geändert, es werden die abgebrannten Brennelemente als Abfall bezeichnet, obwohl nur 5% darin stark strahlende Spaltprodukte sind und der Rest von 95% unverbrauchtes Uran ist. Uran ist wegen seiner riesigen Halbwertszeit von 4,5 Milliarden Jahren schwach radioaktiv, etwa genauso radioaktiv wie Kalium-40, von dem wir als Menschen täglich mit unserer Nahrung etwa 100 Becquerelverspeisen. Mit dieser Änderung in Verständnis zu dem Wort „Abfall“ hat sich die Menge des Abfalls um das 20-fache erhöht, damit auch das Problem seiner Lagerung – ein Sieg der Kernenergiegegner, denen jedes neue Problem oder jede Kostensteigerung willkommen ist.

 

„Das Ende des Endlagers“, auf Seite 20 von DIE WELT

Als eine Lösung aller Probleme wird der Dual-Fluid-Reaktor (DFR) vorgeschlagen. Dieser Reaktor ist ein Schneller Reaktor, er wurde erfunden von einer Gruppe junger engagierter Wissenschaftler (hier).

Ich bin froh darüber, daß es diese Gruppe gibt, die sich Gedanken um die Kernkraft macht. Es sind kluge junge Leute, und es ist erstaunlich, daß sie sich in der heutigen kernkraftfeindseeligen Gesellschaft halten kann. Ich habe von dem Wissen dieser Leute sehr profitiert und bin darüber dankbar.

Der DFR gehört zur Gruppe der fortschrittlichsten Generation-4 Reaktoren. Ein internationales Forum hat 6 Konzepte vorgeschlagen, es beteiligen sich 13 Staaten, Deutschland ist nicht dabei. Wer etwas für die Zukunft machen will – weil er sein eigenes Land nicht abschaffen will – wählt Kernspaltungsenergie, denn diese ist nach heutiger Kenntnis unerschöpflich. Deutschland war bei zwei Typen der Generation-4 vor langer Zeit bereits führend:

  1. Der HTR stand in Hamm-Uentrop, er wurde nach einer Betriebszeit von 16 000 Stunden – das sind zwei Jahre – wegen immer neuer Auflagen der NRW-Behörden vom Betreiber entnervt aufgegeben.
  2. Der Schnelle mit Natrium gekühlter Brüter in Kalkar war zu 95% fertig gestellt, man wartete zum Einsetzen der Brennelemente fast 6 Jahre vergeblich auf die letzte Teilgenehmigung, dann gab man ebenfalls auf.

Heute ist Rußland führend beim Schnellen Natrium-Brüter, dort wurde der Brüter BN-600 (doppelt so groß wie Kalkar) schon etwa 35 Jahre ohne Probleme betrieben. Die Inbetriebnahme des Reaktors BN-800 im russischen Kernkraftwerk Beloyarsk im Juni 2014 ging in den Medien unter. Ein BN-1200 ist in Konstruktion. Rußland und China haben Verträge geschlossen über den Bau von zwei BN-800 in China. Auch die chinesische Führung kümmert sich also um die zukünftige Stromversorgung seiner Bürger. Rußland und China bekommen also den geschlossenen Brennstoffkreislauf, und der ergibt für die Kernkraft eine 200-fach längere Reichweite der Uranvorräte als ohne Brüter.

 

In Rußland sind heute noch etwa 10 Reaktoren vom Typ Tschernobyl in Betrieb. Auch diese Reaktoren können sicher betrieben werden, das hat Rußland inzwischen gezeigt. Proteste gegen diese Reaktoren sind nicht bekannt, auch nicht von Protestorganisationen wie Greenpeace, IPPNW oder GRÜNEN Parteien. Die zwei Reaktoren vom Typ Tschernobyl in Ignalina (Litauen) wurden stillgelegt, weil es die EU als Bedingung zum Beitritt des Landes zur EU verlangt hatte.

Auch alle Reaktoren der Generation-4 erzeugen Spaltprodukte, das sind die Abfälle nach dem früheren Verständnis. Diese Abfälle sind nach ca. 300 Jahren bis auf ein natürliches Niveau abgeklungen. Das gilt auch für die eingeglasten Abfälle in der großen Halle in Gorleben. Um Menschen sicher vor Schäden durch diese Abfälle zu schützen, ist eine Endlagerung in der Tiefe NICHTerforderlich, man kann das auch auf der Erdoberfläche bewerkstelligen.

 

Schlußbemerkung

Es läuft einiges falsch mit der Kernenergie, besonders in Deutschland. Der Grund sind falsche Gesetze. Gesetze können falsch sein, denn sie werden von Menschen gemacht und Menschen können irren. Das ist bei der Strahlenschutzgesetzgebung ganz sicher der Fall. Ebenso beim Kernenergieausstieg unseres Landes, der ja eine Folge der jahrelang geschürten Strahlenangst ist. Viele Fachleute der Strahlenbiologie und aus der Kernenergiebranche protestieren gegen diese falschen Gesetze, aber sie kommen höchstens auf ihren Fachtagungen oder in ihren Fachzeitschriften zu Wort. Die hauptamtlichen Strahlenschützer sehen die Dinge teilweise anders, denn ihnen geben falsche Gesetze die Lebensgrundlage. Unsere Massenmedien hätten die Macht zu einer Veränderung, aber bisher haben sie diese Macht nicht genutzt, das ist bedauerlich. Manchmal wird daher in Bezug auf die unsere Massenmedien von Lückenmedien oder Lügenmedien gesprochen.




Dänische Studie ignoriert den Infraschall von Windrädern

Warum werden 1000 Bürgerinitiativen nicht gehört?

Seit Jahren beklagen viele Bürger und Bürgerinitiativen Gesundheitsschäden durch windrad-generierten Infraschall (IS). Alles nur Einbildung, schließlich gäbe es keinen wissenschaftlich anerkannten Beweis, haben Behörden sie beschieden. Der Gesetzgeber sei auch nicht verpflichtet, diesen Beweis zu liefern. Von den Profiteuren der Windkraft ist erst recht keine Hilfe zu erwarten. Die Energiewende sei schließlich auf den steten Zuwachs von WKAs angewiesen. So wundert es nicht, dass die Umweltbehörden fast aller Bundesländer in ihren Verlautbarungen nur den Bericht1 des Landesumweltamt Baden-Württembergs zitieren, in dem mittels manipulierter Messungen versucht wurde, die Unschädlichkeit des IS zu beweisen. In Deutschland ist jedenfalls kein politischer Wille zu erkennen, den Zusammenhang zwischen IS und Krankheit aufzuklären.

Die Welt erhoffte von einer dänischen Studie die Wahrheit zu erfahren

In Dänemark ist die Zahl der Windräder, bezogen auf Einwohnerzahl oder Landesfläche, größer als in Deutschland. Entsprechend größer ist dort das Konfliktpotential zwischen Nutznießern und Geschädigten der Windkraft. Veranlasst durch spektakuläre Vorfälle bei Mensch und Tier, hatte die dänische Regierung vor einigen Jahren zugesagt, mit einer epidemiologischen Studie prüfen zu lassen, ob es einen Zusammenhang zwischen dem Gesundheitszustand der dänischen Bevölkerung und der von WKAs stammenden Schallimmission gäbe. Eine bessere Ausgangslage zur Datenerhebung wäre weltweit nicht zu finden gewesen: Unbehelligt vom Datenschutz konnten aus den zentralen dänischen Gesundheits- und Personenstandsregister in anonymisierter Form für ca. 500 000 Probanden die Krankheitsgeschichte, der Wohnort und die Aufenthaltsdauer im Bereich von Windrädern entnommen werden. Die notwendige Unabhängigkeit und Professionalität schien durch die Vergabe der Studie an das renommierte Kopenhagener Krebsforschungsinstitut gewährleistet. Die Ergebnisse, mit großer Spannung erwartet, wurden nach peer review in sechs Teilstudien2-7 veröffentlicht, die letzte vor einigen Wochen. Doch dann das Unfassbare:

Infraschall? Nie gehört

Als unabhängige Variable bei der Regressionsanalyse (Standardverfahren bei derartigen statistischen Untersuchungen) wurde für jeden Wohnsitz der A-bewertete Schalldruckpegel, der von allen Windrädern aus der Umgebung stammt, berechnet. Diese Bewertung bedingte eine untere Frequenzgrenze von 10 Hz und schloss damit den Bereich 0,5 bis 10 Hz aus, in dem das harmonische IS-Spektrum dreiflügeliger Windräder liegt. Es ist schon absurd, man vermutet, dass gerade dieses IS-Spektrum wahrnehmbar und die Ursache vieler Beschwerden sei, aber die Studie, die diese Vermutung bestätigen oder widerlegen soll, schließt diesen IS-Bereich aus. In allen Diskussionen um das Für und Wider der Windkraft steht IS ganz oben auf der Agenda, aber in der Kopenhagen-Studie wird dieser Begriff nicht ein einziges Mal erwähnt. Vergleichbar wäre eine Studie der Auffahrunfälle auf Autobahnen, die eine Beteiligung von Lastwagen nicht in Betracht ziehen würde.

Die Schallemission der Windräder hat zwei Komponenten, die sich deutlich voneinander unterscheiden. Turbulenzen an den Flügelspitzen erzeugen ein kontinuierliches, vom IS- bis zum Hörbereich erstreckendes Spektrum, das als Rauschen (ähnlich dem eines Segelflugzeuges beim Landeanflug) im Umkreis von maximal 500 m hörbar ist. Die Amplitudenmodulation dieses Rauschens mit einer tiefen Frequenz wird als besonders belästigend empfunden. Die zweite Komponente entsteht bei der Passage der Flügel am Turmschaft. Sie besteht aus einem Drucksprung, der sich mit großer Regelmäßigkeit bei jeder dieser Passagen wiederholt. Diese zeitliche Folge lässt sich in ein aus ca. 9 Linien bestehendes Spektrum transformieren, dass harmonisches Spektrum genannt wird. Im vorliegenden Fall ist die Bezeichnung Signatur eines Windrades üblich. Diese Signaturen liegen im Frequenzbereich 0,5 bis 10 Hz, also im IS-Bereich, und sind aus bestimmten mathematischen Gründen noch im Abstand von 20 – 40 km vom Windrad nachweisbar. Seit Jahren besteht die experimentell begründete Vermutung, dass diese Signaturen extraaural (unter Umgehung der Hörsinns) wahrnehmbar und die Ursache der den Windrädern angelasteten Beschwerden seien.

Die A-Bewertung entwertet die Ergebnisse der dänischen Studie

Neben der unabhängigen Variablen, dem A-bewerteten Schalldruckpegel, wurde akribisch der Einfluss weiterer Größen, wie Alter, Geschlecht,  Bildung, Einkommen usw., untersucht. Der Ausschluss der Windrad-Signaturen aber wurde nicht erwähnt, geschweige denn begründet. Die Vernachlässigung der weitreichenden IS-Komponente führte dazu, dass positive Befunde, die eigentlich zum Windradschall korreliert waren, der Referenzmenge zugeordnet wurden. Durch diese Manipulation wurden die der Windkraft anzulastenden Schadensquoten verringert und fast zu Null gemacht. Auch fanden zahlreiche widersprüchliche Ergebnisse keine Erklärung. Abschließend wurde stets festgestellt, dass kein Zusammenhang zwischen Schalldruckpegel und Krankheit nachweisbar gewesen war, allerdings seien weitere Untersuchungen erforderlich. Ein Satz ähnlichen Inhalts beendete immer schon vergleichbare Pamphlete und vermutlich auch deren Gutachten. Er sichert die Autoren gegen den Vorwurf der wissenschaftlichen Unredlichkeit ab und verrät zugleich den Wunsch nach weiteren lukrativen Forschungsaufträgen.

Folgerungen

Es ist müßig, darüber zu streiten, ob in der dänischen Studie Korrelationen zum IS vorsätzlich nicht gesucht wurden oder ob unerwünschte Ergebnisse im Tresor verschwunden sind. Das aufzuklären ist Sache der dänischen Öffentlichkeit. Erschreckend ist, dass sich mühelos Wissenschaftler finden ließen, die bereit waren, an derart durchsichtigen Manipulationen mitzuwirken. Noch erschreckender die Vorstellung, dass wissenschaftliche Institutionen bereit sein könnten, jede politisch erwünschte Wahnvorstellung in den Status einer wissenschaftlich anerkannten Wahrheit zu befördern.

Die Bürger hierzulande aber sollten sich nicht länger der Illusion hingeben, dass eine Politik, die Kernkraft- und Kohleausstieg zum Staatsziel erklärt hat, jemals Forschungsvorhaben fördern würde, die den durch Windkraft Geschädigten Recht geben könnten.

Literatur

  1. Ratzel, U. et.al. 2016 Tieffrequente Geräusche inkl. Infraschall von Windkraftanlagen und anderen Quellen. LUBW- Bericht P9-028TG
  2. Poulsen, A.H. et.al. 2018 Short-term nighttime exposure to wind turbine noise and cardiovascular events. Environ Int 114:160-166
  3. Poulsen, A.H. et.al. 2018 Long-term exposure to wind turbine noise and risk for diabetes. Environ Res 165:40-45
  4. Poulsen, A.H. et.al. 2018Long term exposure to wind turbine noise and redemption of antihypertensive medication. Environ Int 121:207-215
  5. Poulsen, A.H. et.al. 2018 Pregnancy exposure to wind turbine noise and adverse birth outcomes. Environ Res 167:770-775
  6. Poulsen, A.H. et.al. 2019 Long-term exposure to wind turbine noise and risk for myocardial infarction and stroke. EHP 37004:1-10
  7. Poulsen, A.H. et.al. 2019 Impact of long-term exposure to wind turbine noise on redemption of sleep medication and antidepressants. EHP 37005:1-9



Wer Wind erntet . . . (2)

Nach Bemerkungen zum Infraschall und den Auswirkungen der Windkraftanlagen auf die Tierwelt nun zu den speziellen Auswirkungen von Windkraftanlagen im Wald. Moderne Windkraftanlagen sind technische Geräte gewaltiger Ausmaße mit einem entsprechenden Platzbedarf, nicht nur für die Standfläche, auch für Straßen und Montageplätze. Der Flächenbedarf beträgt etwa einen Hektar (10.000 Quadratmeter) pro Anlage. Waldstraßen werden in entsprechender Breite und mit großen Kurvenradien angelegt, beschottert und verdichtet, wie auch die Montageflächen. Alle Flächen und Zuwegungen müssen auch nach Fertigstellung der Anlage befahrbar bleiben für spätere Reparaturen, auch  Großkräne müssen wieder eingesetzt werden können.

Es kann davon ausgegangen werden, dass die verdichteten Flächen nie wieder renaturiert werden. Archäologen identifizieren heute römische Handelswege anhand der Bodenverdichtung. Diese nachzuweisen wird für die Schwerlaststraßen und Fundamentflächen in den Wäldern in tausenden von Jahren problemlos möglich sein, auch wenn die Anlagen längst nicht mehr existieren. Den Römern kann man dies dann nicht anhängen, es wird Zeugnis eines letzthin fehlgeschlagenen Großversuchs sein, ein Industrieland mit Strom aus bewegter Luft zu versorgen.Die Fundamente enthalten bis zu 3.500 Tonnen Stahlbeton und stellen durch die unterirdische Bodenversiegelung ein Hindernis für die Grundwasserbildung dar. Laut Baugesetz müssten mit Demontage der Anlage auch die Fundamente komplett entfernt werden. Ob dann der Betreiber ausreichend Rücklagen gebildet hat, um diese kostspielige Maßnahme durchzuführen, ist nicht mit Sicherheit anzunehmen. In Schleswig-Holstein begnügen sich die Behörden bereits heute mit einem Rückbau des Fundaments bis einen Meter unter Geländeoberkante.

Der Einschlag der Bäume führt zu einer neuen Gruppe von Randbäumen, die nunmehr an den Lichtungen stehen. Diese sind früher mitten im Wald gewachsen und standen relativ windgeschützt. Nunmehr sind sie Stürmen und Starkwind voll ausgesetzt, haben dafür aber nicht das Wurzelwerk am Waldrand gewachsener Bäume entwickelt. Dies macht sie für Windbruch anfälliger.

Verschleiß

Wie jede mechanische Apparatur unterliegen Windkraftanlagen dem mechanischen Verschleiß. Innerhalb des Aggregats sind insbesondere Lager und Getriebe erheblichen und schwankenden Belastungen ausgesetzt. Die Haltbarkeit der Getriebe wird derzeit auf etwa 20 Jahre geschätzt, was bei einem notwendigen Wechsel aufwändige Reparaturen in Gondelhöhe erfordert. Da zu dieser Zeit der EEG-Förderzeitraum zu Ende sein dürfte, stellt sich die Frage der Wirtschaftlichkeit solcher Großreparaturen. Nach 2021 wird dieses Thema auch in der Öffentlichkeit diskutiert werden.

Getriebelosen Maschinen von Siemens oder Enercon bleibt dieses Problem erspart, auch ist ihr Wirkungsgrad um bis zu fünf Prozent höher. Allerdings erkauft man sich diesen Vorteil durch den Einsatz von Synchrongeneratoren, die starke Permanentmagnete erfordern. Zu deren Herstellung sind Seltene Erden wie beispielsweise Neodym nötig, das unter teils umweltschädlichen Bedingungen in China und Drittweltländern gefördert wird.

Auch die Rotorblätter verschleißen im Luftstrom. Insbesondere Regen, Graupel, Schneeregen, Sand, Staub und Insekten bewirken einen Schmirgeleffekt, der zur Blattkantenerosion führt. Im Offshore-Einsatz kommen Salzwassertröpfchen hinzu, die aggressiv auf das Kunststoffmaterial der Rotoren einwirken. Die Blattlänge liegt inzwischen bei 65 Metern (Onshore) beziehungsweise 85 Metern (Offshore). Die Geschwindigkeit an den Blattspitzen kann über 300 Kilometer pro Stunde erreichen. Dadurch wirken bereits kleinste mechanische Teilchen stark erosiv. Die Oberfläche der Rotorflügel besteht aus einer Kombination aus glasfaserverstärktem Kunststoff und Epoxidharz. Die Erosion bewirkt das Herausschlagen kleinster Materialteile, die in die Umwelt gelangen. Mikroplastik im Meer und in der Landschaft stammt nicht nur von Kosmetikrückständen oder Verpackungsrückständen, die rücksichtslose Konsumenten in die Landschaft warfen, sondern eben auch von angeblich sauberen Windkraftanlagen.

Havarien

Bereits im Normalbetrieb gehen Unfallgefahren von Windkraftanlagen aus, insbesondere durch Eissturz. Abgelöste Eisbrocken können mehrere hundert Meter weit fliegen. Pro Jahr ereigneten sich bisher zirka 10 bis 50 Havarien, ein zentrales Kataster existiert nicht. Bei fast 30.000 betriebenen Anlagen ist das ein scheinbar akzeptabler Wert. Dabei handelt es sich etwa zu gleichen Teilen um Umbrüche, Rotorblattabrisse und Brände. In diesem Jahr habe ich folgende Ereignisse wahrgenommen, hier Daten ohne Anspruch auf Vollständigkeit:

  • 16.01. Uplengen (Ostfriesland) – Brand
  • 18.01. Bosbüll (Nordfriesland) – Brand
  • 18.01. Lippstadt (NRW) – Abbruch Rotorblatt
  • 07.02. Lahr (Schwarzwald) – Brand
  • 10.02. Wriedel (NDS) – Abbruch Rotorblatt
  • 12.02. Syke (NDS) – Brand
  • 14.03. Kreis Steinburg, bei Wilster (S-H) – Abbruch Rotorblatt
  • 03.04. Wilster (S-H) – Abbruch Rotorblatt

Die betroffenen Geräte waren älter als 14 Jahre, so dass ein Zusammenhang mit Verschleiß oder Materialermüdung naheliegt. Die Anlagen unterliegen nicht der Prüfpflicht durch den TÜV, sondern werden durch die Branche kontrolliert. Bei vor 2004 errichteten Anlagen ergeben sich Prüfungen teilweise nur aus der Baugenehmigung.

Brände können durch Kurzschlüsse oder Überhitzung entstehen, seltener durch Blitzschlag. In modernen Anlagen begrenzen Temperatursensoren und Rauchmelder die Brandgefahr,  installierte Löschanlagen können Entstehungsbrände bekämpfen.
Vor allem bei Altanlagen kommt es zu Bränden, die meist zum Totalschaden führen. Hydraulik- und Getriebeöl und Kabel bilden große Brandlasten.

Feuerwehren können in diesen Fällen nur die Umgebung sichern – und sich selbst vor abstürzenden brennenden Wrackteilen. Der Abwurf brennender Teile ist bei Anlagen im Wald eine enorme Gefahr. Ein beginnender Waldbrand kann zunächst wegen der Gefahr von oben nicht bekämpft werden. Ob der Versicherungsschutz in jedem Fall ausreicht, darf angezweifelt werden.

Abbrüche von Rotorflügeln erfolgen meist bei Starkwind, wenn Verbindungsbolzen durch Korrosion ihre Festigkeit verloren haben oder Fertigungsmängel nach Jahren zutage treten. Unwuchten durch Eisbelag erhöhen die Gefahr des Flügelbruchs, wenn die vorgesehene Notabschaltung nicht funktioniert.

Eine besondere Gefährdung der Umwelt tritt durch die GfK-Splitter auf, die in weitem Umkreis verteilt werden und erhebliche Gefahr für Weide- und Wildtiere darstellen. Die spitzen Teile sind von den Tieren nicht erkennbar, werden gefressen und bohren sich irreversibel in den Verdauungstrakt der Tiere, die dadurch qualvoll sterben können. Große landwirtschaftliche Flächen können nicht mehr genutzt werden. Die Beseitigung tausender kleiner Splitter von großen Flächen ist kostenintensiv.
Bei Borchen-Etteln musste im vergangenen Jahr die Ernte von 50 Hektar landwirtschaftlicher Nutzfläche entsorgt werden, weil sich im Radius von 800 Metern messerscharfe Kleinstsplitter zweier zerfetzter Rotorblätter einer Enercon-Anlage verteilt hatten. Mitarbeiter einer Gartenbaufirma waren auch mit Sauggeräten im Einsatz, um das nicht verrottende Material aufzusammeln.

Turmbrüche sind meist Folge von Korrosion an Mantel oder Schrauben. Bisher betraf dies meist kleine Altanlagen, was wenig Kollateralschaden verursachte. Bedenklich, dass Anlagen teils auch bei schwachem Wind kippten.

Entsorgung

Die Entsorgung ausgedienter Windkraftanlagen ist aufwändig. Zur Demontage sind wiederum Großkräne nötig, nur sehr kleine Anlagen kann man sprengen oder umstürzen. Die oberirdischen Bestandteile wie Gondel und Turm sind gut verschrottungs- oder recyclebar, der Rückbau des Fundaments bedeutet hohen Aufwand.

Zur Entsorgung der Rotorblätter gibt es noch keine günstige Technologie, die den zu erwartenden Mengen des Verbundmaterials gerecht wird. Bisher demontierte Anlagen konnten oft ins Ausland verkauft werden.

Die Rotorblätter verursachen ein Viertel der Herstellungskosten einer Anlage, obwohl sie nur einen Bruchteil des Gewichts ausmachen. Es entstehen bei ihrer Produktion erhebliche Abfallmengen, die auch entsorgt werden müssen. Die Rotorblätter sind komplexe Produkte, die glasfaserverstärkten Kunststoff (GfK) und neuerdings karbonfaserverstärkten Kunststoff (CfK) enthalten sowie teilweise PVC, Epoxidharz  und Polyurethan (PUR)-Schaum. Hinzu kommen in geringeren Anteilen Polyamid, Polyethylen, Gummi und Lack.

Der komplexe Aufbau lässt keine Demontage zu, die Flügel müssen geschreddert und entsorgt werden. Die anfallende Menge wird bereits 2022 etwa 20.000 Tonnen jährlich erreichen*. Auf Grund der Härte des Materials beginnt die Zerkleinerung mit Diamantseilsägen, geforscht wird an materialspezifischen Sprengungen.

Eine stoffliche Verwertung ist bisher nur auf niedrigen Niveau möglich, etwa als Füllstoffe in Fundamenten oder Straßen. An einer Nutzung als Granulat zur Weiterverarbeitung wird geforscht. Der Heizwert des Materials lässt am ehesten eine thermische Verwertung sinnvoll erscheinen. In herkömmlichen Müllverbrennungsanlagen (MVA) ist dies allerdings nicht leistbar, denn die Faserstruktur führt zur Verstopfung der Filteranlagen und kann in Elektrofiltern zu Kurzschlüssen führen. Möglich und praktiziert ist die dosierte Zugabe in die Drehrohröfen der Zementindustrie.

CO2-Vermeidung

Die Nachteile der Windenergienutzung sind größtenteils bekannt, auch wenn sie medial kaum thematisiert werden. Die Mehrheit „unserer“ Journalisten besteht aus Sympathisanten und Unterstützern des energiepolitischen Regierungskurses. Erfolgsmeldungen sollen den Anschein einer erfolgreichen Energiewende vermitteln. Sind gravierende Nachteile der Windkraft nicht zu verschweigen, zieht man sich auf die „Alternativlosigkeit“ des exzessiven Windkraftausbaus zurück, schließlich müsse CO2 vermieden werden.

Wie viel dieses Gases wird nun durch Windkraft vermieden? Windstrom verdrängt auf Grund des Einspeisevorrangs im EEG zeitweise konventionellen Strom, dessen Emissionen, aber auch die dafür nötigen Emissionszertifikate. Diese frei gewordenen Zertifikate sind in den Ländern, die am europäischen Emissionshandelssystem (ETS) teilnehmen, frei handelbar. Derart verdrängte Zertifikate entlasten unser nationales CO2-Budget, verlagern aber diese Emission ins Ausland, so dass global keine CO2-Minderung eintritt.

Windkraftanlagen im Wald reduzieren den Baumbestand. Der oben beschriebene eine Hektar Wald hätte zur Aufnahme von 10 Tonnen CO2 pro Jahr geführt. Unter dem Strich ist die Emissionsbilanz von Anlagen im Wald sogar negativ.

Windenergie international
Windstrom im Netz – kein Beitrag zur Versorgungssicherheit

Teil 1:hier



Allheilmittel Elektroauto? Explodierende Teslas und grauselige CO2-Bilanz

Die Physiker und Ingenieure unter den geneigten Lesern wissen, daß wir Menschen mit unserer Metall-Halbleiter-Kunststoff-Technologie Energie noch lange nicht so sicher und effizient speichern können wie die Natur mit ihren organischen Stoffen.

Wollen wir auf ähnliche Energiedichten kommen wie zum Beispiel Mineralöl oder Holz, müssen wir auf Lithium-Ionen-Akkumulatoren oder ähnliches zurückgreifen. Leider setzen diese Batterien ihre Energie ab und an von ganz alleine frei, was man in Technikerkreisen schlicht „Explosion“ nennt. Versuchen Sie dagegen einmal, flüssiges Benzin oder trockenes Holz mit dem Feuerzeug anzuzünden.

Die Neigung der modernen Hochdichte-Akkus zur spontanen Explosion ist unter Handybesitzern nicht unbekannt. Nun durfte diese Erfahrung auch ein Tesla-Besitzer in Schanghai machen: Sein rund 100.000 Euro teurer Luxus-Ökoschlitten, Modell S, flog in einer Tiefgarage in die Luft; zum Glück saß keiner drin. Das war nicht das erste Mal: Schon im Sommer letzten Jahres fing in New Jersey (USA) ein Tesla S auf der Autobahn Feuer. Zur genauen Ursache im Fall Schanghai wurde noch nichts gesagt; aber ich wette, es liegt am Akku. Die Aktie von Tesla brach gerade ein.

Verunsicherte Tesla-Fahrer fühlen sich vielleicht sicherer, wenn es draußen ordentlich kalt ist, weil dann sich im Akku entwickelnde Hitze sofort abgeführt würde. Nutzt aber auch nichts, denn während des eiskalten Winters im Norden und mittleren Westen der USA vor drei Monaten blieben Teslas reihenweise liegen. (Die Heißzeit-Katastrophe, Sie wissen schon…. ). Ein befreundeter Elektroingenieur erklärte mir unbedarftem Biologen, daß Akkumulatoren keine allzu große Temperaturtoleranz haben und unter 0°C rasch große Teile ihrer Speicherkapazität verlieren. Ein Gegenmittel ist, den Akku mit seiner eigenen Energie zu heizen. Dazu sage ich jetzt mal nichts.

Nun muß man als grüner Umwelt-Klimaschützer ja nicht unbedingt mit einer Bombe unter Hintern herumfahren. Die Politiker von denen fliegen sowieso lieber, wie gerade wieder Claudia Roth mit ihrer weltumspannenden Flugreise bewies.

Es verbleibt aber trotzdem ein Problem mit den E-Limousinen: Auch wenn man die selber nicht fährt, versauen sie die Luft und das Klima. Und zwar mehr als ein vergleichbares Auto mit Verbrenner. Dies hat eine brandaktuelle Studie vom Ökonomen Hans-Werner Sinn, Physiker Christoph Bruchal und Hans-Dieter Karl offenbart. In einem Vergleich zwischen einem Diesel-Mercedes (C220d) und einem Tesla 3 erzeugte das E-Auto 10 bis 28% mehr CO2-Emissionen!

Grund: Die Coltan-, Lithium- und Manganerze für die Akkus müssen mit sehr hohem Energieaufwand gewonnen und verarbeitet werden. Von den unmenschlichen Arbeitsbedingungen für die Bergleute in Afrika und Südamerika einmal ganz abgesehen. Die Achse des Guten hat die genauen Werte aufgeführt.

Solch unerwünschte Wahrheiten sind dem politmedialen Komplex natürlich nicht genehm. Deswegen stänkern die ex-konservativen Blätter Wirtschaftswoche und Focus zusammen mit dem grünen Spiegel gegen Sinn et alumni. Die Achse wundert sich über den großen Umfang des Verrisses in Focus online. Riecht nach redaktioneller „Unterstützung“ durch professionelle Klimaretter.

Ein besonders Schmankerl liefern Sinn und Kollegen am Ende ihrer Studie: Kaufen wir Deutschen als Wirtschaftsgroßmacht (noch…) keine fossilen Brennstoffe mehr, sinkt die Nachfrage auf dem Weltmarkt, was die Preise fallen läßt. Dann können die nicht-bekloppten Länder, und die sind deutlich in der Mehrheit, noch mehr Öl kaufen und SUV-Geländewagen fahren.

Grün gemeint, schlecht gemacht.




Seit wann scheitern die deutschen Massenmedien an ihren zentralen Aufgaben?

Ein Freund und alter FAZ-Leser erzählte mir einmal, daß ihn schon seit Jahren störe, daß seine geliebte Frankfurter Allgemeine nach und nach Positionen der taz übernähme. Er machte die Beobachtung an der zunehmenden Propagierung der angeblich ungleichen Bezahlung von Frauen und Männern fest („Gender Pay Gap“). Er argwöhnte, daß dieses Verhalten reine Strategie sei, um weibliche Leser zu gewinnen. Mag sein, wäre aber eine miserable Strategie, da man durch solche Richtungsschwenks die Stammleserschaft vergrault; auch die weiblichen.

Ein weiterer wichtiger Faktor ist wohl der Gruppenkonformismus, auch Asch-Effekt genannt. Solomon Asch war ein jüdischer Psychologe aus Krakau, der nach dem Krieg erforschen wollte, wieso das gebildetste Volk der Erde dermaßen leicht und schnell auf Hitlers Propaganda hereinfallen konnte und in den eigenen Untergang rannte. In einem Experiment präsentierte Asch Probanden verschieden lange Linien (siehe Beitragsbild) und versuchte dabei, die Testpersonen mit Hilfe von Inkognito-Schauspielern dazu zu bewegen, die Linien als gleichlang zu bewerten. Zu seiner eigenen Überraschung klappte das in etwa 2/3 der Fälle sehr gut.

Wundern Sie, geneigter Leser, sich also nicht, daß Journalisten, die letztlich fast alle aus demselben Milieu stammen und an denselben Unis studierten, überwiegend grün-rot ticken; und das trotz häufig konservativem familiären Hintergrund. Die Linksextremen an den Universitäten sind laut und energisch, und nehmen so die Rolle unserer Schauspieler im Asch-Experiment ein. Rechte Intellektuelle sind heuer deutlich zurückhaltender und sachlicher, das heißt, völlig ineffektiv.

Wann war der weltanschauliche Kipp-Punkt in der deutschen Medienlandschaft erreicht? Es muß irgendwann zwischen 2011 und 2015 gewesen sein. Bis etwa 2010 konnte zum Beispiel 3Sat noch kontrovers zur Klimareligion des „Predigers“ Al Gore berichten, was wir dank des Youtube-Kanals FMD überprüfen können. Gerade wurde in einer Facebook-Gruppe auf einen Welt-Artikel von 2011 aufmerksam gemacht, in dem Journalisten-Altrecke Günter Ederer noch schreiben konnte:

„Die CO2-Theorie ist nur geniale Propanda.“

Darin sagte Ederer sogar ganz deutlich, daß alle Parteien in den Industriestaaten die Weltuntergangs-These übernehmen würden; die Vorhersage war sogar 1998 schon vom ausgezeichneten Wissenschaftsjournalisten Nigel Calder prophezeit worden. Grund: Man könne mit dem CO2-Wahn sogar die Luft zum Atmen besteuern. Das ließe sich kein Politiker entgehen. Dabei gebe es rund 800 wissenschaftliche Publikationen gegen die CO2-Panikmache. Fragt sich, wieso die konservative Journaille diese ignoriert; denn Atemluftsteuern bringen den Redakteuren nichts. Auch werden falsche Angaben wie die berühmte „97%“-Aussage völlig ungeprüft laufend wiedergekäut.

EIKE-Pressesprecher Horst Lüdecke sagte dazu, daß die Frage in betreffender Studie unwissenschaftlich gestellt worden sei: Man wollte wissen, ob die Befragten allgemein die These befürworten würden, daß Kohlenstoffdioxid die Atmosphäre aufheizen könne. Ohne Aussage zur Quantität und Relevanz müssen natürlich auch manche „Klimaleugner“ wie es sie auch bei EIKE gibt, als vorsichtige Wissenschaftler ja sagen. Pikanterweise sind also einige von uns auch in den 97% auch enthalten, was so in den Medien aber nicht gesagt wird.

Und was schreibt die Welt am 21.4.19 in ihrer Flaggschiffversion, der Welt am Sonntag? Da kann – ganz aktuell – ein extrem gefrusteter, von seiner Partei abgehalfterter AfD-Politiker, widerspruchslos den menschgemachten Klimawandel als Tatsache hinstellen und uns als Lobbyisten der US-amerikanischen Öl-Gas-Kohle-Industrie bezeichnen. Konrad Adam, so heißt dieser frühere Welt-Journalist, hatte sich – wohl sehr zu Unrecht- früher einmal einen Ruf als scharfer Beobachter erarbeitet. Doch mit zunehmendem Politfrust über die ungezogene AfD hat er offensichtlich nicht mitbekommen, dass EIKE finanziell in einer ganz anderen Liga spielt, als die staatlich und privat gemästeten Klimaalarmisten-Institute, die er so bewundert. Im Vergleich zu denen bewohnt EIKE sozusagen das feuchte Kellergeschoß im Armenhaus. Was wiederum der Finanzkraft der US-amerikanischen Öl-Gas-Kohle-Industrie ein miserables Zeugnis ausstellen würde, so sie denn wirklich vorgehabt hätte, EIKE zu unterstützen. Hat sie aber nicht.

Denn auch das gilt: Obwohl wir bei EIKE jeden Spendeneuro gebrauchen könnten, muss jedem Spender klar sein, dass wir niemals eventuell damit verbundene Anweisungen, egal ob direkter oder indirekter Art, akzeptieren würden. Das verbietet uns nicht nur unsere Satzung, sondern auch das Selbstverständnis aller  Mitglieder,  die auch noch – wiederum im Gegensatz zu vielen Alarmisten – ehrenamtlich arbeiten. Es wäre das Ende von EIKE und verbietet sich daher von selbst.

Wie die konservativen Leser solchen leicht erkennbaren Gefälligkeitsjournalismus goutieren, zeigt die jüngste Medien-Statistik: Die Welt minus 17%, FAZ minus 3,3%, Bild minus 9,3%. Wird bald ein neuer Kipp-Punkt kommen, an dem die Journalisten sich wieder daran erinnern, was Journalismus bedeutet? Man mag es hoffen, allein es fehlt der Glaube.

 

 

 




FORCE MAJEURE: Die Rolle der Sonne am Klimawandel

Bislang wurden drei Haupt-Theorien zum Link Solar ↔ Klima vorgestellt. Diese sind:

Änderungen der solaren UV-Strahlung

Die Auswirkungen des atmosphärischen elektrischen Feldes auf die Wolkenbedeckung

Änderungen der Wolkenbedeckung aufgrund Änderungen der solar modulierten kosmischen Strahlung

Man hat viel Mühe aufgewendet, um mögliche Prozesse zu verstehen, und im Moment scheint die Modulation kosmischer Strahlung und deren Auswirkung auf die Wolkenbedeckung der Erde ziemlich vielversprechend bzgl. der Erklärung der Stärke der solaren Beeinflussung. Diese Theorie zeigt, dass die Sonnenaktivität signifikante Auswirkungen auf das Klima im gesamten Holozän gehabt hat. Dies steht im Gegensatz zum offiziellen Konsens des IPCC, welches schätzt, dass die Änderung des solaren Antriebs zwischen 1750 und 2011 etwa 0,05 W/m² betragen hatte, also vollkommen vernachlässigbar gegenüber dem entsprechenden Wert von Treibhausgasen war, geschätzt etwa 2,3 W/m². Allerdings hätte die Existenz eines Verstärkungs-Mechanismus‘ Atmosphäre ↔ Solar Implikationen für die geschätzte Klimasensitivität von Kohlendioxid, die dann viel geringer wäre als ursprünglich gedacht.

Zusammengefasst lässt sich sagen, dass die Auswirkung der Sonnenaktivität auf das Klima deutlich größer ist als vom offiziellen Konsens vorgegeben. Es handelt sich also um eine wichtige wissenschaftliche Fragestellung, welcher sich die wissenschaftliche Gemeinschaft annehmen muss.

Introduction

Die Sonne liefert nahezu alle Energie, die verantwortlich ist für die Dynamik von Atmosphäre und Ozeanen sowie ultimativ für das Leben auf der Erde. Allerdings herrscht wenig Übereinstimmung bzgl. der Rolle der Sonne, wenn es um die beobachteten Änderungen des terrestrischen Klimas geht. Trotzdem aber hat sich in der Klimawissenschaft ein offizieller Konsens etabliert, dem zufolge sich die Auswirkung der Sonnenaktivität auf kleine Variationen der solaren Einstrahlung TSI begrenzt ist – mit unbedeutenden Konsequenzen für das Klima. Verdeutlicht wird dies in den Berichten der Working Group 1 des IPCC. Dort schätzt man den Strahlungsantrieb des Klimas durch die Sonnenaktivität zwischen 1750 und 2011 auf rund 0,05 W/m². Dieser Wert ist vollkommen vernachlässigbar im Vergleich zu Änderungen anthropogener Treibhausgase, deren Antrieb mit rund 2,3 W/m² geschätzt wird.

Ziel dieses Reports ist es, eine Übersicht zu geben über Forschungen mit Bezug auf die Auswirkungen der Sonnenaktivität auf das Klima. Im Gegensatz zum oben erwähnten Konsens gibt es eine Vielfalt empirischer Beweise, dass die Sonne großen Einfluss auf das Klima im gesamten Holozän gehabt hat, und zwar mit Temperaturänderungen zwischen Perioden mit hoher bzw. niedriger Sonnenaktivität von 1 bis 2 K. Derartig große Temperatur-Variationen sind inkonsistent mit dem Konsens und künden von einer realen und soliden Verbindung zwischen Sonnenaktivität und Erdklima. Die Frage lautet: Welcher Prozess ist verantwortlich für den Sonne-Klima-Link? Ein aussagekräftiges Ergebnis liegt in der Energie, welche im Verlauf des 11-Jahre-Zyklus‘ in die Ozeane eindringt. Diese ist um fast eine Größenordnung größer (1 bis 1,5 W/m²) als die korrespondierenden TSI-Variationen (0,2 W/m²). Die Sonnenaktivität wird irgendwie verstärkt relativ zu den TSI-Variationen, und zwar durch einen anderen Prozess als TSI.

Es gibt andere mögliche Treiber dieser Änderungen: Die Sonnenaktivität manifestiert sich auch in Komponenten unabhängig von der TSI. Darunter finden sich große relative Änderungen des magnetischen Feldes, die Stärke des Sonnenwindes, die Modulation kosmischer Strahlungs-Ionisation in der Erdatmosphäre und die Menge der UV-Strahlung, um nur einige wenige zu nennen. All diese Komponenten sind Teil von etwas, das allgemein ,Sonnenaktivität‘ genannt wird, und von allen ist nachgewiesen, dass sie ebenfalls das Klima beeinflussen. Im Einzelnen werden wir zeigen, dass ein Prozess erkannt worden ist, welcher die beobachteten Änderungen des Klimas erklären kann, und welcher durch Theorie, Experiment und Beobachtung gestützt wird.

Dieser Report soll keine erschöpfende Repräsentation all der veröffentlichten Studien sein mit Bezug zu einem solaren Einfluss auf das Erdklima. Sondern er zielt darauf ab, eindeutig das momentane Wissen um den Link zwischen Sonnenaktivität und Klima aufzuzeigen. Eine umfassende Sichtung der Sonneneinwirkung auf das Klima wurde schon veröffentlicht, ist aber inzwischen schon acht Jahre alt. Seitdem bis heute gab es jedoch bedeutende Fortschritte bei der Erforschung dieses Links.

[Es folgt der sehr lange Mittelteil mit vielen Graphiken, Gleichungen und Einzelbeschreibungen. Dies wird hier bei der Übersetzung übersprungen. Lediglich eine Graphik soll herausgegriffen werden, die den Inhalt dieses Reports treffend umschreibt. Anm. d. Übers.]

Abbildung 10: Korrelation zwischen der Bedeckung mit tiefen Wolken und kosmischer Strahlung, welche die Erde erreicht. Es ist schwierig, Wolken über viele Jahre hinweg zu messen aufgrund inhärenter Kalibrierungs-Probleme.

Conclusion

Während der letzten 20 Jahre gab es viele neue Erkenntnisse hinsichtlich der Rolle, welche die Sonne in Bezug auf das Erdklima spielt. Im Einzelnen zeichnen sich die häufigen Änderungen zwischen Zuständen mit hoher bzw. geringer Sonnenaktivität ab. Sie sind eindeutig erkennbar in den empirischen Klima-Aufzeichnungen der letzten 10.000 Jahre. Von diesen Klimaänderungen sind die MWP (von 950 bis 1250) und die LIA (1300 bis 1850) die Bekanntesten. Beide gingen jeweils einher mit hoher bzw. geringer Sonnenaktivität. Die Temperaturänderung zwischen den beiden Perioden weist eine Größenordnung von 1 bis 2 K auf. Dies belegt, dass die Sonnenaktivität einen großen Einfluss auf das Klima hat. Diese Feststellung steht im direkten Gegensatz zum IPCC, welches den solaren Antrieb im 20. Jahrhundert auf lediglich 0,05W/m² schätzt, ein viel zu geringer Betrag, um Auswirkungen auf das Klima zu haben. Man bleibt also zurück mit dem Problem, keine Erklärung zu haben für den Unterschied des Klimas in MWP bzw. LIA. Aber zu diesem Ergebnis kommt man nur, wenn man die Sonnenaktivität auf nur minimale Änderungen der TSI beschränkt.

Es gibt andere Prozesse, mittels welcher die Sonnenaktivität das Klima beeinflussen kann. Ein Prozess basiert auf Änderungen der solaren UV-Strahlung. Die Schlussfolgerung hier scheint aber zu sein, dass der Einfluss der UV-Änderungen zu gering ist, um die Energie zu erklären, welche in die Ozeane während des solaren Zyklus‘ eingeht. Im Gegensatz dazu hat die Verstärkung der Auswirkung der Sonnenaktivität aufgrund von Ionisierungseffekten kosmischer Strahlung das Potential, die beobachteten Änderungen gut zu erklären. Dieser Prozess wird jetzt untermauert durch die Theorie, durch Experimente und Beobachtungen. Plötzliche Änderungen des Flusses kosmischer Strahlen im Zusammenhang mit Forbush-Ereignissen gestatten es uns, die Änderungen in jedem Stadium der Abfolge der Theorie zu verfolgen: von Sonnenaktivität über Ionisierungs-Änderungen bis zu Aerosolen und dann zu Änderungen der Wolkenbedeckung.

Außerdem stellte sich heraus, dass der Einfluss kosmischer Strahlung auf den Strahlungshaushalt um eine Größenordnung größer ist als die TSI-Änderungen. Zusätzlich gestützt wird die Verbindung zwischen kosmischen Strahlen und Klima durch die bemerkenswerte Übereinstimmung, die über Jahrmillionen und sogar Jahrmilliarden erkennbar ist, wenn der Fluss kosmischer Strahlung gesteuert wird durch Änderungen in der stellaren Umgebung des Sonnensystems; mit anderen Worten, das ist unabhängig von der Sonnenaktivität. Dies führt zu der Schlussfolgerung, dass ein mikrophysikalischer Prozess, welcher kosmische Strahlung und Wolken involviert, in der Erdatmosphäre operiert und dass dieser Prozess das Potential hat, einen bedeutenden Teil der beobachteten Klima-Variabilität relativ zur Sonnenaktivität zu erklären.

Eine offene Frage ist, wie groß säkulare Änderungen der TSI sein können. Gegenwärtige Schätzungen reichen von 0,1% bis zu Ausreißer-Schätzungen von 0,5%; letzteres wäre bedeutend für Klima-Variationen. Eine geringe TSI-Änderung andererseits würde bedeuten, dass TSI nicht verantwortlich ist für die Klima-Variabilität. Vielleicht können zukünftige Beobachtungen zur Klärung dieser Frage beitragen.

Die Klimawissenschaft allgemein ist derzeit hoch politisiert, wobei viele Sonderinteressen involviert sind. Es ist daher keine Überraschung, dass obige Schlussfolgerung bzgl. der Rolle der Sonne und dem Klima stark in Zweifel gezogen wird. Das Kernproblem lautet, dass falls die Sonne einen großen Einfluss während des Holozäns gehabt hätte, sollte sie auch einen bedeutenden Einfluss auf die Erwärmung im 20. Jahrhundert ausgeübt haben – mit der Konsequenz, dass die Klima-Sensitivität bzgl. Kohlendioxid gering wäre. Die beobachtete Abnahme der Sonnenaktivität wäre dann auch ursächlich für die beobachtete Verlangsamung der Erwärmung während der letzten Jahre.

Unnötig zu sagen, dass weitere Forschungen bzgl. der physikalischen Prozesse zwischen Sonnenaktivität und Klima erforderlich sind. Es ist sinnlos, so zu tun, als sei das Problem des solaren Einflusses gelöst. Die größte Einzel-Unsicherheit bei der Bestimmung der Klima-Sensitivität auf entweder natürliche oder anthropogene Änderungen sind die Wolken. Forschungen bzgl. der solaren Auswirkung auf das Klima werden wesentlich zum Verständnis in diesem Bereich beitragen. Derartige Bemühungen sind jedoch nur möglich, wenn man anerkennt, dass dies ein ernsthaftes und bedeutendes wissenschaftliches Problem ist und mittels ausreichender Forschungsfinanzierung zu diesem Zweck.

Der ganze Report (PDF) ist hier beigefügt:

SvensmarkSolar2019-1

Übersetzt von Chris Frey EIKE




Die edle Korruption der Klimawissenschaft

Von der Fabius Maximus website.

Die Klimawandel-Kampagne hat sich in eine Sackgasse manövriert

Am 24. Juni hat James Hansen mit seiner Anhörung vor dem Senat die Kampagne zum Kampf gegen anthropogene globale Erwärmung auf den Weg gebracht (hier). Während der folgenden 31 Jahre seitdem haben wir immer häufiger immer düsterere Prophezeiungen des Untergangs gehört. Einige dieser Prophezeiungen beziehen sich auf die ferne Zukunft jenseits jedweden vernünftigen Vorhersage-Horizontes. Einige beziehen sich auf die nahe Zukunft. Viele ordnen fast alle gegenwärtigen Extremwetter-Ereignisse unseren Emissionen von Treibhausgasen zu – mittels unmöglich zu validierender Verfahren.

Karl Popper sagte einmal, dass erfolgreiche Vorhersagen, vor allem solche des Unerwarteten, goldener Standard von Wissenschaft seien (hier). Das ist ein Problem für Klima-Aktivisten. Die Erde hat sich seit Mitte des 19. Jahrhunderts erwärmt, nämlich mit dem Ende der Kleinen Eiszeit. Die Erwärmungsrate ist in etwa genauso hoch wie während der vier Jahrzehnte bis 1945. Anthropogene Treibhausgase wurden erst nach dem 2. Weltkrieg zu einem wesentlichen Faktor. Also ist die Erwärmung wie vorhergesagt vonstatten gegangen, aber eine Vorhersage ohne Betrachtung von Treibhausgasen hätte ebenfalls Erwärmung vorhergesagt. Es gibt Erklärungen hierfür, aber es macht die Modell-Validierung schwierig (weshalb es wohl kaum einmal gemacht wird).

Schlimmer: Das Wetter hat nicht mitgespielt. Starke Hurrikane haben 11 Jahre lang einen Bogen um die USA gemacht, und erst 2017 endete diese Null-Serie. Die Erwärmung verlangsamte sich während einer Zeit, welche Klimawissenschaftler den „Stillstand“ nennen (hier gibt es Links zu den Ursachen desselben). Und die meisten Arten von Extremwetter weisen gar keinen Trend auf. Darum zeigen auch Umfragen in den USA wenig öffentliche Unterstützung für teure Maßnahmen zum Kampf gegen Klimawandel.

Aktivisten werden immer verzweifelter

The Uninhabitable Earth” von David Wallace-Wells im New York Magazine – „Hunger, ökonomischer Kollaps, eine Sonne kocht uns weich: was der Klimawandel anrichten kann – schneller als man denkt“. Das wurde in ein Buch gegossen: The Uninhabitable Earth: Life After Warming.

The five ways the human race could be WIPED OUT because of global warming” von Rod Ardehali in der Daily Mail. Gefunden mittels der täglichen Links bei Naked Capitalism.

Und ein Buch von Bill McKibben: Falter: Has the Human Game Begun to Play Itself Out?

Aktivisten reagierten auf das nicht kooperative Verhalten des Wetters mit immer düstereren Prophezeiungen (darunter viele, deren Zeitpunkte des Eintretens längst verstrichen sind, ohne dass sich auch nur eine einzige materialisiert hätte). Jedwedes Extremwetter war und ist „Klimawandel“. Ihre Propaganda-Tricks wurden immer übler (man denke nur an das 10:10 video, in welchem gezeigt wird, wie die Köpfe von Kindern explodieren, weil sie nicht der Propaganda des Lehrers folgen wollten). Der Umfang ihrer Behauptungen wurde immer größer, mit mehr 2-Minuten-Clips des Hasses auf Dissidenten (und mit Lügen selbst über bedeutende Klimawissenschaftler). Die langfristigen Auswirkungen all dessen sind (hoffentlich) gering, wurde doch dieses Trommelfeuer der Furcht von den Linken bereits seit den sechziger Jahren verschossen (hier gibt es mehr zu diesem Punkt).

Aber eine Taktik könnte schlimme langfristige Konsequenzen haben. Viele Aktivisten sind Klimawissenschaftler (die ob ihrer falschen Prognosen teilweise depressiv werden. Mehr dazu hier und hier). Einige haben mit noble lie corruption (from Plato’s The Republic) reagiert. Welche guten Absichten auch immer dahinter steckten, es könnte das Vertrauen der Öffentlichkeit in die Wissenschaft schwächen.

Die edle Lüge in Aktion

Ein offensichtlicher Beweis für diese edle Lüge ist, dass sich Klimawissenschaftler unablässig auf das RCP8.5-worst case-Szenario konzentrieren, beschrieben im 5. Zustandsbericht. Wie es bei einem guten worst case-Szenario sein sollte, dürfte es kaum eintreten ohne abwegige Hypothesen (Details dazu hier und auch bei Judith Curry hier). Und doch wird genau dieses Szenario in der klimawissenschaftlichen Literatur mit Abstand am häufigsten erwähnt – normalerweise ohne jeden Hinweis darauf, wie unwahrscheinlich es ist (siehe die Historie). Aktivisten übertreiben diese Studien, deren Inhalte unkritisch von Journalisten beschrieben werden. Ein Jahrzehnt mit einem solchen Bombardement hat eine Fraktion der Linken in Schrecken versetzt; sie sind sicher, dass wir untergehen.

Es gibt viele Beispiele dafür aus jüngerer Zeit (hier und detaillierter hier). Noch schlimmer ist das Schweigen der Klimawissenschaftler, wenn Aktivisten deren Arbeit übertreiben und sogar wenn diese Arbeit falsch interpretiert wird. Ob der extremsten Untergangs-Prophezeiungen herrscht Schweigen. Beispiele dafür finden sich hier, hier und hier. Das war selbst für Michael Mann zu viel (hier).

Aber andererseits sind führende Klimawissenschaftler sofort zur Stelle, um Skeptiker lauthals zu verurteilen – sogar ihnen folgende Klimawissenschaftler – weil diese aggressive Behauptungen bzgl. Klimawandel hinterfragen. Dass es den Wissenschaftlern durchgeht, Fragen stellende Wissenschaftler „Leugner“ zu nennen, nur weil sie das herrschende Paradigma herausfordern, ist m. E. das unverantwortlichste Verhalten von führenden Wissenschaftlern jemals. Einem ungeschriebenen Gesetz zufolge bedeutet Schweigen Billigung des Verhaltens der Aktivisten. Man macht sich der „Hilfe und Beihilfe“ schuldig. Mehr dazu hier. Aber während der letzten paar Jahre scheint die Verzweiflung der Aktivisten diese noch einen Schritt weiter weg von der Wissenschaft geführt.

Studien, um alarmistische Nachrichten zu erzeugen!

Marc Morano von Climate Depot sagt, dass neue Studien oftmals nur dem Zweck dienen, in den Medien Stories für Alarmisten zu erzeugen. Davon kommen mir jede Woche mehrere vor Augen. Die jüngste davon ist „Key indicators of Arctic climate change: 1971–2017” in den Environmental Research Letters (April 2019), geschrieben von Wissenschaftlern am International Arctic Research Center an der University of Alaska-Fairbanks und dem Geological Survey of Denmark and Greenland in Kopenhagen. Abstract:

Beobachtete Schlüssel-Indikatoren für Klimawandel in der Arktis, von denen die meisten eine Zeitspanne von 47 Jahren abdecken (1971 bis 2017) zeigen fundamentale Änderungen von neun Schlüssel-Elementen des Arktis-Systems. … Abnehmende Trends halten an bzgl. der Dicke (und Ausdehnung) des Meereises sowie der Schneedecke im Frühjahr hinsichtlich Ausdehnung und Dauer. Gleichzeitig erwärmt sich der Permafrost nahe der Oberfläche weiter. Viele Klima-Indikatoren zeigen eine signifikante statistische Korrelation mit Lufttemperatur oder Niederschlag. Das stützt den Gedanken, dass steigende Lufttemperaturen und zunehmender Niederschlag Treiber massiver Änderungen bei den verschiedenen Komponenten des Arktis-Systems sind. …

Das biophysische System der Arktis tendiert derzeit eindeutig weg von seinem Zustand im 20. Jahrhundert hin zu einem beispiellosen Zustand mit Implikationen nicht nur innerhalb, sondern auch weit über die Arktis hinaus.

Ecowatch schreibt über diese Studie in üblicher apokalyptischer Manier [übersetzt] „Forscher warnen davor, dass die Arktis einen ,nie da gewesenen Zustand‘ erreicht, welcher die globale Klima-Stabilität bedroht“ (hier).

Die Studie ist in vielfacher Hinsicht seltsam. Sie beweist den Zerfall des Begutachtungs-Verfahrens. Fünf mal taucht bei der Beschreibung der Bedingungen in der Arktis der Terminus „beispiellos“ auf. Aber sie setzen als Anfangszeitpunkt ihrer Daten die siebziger Jahre. Angesichts der verschiedenen Arten langfristiger natürlicher Fluktuationen sind fünf Jahrzehnte mit Daten ein viel zu kurzer Zeitraum, um eine derartig weitreichende Schlussfolgerung zu ziehen. Außerdem lehnen es die Autoren ab zu erwähnen, dass es während der dreißiger Jahre in der Arktis auch warm war.

[Es folgen mehrere Beispiel dieser Art, die hier nicht mit übersetzt werden. Die Schlussfolgerung it eindeutig, und der Autor bringt es am Ende auf den Punkt. Anm. d. Übers.]

Schlussfolgerungen

Wissenschaft ist politisiert worden. Ergebnisse wurden verzerrt – früher und heute, und es wird auch in Zukunft vorkommen. Aber die Klimawissenschaft bietet wesentliche Einblicke bzgl. vieler politischer Maßnahmen bzw. wie diese ergriffen werden. Der Verlust der Zuverlässigkeit dieser Maßnahmen als Leitlinien kann katastrophale Konsequenzen haben. Schlimmer noch, das hohe Ansehen der Klimawissenschaft in der Öffentlichkeit bedeutet, dass ein Vertrauensverlust der Öffentlichkeit sich auch auf die Wissenschaft als Ganzes erstrecken kann.

Hoffen wir, dass sich die Führer der Klimawissenschaft bald besinnen – trotz ihrer persönlichen, institutionellen und ideologischen Gründe, auf diesem dunklen Weg weiter voranzuschreiten.

Weitere Informationen:

Link: https://wattsupwiththat.com/2019/04/15/the-noble-corruption-of-climate-science/

Übersetzt von Chris Frey EIKE