1

Begeht die „Nachrichten“-Agentur Reuters Betrug?

Bild rechts: Das Globale-Erwärmung-Speedometer von Januar 2001 bis Juni 2016 zeigt die gemessene Erwärmung in den Datensätzen von HadCRUT4 und NCEI, die noch unter der geringsten, vom IPCC im Jahre 1990 geschätzten Zahl lag sowie im unteren Bereich der Prophezeiungen aus den Jahren 1995 und 2001. Die Satelliten-Datensätze zeigen dagegen weniger Erwärmung als sämtliche IPCC-Prophezeiungen von 1990 bis 2001. Seit jüngeren IPCC-Schätzungen ist zu wenig Zeit vergangen, um diese zuverlässig testen zu können.

Alle Beobachtungen zeigen erhebliche Auswirkungen der jüngsten El-Niño-Spitze, welcher durchaus eine korrigierende La Niña folgen könnte. Es ist wahrscheinlich, dass sich dann wieder der Stillstand einstellt, doch würde ich darauf noch nicht wetten. Der Theorie zufolge wäre mittel- und langfristig eine gewisse Erwärmung zu erwarten, insgesamt aber keine sehr große.

War es also wirklich zu viel Arbeit für Reuters, die IPCC-Prophezeiungen mit den Beobachtungen zu vergleichen? Reuters preist das IPCC ob dessen numerischer Daten. War es also wirklich zu viel Arbeit, anstatt in abstoßender Weise eine Tischvorlage hervorzuwürgen, den jeder Kunde selbst hätte vom WMO herunterladen können?

„Der Juni“, heißt es in dem ergreifenden Stück Arbeit von Reuters, „markiert den 14. Monat hintereinander mit Rekord-Wärme“. [Das erschien natürlich augenblicklich auch in der „Süddeutschen Zeitung“! Anm. d. Übers.] Aber – als Ted Cruz die WUWT-Graphik mit dem Stillstand im November vorigen Jahres dem Senat präsentierte – gab es da nicht ein erhebliches Wehklagen, dass 19 Jahre eine zu kurze Zeit sei, um irgendwelche Schlussfolgerungen zu ziehen?

Und doch hat Reuters, die vermeintlich diskontfähige Finanz-/Statistik-Nachrichtenagentur, bedingungslos eine WMO-Propaganda verbreitet, der zufolge 14 Monate ausreichend seien, um zu bestätigen, was Private Fraser in Dad’s Army [eine amerikanische Comedy-Fernsehserie] uns schon lange gesagt hat: „Wir sind dem Untergang geweiht“ [We’re a’ doomed!]

en.wikipedia.org/wiki/Private_Frazer – Schauspieler John Laurie

We’re a’ DOOMED!”

Weiter. Reuters zitiert ohne jede Nachfrage einen Sprecher der WMO mit den Worten: „Was wir während der ersten sechs Monate dieses Jahres 2016 gesehen haben, ist wirklich ziemlich alarmierend. Dieses Jahr zeigt, dass sich der Planet viel schneller in viel kürzerer Zeit erwärmen kann als erwartet … Wir haben längst nicht so viel Zeit wie gedacht“.

Ähem – nein! Man schaue auf die Prophezeiungen und dann auf die gemessene Realität, sogar noch nach all den Datenmanipulationen. Es sollte sogar der durchschnittlichsten journalistischen „Intelligenz“ bei Reuters klar sein, dass sich der Planet derzeit weitaus langsamer erwärmt als gedacht.

Weiter. Reuters wiederholt ungefragt, dass „die mittlere Temperatur während der ersten sechs Monate des Jahres 2016 um 1,3°C höher lag als während der präindustriellen Zeit zum Ende des 19. Jahrhunderts, jedenfalls der Weltraumagentur NASA zufolge“.

Ähem – nein! Selbst wenn man sich auf den globalen Temperatur-Datensatz verlässt, der am meisten manipuliert und am voreingenommensten ist, nämlich den Datensatz der „Weltraumagentur NASA“, beträgt die Rate der globalen Erwärmung seit Beginn des Datensatzes im Januar 1880 weniger als 1 Grad, äquivalent zu bloßen 0,7°C pro Jahrhundert. Das ist nicht wirklich Angst erzeugend. Es liegt deutlich innerhalb der natürlichen Variabilität.

Gibt es bei Reuters niemanden mehr mit ausreichenden grundlegenden mathematischen Kenntnissen um zu wissen, dass man in der Statistik keine willkürlichen Vergleiche anstellen sollte zwischen Perioden von Monaten bzw. Jahrzehnten? Es ist besser, den Trend in den Daten zu bestimmen:

Weiter. Reuters „berichtet“ ungefragt, dass „im Zuge des Pariser Abkommens fast 200 Regierungen zugestimmt haben, die globale Erwärmung deutlich unter 2°C zu halten, verglichen mit dem vorindustriellen Niveau, während ,Bemühungen‘ verfolgt werden sollen, sie unter 1,5°C zu halten – einem unteren Limit, dass schon jetzt fast erreicht ist“. Oh Mann – nein! Zieht man das Mittel aller drei Datensätze heran, beträgt der Erwärmungstrend seit 1880 etwas mehr als 0,9°C, was noch einen Spielraum von 0,6°C übrig lässt, bevor das neue willkürliche Ziel von 1,5°C erreicht wird – und einen solchen von 1,1°C, bevor das zuvor gesetzte willkürliche Ziel von 2°C erreicht wird.

Gibt es niemanden bei Reuters, der eine grundlegende lineare Trendanalyse kleinster Quadrate durchführen kann? Das ohne jede Notwendigkeit propagierte „untere Limit“ von 1,5°C ist in keiner Weise „fast schon erreicht“.

Weiter. Als Nächstes lässt Reuters ohne jede Nachfrage einen „Experten“ zu Wort kommen: „Es gibt nahezu kein plausibles Szenario, das uns etwas anderes liefert als ein außerordentliches Jahr hinsichtlich Eis (Schmelze), CO2, Temperatur – also all der Dinge, die wir im Auge haben“.

Himmel – nein, nein und nochmals nein!

Was die Eisschmelze angeht – eine weitere totalitäre Propaganda-Expedition hat sich aufgemacht, um „die Aufmerksamkeit zu steigern“ bzgl. der Klima-„Katastrophe“. Man versucht, die Arktis im Sommer zu umsegeln. Die Tour musste kürzlich abgebrochen werden wegen – ähm – zu viel Eis. Weder die Nordwest- noch die Nordostpassage ist offen. Die Expedition wurde aufgehalten in einem der grässlichsten Orte – Murmansk. Das sollte ihnen zu denken geben!

Einmal habe ich die Eigentümer des mondänen Mega-Schiffes The World davor bewahrt, ein Vermögen zu verlieren, als der ansonsten geistig völlig gesunde Kapitän der Idee verfallen war, durch die Nordwest-Passage zu fahren, und ich ihn davon abgebracht habe.

Zu jener Zeit lag The World in Fremantle vor Anker. Meine liebe Frau und ich verbrachten ein paar Tage an Bord. Wir irrten auf dem ganzen Schiff umher, als wir irrtümlicherweise in das Büro des Kapitäns stolperten, wo er und seine Offiziere in bester Stimmung über Pläne brüteten, die Nordwest-Passage zu durchfahren.

Der Kapitän nahm uns mit auf die Brücke und erklärte uns mit jenem verträumten Blick des Abenteurers in seinen Augen alles über seine Idee. Ich rief die globalen und arktischen Meereis-Daten der University of Illinois auf dem Schiffscomputer auf und hielt dem Kapitän einen kurzen Vortrag hinsichtlich der sehr wenigen Gelegenheiten im vorigen Jahrhundert, in denen die Nordwest-Passage offen war.

Die Arktis, erklärte ich ihm, war unvorhersagbar, weshalb er nicht zu bereitwillig den Wirklich Gläubigen bei jedem erbarmungswürdigen, aber vorübergehend in Mode befindlichen Dogma der Neuen Religion folgen sollte. Er sah sofort ein, dass sein Vorhaben unmöglich war und setzte sich mit den Eigentümern des Schiffes in Verbindung, noch einmal nachzudenken.

Können wir vielleicht auch nur einen einzigen „Journalisten“ von Reuters von den verschiedenen globalen institutionellen Profiteuren des Untergangs fortführen, die ihre sinnlosen Tage in verschwenderisch ausgestatteten, den Planeten zerstörenden und ventilierten Hallen lange genug verbringen, um die Daten der realen Welt draußen zu checken?

Auf der Meereis-Site von WUWT zeigen die Daten der University of Illinois Folgendes, was nicht sehr ängstigend ist:

Der Graphik des National Snow and Ice Data Center zufolge ist es möglich, jedoch recht unwahrscheinlich, dass es ein oder zwei Wochen lang in diesem Sommer keine arktische Eiskappe geben wird:

Selbst wenn das Eis ein oder zwei Wochen lang verschwinden würde – na und? Das Gleiche galt für die zwanziger und dreißiger Jahre, in denen es wärmer war als heute, jedoch gab es noch keine Satelliten, um dies zu zeigen. Würde ein totaler Eisverlust die Albedo der Erde drastisch verändern? Nein: es ist zu weit nördlich, und in jedem Falle macht den allermeisten Teil der Albedo der Erde die Reflektion durch Wolken aus. Die Erdoberfläche hat damit nur sehr wenig zu tun, außer vielleicht während der Schneedecken-Saison im nordhemisphärischen Winter, aber vier Fünftel der Schnee-Albedo stammen vom Festland, nicht vom Arktischen Ozean.

Was das CO2 angeht – trotz aller Propaganda der Totalitarians hinsichtlich der Notwendigkeit, die Welt wegen seiner Emissions-Sünden in Haftung zu nehmen (Propaganda, für die Reuters schon immer ein unermüdlicher und widerlich kriecherischer Cheerleader war), nehmen die Emissionen weiterhin mit einer Rate zu, die so ziemlich über dem Nichtstun-Szenario des IPCC aus dem Jahre 1990 liegt:

Falls es das wirkliche Ziel all jener Propaganda war, den Welt-Ausstoß von CO2 zu reduzieren, hätte jener Ausstoß bis jetzt ohne Zweifel zurückgehen müssen. Aber das wirkliche Ziel, das erreicht worden ist, ist der Krieg gegen und die Zerschlagung der US-Kohleindustrie, ehemals eine der größten Finanziers der Republikanischen Partei.

Soweit ich sehe, haben die faulen „Journalisten“ von Reuters niemals berichtet, dass die einzige IPCC-Prophezeiung, die hinter der Realität zurückgeblieben war, die globale CO2-Emissionsrate war. Der Gesamteffekt all jener internationalen Konferenzen war genau Null.

Was die Temperatur betrifft – wird dies wirklich ein „außerordentliches Jahr“? Dazu wollen wir etwas machen, wofür kein Reuters-„Journalist“ das Wissen, den Verstand oder das Interesse hat, nämlich die heutigen Temperaturen in einen Zusammenhang stellen mit Temperaturen in geologischen Zeiträumen, sprich der letzten vier großen Warmzeiten zwischen den Eiszeiten.

In allen vier dieser Warmzeiten während der letzten 450.000 Jahre war es genauso warm oder sogar wärmer als gegenwärtig. Alle jene prähistorischen SUVs, könnte man annehmen.

Soweit ich weiß, hat Reuters niemals darauf hingewiesen, dass es nicht das geringste Außerordentliche gibt hinsichtlich der derzeitigen globalen mittleren Temperatur. Auf der Welt gab es das alles schon mal zuvor – und alles hat überlebt.

Weiter. Reuters hat sich dazu durchgerungen, die Existenz der jüngsten starken El Niño-Spitze einzuräumen, obwohl natürlich der Propagandist, der den Beitrag verfasst hat, es irgendwie versäumt hat zu erwähnen, dass dies ein natürliches und regelmäßig auftretendes Ereignis ist und nicht eine plötzliche Folge der globalen Erwärmung:

El Niño-Spitzen der Jahre 1998, 2007, 2010 und 2016. Die Rate der globalen Erwärmung seit 1990, äquivalent zu 1,26 K pro Jahrhundert, liegt weit unterhalb des vom IPCC prophezeiten Intervalls von 2,8 (1,9; 4,2) K pro Jahrhundert.

Stattdessen plappert Reuters ohne Nachfrage die Worte des WMO-Generalsekretärs nach: „Der Klimawandel, verursacht durch Wärme einfangende Treibhausgase, wird nicht verschwinden. Dies bedeutet, dass wir mehr Hitzewellen erleben werden! Mehr extreme Regenmengen!! Und potentiell noch stärkere Auswirkungen!!! Tropische Zyklone!!!!“

Nun könnte man erwarten, dass wärmeres Wetter mehr Hitzewellen mit sich bringt. Aber hat Reuters wirklich nichts Besseres zu tun als einen langweiligen, überbezahlten Sektierer der WMO zu zitieren, um uns das mitzuteilen?

Und selbst wenn, wäre es nicht besser gewesen, wenn Reuters die besten Wetteraufzeichnungen der Welt gecheckt hätte, jene der USA, um zu erkennen, wann die Anzahl von Rekordwerten der täglichen Höchsttemperatur – die Maßzahl für Hitzewellen – am höchsten war?

Die Antwort geht aus den bloßen Fakten hervor: das war in den dreißiger Jahren der Fall, als die CO2-Konzentration noch kaum über ihren vorindustriellen Wert gestiegen war.

Was die „extremeren Regenmengen“ angeht – selbst das IPCC wurde sowohl in seinem Sonderbericht zu Extremwetter als auch im 5. Zustandsbericht davon überzeugt einzuräumen, dass es bis heute kaum Beweise für „extremere Regenmengen“ gibt und auch kaum Gründe, dies demnächst zu erwarten.

Hätte der Reuters-„Journalist“ nicht lange genug ausgenüchtert werden können, um aus den edlen Hallen der WND (mit Hauptquartier in Genf, wo vermutlich die ganze Story erdacht worden war) in die edlen Hallen des IPCC torkeln zu können (ebenfalls in Genf ansässig, wo die Herrschenden gegenüber offizieller Korruption viel nachsichtiger sind als irgendwo sonst auf diesem Planeten)?

Und was die „stärkeren tropischen Zyklone“ angeht – die Graphik der akkumulierten Zyklon-Energie während der letzten Jahrzehnte entlarvt auch dies als eine Lüge:

Akkumulierter Zyklon-Energie-Index von weatherground.com.

Weiter! Reuters propagiert seine eigene Meinung, wonach „wiederholte Extreme wie Hitzewellen!, Wolkenbrüche!! oder Dürren!!! zu verstärkten Maßnahmen führen können, die Treibhausgas-Emissionen zu begrenzen“.

Wir hatten es schon immer mit Hitzewellen und Wolkenbrüchen zu tun. Bezüglich Dürren zeigt die jüngste umfassende Übersicht von Hao et al. 2014, dass es zu einem Rückgang der Festlandsgebiete gekommen war, die von einer Dürre heimgesucht wurden:

Und schließlich die offene Propaganda: Reuters zitiert einen „Klima-Experten“ am International Institute for Applied Taxpayers’ Money Gobbling in Wien mit den Worten: „Forschungen zeigen, dass Extreme den Klimawandel für die allgemeine Öffentlichkeit fassbarer und verständlicher machen. Es könnte helfen, die Menschen zu motivieren, sich bei Klima-Maßnahmen zu engagieren und etwas zu tun“.

Übersetzung: „Die Daten stützen unsere Klima-Profite nicht. Die Fakten stützen sie nicht. Die Graphiken stützen sie nicht. Selbst das Wetter stützt sie nicht. Es gab einfach nicht genug schlechtes Wetter, um uns mit der Entschuldigung für noch mehr Verschwendung von Steuergeldern davon kommen zu lassen. Irgendetwas muss geschehen, und zwar bald, oder wir müssen für unseren Lebensunterhalt arbeiten“.

Ist die Story von Reuters wie so viele andere, die man dort veröffentlicht hatte, nicht eine Fortsetzung des Klimaschwindels, direkt betrügerisch?

Man gebe einfach mal den Terminus „Reuters disclaimer“ in eine Suchmaschine ein. Heraus kommt in Großbuchstaben dies [übersetzt]:

„THOMSON REUTERS DEMENTIERT JEDE GEWÄHR, AUSDRÜCKLICH ODER IMPLIZIT, HINSICHTLICH DER GENAUIGKEIT IRGENDWELCHER INHALTE ODER WAS DIE ZUVERLÄSSIGKEIT DER INFORMATION BZGL. IRGENDEINES ZIELES BETRIFFT“.

Es ist also nicht so, dass man uns angemessen davor gewarnt hat, dass Reuters einfach eine weitere Müll-Website ist, die sich viel mehr totalitärer Propaganda widmet als bloßen Fakten.

Allerdings macht Reuters Kasse – und sehr große! – von verschiedenen Organisationen unter der Voraussetzung zu versuchen, Genauigkeit und Selbstlosigkeit zu erreichen, selbst wenn dies nicht immer erreicht wird. Das „Handbook of ,Journalism’“ von Reuters beginnt mit den folgenden wohlklingenden Worten:

„Alles, was wir Reuters-,Journalisten‘ tun, muss unabhängig sein (wie bitte?), frei von jedwedem Bias (was?) und mit oberster Integrität (wirklich?) ausgeführt werden. Dies sind unsere Kernwerte (Werte?), die sich aus den Vertrauens-Prinzipien (Prinzipien?) von Reuters ergeben. Als Nachrichten-Service (Nachrichten-Service?) in Echtzeit, dessen Ruf auf Zuverlässigkeit beruht (na sowas!), schätzen wir auch Genauigkeit (pull the other one, squire, it’s got bells on) …”

Unter den Zehn Geboten des Reuters-„Journalismus’“ sind Folgende: Genauigkeit immer sakrosankt halten; Fehler offen zu korrigieren, nach Ausgewogenheit und der Vermeidung von Verzerrungen zu streben, Interessenkonflikte zu benennen, keine Meinungen von „Journalisten“ in Nachrichten einfließen zu lassen und nichts zu fabrizieren (Man reiche mir die Anti-Lach-Medizin!)

Trotz des groß geschriebenen und Aufmerksamkeit heischenden Disclaimers hält sich folglich Reuters selbst für eine Organisation, deren Nachrichten-„Journalisten“ sich zumindest Mühe geben, genau, ehrlich, unparteiisch, ungekauft sowie Fakten und Wahrheit zu folgen.

Wie es scheint, mit Ausnahme des Themas Klimawandel.

Jetzt lese man diesen Beitrag noch einmal. Zeigt das Herumeiern um die goldenen Paläste der Korruptions-Hauptstädte Europas irgendwelche wahrnehmbaren Bemühungen welcher Art auch immer, genau, ehrlich, unparteiisch ungekauft zu sein? Wenn Jahr für Jahr die Plattitüden der Totalitarians über die imaginären Einflüsse des Menschen auf das Klima immer wieder und buchstäblich gegen die Fakten und die Daten stehen und von einer zunehmenden Zahl von veröffentlichten Forschungsstudien einschließlich von 250 Studien, die den „Konsens“ ad absurdum führen, herausgefordert werden?

Wenn Sie das wie ich nicht so sehen, klicken Sie bei https://reuters.zendesk.com/anonymous_requests/new, hinterlassen Sie einen Kommentar darüber, was Sie denken, und senden Sie Monckton@mail.com eine Kopie des Kommentars sowie irgendeiner Antwort, die man vielleicht bekommt.

Vor vielen Jahren kannte ich den damaligen Chairman von Reuters, Lord Barneston. Er war ein ehrlicher Mann, der einen Müll wie jüngst von Reuters nie toleriert hätte. Vielleicht hat jemand in der Organisation doch noch ein Gewissen wie er.

Versuchen Sie es! Wir sollten uns hier nicht nur untereinander unterhalten, sondern auch die Außenwelt die Wahrheit wissen lassen. Die Wahrheit wird sich schließlich durchsetzen, aber je öfter wir die Hausierer der Falschheiten herausfordern, umso schneller wird das der Fall sein und umso weniger unschuldige Menschen werden durch die auf diesen Falschheiten beruhenden politischen Maßnahmen getötet.

Link: https://wattsupwiththat.com/2016/07/22/is-the-reuters-news-agency-committing-fraud/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Warum zog sich bei der gesamten Übersetzung dieses Beitrags der Gedanke an die „Süddeutsche Zeitung“ wie ein roter Faden durch mein Gehirn?




Der Kampf der Ideen

Es erscheint paradox: Der Sozialismus, die beherrschende Ideologie des Sowjetimperiums, ist seit dem Fall der Berliner Mauer im Jahr 1989 in der Schweiz nicht zurückgewichen, sondern vorgerückt.

Ab 1990 schnellte die Staatsquote in sechs Jahren von 28 auf 33 Prozent des Bruttoinlandprodukts, und die Schuldenquote der Schweiz stieg in 13 Jahren von 29 Prozent auf 51 Prozent an (2014: 35 Prozent). Die Ausgaben für die soziale Wohlfahrt kletterten in nur zehn Jahren von 22 auf 31 Prozent des Bundeshaushalts.

Gleichfalls ab 1990 holten die linken Parteien im Ständerat von einem Zehntel der bürgerlichen Sitze auf ein Drittel auf, während sie im Nationalrat bei einem Drittel der bürgerlichen Sitze verharrten. Die linken Parteien blieben den bürgerlichen immer deutlich unterlegen. Der Linkskurs in der nationalen Politik nach 1989 lässt sich also nicht mit dem Kräfteverhältnis zwischen linken und bürgerlichen Parteien erklären. Es scheint, dass das bürgerliche Lager selbst sich weltanschaulich verändert hat.

BEISPIEL UMWELTPOLITIK

Ein Beispiel für die Verschiebung der ideologischen Kräfteverhältnisse liefert die heutige Umwelt- und Klimapolitik. Aus den Studentenprotesten in den 1960er Jahren hervorgegangen, war die Umweltschutzbewegung bis Ende der 1970er Jahre eine Domäne der Linken. Allmählich erfasste die Ökologie auch das bürgerliche Lager und setzte dem dort bestehenden Natur- und Heimatschutz seinen linken Stempel auf. Ausdruck der neuen parteiübergreifenden Ausrichtung war die Verabschiedung des Umweltschutzgesetzes 1983 und der darauf abgestützten Verordnungen über die Luftreinhaltung (1985), umweltgefährdende Stoffe, Boden-Schadstoffe und den Lärmschutz (alle 1986) sowie Abfälle (1990).

Bürgerliche und Linke setzten unterschiedliche Akzente – Bürgerliche wiesen stets auch auf die Kosten hin und zielten stärker auf technische Massnahmen, während Linke das Schutzziel über alles stellten und auch auf gesellschaftliche und globale Veränderungen abzielten. Doch die linke Stossrichtung setzte sich schliesslich gegen die bürgerliche durch. Jüngste Beispiele sind die Klimapolitik mit dem 2011 verabschiedeten CO2-Gesetz und das Vorhaben einer Energiewende, deren Energiestrategie 2050 voraussichtlich im Herbst dieses Jahres im Parlament zur Schlussabstimmung kommen wird.

DIE IDEE EINER ENERGIEWENDE

Das Ziel in der Energiestrategie 2050 ist der Verzicht auf Kernkraftwerke, verbunden mit einer Senkung des CO2-Ausstosses auf unter ein Viertel gegenüber 1990. Anders als bei früheren Umweltschutzmassnahmen, die wenigstens das Leben der Bürgerinnen und Bürger verbesserten, bringt die Energiestrategie 2050 keinen fassbaren Nutzen, werden doch weltweit neue Kernkraftwerke gebaut, und der CO2-Ausstoss steigt global stark an – namentlich in China, Indien, Südostasien und im Nahen Osten. Der Vorteil einer schweizerischen Energiewende existiert einzig in der Vorstellung. Real sind dagegen die enormen Kosten für die schweizerischen Konsumenten, die Landschaft und die Wirtschaft. Real sind auch die gesellschaftlichen Veränderungen und der Rückschritt, die sie mit sich führen, und die mit Formulierungen wie «2000-Watt-Gesellschaft », «ökologischer Fussabdruck eins» oder «ökologische Gerechtigkeit» verschleiert werden.

Den Auftrag zur Entwicklung der Energiestrategie 2050 erteilte das nationale Parlament. Am 18. März 2011, eine Woche nach dem Kernkraftwerk-Unfall in Fukushima, reichte die Grüne Fraktion einen Vorstoss ein, der den schrittweisen Ausstieg aus der Kernenergie verlangte. Der Nationalrat hiess ihn mit 108 zu 76 Stimmen gut. Für den Vorstoss stimmten alle SP-, Grüne- und BDP-Vertreter sowie fast alle CVP-Vertreter (30 Stimmen bei einer Gegenstimme und vier Enthaltungen) und fast jeder dritte FDP-Parlamentarier. Gegen den Vorstoss stimmten die ganze SVP-Fraktion und gut jeder zweite FDP-Vertreter (19 zu zehn Stimmen bei fünf Enthaltungen). Die zuständige Bundesrätin Doris Leuthard (CVP), bis zu jenem Zeitpunkt für ihre Befürwortung von Kernkraftwerken bekannt, änderte in wenigen Tagen ihre Position und vertritt seither konsequent einen Ausstieg aus der Kernenergie. Ohne bürgerliche Unterstützung gäbe es heute also keine Energiestrategie 2050. Wie kam es dazu?

DIE IDEOLOGISCHEN WURZELN

Die Idee einer Energiewende geht weltanschaulich wie die Umweltpolitik auf die 1968er Bewegung, die Botschaft von «Grenzen des Wachstums» und die Ölkrisen in den 1970er Jahren zurück. Die 1968er Bewegung war zum einen vom Marxismus beeinflusst, das heisst von den Ideen des Klassenkampfs und der Revolution, zum andern vom Hedonismus, wonach ein grösstmöglicher Lustgewinn erstrangig erstrebenswert ist und das Gefühl dem Verstand vorgeht. Der revolutionäre Zorn richtete sich gegen den Kapitalismus und gegen die herkömmlichen Gemeinschaften: die Familie, die Kirche, die Nation. Seine Methode waren Dekonstruktion, Spott und Zerstörung. Mit der 1968er Bewegung drang progressives linkes Gedankengut über die Kultur in alle gesellschaftlichen auch bürgerlichen Schichten und erfasste sämtliche Lebensbereiche.

Auftraggeber des 1972 veröffentlichten Buches «Die Grenzen des Wachstums» war der 1968 gegründete Club of Rome, ein lockerer Zusammenschluss von Wissenschaftlern und Industriellen, die nichts weniger als die Untersuchung, Darstellung und Deutung der «Lage der Menschheit» unter Berücksichtigung der ökonomischen, ökologischen und sozialen Bedingungen zum Ziel hatten. Mit dem Buch zog Angst vor dem Weltuntergang in die Wissenschaft ein.

Die Ölkrisen von 1973/74 und 1979/80, die durch den Jom-Kippur-Krieg und die islamische Revolution in Iran ausgelöst worden waren, äusserten sich in einem starken und sprunghaften Preisanstieg für Erdöl aufgrund einer drastischen Drosselung der Erdölförderung in arabischen Ländern. Sie führten den westlichen Industrienationen deren Abhängigkeit von fossilen Brenn- und Treibstoffen vor Augen und hatten staatliche Massnahmen zur Sicherung der Energieversorgung zur Folge. Seither greift der Staat immer tiefer in die Energieversorgung ein.

Die Ökologiebewegung entstand unter dem Einfluss dieser Entwicklungen. Stellvertretend genannt seien das 1962 erschienene Buch «Silent Spring» der Biologin Rachel Carson gegen den Einsatz von Pestiziden, die 1971 gegründete Organisation Greenpeace und das 1973 publizierte Buch «Small is Beautiful» des Ökonomen Ernst Friedrich Schumacher, in dem dieser sich gegen Grosstechnik und die Industriegesellschaft aussprach. Mit der Ökologiebewegung verbanden sich geistige Strömungen wie der Pazifismus und der Feminismus sowie spirituell-religiöse Ideen (zum Beispiel New Age). Seither werden Technik und Zivilisation als zerstörerische Kräfte angesehen.

Alle diese Einflüsse finden wir in einer Energiewende wieder: klassenkämpferisches Misstrauen gegen die Energiewirtschaft (insbesondere die Stromwirtschaft), revolutionärer Fanatismus im grundlegenden Umbau der Energieversorgung und in der Unempfindlichkeit für die Folgelast. Auch zeigt es sich in der Angst vor dem Weltuntergang in Form von Kernkraftwerken oder der Klimaveränderung, ein stetig wachsender Staat sowie die Ablehnung von Grosstechnik (Kernkraftwerke, Staudämme) und die Vorliebe für eine dezentrale Energieerzeugung und -speicherung.

«MARSCH DURCH DIE INSTITUTIONEN»

Dass Grüne, die aus linken Bewegungen hervorgegangen sind, und Linke, ideologisch derart beseelt eine Energiewende vorbehaltlos unterstützen, liegt auf der Hand, da sie auf derselben weltanschaulichen Grundlage beruhen. Erstaunlich ist dagegen, dass ihr Gedankengut jenseits vom traditionellen Natur- und Heimatschutz in bürgerlichen Kreisen Fuss gefasst hat. Eine Erklärung dafür ist der starke Einfluss der 1968er Bewegung auf die Kultur. Verbunden damit ist der «Marsch durch die Institutionen», das heisst die schleichende Veränderung der Gesellschaft durch die 1968er Generation an den Universitäten und Schulen, in den Medien und im Staat. Geschichtlich gesehen waren es erst Linke, die ihren Gegner, das Bürgertum, für dessen Ideologie kritisiert haben. Sich selbst nur den angeblichen Bewegungs- und Entwicklungsgesetzen der Natur und der Welt verpflichtet glaubend, richtete sich ihre Kritik gegen die bürgerliche Ideologie, die sie als «falsches Bewusstsein» bezeichneten. Ihre Kritik war, aus dem Marxismus kommend, theoretisch und ideologisch hoch entwickelt und rhetorisch aggressiv.

Heute sind es mehrheitlich Bürgerliche, die ihren Gegner für dessen Ideologie kritisieren. Sich selbst halten sie aber für ideologiefrei – sachlich, pragmatisch, lösungsorientiert. Das ist ihre Schwäche. Sie blenden aus, dass auch ihre Positionen auf einem ideologischen, das heisst weltanschaulichen Boden stehen, sei es der Liberalismus, der Katholizismus, der Protestantismus oder auch der Nationalismus. Deshalb ist ihre Kritik an Linken häufig steril und wirkungslos. Sie übersehen dabei den Einfluss der aus der 1968er Bewegung über die Kultur in die bürgerlichen Parteien eingedrungenen linken Ideen. Sie haben ideologisch kapituliert.

AUSEINANDERSETZUNG SUCHEN

Bürgerliche unterliegen – vielleicht mit Ausnahme der Wirtschaftspolitik im engen Sinn – häufig in der ideologischen Auseinandersetzung mit Linken, weil sie den Kampf der Ideen, insbesondere die Beschäftigung mit den Grundsätzen und der Geschichte der eigenen Weltanschauung vernachlässigen – sei es aus Achtlosigkeit, Hochmut oder Faulheit. Politische Terrainverluste, wie wir sie heute in den Parlamenten, der öffentlichen Verwaltung und den Gerichten, beispielsweise bei der Energie- und Klimapolitik feststellen, sind die logische Folge. Wenn Bürgerliche nicht nur gewählt werden, sondern tatsächlich eine bürgerliche Politik verwirklichen wollen, dann dürfen sie der ideologischen Auseinandersetzung nicht aus dem Weg gehen, sondern sollten diese nachgerade suchen, um ihren Überzeugungen in der Politik und der Kultur Wirkung zu verschaffen. Zwar stimmt es, dass Ideen nicht satt machen. Ideen aber sind es, die die Welt bewegen.

Lukas Weber (aus: Basler Zeitung, 14. Juli 2016 auf dem Blog des Autors hier)




Der Unterschied in der Klimawandel-Berichterstattung

Bild rechts: Klima-Lügendetektor von Klimaretter.info

Beim EEG ist es eben so, bis hin zur Glorifizierung agitatorischer und gesetzeswidriger Agitationen wie die beim Braunkohle-Tagebau: [13] „Berichterstattung von Klimaretter.Info über die am Pfingstwochenende durchgeführten Agitationen im Braunkohlerevier“, doch sei es hier nur anhand aktueller Publikationen zum Klimawandel gezeigt.

Im aktuellen Eintrag des KLIMA-LÜGENDETEKTORs der Homepage wird die Lufthansa angeprangert welche sich erdreistet hat, für ihre originäre Dienstleistung – dem Fliegen – mit positivem Text zu werben.

Die Keule ist fürchterlich: Hat doch ein Klima-Aktivist über das Fliegen einmal ein vernichtendes Statement abgegeben, dem nicht widersprochen werden darf:

KLIMA-LÜGENDETEKTOR: „Wer fliegt, zerstört das Leben anderer Menschen“, sagt der britische Umweltaktivist George Monbiot. Das mag rigoros klingen, aber es ist die Wahrheit. Flugzeuge verursachen nicht nur Kohlendioxid, sondern auch andere Treibhausgase, die noch dazu in besonders sensiblen Schichten der Erdatmosphäre ausgebracht werden: Stickoxide zum Beispiel, Sulfat-Aerosole oder auch Rußpartikel und Wasserdampf. Die Konsequenzen sind, so die UNO in ihrem Weltklimabericht, „steigende Zahlen von Todesfällen, Verletzungen und Erkrankungen durch Hitzewellen, Überschwemmungen, Stürmen, Waldbränden und Dürren“.

KLIMARETTER.INFO demonstriert damit den ideologischen Gleichlauf mit der zu beratenden Regierung, welche über das UBA verkünden ließ: „Fliegen schadet dem Klima. Wer es nicht vermeiden kann, kann den Treibhausgasausstoß kompensieren“.

Eine abwägende oder irgendwie mit Zahlen belegte Darstellung zwischen Nutzen des Flugverkehrs und der Verursachung an „steigende Zahlen von Todesfällen, Verletzungen und Erkrankungen durch Hitzewellen, Überschwemmungen, Stürmen, Waldbränden und Dürren“ erfolgt nicht. Die bietet das UBA allerdings auch nicht und listet als Erklärung nur die üblichen Allgemeinplätze: „Hintergrund„. Wenn man als Beleg einen Aktivisten zitiert, ist man bei KLIMARETTER aber wohl der Meinung, die „Belegstärke“ ausreichend vervielfacht zu haben.

Die „normalen“ Artikel sind in der Regel im selben Stil gestrickt. Als Beispiel dazu mehrere jüngere Darstellung des Portals zum Thema Klimawandel.

KLIMARETTER.INFO 04. Juli 2016: [5] Florida Keys: Ein Paradies geht unter

Obwohl im Text die vielen anderen Ursachen gelistet sind, ist im Wesentlichen wichtig, dass ein Klimaaktivist den Einfluss des Klimawandels „bescheinigt“. Ohne diesen wäre diese Information wohl kaum erschienen.

Kritische Gegendarstellung: „[1] Florida Keys Ein Paradies geht unter – wegen des Klimawandels?“

KLIMARETTER.INFO 08. Mai 2016 [2]: Schon fünf Salomonen-Inseln versunken,

Kritische Gegendarstellung: [3]„Schon fünf Salomonen-Inseln sind durch den Klimawandel versunken – obwohl der Pegel dort nicht gestiegen ist“

… Weiter geht es mit der Mitteilung über einen See in Bolivien:

KLIMARETTER.INFO 09. Juli 2016: [17] Poopó-See in Bolivien ausgetrocknet

Auch hier wieder die gleiche „Strickmasche“: Obwohl im Text die vielen wirklichen Ursachen und Austrocknungszyklen erwähnt sind, ist die Aussage des Aktivisten ausschlaggebend: "Es gibt einen klaren Zusammenhang mit dem Klimawandel", sagte der Regionalleiter des Netzwerks Red Latinoamericana Ambiental, Raul Perez Albrecht, dem Magazin National Geographic“.

Kritische Gegendarstellung: [16] Klimazombis, die nicht sterben dürfen, wie der Poopó-See in Bolivien, und Hintergrundinformation [18]: Ein See in Bolivien verschwindet – und (nicht nur) die dpa berichtet sofort „… ein Grund ist der Klimawandel“

… Sowie das erste (angeblich) durch den Klimawandel ausgestorbene Tier:

Klimaretter.Info: [15] Klimawandel: Erstes Tier ausgestorben

Gegendarstellung: [9] Ist eine kleine Ratte das erste, unschuldige Opfer des Klimawandels?„

… und zieht sich wie ein roter Faden fort in der Information über eine verschwindende Insel im Mississippidelta:

KLIMARETTER.INFO 29. Juni 2016: [4] US-amerikanische Insel versinkt im Meer

Der Isle de Jean Charles vor der Küste des US-amerikanischen Bundesstaats Louisiana droht das gleiche Schicksal wie fünf Salomonen-Inseln im Pazifik: Aufgrund des steigenden Meeresspiegels sind sie bereits komplett vom Meer überflutet.

Über diese – ebenfalls kaum wegen des Klimawandels – verschwindende Insel hat „kaltesonne“ eine längere Darstellung gebracht um zu zeigen, wie einfach und konsequent eindeutig menschen-verursachte Probleme dem Klimawandel in die Schuhe geschoben werden, obwohl die Fakten dagegen sprechen:

kaltesonne: [6] Enttarnt: Über angebliche Mississippi-Klimaflüchtlinge, die gar keine sind

Erosion, Bodensenkung und der steigende Wasserspiegel im Golf von Mexiko bedrohen die Heimat eines kleinen Indianerstamms im Mississippidelta. Doch weggehen ist nicht einfach. […] Die Bewohner der Isle de Jean Charles sind schon fast eine Berühmtheit: Sie sind indianischer Abstammung, Teil eines Stammesverbands, der sich Biloxi-Chitimacha-Choctaw nennt. Und im Januar erhielten sie aus einem Washingtoner Fonds, der die Auswirkungen von Küstenerosion, Bodensenkung und Klimawandel lindern soll, eine Tranche von 48 Millionen Dollar, um sich an einem sichereren Ort eine neue Heimat aufzubauen. Seither gelten sie als Amerikas erste Klimaflüchtlinge, was vielleicht nicht besonders treffend ist, dafür aber bei der Vermarktung der Hilfsgelder umso besser klingt. Tatsache ist, dass ihre Insel unaufhaltsam schrumpft. In den vergangenen 60 Jahren gingen weit über 90 Prozent des Territoriums verloren. Geblieben ist ein Streifen von gut einem Quadratkilometer Grösse.

Es ist bedauerlich, dass das Stammesgebiet so sehr schrumpft. Aber ist wirklich der Klimawandel der böse Bube? Winkler klärt freundlicherweise selber über die Ursachen auf und musste über seine kleine Schummelei bei der Verpackung der Story vielleicht selber schmunzeln:

Die Prognosen sind eindeutig: Auch der Wasserspiegel des Golfs von Mexiko wird wegen der Klimaerwärmung ansteigen, wegen zusätzlicher Faktoren vermutlich sogar überdurchschnittlich stark. Doch was beschleunigte die Zerstörung der Isle de Jean Charles über die natürliche Erosion hinaus? Bei der Antwort steht der Mensch im Mittelpunkt: Die Öl- und Gaswirtschaft hat für Infrastruktur und Logistik viele Kanäle gegraben, durch die das Meerwasser ungehindert in die Bayous strömt. Zudem bringt das Mississippi-Flusssystem wegen Staudämmen, Begradigungen und Schleusen immer weniger Sedimente ins Delta, wodurch die natürliche Erosion und das normale Absinken des Bodens nicht mehr kompensiert werden. Das endgültige Todesurteil für die Isle de Jean Charles sprach schliesslich das Projekt der riesigen Sturm- und Hochwasserschutz-Anlage «Morganza to the Gulf»: Das geplante System aus Deichen, Dämmen und Schleusen verläuft aus Kostengründen an seiner südlichsten Seite weit im Norden der Isle de Jean Charles, was die Insel nun völlig von der Frischwasserzufuhr des Mississippi abschneidet.

Die nach politischer Schulung und ausreichend Agitationsnachweis ausgesuchten – im Wesentlichen aber vollkommen fachfremden – Redakteure scheint nur zu interessieren, dass im Artikel irgend ein Aktivist „Klimawandel …. Verursacher“ meldet, und schon wird es als schlimmes Beispiel dafür präsentiert. Selbst Fakten im Bericht die eindeutig dagegen sprechen werden ignoriert. Eine auch nur im Ansatz kritische Beurteilung, geschweige Rezension erfolgt in aller Regel nicht. Bei einer Bundeskanzlerin mit der Zusatzausbildung „Agitation und Propaganda“[7] sowie einer klimahysterischen Umweltministerin steigt eine Unterstützerin solch offensichtlicher Agitation – da streng auf Linie der politisch geforderten Orientierung – zur Beraterin auf.

Bisher hat der Autor noch keine Insel gefunden, die aufgrund eines Klimawandel-bedingten, zusätzlichen Meerespegelanstiegs versinkt

Der Autor wiederholt, dass bei seinen inzwischen wirklich umfassenden Recherchen über untergehende Inseln nirgends ein signifikanter Klimawandel-Einfluss belegbar war. Anmerkung: Einfluss bedeutet, es gibt über einen längeren Messzeitraum den Beleg eines deutlich über dem Normalwert steigenden Tidenpegels.

Klar, er ist ein Nicht-Fachmann, analysiert nur die verfügbaren Daten und ignoriert Simulationsergebnisse. Da könnte man sich auch regelmäßig täuschen. Doch die Ergebnisse daraus sind zumindest für ihn eindeutig: Teils werden erfundene Meldungen über unter-gegangene Inseln als Wahrheit ausgegeben [10], in vielen Fällen aber massivste Eingriffe der Menschen, sowie bewusste Falschdarstellungen und öfters auch einfach Betrug als „Klimawandelfolgen“ publiziert. Dazu werden auch die in diesen Gegenden meist unsäglich schlechten Pegeldaten (sofern überhaupt welche vorhanden sind) mit geeigneten „Kunstgriffen“ alarmistisch hochgerechnet[14].

Auf gar keinen Fall steigt der Meeresspiegel derzeit wie überall publiziert „übernatürlich“ an. In allen Fällen! stammen solche Meldungen aus Simulationsergebnissen für die Zukunft oder kurzfristigen Regressionen. Ein eklatantes Beispiel, wie aus einem langfristig eher fallenden Pegel durch geeignete Zeitwahl ein alarmistisch steigender „berechnet“ wurde der es sogar ins WIKIPEDIA geschafft hat, ist in [14] „Wie man den Meerespegel-Verlauf in die richtige Richtung dreht“ gezeigt.

Informell dazu das Pegelbild des „untergehenden“ Florida (Florida Keys) mit dem gemessenen Pegelverlauf und eingetragenen Simulationswerten:

Bild 1 [1] Pegelverlauf Florida von ca. 1898 – 2015 (ca. 2,1 mm pa), ergänzt um die Pegelvorhersagen verschiedener Institute und Personen

… sowie der überall publizierten, angeblich stark betroffenen und schon fast untergehenden Malediven:

Bild 2 [12] Meeresspiegelverlauf (Tidenpegel-Messstation) Malediven 1987 – 2012

[12] Sogar Wikipedia gibt dazu an: Der Meeresspiegel selbst ist zumindest bis 2006 im Indischen Ozean um die Malediven allerdings gesunken.

Ergänzend Auszüge aus [11]:

Bild3 [11] Comparison of the decadal rates of sea level change for each of the nine records. All rates are corrected for glacial isostatic adjustment and inverse barometer effects.

Bild 4 [11] Globaler Pegelanstieg seit 1880 anhand von Tidendaten

Doch es werden immer neue entdeckt

SWR Doku, 16.7.2016: Die Sonnenmenschen von Tokelau, einer Südseeinsel im Pazifik

In dieser Filmdokumentation geht es im Kern um die Stromversorgung der Insel durch ein (geschenktes) Solarkraftwerk, was die Filmemacher gleich als Gelegenheit nutzen, die Klimawandel-Geschichte zu aktivieren und Einheimische erzählen zu lassen, dass die Probleme der Inseln nur davon kommen und die Welt gefälligst (wie sie mit der geschenkten Solaranlage) kein CO2 mehr emittieren sollen.

Die gesamte Inselgruppe kann man als ein „Harz4-Land“ bezeichnen welches von Neuseeland ausgehalten wird:

WIKIPEDIA: Die Isolation der Atolle und das Fehlen natürlicher Ressourcen behindern die ökonomische Entwicklung des Gebietes; die landwirtschaftliche Produktion befindet sich auf Subsistenzniveau. Gemeinsam mit der Überbevölkerung des Gebiets führt dies zu einer anhaltenden Emigration vieler Atollbewohner nach Neuseeland (der Bevölkerungsrückgang beträgt 0,9 % pro Jahr).

Neben dem Personentransport kommt dem Schiff auch die Aufgabe der Versorgung mit Lebensmitteln und Medikamenten zu, da die Inseln von Tokelau außer Kokospalmen und Fischfang keine nennenswerten eigenen Ressourcen besitzen. Ärztliche Leistungen und Medikamente sind für die Tokelauer kostenlos. Deshalb benötigen sie nur wenig Geld. Tokelau war das letzte Land der Erde, in dem Bargeld eingeführt wurde.

Tokelau ist der erste Staat der Erde, der sich vollständig mittels Photovoltaik mit Strom versorgt. Dafür wurde 2012 auf den drei Atollen im Rahmen des Tokelau Renewable Energy Project eine Photovoltaikanlage mit einer elektrischen Gesamtleistung von einem Megawatt installiert.

Zum Klimawandel-Einfluss:

Interessant ist wieder, dass Bewohner zwar „wissen“, dass es „früher“ nie so schlimm war und nun immer schlimmer ist, aber weder Daten noch eine Pegelmessstation zu finden sind. Man muss deshalb Daten aus der Umgebung bemühen, die leider auch nur kurzfristig vorliegen, aber trotzdem bezüglich der Verläufe interessant sind:

Bild 1 Lage der Atollgruppe Tokelau und umliegende Pegelmessstationen, Quelle: PSMSL Catalogue Viewer

Bild 2 Pegeldaten Tuvalu Quelle: PSMSL Catalogue Viewer

Bild 3 Pegeldaten Kiribati Quelle: PSMSL Catalogue Viewer

Bild 4 Pegeldaten PENRHYN Cook Islands Quelle: PSMSL Catalogue Viewer

Bild 5 Pegeldaten APIA B Samoa Quelle: PSMSL Catalogue Viewer

Auch die überall (in den Medien) gemeldete Zunahme von Zyklonen muss man mit Vorsicht betrachten. Denn historische Daten aus denen sich verlässliche Aussagen ableiten ließen sind überhaupt keine zu finden, bzw. müssenselbst für jüngere Zeiten erst mühsamst rekonstruiert werden . Und ob Aussagen von (durch westliche NGOs beeinflussten) Inselbewohnern als Beleg ausreichen, um die Welt CO2-frei zu zwingen, sollte man schon einmal überdenken.

Bild 6 [20] Abbildung 1: Anzahl von Wirbelstürmen der Kategorie 5 in der Region Südpazifik/Australien. Quelle: Paul Homewood / Wikipedia.

Siehe dazu die Publikationen von kaltesonne

[18] Noch nie waren die australischen Wirbelstürme in den letzten 1500 Jahren schwächer als heute:

Australian tropical cyclone activity lower than at any time over the past 550–1,500 years

Here we show, on the basis of a new tropical cyclone activity index (CAI), that the present low levels of storm activity on the mid west and northeast coasts of Australia are unprecedented over the past 550 to 1,500 years. The CAI allows for a direct comparison between the modern instrumental record and long-term palaeotempest (prehistoric tropical cyclone) records derived from the 18O/16O ratio of seasonally accreting carbonate layers of actively growing stalagmites. Our results reveal a repeated multicentennial cycle of tropical cyclone activity, the most recent of which commenced around ad 1700. The present cycle includes a sharp decrease in activity after 1960 in Western Australia. This is in contrast to the increasing frequency and destructiveness of Northern Hemisphere tropical cyclones since 1970 in the Atlantic Ocean and the western North Pacific Ocean. Other studies project a decrease in the frequency of tropical cyclones towards the end of the twenty-first century in the southwest Pacific, southern Indian and Australian regions. Our results, although based on a limited record, suggest that this may be occurring much earlier than expected.

Aktivität tropischer Zyklone ist in Australien so gering wie nie zuvor während der letzten 550 bis 1500 Jahre

Hier zeigen wir auf der Grundlage eines neuen Index‘ der Aktivität tropischer Zyklone (CAI), dass das gegenwärtige geringe Niveau der Sturmaktivität an der Mittelwest- und der Nordostküste von Australien während der letzten 550 bis 1500 Jahre beispiellos ist. Der CAI lässt einen direkten Vergleich zu zwischen den modernen instrumentellen Aufzeichnungen und Aufzeichnungen langzeitlicher Paläo-Stürme (prähistorische tropische Zyklone), abgeleitet aus dem Verhältnis von 18O und 16O der saisonal abgelagerten Karbonat-Schichten aktiv wachsender Stalagmiten. Unsere Ergebnisse zeigen einen wiederholten Multi-Jahrhunderte langen Zyklus, der eine plötzliche Abnahme der Aktivität nach 1960 in Westaustralien erfuhr. Dies steht im Gegensatz zu der zunehmenden Häufigkeit und Zerstörungskraft von Zyklonen auf der Nordhemisphäre, seit 1970 im Atlantischen Ozean und dem westlichen Nordpazifik. Andere Studien projizieren eine Abnahme der Häufigkeit tropischer Zyklone zum Ende des 21. Jahrhunderts im Südwest-Pazifik, Südindien und Australien. Unsere Ergebnisse zeigen trotz limitierter Aufzeichnungen, dass dies schon sehr viel früher der Fall sein könnte.

[Übersetzung von Chris Frey]

[19] Keine Zunahme der tropischen Wirbelstürme im australischen Queensland während der letzten 200 Jahre:

This suggests that on average tropical cyclone frequency did not change during the past 200 years. This study demonstrates the potential of stable hydrogen isotope ratios of long chain n-alkanes for the reconstruction of past tropical cyclone frequency.

Dies zeigt, dass sich die Häufigkeit tropischer Zyklone während der letzten 200 Jahre im Mittel nicht verändert hat. Diese Studie zeigt das Potential stabiler Wasserstoff-Isotopen-Verhältnisse in langen Ketten von N-Alkanen bei der Rekonstruktion der Häufigkeit tropischer Zyklone in der Vergangenheit.

[Übersetzung von Chris Frey]

[20] Schwerer Wirbelsturm verwüstet Vanuatu. Premierminister sieht es realistisch: “Stürme sind kein neues Phänomen, wir Insulaner leider darunter seit Besiedelung Vanuatus vor 5000 Jahren”

Nach diesen Studien (vor allem auch [18]) ist eher mit Abnahmen aufgrund eines langfristigen Zyklus zu rechnen.

Und auch der IPCC weist aus, dass keine wirklichen Anzeichen für Verstärkungen vorliegen:

Horst-Joachim Lüdecke und Klaus-Eckart Puls haben es in einer Publikation zusammengefasst:

[21] Über tropische Stürme und Hurrikane [IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]:

“No robust trends in annual numbers of tropical storms, hurricanes and major hurricanes counts have been identified over the past 100 years in the North Atlantic basin.”

“Keine robusten Trends bei den jährlichen Zahlen von tropischen Stürmen, Hurrikans und Stark-Hurrikans konnten in den letzten 100 Jahren im Nordatlantischen Becken ausgemacht werden.

Über tropische Zyklone [IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]:

“Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century and it remains uncertain whether any reported long-term increases in tropical cyclone frequency are robust, after accounting for past changes in observing capabilities.”

“Aktuelle Datensätze zeigen keine signifikanten beobachteten Trends bei der weltweiten tropischen Wirbelsturmfrequenz während des letzten Jahrhunderts und es ist ungewiss, ob ein berichteter langfristiger Anstieg der tropischen Wirbelsturm-Frequenz robust ist, nach Berücksichtigung der letzten Änderungen in den Beobachtungs-Möglichkeiten.“

Über außer-tropische Zyklone [IPCC 2013, AR5, WGI, Kapitel 2, Seite 220]:

“In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low. There is also low confidence for a clear trend in storminess proxies over the last century due to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). Likewise, confidence in trends in extreme winds is low, owing to quality and consistency issues with analysed data.”

“Zusammenfassend ist das Vertrauen in große Änderungen in der Intensität extremer aussertropischer Zyklone seit 1900 gering. Es gibt auch [nur] ein geringes Vertrauen für einen klaren Trend bei Sturm-Proxies wegen Inkonsistenzen zwischen den Studien oder wegen dem Fehlen von Langzeitdaten des letzten Jahrhunderts in einigen Teilen der Welt (vor allem auf der Südhemisphäre). Ebenso ist das Vertrauen in Trends in extreme Winde niedrig, wegen der Qualität und wegen Konsistenz-Problemen mit den analysierten Daten.“

Wie sieht es unsere Umweltministerin Frau Hendricks?

Auf eine Anfrage nach Fakten kam vom Ministerium die folgende Antwort:

Bürgerservice im BMUB: Für das BMUB bilden die Berichte des Weltklimarates (IPCC), die im Auftrag der Vereinten Nationen erarbeitet werden, die Basis für politische Weichenstellungen. Im November 2014 wurde jüngst der Synthesebericht zum fünften Sachstands-bericht veröffentlicht. An ihm wirkten hunderte von Wissenschaftlern mit, auch 40 Forscher aus Deutschland waren daran beteiligt.

Der IPCC stellt in seinen Berichten den aktuellen wissenschaftlichen Sachstand der Klimaänderung fest und erläutert darüber hinaus die Wirkungszusammenhänge. Die Ergebnisse der internationalen Klimaforschung bestätigen unzweifelhaft, dass der Klimawandel voranschreitet. Im gesamten Klimasystem finden vielfältige Veränderungen statt: Nicht nur die Temperatur der unteren Atmosphäre steigt, auch die Ozeane werden wärmer, Gletscher tauen, Permafrostböden erwärmen sich, Eisschilde verlieren an Masse, der Meeresspiegel steigt weiter an. Mit großer Sicherheit wird auch bestätigt, dass von Menschen verursachte Treibhausgase für den größten Teil der beobachteten Klimaänderung verantwortlich sind. Eine Zusammenfassung des Berichts finden Sie auf www.bmub.bund.de/N50407/.

Durch den Klimawandel und der damit einhergehenden Temperaturerhöhung, steigt gleichzeitig die Wahrscheinlichkeit für extreme Wetterereignisse, wie zum Beispiel Starkregen, extreme Hitze oder Stürme. Das Phänomen Starkregen wird weiterhin beleuchtet. Der Deutsche Wetterdienst und die Versicherungswirtschaft haben ein neues Forschungsprojekt „Starkregen -die unterschätzte Gefahr“ in die Wege geleitet. Ihre neuen Erkenntnisse werden auf der diesjährigen GDV-Naturgefahrenkonferenz vorgestellt. 

Auch hier interessant, dass eigenständiges Denken schlichtweg als überflüssig gilt. Was das IPCC im Summary meldet gilt (und was in der Langfassung dazu bezüglich der Unsicherheiten und Vermutungen von Aussagen steht muss man im Ministerium nicht mehr lesen). Das Phänomen Starkregen ist längst gelöst, da es keines (des Klimawandels), sondern nur des Wetters war wie selbst der DWD inzwischen zugab (Meldung im Radio, dass es innerhalb der üblichen Wetter-Bandbreite lag, wie es der Autor als Laie sofort nach Sichtung der Daten richtig feststellte [22]). Die dadurch offensichtlich gewordenen, eklatanten Mängel im Hochwasserschutz als Ursachen zu benennen, verbietet die Ideologie. Wenn sich aber Versicherungswirtschaft und DWD zusammen tun, werden bestimmt ganz neue Forschungserkenntnisse herauskommen (um die Idee der Politiker nach einer zwangs-Bürger-Elementarversicherung „wissenschaftlich“ zu untermauern).

Fazit

Die verschiedenen Meerespegel-Anstiege zeigen keine alarmistischen Tendenzen. Die Boden-Pegelstationen weisen jedoch aus, dass die (im Gegensatz dazu erst kurz verfügbaren) Satellitendaten zu hohe Pegel-Änderungswerte liefern.

Wer sich über diese Thematik anhand umfangreich recherchierter und aufbereiteter Daten informieren möchte, dem sei die folgende Artikelreihe empfohlen:

[10] EIKE: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang

[11] EIKE: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 2

[12] EIKE: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 1 Die Malediven

Damit sei nicht gesagt, dass diese Inseln keine Probleme hätten. Bei einigen kann sicher schon der natürliche Pegelanstieg ein Problem bedeuten, vor allem wenn die über Jahrmillionen funktionierende, natürliche „Korallenhydraulik“ durch menschliche Maßnahmen gestört wird oder (gerade in diesen Gegenden massiv vorkommende und den Meerespegeleinfluss oft weit übersteigende) tektonische Senkungen dazu kommen.

Weiterhin ist der Autor aber davon überzeugt, dass jeder Cent der zur angeblich rettenden CO2-Reduzierung ausgegeben ist, eine der unsinnigsten Ausgaben darstellt.

Quellen

[1] EIKE 11.07.2016: Florida Keys: Ein Paradies geht unter – wegen des Klimawandels?

http://www.eike-klima-energie.eu/news-cache/florida-keys-ein-paradies-geht-unter-wegen-des-klimawandels/

[2] KLIMARETTER.INFO 08. Mai 2016: Schon fünf Salomonen-Inseln versunken

http://www.klimaretter.info/forschung/nachricht/21194-schon-fuenf-salomonen-inseln-versunken

[3] EIKE 14.05.2016: Schon fünf Salomonen-Inseln sind durch den Klimawandel versunken – obwohl der Pegel dort nicht gestiegen ist

http://www.eike-klima-energie.eu/news-cache/schon-fuenf-salomonen-inseln-sind-durch-den-klimawandel-versunken-obwohl-der-pegel-dort-nicht-gestiegen-ist/

[4] KLIMARETTER.INFO 29. Juni 2016: US-amerikanische Insel versinkt im Meer

http://www.klimaretter.info/umwelt/nachricht/21491-us-amerikanische-insel-versinkt-im-meer

[5] Klimaretter.Info 04. Juli 2016: Florida Keys: Ein Paradies geht unter

http://www.klimaretter.info/umwelt/hintergrund/21518-florida-keys-ein-paradies-geht-unter

[6] kaltesonne: Enttarnt: Über angebliche Mississippi-Klimaflüchtlinge, die gar keine sind

http://www.kaltesonne.de/enttarnt-uber-angebliche-mississippi-klimafluchtlinge-die-gar-keine-sind/

[7] WIKIPEDIA: Angela Merkel

https://de.wikipedia.org/wiki/Angela_Merkel

[9] EIKE 22.06.2016: Ist eine kleine Ratte das erste, unschuldige Opfer des Klimawandels?

http://www.eike-klima-energie.eu/news-cache/ist-eine-kleine-ratte-das-erste-unschuldige-opfer-des-klimawandels/

[10] EIKE: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang

http://www.eike-klima-energie.eu/news-cache/gehen-die-suedseeinseln-wirklich-wegen-des-klimawandels-unter-teil-3-die-marshall-inselgruppe-kein-beispiel-fuer-einen-untergang/

[11] EIKE: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 2

http://www.eike-klima-energie.eu/climategate-anzeige/gehen-die-suedseeinseln-wirklich-wegen-des-klimawandels-unter-teil-2/

[12] EIKE: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 1 Die Malediven

http://www.eike-klima-energie.eu/news-cache/ist-der-reiche-westen-wirklich-an-den-inselfluechtlingen-schuld-weil-er-co2-emittiert-teil1-die-malediven/

[13] EIKE 20.05.2016: Berichterstattung von Klimaretter.Info über die am Pfingstwochenende durchgeführten Agitationen im Braunkohlerevier

http://www.eike-klima-energie.eu/news-cache/berichterstattung-von-klimaretterinfo-ueber-die-am-pfingstwochenende-durchgefuehrten-agitationen-im-braunkohlerevier/

[14] EIKE 17.07.2016: Wie man den Meerespegel-Verlauf in die richtige Richtung dreht Aus dem Lehrbuch für (Klima-)Statistikbetrug

http://www.eike-klima-energie.eu/news-cache/wie-man-den-meerespegel-verlauf-in-die-richtige-richtung-dreht-aus-dem-lehrbuch-fuer-klima-statistikbetrug/

[15] Klimaretter.Info: Klimawandel: Erstes Tier ausgestorben

http://www.klimaretter.info/umwelt/nachricht/21411-erstes-tier-durch-klimawandel-ausgestorben

[16] EIKE 12.07.2016 : Klimazombis, die nicht sterben dürfen, wie der Poopó-See in Bolivien

http://www.eike-klima-energie.eu/news-cache/klimazombis-die-nicht-sterben-duerfen-wie-der-poopo-see-in-bolivien/

[17] Klimaretter.Info 09. Juli 2016: Poopó-See in Bolivien ausgetrocknet

http://www.klimaretter.info/umwelt/nachricht/21550-poopo-see-in-boliven-ausgetrocknet

[18] EIKE 23.02.2016: Ein See in Bolivien verschwindet – und (nicht nur) die dpa berichtet sofort „… ein Grund ist der Klimawandel“

http://www.eike-klima-energie.eu/news-cache/ein-see-in-bolivien-verschwindet-und-nicht-nur-die-dpa-berichtet-sofort-ein-grund-ist-der-klimawandel/

[18] kaltesonne 3. April 2014: Neue Arbeit in Nature: Noch nie waren die australischen Wirbelstürme in den letzten 1500 Jahren schwächer als heute

http://www.kaltesonne.de/neue-arbeit-in-nature-noch-nie-waren-die-australischen-wirbelsturme-in-den-letzten-1500-jahren-schwacher-als-heute/

[19] kaltesonne 22.Dezember 2013: Studie der Universität Utrecht: Keine Zunahme der tropischen Wirbelstürme im australischen Queensland während der letzten 200 Jahre

http://www.kaltesonne.de/studie-der-universitat-utrecht-keine-zunahme-der-tropischen-wirbelsturme-im-australischen-queensland-wahrend-der-letzten-200-jahre/

[20] kaltesonne 9. April 2015: Schwerer Wirbelsturm verwüstet Vanuatu. Premierminister sieht es realistisch: “Stürme sind kein neues Phänomen, wir Insulaner leider darunter seit Besiedelung Vanuatus vor 5000 Jahren”

http://www.kaltesonne.de/news4-2/

[21] Horst-Joachim Lüdecke und Klaus-Eckart Puls, 09.12.2015: Pinocchiopresse? Lügenpresse? Die deutschen Medien und ihre "Klimakatastrophen"

[22] EIKE 06.07.2016 : Das Unwetter bei Simbach am Inn – Ein Nachtrag zur Debatte im Bayerischen Landtag

http://www.eike-klima-energie.eu/news-cache/das-unwetter-bei-simbach-am-inn-ein-nachtrag-zur-debatte-im-bayerischen-landtag/




Die vier Pferdefüße des politischen Dämmungswahns

Heizkosten sparen ist richtig. Strom sparen ist richtig. Jegliche Energie sparen ist richtig. Sparen ist überhaupt richtig. Auch Geld sparen, um sich dann vom Ersparten etwas leisten zu können: ein Auto, ein Haus, eine Reise. Aber sollen wir uns das Sparen vorschreiben lassen? Vom Staat? Von ausgeflippten, weil ideologieverblendeten und regulierungssüchtigen Politikern? Nein, das wollen wir nicht, das wollen wir partout nicht. Wer, wann, was und wieviel spart, darüber muss jeder in freier Entscheidung selbst befinden. Staatlicher Zwang ist hier völlig fehl am Platz, ist eine unverschämte Anmaßung. Nicht anders zu beurteilen sind die staatlichen Zwangsmaßnahmen zur Wärmedämmung, um, wenn es kalt ist, weniger heizen zu müssen.

Eigenständigkeit der Bürger? Nicht gewollt

Diese Maßnahmen gelten gerade auch für private Häuser. Ich selbst aber will nicht dämmen, jedenfalls nicht dämmen müssen. Und wenn mir das Heizen zu teuer wird, dann heize ich weniger und ziehe mich wärmer an. Oder ich dämme schließlich doch. Aber freiwillig. Ob ich mir zu teures Heizen leiste, ist mein Privatvergnügen. Auch Dämmen soll mein Privatvergnügen sein. Und bleiben. Ob ich entweder teuer heize oder aber heizkostensparend dämme, geht keinen etwas an. Schon gar nicht den Staat und seine Politiker. Das schert die aber nicht. Eigenständigkeit der Bürger, Selbstverantwortung, Subsidiarität, Bürgerwille? Nicht gewollt. Wo kämen wir mit so etwas hin. Das habe ich vor fünf Jahren geschrieben (siehe hier). Es schert diese Politiker aber immer noch nicht. Im Gegenteil sie treiben’s immer schlimmer.
Für die Bürger kostspielig und eine Industrie, die prima davon lebt
Doch geht es beim Energiesparen durch Dämmen vor allem darum, bei der Stromerzeugung mittels Kohle, Öl und Gas das dabei wieder freiwerdende Kohledioxid (CO2) zu verringern und vorgeblich das Klima zu schützen. Daher hat zum Beispiel die Schutzgemeinschaft für Wohnungseigentümer und Mieter Hausgeld-Vergleich e.V. hat in ihrer Kurz-Information für Wohnungsinhaber Meine Wohnung vom 8. Februar 2016 einen kritischen Hinweis weitergereicht, der ihr zugegangen war. Er lautet: „Seit Jahren wird das Dämmen von Häusern als Allheilmittel angepriesen, um die bundesdeutsche Klima-Bilanz zu verbessern. Dieser unerschütterliche Glaube manifestiert sich inzwischen in teuren Baugesetzen und einer Industrie, die prima davon lebt, das Handwerk eingeschlossen. Im Supermarkt wollen wir die Plastiktüten verbieten, stattdessen sollen wir jetzt in welchen leben. Dabei liegt doch eigentlich der Gedanke nahe, dass ein Wesen wie der Mensch, das auf die Zufuhr von Sauerstoff angewiesen ist, in luftdichten Räumen schlecht gedeiht.“

Von der Freude, den ganzen Stuss nicht erzählen zu müssen

Der Hinweisgeber weiter: „Ich habe kürzlich ein Haus umgebaut und konnte die Ansinnen der Handwerker und Berater in dieser Hinsicht erfolgreich abwehren. Die interessante Erfahrung dabei war: Sobald ich den Versprechungen der Dämmfreunde widersprach und detailliert auf die zweifelhaften physikalischen, ästhetischen und ökonomischen Aspekte hinwies, waren meine Gesprächspartner wie umgewandelt. Ausführlich und anhand zahlreicher Beispiele berichteten Sie mir von schimmelnden Fassaden und Wohnungen, von Bränden und nicht eingehaltenen Einspar-Versprechungen. Sie sind offenbar nicht mehr gewohnt mit Bauherren umzugehen, die in dieser Hinsicht noch nicht komplett verblödet sind. Sie freuen sich regelrecht, mal jemanden zu treffen, dem sie den ganzen Stuss nicht erzählen müssen. Das schönste Beispiel für so einen gigantischen Flop ist – Trommelwirbel – der Musterbau des Umweltbundesamtes in Dessau. Sein Architekt hat dankenswerter Weise aus dem Nähkästchen geplaudert. Das Ergebnis des Betriebsmonitorings habe ihn ‚schockiert’.“ Die Web-Seite der Schutzgemeinschaft hier.

Zwei Fragen an Politiker nach wissenschaftlichen Beweisen

Die gleiche Schutzgemeinschaft hatte am 16. Dezember 2015 nach dem Klimagipfel in Paris bei allen unseren Ministerpräsidenten und Bürgermeistern der Stadtstaaten, allen Parteien des Bundestages und bei Bundesministern für Wirtschaft und Umwelt. nachgefragt, ob bei ihnen wissenschaftliche Beweise vorliegen, dass der Mensch mit CO2 Einsparungen das Klima nennenswert beeinflussen kann. Vorstand Norbert Deul wollte beantwortet wissen: „Welche wissenschaftlichen Beweise können Sie uns als in der Verantwortung stehender Politiker vorlegen,
a. dass das von Menschen verursachte CO2 verantwortlich für eine negative Entwicklung unseres Klimas ist und
b. dass die Reduzierung von CO2 folgenlos für die Produktion von Nahrungsmitteln für die wachsende Bevölkerung ist?“

Die beiden Fragen von keinem beantwortet

Die meisten Angeschriebenen haben nur den Eingang bestätigt, und die wenigen, die ausführlich geantwortet haben (so die zuständigen Ministerien Bayerns und Baden-Württembergs), gingen- wie Deul in seiner Rückäußerung schrieb, „auf die beiden Fragen gar nicht ein, sondern behaupteten stattdessen offensichtlich und nachprüfbar Falsches, Halbrichtiges oder nahmen zu Themen Stellung, nach denen nicht gefragt wurde“. Sie finden den Briefwechsel hier unter der Rubrik „News und Infos“ und müssen dort den Link anklicken zum Beitrag „Politiker sind sprachlos bei CO2-Fragen! Keine Antwort zu einfachen Fragen, keinen Beweis, nur Ablenkung“.

Die vier Pferdefüße der Fassadendämmung

Die vier „Problemfelder“ der Fassadendämmung hat der Kieler Bürger Thomas Walther, der Unterschriften für eine Petition (hier) an die Bundesumweltministerin Hendricks sammelt, so dargestellt:

1. Zerstörung von Architektur und Stadtbildern
„Offensichtlich ist, dass durch eine Dämmung der Fassade die ursprüngliche Architektur zerstört wird. Ist dies bei einer einfachen Putzfassade – abgesehen von den dann tiefliegenden Fenstern – vielleicht noch zu verschmerzen, so ist die Architekturzerstörung bei einer Ziegel- bzw. Backsteinfassade offensichtlich. Sogar ornamentierte Fassaden werden zerstört, um die Dämmplatten befestigen zu können – ein erheblicher künstlerischer und auch ästhetischer Verlust! Lediglich die Denkmalschutzbehörden haben die Möglichkeit, Fassadendämmungen eingetragener Kulturdenkmäler zu unterbinden; diese machen allerdings gerade einmal ca. 4 Prozent des Gebäudebestandes aus! Durch die häufige Verwendung greller Farbtöne werden auch unsere Stadtbilder in gravierender Weise verändert, man könnte auch sagen ‚verschandelt’. Man muss sich außerdem vergegenwärtigen, dass hierdurch auch die Lebens- und Wohnqualität leidet; dies hat die Bundesstiftung Baukultur in einer Studie herausgefunden.“

2. Verlust von Heimat

„Menschen brauchen in ihrem Leben Sicherheiten, Beständigkeiten, ein Heimatgefühl. Heimat speist sich aus vielem: aus sozialen Bindungen, Sprache, Kultur, aber eben auch aus unseren (vielleicht noch aus Kindertagen stammenden) vertrauten Stadtbildern, aus unserem vertrauten öffentlichen Raum, unserer vertrauten Architektur. Wenn das Äußere unserer ehemaligen Schule, unseres Hauses, in welchem wir unsere Kindheit verbracht haben, durch eine Fassadendämmung bis zur Unkenntlichkeit verändert wird, so ruft dies ein tiefes Gefühl von Heimatverlust, ja von Entwurzelung hervor!“

3. Energetische und bauphysikalische Problematiken

„Die Dämmstoffindustrie verspricht bei einer Dämmung der Außenwände einen Energieeinspareffekt von ca.15 Prozent. Eine Studie des Bausachverständigen Prof. Fehrenberg hat allerdings ergeben, dass außengedämmte Gebäude nicht weniger Energie verbrauchen als ungedämmte, tendenziell sogar mehr! Dies liegt daran, dass ungedämmte Außenwände von der natürlichen solaren Wärmespeicherung profitieren. Diese wird natürlich unterbunden, wenn eine Außenwand abgedichtet wird. In diesem Falle nimmt sie zwar tagsüber Wärme auf, kühlt aber nachts umso schneller wieder ab. Dies führt zu Bildung von Kondensat und schließlich zu Schimmelbildung auf den Innenoberflächen. Außerdem wird dadurch der Abtransport der Innenraumfeuchte (Atemluft, Wasserdampf durch Kochen u.s.w.) blockiert.“

4. Erhebliche gesundheitliche Risiken

„Zur Vermeidung von Schimmel wird im Zuge einer Fassadendämmung (z.B. in Schulen) oftmals eine automatische Lüftung eingebaut – vordergründig eine sehr sinnvolle Maßnahme. Mit der Zeit lagern sich allerdings gesundheitsgefährdende Stoffe in den Filtern und Lüftungs rohren ein, die durchaus eine Bedrohung für die Schüler darstellen. Aus Kostengründen werden zumeist Wärmedämmverbundsysteme aus Polystyrol verbaut. Hier ist die Schimmelgefahr besonders hoch, da sich zwischen Dämmschicht und Außenwand ein Hohlraum bildet, in welchem sich Feuchtigkeit ansammelt. Bereits 1998 wies ein Umweltmediziner darauf hin, dass Schimmel die Entstehung von Asthma, Allergien und Infektionskrankheiten begünstigt. Gefährdet sind hier in erster Linie Kinder, da deren Immunsystem noch nicht voll entwickelt ist.“
Opfer sind vor allem Kinder

„Der renommierte Bausachverständige Konrad Fischer weist darauf hin, dass es nirgendwo so viele Asthmatote unter Kindern gibt wie in Deutschland – eine äußerst besorgniserregende Tatsache! Noch weitaus beunruhigender ist, dass sich in den Substanzen, die in den Fassadenfarben zur Prophylaxe von Algen-, Pilz- und Schimmelbewuchs eingesetzt werden, Giftstoffe befinden und durch das Lüften in das Innere des Hauses gelangen. Diese waren jahrzehntelang auch im Holzschutzmittel Xyladecor vorhanden und führten u.a. zu neurologischen Krankheiten und sogar zu Krebs. Auch hier waren wieder Kinder besonders betroffen!“

Das Dämm-Material wirkt bei Feuer wie ein Brandbeschleuniger

„Im Jahre 2012 bewies ein Versuch in einer Dokumentation des NDR, dass diese Dämmsysteme nicht wie offiziell deklariert schwer entflammbar, sondern normal entflammbar sind. Dies führt dazu, dass diese wie Brandbeschleuniger wirken und somit Brände intensivieren. Trauriger Höhepunkt solcher Ereignisse ist ein Brand in Duisburg am 17.Mai 2016 mit 27 Verletzten; eine Mutter und ihre beiden Kinder im Alter von 8 und 14 Jahren sterben. Wenn man sich all diese Aspekte und vor allem die erhebliche Gefährdung von Kindern vor Augen führt, muss man sich fragen: Wann endlich nimmt das bei genauerer Betrachtung nur den Interessen von Politik und Wirtschaft dienende Verpacken unserer schönen Häuser ein Ende?“

Wie man sich der Dämmpflicht entziehen kann

Aber die Energie-Einspar-Verordnung (EnEV, hier) hat die Gebäudedämmung zur gesetzlichen Pflicht gemacht. Sie schreibt Eigentümern vor, wer wann und wie sein Gebäude in Deutschland „energetisch“ sanieren muss. Seit Jahresbeginn 2016 ist sie noch verschärft worden. Allerdings kann man sich der Dämmpflicht entwinden. Wenn die Dämmkosten höher als die zu erwartende Einsparung, muss man nicht dämmen. Denn nach Paragraph 25 EnEV*) muss Dämmung wirtschaftlich sein. Als wirtschaftlich gilt die Dämmung, wenn die Dämmkosten nach spätestens zehn Jahren durch die Energieersparnis ausgeglichen sind. Dauert es länger, ist es für den Hauseigentümer eine unbillige Härte. Er kann sich dann von der Dämmpflicht befreien lassen. Das geht aber nur, wenn er ein entsprechendes Gutachten vorlegt. Er muss also einenzugelassenen Gutachter finden, muss ihn beauftragen und natürlich bezahlen.

Der Dämmungswahn-Aufklärer Konrad Fischer

Über die Brandbeschleunigung wird zum Beispiel hier informiert. Der Experte für die Gefahren der Dämmung ist der Diplom-Ingenieur und Architekt Konrad Fischer. Zahlreiche Informationen dazu finden Sie auf seiner Web-Seite http://www.konrad-fischer-info.de/  Seit Jahrzehnten restauriert und renoviert er Burgen, Schlösser, Kirchen, Klöster und Rathäuser, ist aber als Kritiker auch unermüdlich tätig, um über den deutschen Dämmungswahn aufzuklären (Beispiel hier). Fischer im Interview hier (Dauer: 72 Minuten).

Die einzige Partei, die die EnEV ersatzlos streichen will

Die einzige Partei, die sich dafür einsetzt die Energie-Einspar-Verordnung ersatzlos zu streichen, ist die AfD. Ebenso das Erneuerbare-Energie-Wärmegesetz (EEWärmeG). In ihrem Grundsatzprogramm heißt es hierzu unter anderem:
Erhoffte Wirkungen nur bei wenigen Gebäudekonstruktionen
„Wie bei EEG und Energiewende reden Regierung und Profiteure die erforderlichen Kosten zum Umsetzen dieser Maßnahmen klein oder verschweigen sie. Die Kosten liegen auch in diesem Fall bei mehr als 3.000 Milliarden Euro. Tragen müssen diese zusätzlichen Kosten die Gebäudeeigner und Mieter. Wie von Fachleuten nachgewiesen, werden die erhofften Wirkungen nur bei wenigen Gebäudekonstruktionen mit zuvor sehr schlechter Wärmedämmung erreicht. Daneben verursacht das Dämmen an den Gebäuden häufig massive Schäden, als Folge z.B. von mangelhaftem Luftaustausch,  aber auch von Durchfeuchtung, Algen- und Pilzbefall der Außenwände. Historische und Denkmalgeschützte Fassaden werden zerstört. Zudem erhöhen die überwiegend genutzten Dämmmaterialen aus Polystyrol (Hartschaumplatten) die Brandgefahr.“

Die staatliche Bevormundung beenden

„Ein messbar geringerer Energieverbrauch wird hingegen nur selten erreicht. Oft tritt das Gegenteil ein, da die Dämmmaterialien das Eindringen der durch die Sonne erzeugten Wärme verhindern. Für die Erzeugung von Wärme und Kälte sind die EE gegenüber der Energie aus fossilen und Kernbrennstoffen auch langfristig nicht wettbewerbsfähig. … Die staatliche Bevormundung der Besitzer von Gebäuden, der Wohneigentümer und Mieter für Maßnahmen zur Wärmedämmung und Erhöhung der Energie-Effizienz in Gebäuden ist zu beenden. EnEV und EEWärmeG führen zu einem rasanten Anstieg der Baukosten und dienen als Rechtfertigung für Luxussanierungen. Dadurch sind die Mieten vieler Wohnungen für Bürger mit mittleren und geringen Einkommen kaum noch bezahlbar. Auch aus diesen Gründen setzt sich die AfD dafür ein, die EnEV und das EEWärmeG ersatzlos zu streichen.“


__________________________________________________________________________
*) § 25 Befreiungen
(1) Die nach Landesrecht zuständigen Behörden haben auf Antrag von den Anforderungen dieser Verordnung zu befreien, soweit die Anforderungen im Einzelfall wegen besonderer Umstände durch einen unangemessenen Aufwand oder in sonstiger Weise zu einer unbilligen Härte führen. Eine unbillige Härte liegt insbesondere vor, wenn die erforderlichen Aufwendungen innerhalb der üblichen Nutzungsdauer, bei Anforderungen an bestehende Gebäude innerhalb angemessener Frist durch die eintretenden Einsparungen nicht erwirtschaftet werden können.
(2) Absatz 1 ist auf die Vorschriften des Abschnitts 5 nicht anzuwenden.
Abschnitt 5 betrifft die Energieausweise und Empfehlungen für die Verbesserung der Energieeffizienz.

§ 24 Ausnahmen
(1) Soweit bei Baudenkmälern oder sonstiger besonders erhaltenswerter Bausubstanz die Erfüllung der Anforderungen dieser Verordnung die Substanz oder das Erscheinungsbild beeinträchtigen oder andere Maßnahmen zu einem unverhältnismäßig hohen Aufwand führen, kann von den Anforderungen dieser Verordnung abgewichen werden.
(2) Soweit die Ziele dieser Verordnung durch andere als in dieser Verordnung vorgesehene Maßnahmen im gleichen Umfang erreicht werden, lassen die nach Landesrecht zuständigen Behörden auf Antrag Ausnahmen zu.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




EIKE 9. IKEK Marcel Crok: Oversensitive – How Equlilibrium Climate Sensitivity Shrinks Over Time

Nachdem Marcel Crok, der jahrelang für ein bekanntes niederländisches Wissenschaftsmagazin schrieb, auf die berüchtigte „Hockeyschläger-Kurve“ stieß und zusammen mit anderen Wissenschaftlern einen Artikel darüber erarbeitete, wurde er plötzlich als Klimaskeptiker abgetan. Er forschte weiter und schrieb dann sein Buch, „De Staat van het Klimaat“ (leider nur auf niederländisch erhältlich).

Video des Vortrags von Marcel Crok anlässlcih der 9. IKEK am 11.12.15 in Essen 

Hier stellt er die Frage: Wie empfindlich reagiert das Klima auf CO2? Bzw: Wie viel CO2 erwärmt das Klima wie stark? Das IPCC hält diese Sensitivität für sehr hoch – aber seine Modelle zeigen beim näheren Hinsehen große Probleme. So enthalten sie veraltete Daten oder verdrehte Zahlenreihen.

Korrigiert zeigen die Modelle natürlich ganz andere – weniger bedrohliche – Ergebnisse. Das IPCC jedoch versteckt anscheinend systematisch solche „guten Nachrichten“ in Fußnoten oder ganz.

Marcel Crok zeigt dies beispielhaft an einem Rechenbeispiel, das IPCC-Formeln verwendet. Viele angesehene Wissenschaftler sind bei eigenen Messungen auf Basis der IPCC-Methoden zu anderen Ergebnissen als das IPCC gekommen. Doch auch wenn sie diese Ergebnisse in Fachzeitschriften veröffentlichen, passt das IPCC seine Modelle nicht an diese unabhängige Messungen an – warum nicht?

Tatsächlich kann gezeigt werden, dass das Klima weitaus weniger auf einen CO2-Anstieg reagiert, als das IPCC uns weis machen will. Die Beobachtungen stimmen nicht mit den Modellen überein. Wahrscheinlicher als die Schreckensszenarien des IPCC, die auf den falschen Modellen basieren, ist eine weitaus geringere Erwärmung – selbst ohne verringerte CO2-Emissionen sprechen wir von höchsten 2°C bis 2100. Das sind gute Nachrichten, aber warum will sie niemand hören?
—–
EIKE auf facebook:
www.facebook.com/Europäisches-Institut-für-Klima-und-Energie-EIKE-279105925453555/




Einsatz der „Öko-Garotte“ gegen das Auto Dieselverbote? – Der Vernichtungsfeldzug gegen eine deutsche Top-Industrie

Bild rechts: Das geforderte Verbot des Diesel-PKW ist nur der erste Schritt zur Vernichtung der deutschen Automobilindustrie 

„Am sinnvollsten wäre ein Fahrverbot für alle Fahrzeuge mit Verbrennungsmotor. Nur so kann in den Städten der kollektiven Körperverletzung mit vielfacher Todesfolge Einhalt geboten werden“, schrieb ein perfekt auf diese Ideologie getrimmter Forist im „Spiegel Online“ zu einem Artikel über geplante Fahrverbote für ältere Dieselfahrzeuge wegen der angeblich enormen Gesundheitsgefährdung durch ihre Abgase [SPON]. Konkrete Folgen seien unter anderem erhöhte Risiken von Schlaganfällen oder Krebserkrankungen. Mit letztlich ähnlichen Begründungen haben sich bereits im April 2016 alle Umweltminister der Länder für eine „blaue Plakette“ und damit für mögliche Fahrverbote für ältere Dieselautos ausgesprochen. Besonders im Visier hat man dabei die Stickoxide, weil diese besonders häufig oberhalb der geforderten Grenzwerte liegen. In der Presse kursieren im Zusammenhang hiermit regelrechte Horrorzahlen. So wird in einem Bericht der „Deutschen Welle“ behauptet, dass in Deutschland nach Angaben von Forschern jährlich 35.000 Menschen durch Luftverschmutzung stürben, davon 7000 durch Abgase, fast doppelt so viele wie an Verkehrsunfällen [DEWE]. Auch werde das Gesundheitssystem dadurch mit immensen Kosten belastet: Nach Berechnungen des internationalen Währungsfonds (IWF) lägen die jährlichen Gesundheitsschäden durch Motorabgase weltweit bei über 200 Milliarden Euro. Nicht erwähnt werden in solchen Meldungen dagegen Todesfälle durch Rauchen, Alkohol oder falsche Ernährung, auch die geschätzt 18.800 jährlichen Todesfälle durch ärztliche Kunstfehler [KUFE] finden selbstverständlich ebensowenig Erwähnung wie die zahlreichen, oft tödlich verlaufenden Infektionen durch Krankenhauskeime. 

Ein „ökologisches“ Zerrbild der Realität

Die Diesel-Gegner erwecken den Eindruck, als habe die Menschheit bis kurz vor dem Siegeszug des Automobils überwiegend gesund und glücklich in einer Art Luftkurort-Umgebung gelebt, die erst seit einigen Jahrzehnten durch rücksichtslose Autokonzerne und andere „schmutzige“ Industrien in eine Gesundheitshölle verwandelt wurde. Wer von den jung-dynamischen Weltrettern, die solche Thesen vertreten, interessiert sich denn schon für Fakten? Beispielsweise für die Tatsache, dass der Mensch selbst in den Ballungsräumen der westlichen Welt eine Luft atmet, die sauberer und gesünder ist als jemals zuvor, seit man vor ca. einer Million Jahren das Feuer erfand. Seitdem musste jeder, der nicht frieren oder sein Essen roh zu sich nehmen wollte, sich in Höhlen, Jurten, Wigwams oder Katen einer stark verrauchten Umgebung aussetzen, in der die Luft von krebserregenden Schwebeteilchen nur so wimmelte. Besonders übel war der berüchtigte Londoner Smog, den es schon gab, als im Transportwesen noch das Pferd dominierte und in ganz Europa erst einige Dutzend LKW fuhren. Erst seit den 50er Jahren des letzten Jahrhunderts wurde sehr viel für die Luftreinhaltung getan, wurde beispielsweise der „blaue Himmel über der Ruhr“ zur Realität. Dies trug ebenso wie der wachsende Wohlstand auch zur steigenden Lebenserwartung bei, Bild 1.

Bild 1. Entwicklung der Lebenserwartung in Deutschland von 1871 bis 2004 (Grafik: Statistisches Bundesamt)

Der Diesel: Kein Beelzebub, nur ein bequem erreichbarer Prügelknabe

Die Tatsache, dass man sich bei der Kampagne gegen die Automobilindustrie vorerst auf den Diesel konzentriert, hat einen ganz einfachen Grund: Der Diesel-PKW ist den US-Autoherstellern, die nichts vergleichbares entwickelt haben, schon lange ein Dorn im Auge. Man suchte daher seit Jahren nach einer Möglichkeit, dieser ausländischen „Schmutzkonkurrenz“ etwas am Zeug zu flicken. Der Durchbruch gelang dank der intensiven Zusammenarbeit eines amerikanischen U-Boots im Bundesumweltministerium mit einer von regierungsnahen US-Großkapitalisten finanzierten NGO namens International Council on Clean Transportation (ICCT) sowie diversen US-Umweltbehörden. Dank des von dieser Koalition hochgekochten VW-Skandals ist der Diesel jetzt auch für deutsche Schmierenpolitiker, denen hiesige Arbeitsplätze schnurzpiepegal sind, zum leichten Ziel geworden.

Zu den Besonderheiten moderner Diesel zählt die Tatsache, dass sie erheblich sparsamer sind als Benziner vergleichbarer Leistung, aber prinzipbedingt mehr Stickoxide (vor allem NO und NO2) pro km ausstoßen. Diesen Punkt hatten die US-Autohersteller und die entsprechend gepolten Behörden deshalb schon lange im Visier. Eine Reduzierung des höheren Stickoxidausstoßes ist nur mit hohem Aufwand möglich und macht das Antriebsprinzip vor allem für kleinere Aggregate wirtschaftlich uninteressanter. Also wurden vorrangig zwei Ziele verfolgt: Die Stickoxide sollten als besonders gesundheitsschädlich verteufelt werden, um dann – gestützt auf diese Kampagne – dafür zu sorgen, dass staatliche Stellen die entsprechenden Grenzwerte solange nach unten schrauben, bis die Motorentwickler an den Grenzen der Physik bzw. der Wirtschaftlichkeit scheitern mussten. Nachdem dies dank gütiger Mithilfe üppig finanzierter NGO’s und ideologisierter Behördenvertreter auf beiden Seiten des Atlantiks erreicht war, brauchte man nur noch abzuwarten, bis irgendjemand sich nicht mehr anders zu helfen wusste als zu tricksen, und schon konnte man die „gewissenlosen Betrüger“ fertigmachen.

Tendenziöse „Gutachten“

Zunächst wurde deshalb dafür gesorgt, dass die Kfz-Abgase und hiervon insbesondere die Stickoxide durch entsprechende „wissenschaftliche” Gutachten als besonders schädlich eingestuft wurden. Dabei sind Stickoxide weder die einzigen noch die wichtigsten Luftschadstoffe. Sie wirken weniger als Gift-, sondern eher als Reizstoffe und können im Zusammenwirken mit Sonnenlicht auch das ebenfalls atemwegsreizende Ozon bilden. Bei empfindlichen Personen wie Asthmatikern verschlechtern sich dadurch die Krankheitsbilder, doch klingen die Symptome nach Abbau der Belastung auch wieder ab. Um dennoch die beabsichtigte Dämonisierung zu erzielen, wird in entsprechenden Untersuchungen häufig so vorgegangen, dass man zwischen Stickoxiden und Feinstäuben nicht sauber differenziert, sondern alles in einen Topf wirft. Das wird erreicht, indem man das leicht nachzuweisende Stickstoffdioxid als Leitsubstanz für verkehrsspezifische Immissionsbelastungen definiert und ihm dann mehr oder weniger undifferenziert sonstige gesundheitsschädliche Wirkungen anlastet, die eigentlich im Zusammenhang mit anderen verkehrsbedingten Emissionen wie Feinstäuben stehen [NRW]. Dabei scheint selbst beim Feinstaub für viele Gesundheitsbeeinträchtigungen noch unklar zu sein, welches die eigentlich ursächlichen Bestandteile des komplexen Staub-Luft-Gemisches sind. In einem zusammenfassenden Bericht aus Nordrhein-Westfalen [NRW] fällt sofort die häufige Verwendung des Konjunktivs ins Auge. Manche dieser Studien stammen – wen wundert es – direkt aus den USA.

Da es aus den bereits dargelegten Gründen gegen das Auto und insbesondere gegen den Diesel gehen soll, werden abweichende Erkenntnisse natürlich meist ignoriert. So auch die einer kürzlich erstellte Untersuchung, die 50 % der smogbedingten vorzeitigen Todesfälle dem landwirtschaftlichen Feinstaub, dagegen nur 20 % dem verkehrsbedingten Feinstaub zurechnet [FEIN]. 

Das Problem vieler dieser Studien ist, dass man keine wirklichen Nachweise führt, sondern mit statistischen Auswertungen arbeitet. Damit dokumentiert man jedoch lediglich Korrelationen statt tatsächlicher Wirkzusammenhänge. Die Ergebnisse werden dann wieder von NGO’s aufgegriffen, wo man dann Meldungen findet wie die folgende: „Besonders gesundheitsschädlich ist Stickstoffdioxid. Es schädigt die Atemwege, führt zu Entzündungen und Bronchitis. Bei länger andauernder, hoher Konzentration nimmt die Zahl der Herzrhythmusstörungen und Herzinfarkte zu. Auch Lungenödeme können die Folge sein. Allergien werden verstärkt. Nimmt die durchschnittliche Konzentration pro Tag um 100 Mikrogramm Stickstoffdioxid pro Kubikmeter Luft zu, erhöht sich die Zahl der Todesfälle um zwei bis 7,6 Prozent. Eine Studie aus den Niederlanden zeigt, dass Personen, die in der Nähe von stark befahrenen Straßen wohnen, ein fast doppelt so hohes Sterberisiko an Herz- und Lungenkrankheiten haben. Stickoxide verursachen Feinstaub und Ozon“ [VCOE]. Die Aussage, dass Stickoxide „Feinstaub verursachen“ sollen, wirft ein grelles Schlaglicht auf die Fragwürdigkeit vieler dieser „Erkenntnisse“.

…und die Realität

Macht man sich jedoch die Mühe, diese Behauptungen mit der Realität zu vergleichen, so stößt man auf eklatante Ungereimtheiten. Den erwähnten Gesundheitsstudien zufolge müsste die Bevölkerung in Ballungsräumen mit verkehrsbedingt hohen Emissionen besonders gefährdet sein. Dies sollte sich wiederum nachteilig auf die Lebenserwartung auswirken. Als deutsche Hauptstadt der Luftbelastung durch Verkehr gilt übrigens Stuttgart und hier insbesondere die Messstation „Am Neckartor“, wo regelmäßig die deutschlandweit höchsten Belastungen an Stickstoffdioxid gemessen werden. Laut interaktiver Karte in einem Artikel auf „Spiegel Online“ [SPON] liegt die Belastung dort mit 87 µg/m³ mehr als doppelt so hoch wie der aktuelle Grenzwert von 40 µg/m³. Auf die Lebenserwartung in Ballungsräumen scheint die erhöhte Belastung jedoch keine negativen Auswirkungen zu haben, wie ein Vergleich entsprechender Erhebungen für Gesamtdeutschland mit denen für mehrere deutsche Großstädte zeigt, Bild 2.


Bild 2. Lebenserwartung von Einwohnern verschiedener deutscher Großstädte sowie für Deutschland insgesamt für die Geburtsjahrgänge 1990 und 2010 (Daten: [LEBE], Statista)

Interessanterweise scheinen die von Autoabgasen so stark gebeutelten Stuttgarter besonders lange zu leben, und zwar sowohl bei Betrachtung der 1990 geborenen Einwohner als auch mit Blick auf den Jahrgang 2010. Auch ist ihre Lebenserwartung im betrachteten Zeitintervall sogar ganz erheblich angestiegen. Im Vergleich liegen 2010 geborene Stuttgarter Männer nicht ganz drei Jahre über dem Durchschnitt in Deutschland, bei Frauen sind es knapp zwei Jahre. Dieser Trend gilt auch für andere Großstädte wie Frankfurt, München oder Hamburg. Ganz generell ist darüber hinaus festzustellen, dass sich die Lebenserwartung in den 20 Jahren zwischen 1990 und 2010 für alle betrachteten Standorte deutlich erhöht hat. Somit erscheint es gerechtfertigt, den im vorigen Kapitel erwähnten Gutachten sowie den daraus abgeleiteten Horrormeldungen mit einer gesunden Portion Skepsis zu begegnen.

Die Mär von sich ständig verschlechternder Luftqualität

Bei näherer Beschäftigung mit dem Thema „Luftverunreinigung durch Autoverkehr“ fällt zudem auf, dass NGO’s und Behördenvertreter gerne den Eindruck erwecken, als nähme die Belastung der Bevölkerung durch Luftschadstoffe ständig weiter zu. „Richtig durchatmen geht kaum noch” stand beispielsweise über einem Artikel von N-TV vom Oktober 2013 mit dem Titel „Dicke Luft in den Städten der EU“. Unter Berufung auf Hans Bruyninckx, immerhin Exekutivdirektor der EU-Umweltagentur EUA, war dort zu  lesen: „Dass das Leben in Großstädten nicht gerade gesund ist, ist schon lange kein Geheimnis mehr. Dass aber 90 Prozent der Großstädter gefährdet sind, ist neu“ [NTV]. Nur eine radikale Verschärfung der bestehenden Gesetze könne die Menschen schützen. Je nach Schadstoffklasse seien zwischen 88 und 98 Prozent der Stadtbewohner in der EU einer Luftverschmutzung ausgesetzt, die von der Weltgesundheitsorganisation WHO als gesundheitsgefährdend eingestuft wird. „Europa muss ehrgeizig sein und über die derzeitigen Rechtsvorschriften hinausgehen, um einen nachhaltigen Weg einzuschlagen“, so Bruyninckx. Zwar sei die Feinstaubbelastung in städtischen Gebieten seit 2002 zurückgegangen, doch lebe ein Großteil unserer Bevölkerung nach heutigem Standard nicht in einer gesunden Umwelt. Ähnliche Töne kommen auch von „Umwelt-NGO’s“ wie dem NABU. Dumm nur, dass auch hier die Aussagen nicht so recht mit den Ergebnissen langjähriger Messreihen z.B. für Stickoxide harmonieren, Bild 3.


Bild 3. Die in Deutschland ermittelten Stickoxid-Emissionen sind seit 1990 um mehr als 57 % gesunken (Quelle: Umweltbundesamt)

Die in Deutschland seit der Wiedervereinigung ermittelten Messreihen belegen nämlich, dass die Stickoxid-Emissionen seit 1990 deutlich rückläufig sind. Im so gerne und heftig gescholtenen Verkehrssektor liegt der Rückgang sogar überdurchschnittlich bei mehr als 66 %, während die Privathaushalte – wo Stickoxide beispielsweise beim Verfeuern von Holz in Kaminen entstehen – noch nicht einmal 40 % Rückgang schafften. Der Anteil des Verkehrssektors liegt inzwischen bei nur noch 40 %. Da Diesel-PKW nur ein knappes Drittel des Gesamtbestandes aller PKW ausmachen, dürfte ihr Anteil an den Gesamtemissionen wohl kaum mehr als 20 % betragen. Eine plausible Begründung für die von Politik und NGO’s aktuell massiv verschärfte Vernichtungskampagne speziell gegen den Diesel-PKW ist aus den Zahlen jedenfalls nicht abzulesen.

Stuttgart – eine grün verlogene Stadt

Wie locker grüne Politik mit der Realität umgeht, kann man auch am Beispiel der Stuttgarter Stadtverwaltung erkennen. So schreibt das Amt für Umweltschutz, Abt. Stadtklimatologie der Landeshauptstadt Stuttgart auf seiner Homepage zum Thema Stadtklima: „Die verkehrsbedingten Schadstoffe (z.B. Stickoxide, PM10, Ozon) verharren weiterhin auf einem hohen Niveau. In zahlreichen Stadtstraßen liegen die Schadstoffwerte für Stickstoffdioxid und PM10 (PM10 sind lungengängige Feinstäube mit einer Partikelgröße < 10 µm) über den Grenzwerten für verkehrsbeschränkende Maßnahmen“ [LUST]. Vergleicht man diese Anfang Juli 2016 auf der Homepage des Amtes für Umweltschutz der Stadt Stuttgart nachzulesende Aussage mit den vom gleichen Amt veröffentlichten Messdaten seit 2005, so fällt es schwer, dies nachzuvollziehen, Bild 4 und Bild 5.


Bild 4. Anzahl der Stunden, in denen die Grenzwerte für NO2 an verschiedenen Messstellen überschritten wurden (Quelle: [LUST]).

Die Daten in Bild 4 belegen – entgegen der Aussage der Stadtverwaltung – eine kontinuierliche Verbesserung der Luftqualität in Bezug auf Stickoxide. Zu mehrjährigen Überschreitungen der Grenzwerte kam es im Zeitraum zwischen 2005 und Mitte 2016 nur an zwei von insgesamt sieben Messstellen. Auch ist zu berücksichtigen, dass  die Grenzwerte ab 2009 drastisch verschärft wurden. Nach den bis 2009 geltenden Kriterien hätten alle Stationen ab 2013 einwandfreie Werte ausgewiesen, und die Messstelle „Am Neckartor“ hätte schon ab 2011 durchgängig im „grünen Bereich“ gelegen.


Bild 5. Anzahl der Tage, an denen der Grenzwert von > 50 µg/m3 für Feinstaub PM10 (Partikelgröße < 10 µm) an den verschiedenen Messstellen überschritten wurden (Quelle: [LUST]). 

Auch beim Feinstaub belegt Bild 5 eine stetige Verbesserung der Luftqualität. Lediglich eine von ursprünglich acht Messstellen zeigt über den gesamten Zeitraum eine über dem Grenzwert liegende Konzentration an, wobei auch hier eine langfristige Abnahme um ca. 50 % festzustellen ist. Allerdings ist zu beachten, dass bei diesen Feinstäuben der Diesel nur eine untergeordnete Rolle spielt, da die an der betreffenden Messstelle auftretenden Feinstäube nur zu 15 % den Verkehrsabgasen zuzuordnen sind [BAUM]. Die Abgase von Diesel-PKW tragen somit vermutlich zu höchstens 10 % zur Gesamtbelastung bei, so dass ein Fahrverbot für diese Antriebstechnik nur schwer zu rechtfertigen wäre.

Die Saat der grünen Gärtnerböcke…

Besonders verwunderlich ist die aktuell von allen möglichen Behördenvertretern, Politikern und selbsternannten Menschheitsrettern gegen den Diesel entfesselte Kampagne vor allem deswegen, weil doch gerade diese Leute seit Jahren für eine Verschärfung der Vorschriften gesorgt haben. Das Automobil und insbesondere der Diesel werden schon seit langem von den zuständigen Behörden gnadenlos in die Zange genommen und mit immer neuen Auflagen traktiert. Besonders deutlich zeigt sich dies bei der Entwicklung der Abgasvorschriften im Rahmen der aufeinander folgenden Euronormen, Bild 6.


Bild 6. Die schrittweise Einengung der zulässigen Gehalte von Kohlenwasserstoffen (HC) und Stickoxiden in den Abgasen von Diesel-PKW im Verlauf der verschiedenen Stufen der Euronorm (Quelle: [KIT])

Würde beispielsweise noch Euro 4 gelten, dann gäbe es heute für Alarmgeschrei keinerlei Grund mehr. Gerade an den Vorgaben zu den NOx-Gehalten im Abgas kann man erkennen, dass die Behörden die Automobilindustrie durch ständige Verschärfung regelrecht vor sich hergetrieben haben. Viele dieser Staatsvertreter sind in der Wolle gefärbte Anhänger „grünen“ Gedankenguts, die dank einer seit langem dominierenden politischen Grundströmung in fast allen Parteien auf solchen sicheren Pöstchen installiert wurden. Ihnen müsste sehr wohl bewusst sein, dass sich der Motorkonstrukteur gerade beim Diesel in einem ständigen Zielkonflikt zwischen Stickoxidemissionen, Rußemissionen und Verbrauch befindet. Anders ausgedrückt führt eine Reduzierung der Stickoxidemissionen bei sonst gleichen Parametern typischerweise zu einem Anstieg der Rußemissionen und des Verbrauchs. Den Ingenieuren gelang es zeitweilig, durch aufwendige (und entsprechend teure) Maßnahmen wie Erhöhung des Einspritzdrucks durch Common-Rail-Technologie, Mehrfacheinspritzung usw. diesen Zielkonflikt deutlich in Richtung niedrigerer Emissionen zu verschieben [KIT]. Doch die Behörden sahen in diesem Erfolg in erster Linie die Möglichkeit, die Vorschriften umso drastischer zu verschärfen, obwohl auch ihnen klar gewesen sein dürfte, dass die Stickoxide bei weitem nicht den entscheidenden gesundheitlichen Aspekt repräsentieren. Da sie jedoch leicht nachzuweisen sind, lassen sie sich wunderbar als Begründung dafür einsetzen, die Garotte um den Hals der Kfz-Hersteller immer weiter zuzuziehen. Sobald eine Verbesserung erreicht ist, verschärft man die Vorschriften und hat dann wieder einen Grund, wegen Überschreitung der Grenzwerte Zeter und Mordio zu schreien, siehe die obigen Aussagen von Hr. Bruyninckx. In dieses Alarmgeschrei stimmen NGO’s, Presse und Politik dann lautstark mit ein, und schon können sich windige Politiker durch den Ruf nach besserem Gesundheitsschutz für Witwen und Waisen profilieren. Dieses Spiel wird solange betrieben, bis man zum Todesstoß ansetzen kann, z.B. indem man die Vorgaben endgültig über jedes sinnvolle Maß hinaus verschärft. Beim Diesel erfolgte dies durch die willkürliche Absenkung des Stockoxid-Grenzwerts um mehr als 55 % (von 180 auf 80 mg/ km) beim Übergang von Euro 5 auf Euro 6.

…gebiert weiteres Unheil

Hinzu kommt eine typische Besonderheit grünideologisch geprägter Funktionäre. Weil deren fachlicher Kenntnisstand meist als eher gering einzustufen ist, glauben sie, dass Fachleute Wunder vollbringen und sich über naturgesetzliche oder ökonomische Zwänge hinwegsetzen können, sofern man sie nur genügend unter Druck setzt. Jeden Fortschritt, den die Ingenieure erzielen, quittieren sie deshalb mit nochmals verschärften Vorschriften. Dass man dabei irgendwann an nicht mehr überschreitbare Grenzen stoßen muss, können sie aufgrund fehlender Sachkompetenz nicht erkennen. Und man konnte sich immer darauf verlassen, dass sich die Automobilindustrie nicht zur Wehr setzen wird [ARBE].

Ein solcher Grenzpunkt zur Unerfüllbarkeit wurde mit Einführung der Euro 6-Vorgaben überschritten. Zwar kann man auch dann noch Lösungen durch externe Maßnahmen wie der Einspritzung von Harnstoff (AdBlue) finden, doch sind die Kosten hierfür so hoch, dass damit die Grenzen der Wirtschaftlichkeit insbesondere bei kleinvolumigen Fahrzeugen für den Massenmarkt unterschritten werden.

In ihrer Not griffen dann diverse Hersteller zu den bekannten Tricks – und schon konnte man in den USA einen prominenten Vertreter der deutschen Konkurrenz an den Pranger stellen und finanziell ausnehmen wie die sprichwörtliche Weihnachtsgans. Kenner der Szene sind deshalb auch alles andere als überrascht, dass ein maßgeblicher ehemaliger Mitarbeiter des deutschen Umweltbundesamtes von einer US-Behörde für seine „erheblichen Verdienste“ mit einer für Nicht-US-Bürger außergewöhnlich hohen Ehrung ausgezeichnet wurde. Auch dürfte es ihm wohl leicht fallen, von seiten seiner wohlbetuchten Förderer üppige Vortragshonorare einzustreichen. Die Zeche dafür werden etliche zigtausend deutsche Facharbeiter, Techniker und Ingenieure durch die bevorstehenden massiven Jobverluste zu zahlen haben.

Ausverkauf deutscher Interessen

In diesem Zusammenhang sei noch darauf hingewiesen, dass sich für Deutschland inzwischen die unerwünschten Folgen einer Entwicklung abzeichnen, die manchen unserer umwelt- und europabesoffenen Politikern noch sauer aufstoßen dürfte: Die Auslieferung deutscher Interessen an internationale und insbesondere europäische Gremien. Dort sitzen mehrheitlich Vertreter von Nationen ohne Autoindustrie, die genau wissen, wie hervorragend man mit einer solchen Machtposition ein Autoland wie Deutschland unter Druck setzen kann. In solchen Gremien werden dann in typisch Brüsseler Manier der deutschen Melkkuh noch ein paar zusätzliche Milliarden „Stütze“ aus dem prallen Euter geleiert. Natürlich spricht dabei kein Mensch von Erpressung, diese Herrschaften treibt lediglich die Sorge um die Gesundheit der Bevölkerung um.

Verschlimmert wird die Situation noch zusätzlich durch das Verhalten der deutschen Teilnehmer selbst. Da Deutschland insbesondere auf dem Gebiet des Umwelt- und Klimaschutzes als Vorbild dastehen möchte, wurden über Jahrzehnte Vertreter entsprechender Ideologien in die Schlüsselpositionen gehievt. Daher ist es kaum verwunderlich, dass die deutschen Repräsentanten in diesen Gremien Regeln akzeptiert haben, die jetzt als EU-Vorgaben unsere Städte dazu zwingen könnten, knappen 14 Millionen deutschen Wählern, die einen Vor-Euro-6-Diesel ihr eigen nennen, die Einfahrt zu verweigern. So hat sich Deutschland unter anderem verpflichtet, die jährlichen NOx-Emissionen seit dem Jahr 2010 auf knapp 1,1 Mio. Tonnen zu begrenzen und darüber hinaus bis 2020 eine weitere Reduktion um 39 % gegenüber dem Wert von 2005 zugesagt [POLI]. Diese Zusagen erweisen sich mittlerweile als große Herausforderung, deren Erfüllung nur mit Verzögerung und mit Ach und Krach möglich sein dürfte. Die derzeit diskutierten Minderungsziele von 65 % bis 2030 (Bezugsjahr 2005) dürften dem Diesel in der EU den Garaus machen. Aus Sicht der Politik kein Schaden, glaubt man dort doch offensichtlich an die „Wunderwaffe“ Elektromobilität. Ärgerlich ist aus Sicht dieser Leute lediglich das ungünstige Timing, denn neben den Herstellern sind auch die bereits erwähnten ca. 14 Mio. Wähler betroffen, deren Fahrzeuge etwas zu plötzlich erheblich an Wiederverkaufswert verlieren. Dies birgt natürlich politische Gefahren. Zumindest Verkehrsminister Alexander Dobrindt scheint inzwischen erkannt zu haben, welche Zeitbomben da auf ihn zukommen. Deshalb präsentiert es sich laut einem Spiegel-Online-Bericht als Retter des Selbstzünders: In einem Interview mit der Bild am Sonntag habe er klargemacht, dass er ein faktisches Einfahrverbot für Dieselfahrzeuge in großen Städten nicht akzeptieren werde [SPON]. Es wird spannend werden zu sehen, wann sich diese Erkenntnis auch bei Gabriel und Hendricks Bahn brechen wird und welche Verrenkungen sie dann dem staunenden Publikum vorführen werden.

Ohne Zivilisation keine Gesundheit

Abschließend sei noch klargestellt, dass es bei aller Kritik an heutigen grünkommunistischen Auswüchsen nicht darum gehen darf, eindeutige Gesundheitsgefahren für die Bevölkerung zu ignorieren. Auf dem Gebiet des Gesundheitsschutzes müssen Belastungen weiterhin gezielt vermindert werden. Allerdings ist hierbei Augenmaß einzufordern, weil sonst ganz andere und viel ernstere Konsequenzen drohen. Gerade die heutigen Maschinenstürmer-Zombies, die vorgeben, sich um die Gesundheit der Bevölkerung zu sorgen, gefährden diese selbst in höchstem Maße, indem sie alles tun, um unsere technische Zivilisation zu zerstören. Die Folgen wären katastrophal: Die in Bild 1 gezeigte Entwicklung würde umgekehrt. Es ist erst unsere technisch hochentwickelte Zivilisation, welche die Güter und Freiräume geschaffen hat, die der breiten Bevölkerung ein langes und gesundes Leben in Wohlstand ermöglichen. Wer dies durch Utopien einer „dekarbonisierten Gesellschaft“ oder Aufrufen zur Austerität und zur Vernichtung entscheidender Industriezweige bei gleichzeitiger Propagierung unausgereifter „E-Mobilitäts“-Konzepte gefährdet, versündigt sich millionenfach an Gesundheit und Leben seiner Mitmenschen. Wir würden wieder im Mittelalter landen, mit gesunden und satten Priestern des „rechten Glaubens“ auf der einen Seite und einer hungernden, früh sterbenden Bauernklasse auf der anderen Seite. Dies gilt es zu verhindern. In unserer freiheitlichen und demokratischen Gesellschaft steht es jedem frei, zurück in die Höhlen oder auf die Bäume zu ziehen. Aber man sollte diesen Leuten niemals gestatten, dies dem Rest der Bevölkerung zwangsweise zu verordnen.

Fred F. Mueller

Quellen

[ARBE] http://deutscherarbeitgeberverband.de/aktuelles/2016/2016_07_11_dav_aktuelles_shitstorm.html

[BAUM] Prof. Dr.-Ing. Günter Baumbach, Universität Stuttgart, Institut für Verfahrenstechnik und Dampfkesselwesen, Abt. Reinhaltung der Luft, Die Herkunft von Feinstaub-Immissionen, Vortrag beim Kamingespräch des Kompetenzzentrums Umwelttechnik in Stuttgart am 6. Juni 2005, Folie 14

[BMWI] Bundsministerium für Wirtschaft und Energie. EEG in Zahlen: Vergütungen, Differenzkosten

[DEWE] http://www.dw.com/de/mehr-tote-durch-abgasmanipulation/a-18756591

[FEIN] http://www.eike-klima-energie.eu/news-cache/abkehr-vom-co2-wahn-der-wahre-feind-heisst-smog/

[KIT] http://www.ifkm.kit.edu/Abgasmessung-Fragen-und-Antworten.php

[KUFE] http://www.faz.net/aktuell/gesellschaft/gesundheit/aok-krankenhausreport-mehr-tote-durch-behandlungsfehler-als-durch-verkehrsunfaelle-12761937.html

[LEBE] http://www.lebenserwartung.info/index-Dateien/regdiff.htm

[LEHM] http://www.cheminee-lehmann.ch/Problematik%20Feinstaub.html

[LUST] https://www.stadtklima-stuttgart.de/index.php?luft_luftinstuttgart

[SPON] http://www.spiegel.de/auto/aktuell/fahrverbot-fuer-dieselautos-was-sie-wissen-sollten-die-fakten-a-1102417.html

[NRW] Gesundheitliche Wirkungen von Feinstaub und Stickstoffdioxid im Zusammenhang mit der Luftreinhalteplanung. Landesamt für Natur, Umwelt- und Verbraucherschutz Nordrhein-Westfalen. Oktober 2010.

[NTV] http://www.n-tv.de/wissen/Dicke-Luft-in-den-Staedten-der-EU-article11544536.html

[POLI] https://www.umweltbundesamt.de/daten/luftbelastung/luftschadstoff-emissionen-in-deutschland/stickstoffoxid-emissionen

[UBA] https://www.umweltbundesamt.de/themen/luft/luftschadstoffe/stickstoffoxide

[VCOE] http://www.kein-diesel.at/factsheet_stickoxide.pdf




Wurde ein Klimawandel-Einfluss bisher übersehen? Was ist, wenn Gott anstelle von CO2 das Klima lenkt?

Aus diesem Grund sind sich die christlich geprägten Klimaeliten absolut sicher, dass alle Wetter- oder Klimaänderungen nicht mehr von Gott, sondern nur noch vom Menschen verursacht sein kann.

Da die Erde jedoch nicht aufhört, das Wetter und Klima über längere Zeiträume zu verändern und schwanken zu lassen, führte dies zu verschiedenen Ursachentheorien:

– Im Mittelalter waren sich die Eliten über Jahrhunderte sicher, dass Klima- und Wetterveränderungen alleine durch Hexen verursacht werden. Die Folgen und die Art der Beweisführung waren fürchterlich, was man aber dem Zeitgeist geschuldet betrachten muss, wie es ein Bamberger Bischof vor einiger Zeit ausdrückte um zu vermitteln, dass den Verursacher keine Schuld trifft. Denn weil es damals Gesetz war, ist es juristisch einwandfrei und wird nur aufgrund späterer Gesetzesänderungen nicht rückwirkend zu einer Schuld.

– Aktuell sind sich die Klimawissenschafts-Eliten absolut sicher, dass beobachtete Klima- und Wetterveränderungen diesmal durch Menschen-verursachtes CO2 hervorgerufen sein muss und wie im Mittelalter auch ausschließlich die Richtung „zum Schlechten“ haben kann.

– Darstellung der Kirche:

Ökumenischer Rat der Kirchen: [2] "Es gibt keine offensichtliche Beziehung zwischen Evangelium und Klimawandel", erklärte Jakob Wolf, Leiter der Abteilung für Systematische Theologie an der Universität Kopenhagen.

Der Beleg dafür ist jedoch nicht aus den Religionsschriften abgeleitet, sondern aus der Doktrin, dass eine genügend oft verbreitete öffentliche Meinung immer auch die göttliche ist (Details dazu sind in Kirche und Klimawandel[8] nachlesbar).

Nun gibt es eine Hochreligion, nennen wir sie muslimisch geprägt, die weit nach der Bibel eine neuere und damit endgültig gültige Anweisung und Weissagung von Gott bekommen hat. Im Gegensatz zu den Evangelien, von denen kein Verfasser wirklich bekannt ist (die Apostelnamen sind rein fiktive Zuweisungen) und deshalb nur als „von Gott beim Schreiben geführt“ gelten, ist der Koran direkt vom Engel Gabriel übermittelt weshalb er einen authentischen Urheber hat, was ihn weit über das Neue Testament erhebt. Zudem ist er so umfassend, dass es zu seinem Verständnis nicht erforderlich ist, die vorhergehenden Schriften der damit endgültig überholten Buchreligions-Vorläufer inhaltlich zu betrachten.

Leider ist der Koran in seiner Versform und Reihenfolge nicht nach zeitlichem Ablauf, sondern nach Verslänge, schwer zu interpretieren. Wobei noch erschwerender dazu kommt, dass Gott alle seine Ur-Schriften (Talmud, neues Testament und Koran) in nicht eindeutigen Schriftformen übermittelt hat mit der Konsequenz, dass sie ausschließlich der jeweilige Schreiber sicher zurück-lesen kann (die damaligen Schriftformen waren als Gedächtnisstützen gedacht), den direkt zu fragen aber unmöglich ist. Während die Juden dies akzeptieren und entsprechend handeln, sind sich die Theologen der zwei anderen Religionsableger im Gegensatz absolut sicher, die Angaben Gottes richtig und genau interpretieren zu können. Und deshalb muss sehr sorgfältig beachtet werden, was Vertreter der mohammedanischen Religion nun über die wahre Ursache des Klimawandels herausgefunden haben.

Nicht gemäß den religiösen Vorschriften verhüllte Frauen beeinflussen das Klima und bringen Flüsse zum Versiegen

Ein leitender iranischer Geistlicher in Isfahan verkündete es in einer Predigt:

[1] Seyyed Youssef Tabatabi-nejad, a senior Islamic cleric in Isfahan, Iran, said during his weekly sermon last Friday that women dressing inappropriately is causing climate change.

In his sermon, Tabatabi-nejad announced that his “office had received photos of women next to the dry Zayandeh-run River (a major river that runs through Isfahan), [dressed] as if they were in Europe. It is these sorts of acts that cause the river to dry up.”

Sinngemäß:

unangemessen gekleidete Frauen verursachen Klimawandel.

In seiner Predigt erklärt der Geistliche Tabatabi-Nejad, dass sein Büro Fotos von Frauen neben dem trockenen Zayandeh Fluss (einem großen Fluss, der durch Isfahan läuft) erhalten hatte, in denen diese Frauen gekleidet waren, als ob sie in Europa wären. Diese (nicht der religiösen Vorschrift entsprechende) Handlungen sind die Ursache dass der Fluss versiegte.

Die Einflussmöglichkeit des Himmels auf das Klima ist geradezu extrem

Viele mögen geneigt sein, darüber zu lächeln. Tatsache aber ist, dass im Westen oft hochrangige Politiker in höchsten Kirchengremien Mitglied sind (Umweltministerin Frau Hendricks z.B. ist Mitglied des Zentralkomitees der deutschen Katholiken, Göring Eckhardt ist im Kuratorium der internationalen Martin-Luther-Stiftung und war bis 2013 im Präsidium des deutschen evangelischen Kirchentags, Ministerpräsident Kretschmann, in seiner Jugend bei der Kommunistischen Studentengruppe / Marxisten-Leninisten, ist Mitglied im Diözesanrat der Erzdiözese Freiburg und im Zentralkomitee deutscher Katholiken[4] und wollte in seiner frühen Jugend sogar katholischer Pfarrer werden) und damit kenntlich machen, wie wichtig ihnen Kenntnisse, Festlegungen und Entscheidungen der Theologie sind und dass sie diese für richtig erachten.

Weil man diesen Einfluss des Himmels (an-)erkennt, wird er in den christlichen Kirchen auch mannigfaltig genutzt und dazu folgerichtig auch für das Klima gebetet: Pfarrverband Holzkirchen „Beten für das Klima

Im Alten Testament ist beleg, dass Gott erheblich mehr und auch spontanen Einfluss auf das Klima erwirken kann als der maximale, jährliche anthropogenen Anteil von 120 St. CO2-Moleküle auf 1.000.000 Luftmoleküle[3]:

Elia war ein Mensch von gleicher Art wie wir,

und er betete inständig, dass es nicht regnen solle,

und es regnete drei Jahre und sechs Monate nicht im Land;

und er betete wiederum;

da gab der Himmel Regen, und die Erde brachte ihre Frucht.

(Jakobus 5:17+18)

Zudem kann Gott problemlos die Sonne still stehen lassen und damit den größten, denkbaren Klima-Einfluss ausüben:

Damals redete Josua zu Jehova, an dem Tage, da Jehova die Amoriter vor den Kindern Israel dahingab,

und sprach vor den Augen Israels:

Sonne, stehe still zu Gibeon; und du, Mond, im Tale Ajjalon!

Und die Sonne stand still, und der Mond blieb stehen

(Josua 10, 13 – 14)

Es ist also keinesfalls von der Hand zu weisen, dass der Klimaeinfluss des Himmels mangels Wissen darüber in den Klimasimulationen sträflich vernachlässigt ist und damit vielleicht eine der Ursachen darstellt, dass diese so konstant versagen:“ Wendepunkt in der Klimadebatte? Klimamodelle nähern sich den Realitäten an und „Wissenschaftler geben zu, dass ihr Modell der globalen Erwärmung vollkommen falsch sein könnte [6].

Betrachtet man es wissenschaftlich statistisch korrelativ, dann ist diese Aussage ebenfalls nicht zu widerlegen. Seit dem Beginn der Industrialisierung steigen Temperatur und Meeresspiegel. Neben dem steigenden CO2 wurden aber auch die europäischen Frauen immer unzüchtiger in den Kleidervorschriften. Vom früher auch in Europa zwingenden Kopftuch bis zum Bikini und FKK.

Und seit dem Erstarken fundamentalistischer Islamströmungen haben wir den Hiatus (Temperaturstagnation).

Geht man weiter zurück, war zur Römerzeit mit dem bekannt frivolem weiblichem Umgang ebenfalls eine Warmzeit.

Ob die Grünen und als „Obergrünste“ inzwischen unsere Bundeskanzlerin dies intuitiv erkannt haben und auch deshalb die Rettung der Welt über diesen islamischen Weg versuchen?

[9] DIE WELT 05.07.12: Die Grünen wollen den Islam einbürgern

Den Kirchen empfiehlt der Autor, Anträge auf ausreichend hohe Forschungsgelder an das Umweltbundesamt oder direkt an Frau Hendricks zu melden, bestimmt werden diese bereitwilligst genehmigt. Denn unabhängig davon, ob es wirklich nur die vor allem im Westen fehlenden Kopftücher sind welche das Klima aufheizen, besteht eine erkennbare, gewaltige Lücke zwischen den Anschauungen Gottes und denen der Menschen, die eventuell von Theologen geklärt werden kann und muss.

Während Gott in einer weisen Entscheidung nach einer für die Menschen furchtbaren Kälteperiode die Temperaturen wieder ansteigen ließ und damit den Hunger in der Welt reduzierte (siehe EIKE: Ernteerträge und Klimawandel [5])

Bild 1 Erträge in Deutschland von 1800 – 2007

… und dem Globus die wirkliche Gefahr der nächsten Eiszeit droht,

Bild 2 [7] Zyklische Wiederholung von Eiszeiten (gezeigt anhand des Meerespegel-Verlaufs)

… hat sich der säkulare Westen darauf versteift, in der moderaten Erwärmung verbunden mit dem Überangebot an Nahrung unbedingt etwas Negatives sehen zu müssen was bekämpft werden muss. Zu welchen Auswüchsen dies an medialer Interpretation von Klimadaten führt zeigt anbei ein aktuelles Beispiel:

Obwohl der Mai nach der linearen Regression seit über 150 Jahren kaum messbar wärmer wird (um 0,7 °C seit 1750) und die weit höchsten Werte vor 1900 und die danach vor 1950 lagen, gelingt es Medien, daraus eine alarmistische Erwärmung zu dichten:

Wetter Mai 2016

Die Durchschnittstemperatur im Mai 2016 lag mit 13,6 Grad in etwa um +1,5 Grad über dem langjährigen Mittelwert von 1961-1990 und gegenüber der Referenzperiode von 1981-2010 betrug die Abweichung noch +0,6 Grad. Anders formuliert ist der Mai 2016 zu warm ausgefallen.

Bild 3 Die Mai-Monate in Deutschland von 1750 bis 2016. Quelle WIKIPEDIA (Tabellenwerte vom Autor grafisch umgesetzt)

Man darf sich einfach nicht freuen, dass die früher extremeren Temperatur-Schwankungen und die Kälte geringer geworden sind.

Es wäre nicht verwunderlich, wenn Gott eine solche Ignoranz gegenüber seiner Weitsicht missfällt und er es deshalb ab und zu etwas „wetterwackeln“ ließe um auf den Unsinn der Klima-Simulationen und Klimahysterie hinzuweisen.

Die Klimaforschung ist längst nicht beendet, sondern fängt vielleicht erst richtig an

könnte darauf hin eine Schlagzeile lauten.

Und wie gesagt, die zur Lösung solcher Probleme bei uns über einen Staatsvertrag wie Beamte finanzierten Kleriker versagen bei der Klärung bisher völlig, schlimmer noch, sie sehen gar keinen Grund dafür [2][8]. Wer satt und mit Pension versorgt ist, geht eben ungern nur zur Inspiration 40 Tage in härenem Gewand in die Wüste, außer dort (be-)findet sich ein auf Spesen bezahltes Luxuscamp mit medial ausreichend beachteter Klimadiskussion.

Man sollte diese wichtige Frage aber nicht alleine islamischen Theologen überlassen, sonst sind die christlichen wirklich so überflüssig, wie es aus dem Koran gelesen wird (Kommentar: die folgende Argumentation ist messerscharf und sorgfältig aus der Geschichte des Neuen Testaments abgeleitet):

Ahmadiyya Muslim Jamaat Deutschland: [10] Wie ist das Verhältnis des Islam zum Christentum?
Im Christentum haben wir es heute eher mit der Lehre von Paulus zu tun, als mit dem, was Jesusas lehrte und praktizierte. All die herausstechenden Merkmale des Christentums von heute, wie etwa der Glaube an die Göttlichkeit von Jesusas, somit der Glaube an die Trinität, der Glaube an die Erbsünde und die Erlösung von Sünde durch den angeblichen Opfertod von Jesusas am Kreuz, haben nach unserer Meinung ihren Ursprung nicht in der Lehre Jesuas, sondern in dem, was Paulus daraus machte.

Vollendung der Religionen: Der Islam erhebt den Anspruch, die Vollendung unter den Religionen gebracht zu haben (5:4). Diese Vollendung bezieht sich sowohl auf die Verifizierung einzelner, bereits vorhandener Lehren, als auch auf die Einführung neuer Lehren

Der Autor hat nie ein Hehl daraus gemacht, welche Meinung er zur CO2-Klimahysterie und welch kritische er zu den Religionen hat. Dass ihn zur Kritik an Ursachen zum Klimawandel aber sogar die sich als einzig wahre Religionsausrichtung bezeichnende unterstützt, hätte er sich nie träumen lassen.

„kaltesonne“ dankt er für den Hinweis auf die Predigt des iranischen Geistlichen.

In vielen Foren gilt es als schick, auch zur banalsten Antwort einen neunmalklugen Satz irgend eines der unendlich vielen im WEB unvergesslich hinterlegten Zitate von Personen der Weltgeschichte zu zitieren.

Anbei der Versuch ein solches neu in die Welt zu setzen:

Wenn die säkulare Wissenschaft versagt, beginnt die theologische zu leben. Versagt auch die, fragt man die Esoterie. Diesen Weg kann man sich sparen, lässt man gleich Computer simulieren die Gefahren.

Reimt sich nicht so toll, aber es kommt ja auf den Inhalt an.

Quellen

[1] mrc TV June 13, 2016: Muslim Cleric: Immodest Women are Causing Climate Change

http://www.mrctv.org/blog/

[2] Ökumenischer Rat der Kirchen, 22. Dezember 2009: Was Theologie zur Rettung der Welt vor dem Klimawandel beitragen kann

https://www.oikoumene.org/de/press-centre/news/was-theologie-zur-rettung-der-welt-vor-dem-klimawandel-beitragen-kann

[3] EIKE 11.06.2015: Mit CO2-Reduzierung retten wir die Welt – Einige Rechenspiele (nicht nur) für regnerische Nachmittage

http://www.eike-klima-energie.eu/klima-anzeige/mit-co2-reduzierung-retten-wir-die-welt-einige-rechenspiele-nicht-nur-fuer-regnerische-nachmittage/

[4] Opposition 24: Die Grüne Kirchen Connection

http://opposition24.com/die-gruene-kirchen-connection/85535

[5] EIKE 30.06.2015: Ernteerträge und Klimawandel

http://www.eike-klima-energie.eu/klima-anzeige/ernteertraege-und-klimawandel/

[6] EIKE 19.05.2016: Wissenschaftler geben zu, dass ihr Modell der globalen Erwärmung vollkommen falsch sein könnte

http://www.eike-klima-energie.eu/news-cache/wissenschaftler-geben-zu-dass-ihr-modell-der-globalen-erwaermung-vollkommen-falsch-sein-koennte/

[7] EIKE 07.04.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

http://www.eike-klima-energie.eu/news-cache/der-verlauf-des-meeresspiegels-im-holozaen-und-seit-2000-jahren/

[8] EIKE 18.04.2016: Kirche und Klimawandel Viel „Mensch“, viele Bibelsprüche, die Orientierung vom PIK, von kritischer Reflexion keine Spur

http://www.eike-klima-energie.eu/news-cache/kirche-und-klimawandel/

[9] DIE WELT 05.07.12: Die Grünen wollen den Islam einbürgern. Die Grünen streben eine rechtliche Gleichstellung des Islam mit Christentum und Judentum an. Muslime hätten damit wie die Kirchen Privilegien beim Bau von Moscheen und könnten Steuern erheben.

http://www.welt.de/politik/deutschland/article107912782/Die-Gruenen-wollen-den-Islam-einbuergern.html

[10] Ahmadiyya Muslim Jamaat Deutschland: Wie ist das Verhältnis des Islam zum Christentum?
http://www.ahmadiyya.de/islam/haeufige-fragen-zum-islam-faq/islam-und-christentum/




Ist das IPCC absichtlich blind bzgl. Wasserdampf, um einen wissenschaftlichen Aspekt für eine politische Agenda zu beweisen?

Im IPCC-Bericht 2007 wird erklärt, warum die anthropogene Erzeugung von Wasserdampf für dessen Arbeit unwichtig ist:

Wasserdampf ist das am meisten vorhandene und wichtigste Treibhausgas in der Atmosphäre. Allerdings haben menschliche Aktivitäten nur einen geringen direkten Einfluss auf die Menge des atmosphärischen Wasserdampfes.

Man beachte die Schwammigkeit. Sie können „gering“ im direkten menschlichen Verhältnis oder sogar dessen tatsächliches Volumen nicht definieren. Sie können es nicht einmal vergleichen mit der natürlichen Variabilität der Gesamtmenge des atmosphärischen Wasserdampfes. In einem Beitrag der NOAA aus dem Jahr 2002 heißt es:

Die Gesamtmenge des Wasserdampfes in der Atmosphäre beträgt etwa 13 X 10↑15 kg.

Was heißt „etwa“?. Die natürliche Variation des Gesamt-WV-Gehaltes in der Atmosphäre ist im Vergleich zu allen anderen Gasen und vor allem im Vergleich zu anderen Treibhausgasen die weitaus größte. Der Gehalt variiert zwischen fast Null in Polargebieten bis zu vier Prozent in den Tropen. Er ist auch extrem schwierig zu messen. Ist eine WV-Variation von zwei Prozent gleich der Auswirkungen anthropogen erzeugten CO2? Historisch begannen die einzigen bedeutsamen Messungen mit den Mikrowellen-Messungen mittels Satelliten, mit denen sich der absolute Gehalt in einer Luftsäule bestimmen lässt.

Interessanterweise scheint eine im Jahre 2007, also zwei Jahre vor Klimagate, erschienene Studie mit dem Titel „Identification of human-induced changes in atmospheric moisture content” [etwa: „Erkennung vom Menschen verursachter Änderungen des atmosphärischen Feuchtegehaltes“] diese Art von Messung zu behandeln. Im Artikel erscheint wiederholt die berüchtigte Phrase von Ben Santer, die er als Leitautor dem Kapitel 8 des IPCC-Berichtes 1995 hinzufügte, als er Teile des Textes seines Komitees umschrieb. Der beschlossene Satz lautete:

Während einige der hier diskutierten Grundlagen die Entdeckung eines bedeutenden Klimawandels kolportieren, hat bis heute keine einzige Studie den gesamten oder den teilweisen Klimawandel anthropogenen Ursachen zugeordnet.

Santer machte daraus:

Wenn man sie im Zusammenhang mit unserem physikalischen Verständnis des Klimasystems untersucht, zeigt die Gesamtheit der statistischen Beweise in Kapitel 8 jetzt einen erkennbaren menschlichen Einfluss (Hervorhebung von mir) auf das globale Klima“.

In dem Bericht 2007 wurde diese (fett gezeigte) Phrase wiederholt. Sie wurde wie von S. Fred Singer vorhergesagt von den Medien übernommen:

Fingerabdruck“-Studien, welche die Gründe des jüngsten Klimawandels ergründen sollen, involvieren statistische Vergleiche von modellierten und beobachteten Verteilungen des Klimawandels. Derartige Arbeiten hatten großen Einfluss, die Schlussfolgerungen des „erkennbaren menschlichen Einflusses“ in nationalen und internationalen wissenschaftlichen Zustandsbeschreibungen zu teilen.

Siehe Bild oben rechts

Die Schlussfolgerung des Artikels aus dem Jahr 2007 steht im Widerspruch zum jüngsten IPCC-Bericht ,Technical Summary of Working Group I‘:

Die Größenordnung der beobachteten globalen Änderung des troposphärischen Wasserdampfes von etwa 3,5% während der letzten 40 Jahre ist konsistent mit der gemessenen Temperaturänderung von etwa 0,5°C im gleichen Zeitraum, und die Relative Feuchtigkeit ist in etwa konstant geblieben. Die Änderung des Wasserdampfes kann menschlichen Einflüssen mit mittlerem Vertrauen zugeordnet werden. (Hervorhebung von mir: Die IPCC-Definition lautet “About 5 out of 10 chance”).

Wie stellt sich die natürliche Variation der globalen Änderung des troposphärischen Wasserdampfes im Vergleich mit den Auswirkungen von anthropogen erzeugtem CO2 oder dem Gesamt-CO2-Gehalt dar? Sie wissen es nicht. Sie können keine einzige dieser Fragen beantworten, weil geeignete Daten nicht existieren.

Die Größenordnung des Wasserdampf-Treibhauseffektes ist erheblich. Ken Gregory schreibt, dass eine Analyse der NASA-Satellitendaten zeigt, dass Wasserdampf, das wichtigste Treibhausgas, in der oberen Atmosphäre abgenommen hat, was zu einem um das 16-fache größeren Abkühlungseffekt geführt hat als der Erwärmungseffekt durch anthropogen erzeugte Treibhausgase während des Zeitraumes 1990 bis 2001.

Dies zeigt, dass die Frage hinsichtlich des Erwärmungseffektes von CO2 mehr als kompensiert wird durch etwas, das man als Verdunstungskühlung der oberen Atmosphäre durch Wasserdampf beschreiben kann.

Das IPCC entschloss sich, seine Behauptungen bzgl. CO2 zu schützen. Die diesbezüglichen Bemühungen wurden verstärkt, weil den Beweisen zufolge eine obere Grenze des Erwärmungseffektes von CO2 deren Hypothese einer anthropogen verursachten globalen Erwärmung entgegen stand.

Abbildung 1

Es gab unterschiedliche Ansichten über die Größe, aber die Differenzen waren gering. Eine der ersten Graphiken, die dies zeigten, erschien bei Junkscience im Jahre 2006 (Abbildung 1). Das IPCC beschloss, dass Wasserdampf die Erklärung war. Es ist genauso wie der häufige Gebrauch von Aerosolen, um Widersprüche zu verdecken (hier).

Sie folgten der Studie von Santer et al. 2007 mit einer weiteren Rechtfertigung. In einem Beitrag der NASA aus dem Jahr 2008 mit dem Titel „Water Vapor Confirmed a Major Player in Climate Change“ heißt es:

Wasserdampf ist bekanntlich das am meisten auf der Erde vorhandene Treibhausgas, aber die Größenordnung von dessen Beitrag zur globalen Erwärmung war Gegenstand von Diskussionen. Unter Verwendung jüngster NASA-Satellitendaten haben die Forscher den Wärme zurückhaltenden Effekt von Wasser in der Luft präziser als jemals zuvor geschätzt, was die Rolle des Gases als kritische Komponente des Klimawandels validierte.

Tatsächlich wurde gar nichts diskutiert. Der Artikel klingt wie eine vielversprechende Annäherung an die notwendigen Fragen zur globalen Erwärmung und die genaue Bestimmung der Rolle des Wasserdampfes dabei. Aber das ist nicht der Fall. Der Artikel bestätigt dies in einem schlecht informierten PR-Artikel:

Klimamodelle haben die Stärke der Wasserdampf-Rückkopplung abgeschätzt, aber bis jetzt war die Reihe der Wasserdampf-Daten nicht genug aufgearbeitet, um eine umfassende Ansicht darüber zu liefern, wie Wasserdampf auf Änderungen der Temperaturen auf der Erde reagiert. Ursache hierfür ist, dass die Instrumente am Boden und zuvor im Weltraum nicht den Wasserdampf in allen Höhen der Troposphäre messen konnten – also in der Schicht der Atmosphäre, die sich von der Erdoberfläche bis zu einer Höhe von etwa 14 km erstreckt.

Der Artikel versucht, die IPCC-Hypothese zu rechtfertigen, der zufolge ein positiver Rückkopplungs-Mechanismus existiert, der CO2 als ein Erwärmungs-Artefakt effektiver macht als Wasserdampf.

Dies führte zu der andauernden Debatte über die Klimasensitivität, deren Schätzungen abgenommen haben (Abbildung 2)

Dies lenkt von der Frage ab, wie stark eine Variation des atmosphärischen Wasserdampfes die globalen Temperaturen beeinflusst und wie dies im Vergleich zum CO2-Effekt aussieht. Das ist kritisch, wie das IPCC erklärt:

Die im Wasserdampf enthaltene latente Wärme ist kritisch für die Steuerung der Zirkulation der Atmosphäre in Größenordnungen, die von individuellen Gewittern bis zur globalen Zirkulation der Atmosphäre reichen.

Man erinnere sich, dass wegen der Abstände der Gitterpunkte die IPCC-Computermodelle die etwa 10.000 Gewitter zu jedem Zeitpunkt nicht erfassen können. Sie können nicht einmal den Stratocumulus in Abbildung 4 erfassen, der Wärme transferiert.

Abbildung 3 zeigt die Sensitivität von Wasserdampf relativ zur Temperatur, wobei sich Wolken bilden durch Verdunstung und Kondensation über Wäldern, aber nicht über den relativ kühleren Flüssen.

Aber diese Art vager, gehaltloser Behauptungen entwerten die IPCC-Berichte und sorgen dafür, dass ihnen Logik und gesunder Menschenverstand fehlen. Eine kurze Analyse offenbart die Unlogik ihrer Behauptungen. Im jüngsten Synthesebericht Summary for Policymakers (2014) heißt es:

Ein menschlicher Einfluss auf das Klimasystem ist eindeutig, und jüngste anthropogene Emissionen von Treibhausgasen sind die höchsten jemals. Jüngere Klimaänderungen hatten weit verbreitete Auswirkungen auf menschliche und natürliche Systeme.

Die höchsten jemals? Das hängt davon ab, wie man ,jemals‘ definiert. Jeder Klimawandel hatte weit verbreitete Auswirkungen, nicht nur der jüngste.

Die Erwärmung des Klimasystems ist eindeutig, und seit den fünfziger Jahren sind viele der beobachteten Änderungen über Jahrzehnte bis zu Jahrtausenden beispiellos. Die Atmosphäre und die Ozeane haben sich erwärmt, die Menge an Schnee und Eis hat sich verringert, und der Meeresspiegel ist gestiegen.

Dies ist eindeutig falsch [also eine glatte Lüge! Anm. d. Übers.]. Die beobachteten Änderungen sind keineswegs beispiellos.

Anthropogene Treibhausgas-Emissionen haben seit der vorindustriellen Ära zugenommen, hauptsächlich infolge Wirtschafts- und Bevölkerungswachstum. Sie sind jetzt höher denn je.

Es gibt keinerlei Beweise zur Stützung dieser Behauptungen. Außerdem ist die Zunahme eine falsche Zunahme, weil die Treiber „Wirtschafts- und Bevölkerungswachstum“ vom IPCC kreiert worden waren mit seinen Representative Concentration Pathways (RCP). Die physikalischen Daten existieren nicht oder haben eine große Fehler-Bandbreite, was derartige Statements unhaltbar macht. Dies zeigen andere Absätze der IPCC-Berichte, die kaum jemand liest.

In einem Abschnitt behauptet das IPCC, dass infolge menschlicher Aktivitäten die Änderung nach 1950 erwiesen ist. In einem anderen Abschnitt wird erwähnt, dass es vor 1950 praktisch keine Daten gibt. Die Unzulänglichkeit der Daten bzgl. Wasserdampf allein zeigt schon, dass diese Behauptung falsch ist.

Zum Beispiel heißt es in der Technical Summary of Working Group I (Hervorhebung von mir):

Das Vertrauen in global gemittelte Änderungen des Niederschlags über Landmassen ist vor 1951 gering (etwa 2 zu 10) und danach mäßig infolge unzureichender Daten, vor allem in der ersten Hälfte der Zeitreihe.

Substantielle Unklarheiten und damit geringes Vertrauen verbleiben bei der Beobachtung der Variabilität von Wolken sowie deren Trends im globalen Maßstab.

Die räumliche Verteilung der Trends des Salzgehaltes, der mittlere Salzgehalt und die mittlere Verteilung von Verdunstung minus Niederschlag sind alle ähnlich. Diese Ähnlichkeiten sind ein indirekter Beweis, dass sich die Verteilung von Verdunstung minus Niederschlag über den Ozeanen seit den fünfziger Jahren verstärkt hat (mittleres Vertrauen). Unsicherheiten bei den derzeit verfügbaren Flüssen an der Oberfläche verhindern, dass die Fluss-Produkte zuverlässig sind, mit deren Hilfe man Trends auffinden will bei der regionalen oder globalen Verteilung von Verdunstung minus Niederschlag über den Ozeanen in der gleichen zeitlichen Größenordnung wie die Änderungen des Salzgehaltes seit den fünfziger Jahren.

Die jüngste und umfassendste Analyse der Abflussmengen von Füssen stützt nicht die Schlussfolgerung aus dem AR 4 des IPCC, dass die globale Abflussmenge während des 20. Jahrhunderts zugenommen hat. Neue Ergebnisse zeigen außerdem, dass die AR 4-Schlussfolgerungen hinsichtlich global zunehmender Trends von Dürren seit den siebziger Jahren nicht mehr gestützt werden.

Es besteht nur geringes Vertrauen in einen global beobachteten Trend von Dürre oder Trockenheit (fehlender Regen). Dies ist dem Fehlen direkter Messungen geschuldet sowie den Abhängigkeiten von abgeleiteten Trends aus ausgesuchten Indizes und geographischer Inkonsistenzen in den Trends.

In vielen durch einen hohen atmosphärischen CO2-Gehalt charakterisierten Perioden besteht ein mittleres Vertrauen (50%), dass die globale mittlere Temperatur signifikant über dem vorindustriellen Niveau lag.

Anthropogene Emissionen haben die Änderungen gut durchmischter Treibhausgas-Konzentrationen (WMGHG) während der industriellen Ära gesteuert. Da historische WMGHG-Konzentrationen seit der präindustriellen Ära auf der Grundlage direkter Messungen ebenso bekannt sind wie aus Eisbohrkernen, und da man auch die Strahlungseigenschaften von WMGHG kennt, liefert die Berechnung der Relativen Feuchtigkeit aus Änderungen der Konzentration belastbare Werte.

Das Problem ist, dass CO2 nicht so gut durchmischt [well-mixed] ist wie die OCO2-Satellitendaten zeigen.

Bevor man also sagt „es ist die Sonne, Dummkopf!“ kann man sagen „es ist der Wasserdampf, Dummkopf!“.

Zwei Kommentare zeigen den Hintergrund der Tunnelvision des IPCC bzgl. Wasserdampf:

Fakten hören nicht auf zu existieren, nur weil man sie ignoriert. Aldous Huxley (1894-1963).

Einige wenige Beobachtungen und viel Gerede darum führen zu Fehlern; viele Beobachtungen und wenig Gerede zur Wahrheit. – Alexis Carrel (Chirurg, Biologe, 1873-1944).

Link: https://wattsupwiththat.com/2016/07/16/does-ipcc-practice-willful-blindness-of-water-vapor-to-prove-a-scientific-point-for-a-political-agenda/

Übersetzt von Chris Frey EIKE




Nicht ohne mein Kernkraftwerk

Nahezu unbemerkt von der westlichen Öffentlichkeit hat sich am 20. Mai ein stiller technischer Generationswechsel vollzogen: Im russischen Kernkraftwerk Novovoronezh II wurde erstmals in Europa ein Druckwasserreaktor der sogenannten Generation III+ in Betrieb genommen1, dessen Sicherheits-Charakteristika jene der im westlichen Teil des Kontinents befindlichen Anlagen übertreffen – auch die der deutschen. Eine wichtige Rolle spielt bei der Zuordnung zu dieser Reaktorgeneration neben der höheren Wirtschaftlichkeit vor allem die Auslegung der Sicherheitssysteme, welche den neuesten Anforderungen der EU für Neuanlagen entsprechen müssen. Diese Auslegung soll gewährleisten, dass auch schwerste Störfallverläufe nicht in der Freisetzung von Radionukliden über das unmittelbare Anlagengelände hinaus resultieren. Auch im Fall eines totalen Spannungsverlusts infolge des Ausfalls von Landesnetz, Fremdnetz und Notstromdiesel-Aggregaten, so wie es nach dem Tsunami in Fukushima geschah, sollte eine sichere Abfuhr der Nachzerfallswärme aus einem Kernreaktor gewährleistet sein. In diesem im Kraftwerkerjargon Station blackout genannten Fall übernehmen bei Kernkraftwerken der neuesten Generation passive, ohne elektrisch angetriebene Komponenten arbeitende Systeme die Not- und Nachkühlung des Reaktorkerns an Stelle der bei funktionierender Stromversorgung arbeitenden aktiven, d.h. auf elektrische Versorgung ihrer Pumpen angewiesenen Not- und Nachkühlsysteme.

Passivität von Systemen als Prinzip inhärenter Sicherheit von Leistungskernkraftwerken ist für sich gesehen nichts Neues. So ist beispielsweise die Reaktorschnellabschaltung von Druckwasserreaktoren ein passives System, da die Steuerelemente bei Auslösung des Reaktorschutzsignals gravitationsbedingt in den Reaktorkern einfallen. Auch die Notkühlung durch Druckspeicher, die in bei Kühlmittelverluststörfällen nach Abfall des Drucks im Primärkreislauf automatisch boriertes Wasser einspeisen, funktioniert passiv und ist Stand der Technik in den heute eingesetzten Kernkraftwerken.2

Allerdings unterscheiden die kerntechnischen Regelwerke verschiedene Kategorien von Passivität: Es gibt passive Systeme, deren Inbetriebsetzung, wie im genannten Beispiel, ein aktiver Input (etwa ein elektrisches Signal) vorausgeht, oder solche, die mit beweglichen Teilen (z.B. Ventilen, Rückschlagklappen) funktionieren. Andere kommen ohne diese Merkmale aus. Neu im ersten Block von Novovoronezh II sind jedoch einige Systeme, die in Europa bis heute nicht zum Einsatz kamen, und deren Notwendigkeit erst mit dem Station blackout von Fukushima allen vor Augen geführt wurde. Es handelt sich dabei vor allem um zusätzliche passive Möglichkeiten der Boreinspeisung – die chemische Reaktivitätsregelung durch Borsäure ist in Druckwasserreaktoren neben der elektromechanischen Regelung durch Steuerstäbe ein wichtiges Merkmal der Diversität von Sicherheitseinrichtungen.

Vor allem aber verfügen Kernkraftwerke der russischen Familie AES-2006, zu der auch der VVER-1200/392M von Novovoronezh II-1 gehört, über die Möglichkeit, die Nachzerfallswärme aus dem Reaktorkern passiv über die Dampferzeuger abzuführen, auch wenn bei einem totalen Spannungsverlust jene Systeme, welche diese Wärmesenke normalerweise sichern, nicht mehr funktionieren, da sie von Pumpen abhängig sind. In einem solchen passiven Szenario wird der im Dampferzeuger entstehende Dampf nicht im üblichen Wasser-Dampf-Kreislauf kondensiert und mithilfe von Kondensat- und Speisewasserpumpen wieder in den Dampferzeuger zurückbefördert, sondern er wird über ein außenluftgekühltes System kondensiert und das Kondensat per Naturumlauf, ohne aktive Pumpen, wieder dem Dampferzeuger zugeführt.3

Diese Kombination von aktiven und passiven Sicherheitssystemen bringt russischen Angaben zufolge die kumulative Core damage frequency (CDF) des VVER-1200/392M auf einen Wert von 7,3·10−7 pro Reaktorbetriebsjahr4, was ein dem französisch-deutschen EPR vergleichbarer Wert ist.5 Mit diesem Indikator wird in Sicherheitsanalysen auf der Grundlage von Wahrscheinlichkeitsberechnungen für unterschiedliche Anlagenzustände und Störfallverläufe (sogenannten PSA, probabilistic safety assessments) die Eintrittswahrscheinlichkeit eines schweren Kernschadens angegeben. Der EPR und der neue Russe unterbieten mit diesem Wert die Empfehlungen der IAEA und den Richtwert der EU für neu zu genehmigende Anlagen (10-5 IAEA bzw. < 10-5 EU)6 weit. Zum Vergleich: Für die heute in Deutschland in Betrieb befindlichen Vorkonvoi- und Konvoi-Anlagen von Siemens-KWU werden CDF-Werte zwischen 10-5 und 5,4·10-6 angegeben.7 Der in älteren KKW auslegungsüberschreitende Kernschmelzunfall geht dabei in der Generation III+ in die Basisauslegung des Kernkraftwerks ein: In diesem Falle sorgt ein sogenannter Core catcher für eine kontrollierte Aufnahme und Abkühlung des Coriums, bis es in der Auffangvorrichtung erstarrt.

Abb. 1: Historische Entwicklung der Core damage frequency (CDF) verschiedener Leistungsreaktor-Baulinien und -Generationen im Vergleich. Die einzelnen Quellen für die CDF der im Artikel genannten VVER-V392M, EPR und Konvoi werden in den Fußnoten dieses Beitrags gesondert aufgeführt. Grafik: Dirk Egelkraut, Nucleopedia, unter Weiterentwicklung einer Grafik in Ignatiev (1995), ALWR Safety approaches, Fig.3. 

Doch während der moderne russische Reaktor bereits läuft, hat sein europäisches Gegenstück, der EPR, große Anlaufschwierigkeiten: Kostenexplosionen, Skandale, Rechtsstreitigkeiten und Bauverzögerungen begleiten seit Jahren die EPR-Projekte in Frankreich, Finnland und China. Es ist gerade die Umsetzung der innovativen Lösungen in der Kerntechnik, in der die Russen die Europäer, aber auch die Amerikaner und Japaner abgehängt haben. Das hat etwas mit der wesentlich kostengünstigeren und zügigeren Abwicklung nuklearer Großbaustellen durch den russischen Anbieter zu tun. In Russland, China, Indien und demnächst auch Finnland errichten die russischen Reaktorbauer ihre Anlagen mit stoischer Routine und hoher Professionalität, welche durch die üblichen russischen Probleme – Korruption, darniederliegende Infrastruktur, Bildungsmisere, fehlende Rechtssicherheit – nicht beeinträchtigt zu werden scheint.

Ihr Geheimnis ist nicht nur die Erfahrung – bis auf eine Pause in den 1990ern haben die Russen seit Ende der 1960er Jahre ununterbrochen Kernkraftwerke gebaut – sondern auch die besondere Organisationsform der russischen Staats-Kerntechnik, die, wie seinerzeit der Erbauer der (Vor-)Konvoi-Anlagen Siemens-KWU, Lösungen aus einer Hand anbietet und Baustellen mit komplexen Subunternehmensgeflechten nicht kennt. Gerade Auftraggeber aus Schwellenländern, die auf das Preis-Leistungsverhältnis schauen, geben daher den russischen Anlagen den Vorzug. Allenfalls die russische Wirtschaftskrise im Zeichen des niedrigen Ölpreises und der Sanktionen hat dieser Entwicklung einen Dämpfer verpasst – viele der russischen Ankündigungen neuer Kernkraftwerksbauten in aller Herren Länder, die in den letzten Monaten getätigt wurden, stehen unter ungewissen Prognosen.

Abb. 2: Skizze des Kernkraftwerks Novovoronezh II. Quelle: Atomenergoprojekt

Deutschland hingegen hat im kerntechnischen Anlagenbau seine Spitzenposition abgegeben, ohne dass hierzulande, wo sonst jeder Schnupfen der Automobilindustrie zu Krisensitzungen im Kanzleramt führt, dieser Abstieg nennenswert thematisiert würde. Und das ist schlimm – finden die Osteuropäer, die sich die Augen reiben über die deutsche Selbstdemontage. Denn deutsche Kernkraftwerke wurden lange als Goldstandard für kerntechnische Sicherheit gehandelt. In vielen Bereichen gelten die Deutschen bis heute als unschlagbar, so beim Reaktorschutz und bei der leittechnischen Staffelung in Regel-, Begrenzungs- und Schutzebene, welche die deutschen Anlagen zu Weltmeistern in der Zuverlässigkeit und Verfügbarkeit machte. Die leittechnische Geschmeidigkeit der deutschen Anlagen macht sie besonders fit für den nuklearen Lastfolgebetrieb in Netzen mit hohem Anteil an volatiler Einspeisung durch Erneuerbare. In Ländern, die anders als Deutschland sowohl auf regenerative als auch auf nukleare Stromerzeugung setzen, werden solche Lösungen in Zukunft gebraucht werden.

Der Wechsel der Technologieführerschaft ist in vieler Hinsicht historisch bedeutend, galten doch die deutschen Anlagen den Osteuropäern lange Zeit als unerreichbares Vorbild – nicht nur was den Anlagenbau betraf, sondern auch hinsichtlich der Betriebsführung, des Strahlen- und Arbeitsschutzes. Überdies hätte vor drei Jahrzehnten, als die damals noch sowjetische zivile Kerntechnik in Tschernobyl in Trümmern lag, niemand prophezeit, dass die Osteuropäer sich einmal an die Spitze der Entwicklung setzen würden. Doch im Unterschied zu Deutschland, wo Tschernobyl und schließlich Fukushima in einem Umschlagen der Diskurshoheit zugunsten der Kernkraftgegner und zum Ausstiegsbeschluss führten, haben Russland, die Ukraine und die Länder Ostmitteleuropas die großen kerntechnischen Unfälle nicht zum Anlass genommen, das Fürchten vor dem Atom zu lernen. Im Gegenteil, sie haben die Krise als Chance genutzt.

Denn eine schwere Krise war sie, die Zeit nach Tschernobyl. Moratorien und Protestbewegungen setzten vielen Kernkraftprojekten ein Ende. Selbst Anlagen in fortgeschrittenem Baustadium wurden dem Ruin übergeben. Dieser Fall nach dem Knall, die Legitimationskrise nach der nuklearen Katastrophe, der wirtschaftliche Verfall und die Desintegration des gerade zwischen der Ukraine und Russland personell und technologisch hochverflochtenen Kernenergiesektors bleibt den älteren Atomingenieuren als schlimmste Zeit ihrer Karriere in Erinnerung.

Einige ließen sich nicht unterkriegen, warteten ab und beschritten individuelle Wege, um den Verfall aufzuhalten. Zu diesen Partisanen gehörten auch die leitenden Ingenieure des ukrainischen Kernkraftwerks Rivne. Dessen vierter Block war zum Zeitpunkt des Kiewer Atom-Baumoratoriums 1990 zu 75 Prozent fertiggestellt. Doch die Rivner gaben ihre Baustelle nicht auf. Strom war in der westlichen Ukraine immer noch ein knappes Gut. Man versiegelte die Anlagenräume und ließ sie als Korrosionsschutz für die Ausrüstung mit Stickstoff konservieren. An anderen Gewerken wurde auf Sparflamme weitergearbeitet, unter dem Vorwand der Bestandserhaltung.

Der damalige Anlagenleiter erzählte mir diese Episode mit einem verschwörerischen Augenzwinkern. Jedenfalls waren die Rivner nach Aufhebung des Moratoriums auf dem Posten – und 2004 wurde die gerettete 1000-Megawatt-Anlage schließlich doch in Betrieb genommen. So wurde der vierte Block von Rivne in gewissem Sinne der Gegenentwurf zum 300 Kilometer östlich gelegenen Tschernobyler Block 4: Markierte dieser am 26. April 1986 den Tiefpunkt der Kernenergieentwicklung in der Ukraine, so stand Rivne-4 für das Wiederaufleben der Kerntechnik im Land und für die Suche nach Lösungen sowohl mit einheimischen als auch mit russischen und schließlich mit westlichen Technologiepartnern. Rivne-4 wird im KKW daher scherzhaft »Euroblock« genannt, auch wenn es sich um eine Anlage sowjetischen Typs handelt.

Heute, nach dem kriegsbedingten Fortfall ostukrainischer Kohlekapazitäten, gehört die Ukraine neben Frankreich, Belgien und der Slowakei zu den Ländern mit dem höchsten Atomstromanteil weltweit. Und neben der Schweiz zu jenen Nicht-EU-Ländern, die ihre Kernkraftwerke nach Fukushima dem europäischen Stresstest unterzogen. Überhaupt hofft die kerntechnische Community in der Ukraine auf Diversifizierung mit europäischen und amerikanischen Partnern, seit der einstmals hochzuverlässige Partner Russland kein Partner mehr sein kann. Russische Stellen grollen und streuen als Antwort diffamatorische Nachrichten, so über die angebliche Schadensanfälligkeit von in ukrainischen Kernkraftwerken eingesetzten Brennelementen des US-Herstellers Westinghouse.

Was die Russen selbstverständlich nicht daran hindert, ihrerseits Brennelemente für Kernkraftwerke westlicher Hersteller auf dem Weltmarkt anzubieten.8 Denn im Zuge jahrelanger Wissenstransfers kam es zu einer Konvergenz westlicher und östlicher Standards im nuklearen Anlagenbau. Die vielfältigen Möglichkeiten, die sich für die Osteuropäer nach dem Ende des Kalten Krieges ergaben, nutzten sie optimal: ob in Ost-West-Kraftwerks-Partnerschaften, ob durch Beteiligung an Programmen technischer Zusammenarbeit und an Institutionen des Erfahrungsaustauschs und der Begutachtung, wie sie die IAEA und die Betreiber-Organisation WANO nach Tschernobyl aufbauten. Die Russen entschieden sich konsequent gegen den in Tschernobyl verunfallten sowjetischen »Nationalreaktor« RBMK, dessen Konzept auf die militärischen Plutoniumproduktionsanlagen der nuklearen Anfangsepoche zurückgeht. Seitdem setzen auch sie auf die transnationale Druckwasserbaulinie, deren sowjetische Verfechter sich einst mangelnden Patriotismus und Amerika-Liebäugelei hatten vorwerfen lassen müssen.

Weder in der Ukraine noch in Russland, weder in Tschechien, Polen, der Slowakei oder Ungarn gibt es starke Anti-Atom-Bewegungen. Das hat je spezifische Gründe. Polen, das bis jetzt auf heimische Kohle setzte, hat gerade erst die Standortsuche für sein erstes Kernkraftwerk abgeschlossen. Die anderen Ostmitteleuropäer sind seit langem im Geschäft und schätzen die Kernkraft als zuverlässige und luftschadstoffarme Form der Stromproduktion. In der Ukraine, deren Bewohner seit den kriegsbedingten rotierenden Abschaltungen den Wert einer sicheren Stromversorgung zu schätzen wissen, wird ein Atomausstieg nicht diskutiert. In Russland sieht es ähnlich aus, doch hier macht auch die Repression der Staatsgewalt jeden Antiatomprotest zur Mutprobe.

So unterschiedlich ihre Motive und Verbündeten auch sein mögen – Polen und die Ukraine setzen auf westliche Partner, Tschechen und Ungarn auf russische – einig sind sich unsere östlichen Nachbarn im Unmut über den deutschen Energiewende-Alleingang. In Windspitzenzeiten destabilisiert nicht gebrauchter deutscher Strom die Netze in Polen und Tschechien. Dort installiert man nun technische Vorkehrungen, um das zu verhindern. Die Ostmitteleuropäer unterstützen EU-Initiativen über innovative Kernforschung, während Berlin dieselben Initiativen als »rückwärtsgewandt« abkanzelt und in Brüssel Druck zu ihrer Verhinderung macht. Deutschland fordert derzeit in harschem Ton Gefolgschaft – zuletzt mit einem kaum verhohlenen Einmischungsversuch in Belange der belgischen Atomaufsicht. Die östlichen Nachbarn registrieren dies mit zunehmendem Unmut: Warum fordert Berlin europäische Solidarität für seine stockende Energiewende ein, wenn es sich bei deren Einführung nicht mit seinen Nachbarn beraten hat?

Was den Osteuropäern aufstößt, ist darüber hinaus der Modus des moralischen Imperialismus, der die deutschen Aussagen prägt. Die Deutschen von heute, so scheint es, kommen nicht mehr auf Panzern. Doch sie tun und lassen, was ihnen gerade opportun scheint – immer mit höheren Begründungen. Man handelt ohne Konsultation Polens eine für die Sicherheit Europas sensible russisch-deutsche Gastrasse aus? Das dient dem Frieden und der Entwicklungspartnerschaft. Man tadelt die Polen, Tschechen und Ungarn für ihre Kernenergiepläne? Das ist im Interesse des Überlebens der Menschheit.

Die Russen und Ukrainer indessen betrachten die Szene aus der Ferne mit ungläubigem Staunen – sie verstehen die Ingenieursnation Deutschland nicht mehr, und vermuten, dass bei der Energiewende-Entscheidung wohl die »Politik« über die Experten für Versorgungsnetze und Kraftwerkstechnik obsiegt habe. »Ein Land, das es sich leisten kann, seine Hauptstadt zu verlegen, kann sich vielleicht auch leisten, die besten Kernkraftwerke der Welt abzuschalten«, sagte mir ein russischer Atomingenieur, »aber ich bin überzeugt: früher oder später werden die Deutschen zur Kerntechnik zurückkehren. Vielleicht nicht zur Kerntechnik in ihrer heutigen Form. Aber sie werden zurückkehren. Und wir brauchen sie.«

1: Pervyj rossijskij energoblok pokolenija 3+ vyšel na minimal’no kontruliruemyj uroven‘ moščnosti (MKU), http://publicatom.ru/blog/nvaes/20427.html

2: IAEA Tecdoc 1624: Passive Safety Systems and Natural Circulation in Water Cooled Nuclear Power Plants, Vienna 2009, S. 2-19

3: OAO Sankt-Peterburgskij naučno-issledovatel’skij i konstruktorskij institut “Atomenergoproekt”, Proekt AES-2006, Sankt-Peterburg 2013; IAEA Tecdoc 1624: Passive Safety Systems and Natural Circulation in Water Cooled Nuclear Power Plants, Vienna 2009,S. 100-105

4: Vladimir Morozov: Proektom predusmotreno. Rezul’taty verojatnostnogo analiza bezopasnosti proekta, in: Rosenergoatom Nr. 12 (2012), S. 18-20,http://www.rosenergoatom.info/images/PDF/2012/web_REA_12.pdf; Eine andere Angabe, nämlich CDF für VVER-1200/V392M von 6,1·10-7, gibt ein IAEA-Bericht auf der Grundlage russischer Daten an: IAEA, Status report 107, VVER-1200 (V392M), S. 13, Table 4, https://aris.iaea.org/sites/..%5CPDF%5CVVER-1200(V-392M).pdf. Dieser Wert wäre identisch mit Angaben zum EPR.

5: Zur CDF des EPR:

  • UK-EPR. Fundamental safety overview. Vol. 2, Design and safety. Chapter B: Probabilistic safety assessment [aktuell nur im Cache abrufbar hier]:
  • HM Nuclear Installations Inspectorate: Health and safety executive nuclear directorate assessment report. New Reactor Build: EDF/AREVA EPR Step 2 PSA Assessment, Bootle Merseyside 2007, S. 3, 6,1·10-7: http://www.onr.org.uk/new-reactors/reports/eprpsa.pdf.
  • Beide Quellen nennen also 6,1·10-7 als CDF des EPR. CDF-Angaben aus anderer Quelle lauten für den UK-EPR 6,2·10-7, für die in Bau befindlichen EPR in Flamanville-3 und Olkiluoto-3 4,8·10-7:
  • Avi Julin, Matti Lehto, Patricia Dupuy et al. (2014), Insights from PSA Comparison in Evaluation of EPR Designs, Paper presented at Probabilistic Safety Assessment and Management PSAM-12, June 2014, Honolulu, Hawaii, S. 6: https://www.oecd-nea.org/mdep/documents/PSAM-12-PSA.pdf

6: Richtlinien und Empfehlungen zur CDF:

7: Zur CDF deutscher Anlagen:

  • Der „Licensee report“ aus dem EU-Stresstest für deutsche Anlagen nennt für die Vorkonvoi-Anlage Grohnde eine CDF von 1·10-5: „The probabilistic safety analysis (PSA) so far performed for the periodic safety review (PSR) of KWG pursuant to BMU guidelines yields Level 1 PSA results (core damage frequency, CDF) clearly below the CDF target specified by IAEA for operational plants (< 1*10-4/a). Actual results are as low as those recommended for evolutionary power reactors (1*10-5/a)“, in: Federal Ministry for the Environment, Nature Conservation and Nuclear Safety [BMU], EU Stresstest report, Annex 1, Summaries of the licensee reports [2011], Annex A1-7 KWG, S. A1- 65: http://www.bmub.bund.de/fileadmin/bmu-import/files/pdfs/allgemein/application/pdf/eu_stresstest_report_annex.pdf
  • Im „Progress Report“ des BMU von September 2011 sind die CDF-Angaben für alle deutschen Anlagen noch unvollständig aufgeführt und daher nicht in einer Quelle vergleichbar. Für die Konvoi-Anlage Neckarwestheim-2 wird hier eine CDF von 5,4·10-6 angegeben. Diese Angabe deckt sich mit der Grafik Fig. 3 in Ignatiev (1995), der den Konvoi bei 5·10-6 verzeichnet. Dieser Wert wurde auch für unsere Grafik in Abb. 1 übernommen. Vgl. Federal Ministry for the Environment, Nature Conservation and Nuclear Safety [BMU], EU Stresstest National Report for Germany. Progress Report of September 15, 2011, Tabelle S. 19, GKN-2.http://www.bmub.bund.de/fileadmin/bmu-import/files/english/pdf/application/pdf/progress_report_bf.pdf.

8: Russia’s Rosatom signs 10 billion-worth of deals at AtomExpo, in: World Nuclear News, 01. Juni 2016, http://www.world-nuclear-news.org/C-Russias-Rosatom-signs-10-billion-worth-of-deals-at-AtomExpo-01061601.html

Titelbild: Kernkraftwerke Novovoronezh I (rechts) und II (links). Quelle: Wikimapia.

Dr. Anna Veronika Wendland ist Osteuropa-Historikerin und Forschungskoordinatorin am Herder-Institut für historische Ostmitteleuropaforschung in Marburg. Sie forscht zur Geschichte von Atomstädten und nuklearen Sicherheitskulturen in Ost- und Westeuropa, unter anderem auch im Zusammenhang des transregionalen Sonderforschungsbereiches SFB-TRR 138 »Dynamiken der Sicherheit« der Universitäten Marburg und Gießen sowie des Herder-Instituts, in dem es um Versicherheitlichungsprozesse von der Antike bis zur Jetztzeit geht.

http://nuklearia.de/2016/07/11/nicht-ohne-mein-kernkraftwerk/ 




China stoppt den Ausbau weiterer Windenergie, aus Furcht vor Blackouts

Bild rechts: Shanghai, eine aufstrebende Geschäftsmetropole in Asien – die Lichter der Großstadt lassen sich nicht mit Wind betreiben.

China schließt speziell den Ausbau in den windigsten Regionen des Landes, weil rund 26 Prozent der Windenergie im Jahr 2016 vergeudet wurde. Nicht genutzte und verschwendete Windkraft ist unglaublich problematisch, weil es das Stromnetz schädigt und potenziell massive Stromausfälle verursachen kann.

Die Regierung stoppt die Genehmigung von neuen Windkraftprojekten in den windigsten Regionen des Landes Anfang März, nach Aussage von Chinas Nationalem Energieministerium. In diesen Regionen sind bisher fast 71 Gigawatt Windkraftanlagen installiert, mehr als im Rest von China zusammen. Eine einzelne Gigawattstunde ist dem Verbrauch von 700.000 Haushalten äquivalent. Statistiken der Regierung zeigen, dass 33,9 Milliarden Kilowattstunden Windkraft oder etwa 15 Prozent aller chinesischen Windkraft, allein im Jahr 2015 verschwendet wurden.

„Wir schätzen, dass im Laufe der ersten sechs Monaten 4,2 Milliarden Kilowattstunden Wind- und Solarenergie verschwendet wurden, was Neuseelands Stromverbrauch im gesamten Jahr 2015 entspricht,“ sagte Peng Peng, Analyst bei der chinesischen Renewable Energy Industries Association, zu Reuters.

Windenergieanlagen sind extrem intermittierend und produzieren nicht viel Strom zu den Zeiten des Tages, wenn Strom am dringendsten benötigt wird. Dies stellt ein enormes Sicherheitsrisiko für Netzbetreiber dar und macht Stromnetze erheblich fragiler.

Peking wies Windbetreiber in den letzten fünf Jahren viermal an, den Ausbau zu stoppen, weil unzuverlässige Windkraft das Stromnetz des Landes schädigt und die Regierung enorme Mengen an Geld kostet. Der Bau der Infrastruktur, um Windenergie über weite Entfernungen zu übertragen, ist sehr teuer und beträgt ein Vielfaches des Preises für die Erzeugung der Elektrizität [auf konventionelle Weise]. Das ist ein großes Problem, weil die besten Gebiete für Windkraftanlagen in China weit weg sind von den Küstenprovinzen, wo die Mehrzahl der Bevölkerung lebt.

[Dort sind 36 neue Kernkraftwerke im Bau bzw. geplant, s.u.]

China gab mehr als $ 80 Milliarden Dollar für den Ausbau neuer grüner Energie im allein im Jahr 2014 aus, während die USA „nur“ 34 Milliarden Dollar ausgaben. Mehr als ein-Drittel aller Windenergieanlagen der Welt sind derzeit in China installiert. Auch mit dieser enormen Anzahl von Windstromanlagen produziert China noch weniger Strom aus Wind als Amerika, was darauf hindeutet, dass das Land so mit Windkraft übersättigt ist, dass diese das Stromnetz beschädigt, was potenziell zu Stromausfällen führt.

Trotz der Ausbaustopps, plant die chinesische Regierung immer noch 15 Prozent des Strombedarfs aus Ökostrom in 2020 zu erhalten.

Erschienen auf The Daily Caller am 21.07.2016

Übersetzt durch Andreas Demmig

http://dailycaller.com/2016/07/21/china-shuts-down-construction-of-new-wind-turbines/

Dank an unseren Leser Alwin Bruno, der in seinem Kommentar #4 auf diesen Bericht hinwies.

Ergänzung:

China plant den Ausbau der Nuklearenergie

http://www.chinabusinessreview.com/a-boost-for-nuclear-power/

Weltweite Übersicht über aktuelle und zukünftige Kernkraftwerke

http://www.world-nuclear.org/information-library/current-and-future-generation/plans-for-new-reactors-worldwide.aspx




Zu Ehren des Unabhängigkeitstages am 4. Juli, ein paar Modeldatenvergleiche von US-Temperaturen

Aufmacher rechts: John Kerry auf Twitter: „Die Auswirkungen des Klimawandels sind offensichtlich, ernüchternd beim Ilulissat Eisfjord. Die Erwärmung der Arktis ist 2x schneller als der Rest des Planeten.“

Gleich der erste Kommentar auf der Washington Post dazu:

Tony Heller
6/26/2016 10:58 AM GMT+0200

Here is the same story from 1903

"The Ice In Greenland is melting more rapidly than it is formed. Comparison of the descriptions of the Jakobshavn glacier show that Its edge has receded eight miles since 1860, and It has lost twenty to thirty feet in depth."

Lawrence Daily Journal Lawrence, Kansas Friday, November 27, 1903 – Page 1

https://www.newspapers.com/image/59472950/?terms=greenland%2Bmelting

Man kommt allerdings auf eine Registrierseite, ich denke –  Übersetzung überflüssig. 

Oben angesprochene Links:

The Washington Post:

John Kerry just visited the most stunning example of our changing climate

WordPress

In Honor of Secretary of State John Kerry’s Global Warming Publicity-Founded Visit to Greenland…

Einführung

Im November 2014 stellten wir weite Bereiche der modellierten und beobachteten absoluten globalen Temperaturen vor und diskutierten sie:
On the Elusive Absolute Global Mean Surface Temperature – A Model-Data Comparison.

Nicht lange danach kamen auf Realclimate modellierte absolute, globale Temperaturen, geschrieben von Gavin Schmidt, dem Leiter des Goddard Instituts für Weltraumforschung (GISS). Gavins Beitrag behandelt Absolute temperatures and relative anomalies [Absolute Temperaturen und relative Anomalien]. (Bitte lesen Sie es in seiner Gesamtheit. Ich glaube, Sie werden es interessant finden.) Natürlich spielt Gavin Schmidt die Notwendigkeit herunter, dass Klimamodelle absolute Temperaturen der Erde simulieren sollten.

In diesem Beitrag über die Temperaturen der Vereinigten Staaten, werden wir einige Beispiele vorstellen, warum Klimamodellierer ihren Fokus von Temperaturanomalien auf absolute Temperaturen verschieben sollten. Warum? Neben Hitzewellen und Kälteeinbrüchen, spielen oberflächennahe Lufttemperaturen eine Rolle in Modellsimulationen der Schneedecke, Dürre, Vegetationszeiten, Oberflächenverdunstung, die etc. zum Niederschlag beitragen.

In der Vergangenheit, verglichen wir Modelle und Daten unter Verwendung von Zeitreihen Graphen der Temperaturanomalien, absoluten Temperaturen und Temperaturtrends und wir werden sie weiterhin in diesem Beitrag liefern. In dieser Folge haben wir einen neuen Graphen, Modell-Datenvergleich hinzugefügt: Jahreszyklen auf der Grundlage der letzten multidekalen Periode. Keine Sorge, im letzten Teil wird das klarer werden.

Modelle und Daten

Wir verwenden das Modell-Mittel der Klimamodelle, die im CMIP5 Archiv gespeichert sind Coupled Model Intercomparison Project Phase 5 – mit historischen Antrieben [für „Forcings“, genutzt im weiteren Text] bis 2005 und RCP8.5 Forcings danach. (Die einzelnen Klimamodell-Ergebnisse und Bedeutungen sind über den KNMI Klima Explorer verfügbar.) Die archivierten CMIP5 Modelle wurden für den 5. Assessment Report des IPCC verwendet. Die RCP8.5 Forcings sind das künftige Worst-Case-Szenario.

Wir verwenden den Modell-Mittelwert (Durchschnitt der Klima-Modell-Ergebnisse), denn der Modell-Mittelwert repräsentiert den Konsens der Modellierungs Gruppen – wie die Temperaturen sich erwärmen sollten, wenn sie durch die Antriebe in den Modellen erwärmt werden. Siehe On the Use of the Multi-Model Mean [die Verwendung von Multi-Modell-Mittelwerten], für eine weitere Diskussion über seine Verwendung in Vergleichen von Modell-Daten.

Ich habe die Ozean-Maskierung-Funktion des KNMI Klima Explorers und die Koordinaten 24N-49N, 125W-66W verwendet, um die modellierten Lufttemperaturen der Vereinigten Staaten zu erfassen, etwa die gleichen Koordinaten die von Berkeley Earth verwendet wurden.

Die Beobachtungen der Lufttemperatur für die USA sind verfügbar auf der Website von Berkeley Earth, speziell die Daten der Vereinigten Staaten hier. Während die Monatsdaten in Anomalie Form (bezogen auf den Zeitraum von 1951-1980) präsentiert werden, bietet Berkeley Earth die Monatswerte der Klimatologie in absoluten Zahlen, die wir dann einfach den Anomalien der jeweiligen Monate zur Bestimmung der absoluten monatlichen Werte hinzufügen. Der Großteil der Grafiken basiert jedoch auf jährlichen Durchschnittswerten, um die Volatilität der Daten zu reduzieren.

Das Modell Mittel der Temperaturen des KNMI Klima Explorer beginnt im Jahre 1861 und die Berkeley-Earth-Daten enden im August 2013, so dass die jährlichen Daten in diesem Beitrag von 1861 bis 2012 laufen.

Jährliche Lufttemperaturen in den vereinigten Staaten

Abbildung 1 enthält ein Zeitreihen Diagramm der modellierten und beobachteten jährlichen Temperaturanomalien in der Nähe von Land für die USA von 1861 bis 2012. Anders als den langfristigen Erwärmungstrend leicht zu unterschätzen, scheinen die Modelle auf den ersten Blick einen vernünftigen Job der Simulation von Erwärmung (und Kühlung) der Oberflächen der Vereinigten Staaten zu tun. Aber wie wir später im Beitrag sehen werden, dem Konsens der Modelle fehlt die multidekadische Erwärmung von den 1910er bis zu den frühen 1940er Jahren.

Denken Sie daran, Abbildung 1 zeigt wie Klima Modellbauer es bevorzugen, ihre Modelle in Form der Anomalie zu präsentieren.

Abbildung 2 gibt Ihnen eine Vorstellung davon, warum sie [die Klimamodell-Modellierer] es vorziehen, Anomalien zu präsentieren. Es vergleicht die modellierten und beobachteten Temperaturen auf einer absoluten Grundlage. Nicht nur lassen die Modelle die Multidekalen Variationen in den Temperaturen der Vereinigten Staaten vermissen, der Konsens der Modelle verläuft zu kalt. Dies wirkt sich natürlich darauf aus, wie gut die Modelle temperaturbedingte Faktoren wie Schneefall, Dürre, Ernteerträge und Vegetationsperioden, Hitzewellen, Kälteeinbrüche, etc. simulieren.

Abbildung 2

Jährliche Zyklen

Klima ist in der Regel definiert als die durchschnittlichen [Wetter-] Bedingungen über einen Zeitraum von 30 Jahren. Die obere Grafik in Abbildung 3 vergleicht die modellierten und beobachteten durchschnittlichen jährlichen Zyklen von zusammenhängenden US-Temperaturen für die letzten 30 Jahre (1983 bis 2012). Über diesem Zeitraum deuten die Daten darauf hin, dass die durchschnittlichen Temperaturen für die USA variieren, von über + 0,0 °C im Januar bis etwa + 24,0 °C im Juli. Andererseits, der Konsens der Modelle zeigt, sie sind zu kalt, um durchschnittlich etwa 1,4 Grad C im Laufe eines Jahres.

Abbildung 3

Man könnte sagen, es ist nur eine Modell-Daten-Differenz von -1,4 Grad Celsius, während der Jahreszyklus für die USA ca. 24 Grad Celsius beträgt. Aber lassen Sie uns den Jahreszyklus der Beobachtungen für die ersten 30 Jahre, 1861-1890 mit einschließen. Die hellblaue Kurve ist in Abbildung 3 oben zu sehen. Die Veränderung der beobachteten Temperatur im 30-Jahres-Zeitraum von 1861-1890 bis zum 30-Jahres-Zeitraum 1983-2012 ist etwa 1,0 Grad Celsius, während die Differenz der Modelldaten für den Zeitraum von 1983 bis 2012 größer ist, etwa 1,4 Grad Celsius.

Die Modelle simulieren derzeit eine unbekannte Vergangenheit des temperatur-basierten Klimas in den Vereinigten Staaten, nicht das aktuelle Klima

Um es noch schlimmer zu machen. Für die obere Grafik in Abbildung 4 habe ich die Daten geglättet und die Modell Ergebnisse in absoluten Werten mit 30 Jahren laufenden-Mittelwert Filter, zentriert auf das 15. Jahr. Wiederum präsentieren wir den 30-Jahres-Durchschnitt, da Klima in der Regel als 30-jährige Daten definiert ist. Dies wird helfen zu bestätigen, was im unteren Diagramm in Abbildung 3 dargestellt wurde.

Die Modelle können offensichtlich die beobachteten Temperaturen für die USA nicht simulieren. Die modellierten Temperaturen sind für die jüngsten 30-jährigen Temperatur-basierte Klima zu kühl, für den Zeitraum von 1861 bis 1890 sind sie sogar unterhalb der beobachteten Temperaturen. Das heißt, die simulierten Temperaturen für die USA über die letzten 30 Jahre, hat es in dem modellierten Zeitraum nicht gegeben.

Abbildung 4

Im unteren Diagramm der Abbildung 4 habe ich die modellierten Ergebnisse in die Zukunft erweitert, um festzustellen, wie die Modelle schließlich das Temperatur-basierte Klima für den verlängerten, letzten 30-Jahres-Zeitraum simulieren. Die horizontale Linie ist die datenbasierte Durchschnittstemperatur für den Zeitraum von 1983 bis 2012. Natürlich sind die künftigen Modellierungen von mehr als 3 Jahrzehnten nicht mit der Realität synchron.

Behalten Sie die Mängel im Auge, wenn das nächste Mal ein Panikmacher behauptet, die temperaturbedingte Variable in den USA in Abbildung 4 ist "genau wie vorhergesagt durch Klimamodelle" dargestellt. Unsinn, nichts als Unsinn.

Trends von 30-Jahren in Folge zeigen, dass die letzte Erwärmungsrate der USA nichts Ungewöhnliches ist.

Die obere Grafik in Abbildung 5 zeigt die modellierten und beobachteten 30 Jahre Trends (Erwärmung und Kühlung Raten) der Lufttemperaturen für USA.

Wenn Trenddiagramme neu für Sie sind, erkläre ich sie gerne:

Beachten Sie zunächst die Einheiten der y-Achse. Sie sind Grad Celsius/Dekade, nicht einfach Grad Celsius. Die letzten Punkte zeigen die 30-jährige beobachtete und modellierte Erwärmungsrate von 1983 bis 2012 und 2012 (daher die Verwendung des Wortes „trailing“ im Schriftfeld). Die Datenpunkte direkt davor auf der 2011 zeigen die Trends von 1982 bis 2011. Diese 30-Jahre-Trends fließen weiter zurück in der Zeit bis zum ersten Datenpunkt in 1890, der die beobachteten und modellierten Abkühlgeschwindigkeiten von 1861 bis 1890 erfasst (leichte Abkühlung der [beobachteten] Daten, spürbare Abkühlung für die Modelle).

Und für den Fall, dass Sie Probleme haben, zu erkennen was gezeigt wird, habe ich die Endpunkte der beiden 30-Jahres-Perioden hervorgehoben und die korrespondierenden Trends – modelliert und beobachtet – in einer Zeitreihe von Temperaturanomalien in der unteren Grafik der Abbildung 5 gezeigt.

Abbildung 5

Ein paar Dinge zeichnen sich im oberen Diagramm der Abbildung 5 heraus. Erstens sind die beobachteten 30-jährigen Erwärmung Raten bis in den späten 1930er Jahren, Anfang der 1940er-Jahre vergleichbar mit den jüngsten, beobachteten 30-Jahres-Trends. Mit anderen Worten, die Erwärmungsraten der letzten 30 Jahre der USA ist nichts Ungewöhnliches – überhaupt nichts Ungewöhnliches.

Zweitens, beachten Sie die Unterschiede in den Erwärmungsraten der Modelle und der [beobachteten] Daten für den 30-Jahres-Zeitraum bis 1941. Gemäß dem Konsens der Modelle, die Luft der Vereinigten Staaten sollte nur mit einer Rate von etwa 0,12 Grd. C/Dekade aufgewärmt worden sein in diesem 30-Jahres-Zeitraum… wenn die Erwärmung durch die Antriebe bestimmt wurde, die die Modelle antreiben. Aber die [beobachteten] Daten zeigen, dass die USA mit fast 3.5 Grad C/Dekade während der 30-Jahr-Periode Ende 1941 erwärmt wurden, … fast 3-Mal höher als der Konsens der Modelle, das musste logischerweise irgendwo herkommen. Wenn es nicht durch die Antriebe kommt, die die Modelle benutzen, musste es von der natürlichen Variabilität herkommen.

Drittens zur Anmerkung über Abbildung 5: Wie bereits erwähnt, sind die beobachteten Erwärmungsraten für die 30-Jahres-Zeiträume die in 2012 und 1941 enden, vergleichbar. Aber der Konsens der Modelle zeigt, wenn die Erwärmung der USA durch die Antriebe diktiert wurde, die die Modelle antreiben, hätte die Erwärmungsrate für den 30-Jahres-Zeitraum bis 2012 deutlich höher ausfallen müssen, als was beobachtet wurde. Das heißt, die Daten zeigen die Erwärmung deutlich langsamer als die Modelle für den letzten 30-Jahres-Zeitraum.

Viertens: Die Tatsache, dass die Modelle die beobachteten Erwärmungsraten für den späteren Zeitraum besser simulieren hat keinen Wert. Das Modell Konsens und die Daten zeigen, dass die Temperaturen der Vereinigten Staaten sich natürlich mit Raten erwärmen können, die mehr als 2,5-Mal höher sind, als die durch den Konsens der Modelle gezeigten. Dies deutet darauf hin, dass die modellbasierten Vorhersagen der zukünftigen Erwärmung für die USA viel zu hoch sind.

Schluss

Klimaforschung ist eine modellbasierte Wissenschaft, insofern als Klimamodelle von der Klima-Science-Community verwendet werden, um über die Beiträge von Menschen verursachter Treibhausgas auf Erderwärmung und Klimawandel zu spekulieren und Weissagungen zu treffen, wie anders das Klima in Zukunft sein könnte.

Die durch das IPCC verwendeten Klimamodelle können die Temperaturen der USA für jeden Zeitraum ab 1861 bis jetzt nicht richtig simulieren. Grundsätzlich haben sie daher keinen Wert als Werkzeuge für den Einsatz bei der Bestimmung wie die Temperaturen die temperaturbedingten Wetterereignisse (Schneefall, Dürre, Wachstums Perioden, Hitzewellen, Kälteeinbrüche, etc.) beeinflusst haben oder wie sie sie derzeit beeinflussen und wie sie sich in der Zukunft auswirken.

Wie bereits in On Global Warming and the Illusion of Control – Part 1 erwähnt [globale Erwärmung und die Illusion von Kontrolle – Teil 1], sind Klimamodelle derzeit nicht für die Zwecke geeignet, für die sie bestimmt waren.

Andere Beiträge mit Vergleichen der Modell Daten von jährlichen Temperaturzyklen

Dies ist der dritte Beitrag einer Serie, in der wir Modell Datenvergleiche der Temperaturen jährlicher Zyklen aufgenommen haben. Die anderen, nach Themen, waren:

·         Near-land surface air temperatures of Greenland
[Lufttemperaturen von Grönland]

·         Sea Surface Temperatures of the Main Development Region of Hurricanes in the North Atlantic
Meeres – Oberflächentemperaturen der Hauptentwicklungsregion von Hurrikanen im Nordatlantik

Erschienen auf WUWT am 04.07.2016

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2016/07/04/in-honor-of-the-4th-of-july-a-few-model-data-comparisons-of-contiguous-u-s-surface-air-temperatures/




Wenn die Wirklichkeit nicht mit der Vorstellung übereinstimmt – schlecht für die Wirklichkeit! NASA: Messungen zur globalen Erwärmung benötigen eine weitere Aufwärts-Adjustierung um 19%

Presseerklärung des Jet Propulsion Laboratory JPL:

Eine neue Studie der NASA kommt zu den Ergebnis, dass fast ein Fünftel der globalen Erwärmung während der letzten 150 Jahre in den historischen Aufzeichnungen verloren gegangen ist, und zwar aufgrund von Mängeln bzgl. der Art und Weise, wie globale Temperaturen aufgezeichnet worden waren. In der Studie wird erklärt, warum Projektionen des zukünftigen Klimas allein auf der Grundlage historischer Aufzeichnungen geringere Erwärmungsraten abschätzen lassen als Prophezeiungen der Klimamodelle.

In der Studie wurden die historischen Aufzeichnungen entsprechend der Mängel korrigiert und an die Ergebnisse der Klimamodelle angepasst. Danach wurden die gleichen Berechnungen durchgeführt, sowohl mit Modellergebnissen als auch mit den korrigierten Aufzeichnungen, um zum ersten Mal einen Vergleich von Erwärmungsraten nach der Methode ,Äpfel mit Äpfeln-Vergleich‘ zu erstellen. Nach dieser Modifikation stimmen Modelle und Beobachtungen bei der zu erwartenden kurzfristigen globalen Erwärmung weitgehend überein. Die Ergebnisse wurden dann in dem Journal Nature Climate Change veröffentlicht. Mark Richardson vom JPL der NASA in Pasadena, Kalifornien, ist der Leitautor.

Die Arktis erwärmt sich schneller als die übrigen Gebiete auf der Erde, aber es gibt von dort weniger historische Temperaturaufzeichnungen als aus niedrigeren Breiten, weil das Gebiet so schwer zugänglich ist. Ein Datensatz mit weniger Temperaturmessungen aus der Arktis zeigt natürlich eine geringere Erwärmung als ein Klimamodell, welches die Arktis in Gänze repräsentiert.

Weil es nicht möglich ist, weitere Temperaturmessungen aus der Vergangenheit hinzuzufügen, haben die Forscher stattdessen auf Klimamodelle zurück gegriffen, um die begrenzte Abdeckung mit historischen Daten aufzubessern.

In der neuen Studie geht es außerdem um noch zwei andere Themen. Erstens, die historische Mischung von Luft- und Wassertemperaturen, während sich die Modellergebnisse allein auf Lufttemperaturen beziehen. Dieser Mangel verzerrt auch die historischen Messungen in Richtung der kühlen Seite, weil sich Wasser weniger schnell erwärmt als Luft. Beim zweiten Thema geht es darum, dass es zu Beginn von Temperaturmessungen in der Arktis während der sechziger Jahre des 19. Jahrhunderts deutlich mehr Meereis gab als heute, und frühe Messungen zeichneten Lufttemperaturen über den vom Eis bedeckten Meeresgebieten benachbarten Landgebieten auf. Als das Eis schmolz, gingen spätere Beobachter stattdessen zu Wassertemperaturen über. Dies erniedrigte ebenfalls die Temperaturänderung.

Den Wissenschaftlern waren diese Mängel schon seit einiger Zeit bekannt, aber dies ist die erste Studie, um die Auswirkungen dieser Mängel zu berechnen. „Sie sind jeder für sich ziemlich gering, aber sie addieren sich in der Summe alle in die gleiche Richtung“, sagte Richardson. „Wir waren überrascht, dass sich in der Summe eine so große Auswirkung zeigte“.

Diese Mängel verschleierten rund 19% des Anstiegs der globalen Lufttemperaturen seit den sechziger Jahren des. 19. Jahrhunderts. Das reicht aus, dass Berechnungen auf der Grundlage historischer Aufzeichnungen allein niedrigere Werte ergaben als etwa 90% der Ergebnisse der Klimamodelle, die das IPCC verwendet für seine maßgeblichen Klima-Zustandsberichte. Bei diesem Äpfel-mit-Äpfeln-Vergleich lag die historische Temperatur-Berechnung nahe der Mitte der Bandbreite von Berechnungen der IPCC-Modellkette.

Jedwede Forschung, bei der modellierte und gemessene Langzeit-Temperaturaufzeichnungen miteinander verglichen werden, könnte unter den gleichen Problemen leiden. Richardson sagte: „Forscher sollten sich darüber im Klaren sein, wie sie Temperaturaufzeichnungen verwenden um sicherzustellen, dass Vergleiche in Ordnung sind. Es sieht so aus, als ob Daten aus der realen Welt zeigen würden, dass die globale Erwärmung ein wenig geringer ausfallen würde als die Modelle prophezeien. Bei einem ordentlichen Vergleich verschwindet dieser Umstand zum größten Teil“.

Die NASA zieht den Blickwinkel aus dem Weltraum heran, um unser Verständnis über unseren Heimatplaneten zu verbessern, ebenso wie unsere Lebensumstände, und um unsere Zukunft sicher zu machen. Die NASA entwickelt neue Wege, um die Wechselwirkungen zwischen den natürlichen Systemen der Erde und langzeitlichen Datenaufzeichnungen zu erfassen und zu untersuchen. Die Agentur stellt dieses einmalige Wissen frei zur Verfügung und arbeitet mit Institutionen auf der ganzen Welt zusammen, um neue Einsichten darüber zu gewinnen, wie sich unser Planet ändert.

Mehr Informationen über die erdwissenschaftlichen Aktivitäten der NASA stehen hier: http://www.nasa.gov/earth

Weiteres: http://www.jpl.nasa.gov/news/news.php?feature=6576

Das Abstract der Studie lautet wie folgt:

Abgleich von Schätzungen der Klima-Reaktionen durch Klimamodelle und der Energiehaushalt der Erde

Klimarisiken nehmen mit einer Erwärmung der mittleren globalen Temperatur zu, daher ist das Wissen um die Stärke der zukünftigen globalen Erwärmung dazu gedacht, Politikern bessere Risiko-Abschätzungen für ihre Entscheidungen zu liefern. Die erwartete kurzfristige Erwärmung ist eingebettet in der ,vorübergehenden Klima-Reaktion‘ (transient climate response TCR), vormals definiert als die Erwärmung, die 70 Jahren einer Zunahme um jeweils 1% pro Jahr an CO2-Konzentrationen folgt, bis zu dem Punkt also, an dem sich der atmosphärische CO2-Gehalt verdoppelt hat. Studien auf der Grundlage des historischen Energiehaushaltes der Erde haben typischerweise geringere Werte der TCR ergeben als die Klimamodelle, was vermuten ließ, dass einige Modelle die zukünftige Erwärmung überschätzen könnten. Allerdings beruhen die Schätzungen des Energiehaushaltes auf historischen Temperaturaufzeichnungen, die geographisch unvollständig sind und Temperaturen auf dem Festland und Meereis mit der Wassertemperatur über offenen Ozeanen vermischen. Wir zeigen, dass es keine Beweise dafür gibt, dass Klimamodelle die TCR überschätzen, wenn deren Output in der gleichen Weise berechnet wird wie die auf Messungen beruhende HadCRUT4-Temperaturaufzeichnung. Die Modelle zeigen, dass die Erwärmung der Lufttemperatur um 24% größer ist, als es aus den gemessenen HadCRUT-Reihen im Zeitraum 1861 bis 2009 hervorgeht, weil Gebiete mit geringerer Erwärmung bevorzugt betrachtet wurden und sich Wasser weniger erwärmt als Luft. Mit der Korrektur dieser Verzerrungen und der Berücksichtigung größerer Unsicherheiten beim Strahlungsantrieb aufgrund jüngster Beweise kommen wir auf eine auf Beobachtungen gestützte Best Estimate der TCR von 1,66°C mit einer 5% bis 95%-Bandbreite von 1,0°C bis 3,3°C. Dies ist konsistent mit den Ergebnissen der Klimamodelle im 5. Zustandsbericht des IPCC.

Mehr: http://www.nature.com/nclimate/journal/vaop/ncurrent/full/nclimate3066.html (paywalled)

Offen gesagt, ich habe keine Ahnung, warum das NASA-Team damit fortfährt, ihre immer lächerlicher werdenden Adjustierungen der Messungen aus der realen Welt zu rechtfertigen – sie scheinen sämtliche Informationen, die zu brauchen sie glauben, aus ihren Computermodellen zu nehmen.

Link: https://wattsupwiththat.com/2016/07/24/nasa-global-warming-observations-need-a-further-19-upward-adjustment/

Übersetzt von Chris Frey EIKE




UN beschuldigt Deutschland, Großbritannien des „Verrats“ am Pariser Klimaabkommen

Ban Ki-moon’s Klimawandel Gesandte isoliert beide Länder wegen der Subventionierung der fossilen Brennstoffindustrie und sagt, das Vereinigte Königreich hat seine Position als Klima Führer verloren.

Mary Robinson, die ehemalige Staatspräsidentin Irlands und UN-Sonderbeauftragte für Klimawandel und El Niño, sagte sie muss es aussprechen, nachdem Deutschland Kompensation für Kohlekraft versprach und das Vereinigte Königreich Steuererleichterungen für Öl und Gas vorsieht.

 

Mary Robinson.

Die Regierungen in Paris sagten im vergangenen Jahr zu, nicht nur fossile Brennstoffe langfristig auslaufen zu lassen, sondern Finanzflüsse im Einklang mit der Reduktion der Treibhausgas-Emissionen zu lenken.

"Sie [die britische Regierung] haben neue Steuererleichterungen für Öl und Gas im Jahr 2015 beschlossen, die die britischen Steuerzahler zwischen 2015 und 2020 Milliarden kosten und zur gleichen Zeit beschneiden sie die Unterstützung für erneuerbare Energien und für Energieeffizienz", sagte sie dem [linksgerichteten] Guardian.

"Es ist bedauerlich. Das ist nicht im Sinne [von Paris]. In vielerlei Hinsicht war das Vereinigte Königreich ein wirklicher Führer [über den Klimawandel] und hoffentlich wird das Vereinigte Königreich wieder ein wirklicher Führer werden. Aber das ist es im Moment nicht. "

Lesen Sie mehr: https://www.theguardian.com/environment/2016/jul/18/un-criticises-uk-and-german-for-betraying-the-spirit-of-the-paris-climate-deal

Da Ban Ki-moon‘s Amtszeit als UN-Generalsekretär zu Ende geht, wird er ohne Zweifel über sein Vermächtnis nachdenken und wie die Historie sich an ihn erinnern wird. Bei gegebener Beschleunigung des Zusammenbruchs der politischen Klimabegeisterung in der ganzen Welt, lautet meine Vorhersage, dass Ban Ki-moon als Generalsekretär der Vereinten Nationen in Erinnerung bleiben wird, der dem Untergang der grünen Bewegung vorstand.

Erschienen auf WUWT am 18.07.2016

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2016/07/18/un-accuses-germany-britain-of-betraying-the-paris-climate-accord/

 ****

Die Entscheidungen in Deutschland und in Britannien haben in den Pro-Erneuerbaren Medien für Wirbel gesorgt.

Hier die auf WUWT angegebenen Pressestimmen:

Deutschland; Bericht in Energydigital

Deutschland will den Ausbau der Erneuerbaren dämpfen

Angela Merkel hat nach umfangreichen Gesprächen mit den Landesministern die Einführung [weiterer] erneuerbarer Energien abgebremst.

Die rasche Expansion der grünen Energie im Rahmen des Energiewende-Programms hat die Stromkosten hochgetrieben und eine hohe Belastung für das Versorgungsnetz in der größten Volkswirtschaft Europas aufgebaut. Im vergangenen Jahr lieferten erneuerbare Energien ein Drittel der gesamten Strommenge in Deutschland [– geglättet, aufs Jahr gerechnet-], bei 3.5GW neuer Onshore-Windkapazität.

Neue Beschränkungen werden [den weiteren Aufbau von] Onshore-Windkraft auf 2.8GW pro Jahr begrenzen. Auch der Photovoltaik wird eine Ausbaugrenze von 600 MW [Auch nur pro Jahr! ; der Übersetzer] auferlegt.

Deutschland Wirtschaftsministerium unterstützt die Energiekürzungen [eher die Verlangsamung des weiteren Ausbaus; der Übersetzer] und erklärt, dass der Ausbaus sauberer Energie verlangsamt werden muss, um Verbesserungen im nationale Stromnetz nachzukommen.

Einige Kritiker befürchten, dass die Kürzungen zu Arbeitsplatzverlusten im grünen Energiesektor führen und Deutschlands Fähigkeit hemmen, seine langfristigen Energieziele zu erreichen.

Bis zum Jahr 2025 will Deutschland 40 Prozent seiner Energie aus erneuerbaren Quellen gewinnen. Die vorgeschlagenen Kürzungen in der grünen Energieversorgung werden nun durch das Kabinett überprüft und werden voraussichtlich im nächsten Jahr Gesetz werden.

WUWT berichtet ebenfalls gesondert über Britannien

https://wattsupwiththat.com/2016/07/14/britain-abolishes-the-department-of-energy-and-climate-change/

 und zitiert: The Independent berichtet im Mainstream:

Die Entscheidung, die Abteilung für Energie und Klimawandel abzuschaffen wurde als "einfach nur dumm", "zutiefst beunruhigend" und "schrecklich" von Politikern, Aktivisten und Experten unterschiedlich verurteilt.

Einer von Theresa Mays ersten Handlungen als Premierministerin im Mai, war die Verantwortung für den Klimawandel in das neue Ministerium für Wirtschaft, Energie und Industrie-Strategie zu verlegen.

[Gleich] Montags warnten Regierungsberater vor der Notwendigkeit, dringend Maßnahmen zu ergreifen, um Großbritannien auf Überschwemmungen, Dürren, Hitzewellen und Nahrungsmittelknappheit durch den Klimawandel vorzubereiten.

Die Nachricht kam nach der Ernennung von Andrea Leadsom – deren erste Frage an die Funktionäre wieder zum Vorschein kam, als sie im vergangenen Jahr Energieministerin wurde: "Ist der Klimawandel real? – Sie wurde als neue  Umweltministerin ernannt.

Und nachdem der ehemalige Sekretär für Energie und Klimawandel Bernstein Rudd im November angekündigte, dass Großbritannien bis zum Jahr 2025 auf "Kohle verlassen wird", fragte Frau Leadsom später die Kohleindustrie, „mitzuhelfen, zu definieren, was das eigentlich bedeutet“.

Ausgewählt und übersetzt durch Andreas Demmig




Warum die Lämmer schweigen – sie sind einfach noch viel zu satt

Aber sind wir tatsächlich wegen einer menschengemachten Klimakatastrophe gezwungen, unsere westlichen Volkswirtschaften und damit unseren Lebensstandard durch eine Aufgabe unserer gegenwärtigen technologischen Basis zu zerstören? Der Mainstream der Klimawissenschaft verdächtigt Kohlenstoffdioxid (CO2) aus dem industriellen Verbrauch von fossilen Energieträgern, den natürlichen Treibhauseffekt soweit zu verstärken, dass die Erde schließlich unbewohnbar wird. Legionen von Klimaalarmisten, weltweit bezahlt mit Milliarden von Euros aus staatlichen Forschungsmitteln, von privaten Stiftungen und ökologischen NGOs, stützen die Wahrnehmung einer angeblichen Klimakatastrophe in der Bevölkerung und behaupten, ihre AGW-Theorie sei gesicherte Wissenschaft. In einer abartigen Verzerrung wissenschaftlicher Ideale fordern sie ein Ende der Klimadebatte und werden dabei von einer ideologisierten Mehrheit der Massenmedien unterstützt.

Unprofitable Wissenschaftszweige drängen sich an die Tröge des Klimawahns, Psychologen und Historiker publizieren eine wachsende Zahl von Veröffentlichungen, in denen der häretische Einfluss von unabhängigen Klimawissenschaftlern, sogenannten „Klimaleugnern“, auf die öffentliche Wahrnehmung einer Klimakatastrophe gegeißelt wird. Gegenwärtig wird von einigen Politikern sogar gefordert, die wissenschaftlichen Standpunkte solcher „Klimaleugner“ unter Strafandrohung zu stellen, um diese in der öffentlichen Diskussion mundtot zu machen.

Solche unabhängigen Klimawissenschaftler, mit abweichenden wissenschaftlichen Ergebnissen zum angeblich menschengemachten Klimawandel, arbeiten meist mit spärlichen Forschungsmitteln oder sogar ehrenamtlich. Aber anstelle einer offenen und fairen wissenschaftlichen Diskussion über ihre Erkenntnisse  werden sie üblicherweise persönlich diskeditiert, und der Klimamainstream versucht, sie aus der wissenschaftlichen Gemeinschaft herauszumobben.
Es sieht so aus, als wären der klimawissenschaftliche Mainstream und seine politischen Unterstützer vom Virus einer Gutmenschen-Korruption befallen, die von einem ökologischen kohlenstoff-freien Paradies auf Erden träumt.

Im Angesicht der geplanten Dekarbonisierung unserer Welt sollten wir nicht vergessen, dass sich im Laufe der kulturellen Evolution des Menschen die verfügbare pro-Kopf Energiemenge mehrfach drastisch erhöht hatte und unseren heutigen Lebensstandard erst ermöglicht:

  • Steinzeit (= kleine dörfliche Gemeinschaften):
    Die verfügbare pro-Kopf Energiemenge betrug etwa das 3 bis 6-fache des Grundbedarfs.
  • Zeitalter des Ackerbaus (=fortgeschrittene regionale Kulturen):
    Die verfügbare pro-Kopf Energiemenge betrug etwa das 18 bis 24-fache des Grundbedarfs.
  • Industriezeitalter (=globalisierte Welt):
    Die verfügbare pro-Kopf Energiemenge beträgt etwa das 70 bis 80-fache des Grundbedarfs.

Der industrielle Gebrauch von fossilen Energieträgern seit Beginn der Industrialisierung hat das Gesundheitswesen, die individuelle Lebenserwartung, unseren Lebensstandard, die Verfügbarkeit und die Qualität von Lebensmitteln, das Transportwesen, die Kommunikation und den allgemeinen technologischen Standard für jedermann nachhaltig verbessert.
Im Umkehrschluss heißt dass, unser gegenwärtiger Lebensstandard beruht zwingend auf der Nutzung fossiler Energieträger.

Das Prinzip der menschengemachten Klimakatastrophe kann jeder Laie ganz einfach verstehen: Je höher der atmosphärische CO2-Anteil steigt, umso höher wird die globale Durchschnittstemperatur. Folglich glaubt eine überwältigende Mehrheit der Bevölkerung in den Industrienationen, der Verbrauch fossiler Energieträger würde durch den verursachten CO2-Ausstoß zu einer Klimakatastrophe führen. Aber ist diese direkte Abhängigkeit zwischen Temperatur und atmosphärischem CO2-Gehalt wissenschaftlich wirklich bewiesen?

Die AGW-Theorie steht in fundamentalem Widerspruch zu diversen wissenschaftlichen und wirtschaftlichen Fakten:

(1) Die gegenwärtigen Klimamodelle können die tatsächliche Klimahistorie gar nicht abbilden: Aktuelle Klimamodelle sind nicht einmal in der Lage, den historisch gemessenen Temperaturverlauf bis zum Jahr 1850 korrekt zurückzurechnen. Diese Schwäche der Klimamodelle beweist, dass weder alle klimarelevanten Parameter, noch ihr tatsächlicher Klimaeinfluss und schon gar nicht die Interaktion dieser Parameter miteinander korrekt in die aktuellen Klimamodelle eingeflossen sind. Mit solchen Klimamodellen wird dann aber das zukünftige Klima bis weit in die Zukunft hinein hochgerechnet und die Politik beruft sich bei der vorgesehenen globalen Dekarbonisierung auf solche Modellergebnisse.

(2) Die Klimawissenschaften sind bis heute nicht in der Lage, den natürlichen und den angeblich menschengemachten Klimaantrieb zu trennen. Bis heute wurde eine solche quantitative Trennung beider Effekte nirgendwo veröffentlicht. Die meteorologischen Temperaturmessungen begannen um 1850, am Ende der „Kleinen Eiszeit“ und zu Beginn der Industrialisierung. Der Temperaturanstieg von der „Kleinen Eiszeit“ muss eine natürliche Ursache gehabt haben, denn diese „Kleine Eiszeit“ endete ohne jeden menschlichen Einfluss. Aber im Gegenteil, die Klimawissenschaft rechnet diesen Anstieg der menschengemachten Klimaerwärmung zu, obwohl der Temperaturanstieg viel schneller verlaufen ist, als die Entwicklung der Industrialisierung.

(3) Klimamodelle ignorieren den Einfluss von natürlichen solaren Zyklen auf das Klima. Die bekannten Zyklen (Schwabe, Hale, Yoshimura, Gleißberg, Seuss-de-Vries, Dansgaard-Oeschger, and Hallstatt)mit Perioden von 11 bis mehr als 2.000 Jahre sind in den computerbasierten Klimamodellen nicht enthalten. Die Klimawissenschaft argumentiert mit der geringen Veränderung der Solarkonstanten über solche Zyklen. Aber diese Zyklen waren vor der Industrialisierung die einzige Ursache für natürliche Klimaschwankungen in unserer aktuellen Warmzeit. Die Klimawissenschaft ignoriert die Ergebnisse von Svensmark, dass nämlich die Kerne zur Wolkenbildung aus der kosmischen Strahlung geliefert werden, die wiederum vom Magnetfeld der Sonne gesteuert wird. Dieser Effekt stellt eine natürliche Verstärkung der Strahlungsschwankungen unserer Sonne dar. Bei einer schwachen Sonne kann vermehrt kosmische Strahlung in die Erdatmosphäre eindringen und führt über eine verstärkte Wolkenbildung zu einer weiteren Abkühlung. Das CLOUD-Experiment am Züricher CERN Institut hat das herkömmliche Aerosolmodell für die Wolkenbildung in Klimamodellen um einen Faktor von einem Zehntel  bis einem Tausendstel reduziert und gleichzeitig die Wirksamkeit des Svensmark-Effekts bis zum Zehnfachen bestätigt.

(4) Die historisch gut dokumentierte Mittelalterliche Warmzeit (MWP), die der “Kleinen Eiszeit” vorausgegangen war, wurde im dritten Bericht des  IPCC (TAR 2001) von der Mann’schen „Hockeystick-Kurve“ unterdrückt, offenbar, um zur Stützung der AGW-Theorie ein konstantes vorindustrielles Klima auf dem Niveau der „Kleinen Eiszeit“ nachzuweisen. Diese „Hockeystickkurve“ wurde inzwischen zwar wissenschaftlich widerlegt, dient aber Klimaalarmisten immer noch als Argument für den menschengemachten Klimawandel, während die Mittelalterliche Wärme Periode von der Klimawissenschaft auf ein europäisches Phänomen herabgestuft worden ist.
Aber das Gegenteil ist der Fall: Die Auswertung von hunderten von wissenschaftlichen Veröffentlichungen weltweit  durch Lüning und Vahrenholt beweist, dass die mittelalterliche Wärmeperiode ein globales Ereignis war, das durch die Variabilität der Sonneneinstrahlung verursacht worden ist. Dadurch wird aber die Theorie vom menschengemachten Klimawandel existenziell in Frage gestellt. Online Atlas von Lüning/Vahrenholt.

(5) Die Klimawissenschaft verleugnet in ihren Klimamodellen die natürlichen Bahnschwankungen unserer Erde um die Sonne(Milanković-Zyklen), um ihren eingängigen linearen Zusammenhang zwischen Globaltemperatur und CO2-Gehalt der Atmosphäre aufrecht zu erhalten. Inzwischen reduziert die Klimawissenschaft die historische Klimaentwicklung sogar auf die zweite Hälfte des vergangenen Jahrhunderts, nur um CO2 als den angeblichen Hauptklimaantrieb zu stützen. Bereits im Jahre 1924 hatten Wladimir Köppen und Alfred Wegener, der Vater der modernen Plattentektonik, die orbitalen Milanković-Zyklen als Ursache der paläoklimatischen Schwankungen der vergangenen Eiszeitalter identifiziert und nachgewiesen.
Reprint des Buches “Die Klimate der geologischen Vorzeit” (Bornträger 1924) mit englischer Übersetzung.

(6) Eine wachsende Versauerung der Ozeane durch den vom Menschen verursachten CO2-Aussoß soll in Zukunft zu einer Einschränkung des marinen Artenreichtums führen. Erstens kann eine bestimmte Menge an CO2 entweder als klimaaktives Gas in der Atmosphäre wirken oder, gelöst in Meerwasser, zu einer Versauerung der Ozeane führen, aber nicht beides zur gleichen Zeit. Üblicherweise werden aber beide Effekte für sich mit dem gesamten anthropogenen CO2-Aussoß berechnet.
Zweitens sinkt die Lösungsfähigkeit von CO2 mit steigender Wassertemperatur. Je wärmer also das Meerwasser wird, umso weniger CO2 kann es aufnehmen und versauern. Der verzögerte Anstieg von atmosphärischem CO2 nach paleoklimatischen Temperaturanstiegen beweist diesen Zusammenhang und wird von Eiskernanalysen bestätigt.

(7) Ein globaler Meeresspiegelanstieg durch eine vom Menschen verursachte  Klimaerwärmung soll zu einem Verschwinden der pazifischen Inseln führen und Tieflandgebiete und Hafenstädte in aller Welt überfluten. Ein dramatischer Meeresspiegelanstieg von mehr als einhundert Metern ist ein natürliches Phänomen zu Beginn aller Warmzeiten. Die Existenz mariner Eismassen wird offenbar allein durch die Meerwassertemperatur bestimmt, während landgebundene Eismassen auf eine Veränderung der vertikalen geographischen Klimazonen reagieren. Die Durchschnittstemperaturen in zwischeneiszeitlichen Warmperioden schwanken üblicherweise um einige Grade und terrestrische Gletscher reagieren darauf mit natürlichen Vorstößen und Rückzügen. Aus den Alpen ist bekannt, dass Gletscher beim gegenwärtigen Abschmelzen Bäume aus der Mittelalterlichen Warmzeit freigeben, die damals dort natürlich gewachsen waren.
Was wir heute auf Grönland und der antarktischen Halbinsel beobachten, ist ein Gletscherrückzug in größere Höhenlagen, während die Eismassen auf dem antarktischen Kontinent weiter anwachsen. Satellitenmessungen der Meeresspiegelschwankungen im offenen Ozean sind sehr viel anfälliger für Fehler bei der Gezeitenkorrektur, Meeresströmungen, zusätzlichen  windgetriebenen Wassermassen und Meereswellen als feste Pegel an den Küsten. Diese konventionellen Pegelmessungen zeigen aber seit vorindustriellen Zeiten einen konstanten Meeresspiegelanstieg von einigen Millimetern pro Jahr. Ohne zielgerichtete Adjustierung historischer Messwerte wird sich dieser Trend sicherlich auch in Zukunft weiterhin so fortsetzen.

(8) Der „Stillstand“ des globalen Temperaturanstiegs, der inzwischen etwa 20 Jahre andauert, hat bereits mehrfach zu Korrekturen an den historischen Temperaturmessungen geführt. Verbesserte Klimamodelle verlagern diese „fehlende Wärme“ jetzt in die Tiefen der Ozeane. Offensichtlich hatten die Klimamodelle diesen Stillstand des globalen Temperaturanstiegs nicht abgebildet. Aber anstatt nun die Eingangsbedingungen der zugrundeliegenden Gleichungssysteme zu korrigieren, um die Modelle mit den aktuellen Messwerten in Übereinstimmung zu bringen, werden die Ergebnisse aktueller Klimamodelle dahingehend angepasst, dass sie zu den Vorhersagen veralteter Modellrechnungen passen.
Es bleibt die Frage offen, wie die „fehlende Wärme“ in tiefere Lagen der Ozeane entweichen konnte, ohne von dem weltumspannenden Messbojennetz ARGO bemerkt worden zu sein.

(9) Die Klimawissenschaften reduzieren die Auswirkungen einer globalen Klimaerwärmung auf dessen negative Folgen und veröffentlichen Horrorszenarien über einen Temperaturanstieg von 3 Grad bis zum Jahre 2100, während in jedem Winter tausende Menschen erfrieren. Für das Jahr 2014 wurde allein in Europa von etwa 40.000 Kältetoten berichtet, einfach weil diese Menschen ihre Stromrechnungen nicht mehr bezahlen konnten.

(10) Die Klimawissenschaft nimmt für sich in Anspruch, sie würde das Vorsorgeprinzip für die gesamte Menschheit verfolgen, indem sie den angeblich menschengemachten Klimawandel bekämpft. Die letzte große Klimaprophezeiung wurde von den wohlversorgten Propheten der Apokalypse rechtzeitig zum Pariser COP21-Klimagipfel veröffentlicht:
Der menschliche CO2-Ausstoß wird die nächste Eiszeit verhindern – in 50.000 Jahren! Ist es wirklich das Vorsorgeprinzip, eine gefährdete Eiszeit in 50.000 Jahren vor dem Menschen zu retten? Nein, das ist wahrhaftige Science-Fiction, wenn die Klimawissenschaft gesichertes paläoklimatisches Wissen über hunderttausende von Jahren ignoriert und auf der Datenbasis eines halben Jahrhunderts Spekulationen über eine in 50.000 Jahren ausfallende Eiszeit verbreitet. Mit dem Vorhaben, die Welt von ihren natürlichen Klimaschwankungen zu befreien, zerstören wir unsere Wirtschaft und die Zukunft unserer Kinder und Enkel. Und was ist mit den tatsächlichen Gefahren, die in Zukunft die Existenz der Menschheit bedrohen könnten, was ist mit Supervulkan-Eruptionen, Asteroideneinschlägen und der Abschwächung des Erdmagnetfeldes, was ist das Vorsorgeprinzip gegen diese sehr realen Bedrohungen?

(11) Erneuerbare Energien aus Sonnenstrahlung und Wind sollen die konventionelle Energieerzeugung ersetzen, um eine Klimaerwärmung durch CO2 zu vermeiden. Bisher kann solche erneuerbare Energie aber nur mit hohen Subventionen erzeugt werden, die direkt vom Verbraucher eingezogen werden, der wiederum einen Lebensunterhalt in einer mit konventioneller Energie betriebenen Industriegesellschaft verdient. Um unseren Lebensstandard zu erhalten, muss also nach einer globalen Dekarbonisierung der globale Energieverbrauch vollständig durch erneuerbare Energien gedeckt werden. Es werden in den Medien Zahlen verbreitet, die besagen, eine solche Dekarbonisierung sei bezahlbar und bis zum Jahre 2100 umsetzbar.
Aber diese publizierten Zahlen schließen nicht einmal die Kosten für die lebensnotwendigen Energiespeicher und die neuen Verteilungsnetzwerke ein, um bei nächtlicher Windstille die Versorgungssicherheit zu garantieren; und ebenfalls fehlen dort die steigenden Herstellungskosten für nahezu alle Produkte des täglichen Lebens. Durch diese steigenden Kosten, bei möglicherweise sinkenden Stückzahlen, werden durch fallende Löhne oder gar insgesamt weniger Beschäftigte die globalen Bruttoinlandsprodukte sinken. Die Frage ist, wer dann die steigenden Subventionen für erneuerbare Energien bezahlen soll.

(12) Der Landschaftsverbrauch in naturnahen Gebieten durch die Erzeugung von Solar- und Windenergie ist etwa 1.000- bis 10.000-mal höher als der Flächenverbrauch für konventionelle Kraftwerke. Es fragt sich, was die Dekarbonisierung der Welt aus unseren naturnahen Landschaften und den natürlichen Ressourcen unserer Erde machen wird.

(13) Gleichzeitig wird Druck auf die industrielle Landwirtschaft ausgeübt, sich auf eine ökologische Produktion ohne Kunstdünger und chemischen Pflanzenschutz umzustellen. Die landwirtschaftliche Erzeugung von Nahrungsmitteln steht bereits in Konkurrenz mit der Landnutzung für erneuerbare Energien. Durch die Einführung von Öko-Kraftstoffen, Stichwort E10, hat sich die weltweite Anbaufläche für Nahrungsmittel bereits verringert und Millionen Menschen zusätzlich leiden unter Unterernährung und Hunger. Die beabsichtigte globale ökologische Nahrungsmittelproduktion geht mit einem geringeren spezifischen Flächenertrag einher und dürfte daher den Ansprüchen einer wachsenden Weltbevölkerung in keiner Weise genügen.

Diese Zusammenstellung legt nahe, dass die Theorie vom menschengemachten Klimawandel auf falschen wissenschaftlichen Annahmen und wirtschaftlichen Spekulationen aufbaut.

Trotzdem verbreiten die Propheten des Weltuntergangs mit sehr unterschiedlichen persönlichen Motiven weiterhin ihre Weltuntergangs-Spekulationen und befeuern damit eine Massenhysterie gegen unser gegenwärtiges Wirtschaftssystem, das allein auf der Nutzung fossiler Energien basiert. Der religiöse Glaube an eine vom Menschen verursachte Klimaerwärmung ist ihre Waffe, um unsere gegenwärtige technische Zivilisation zu zerstören und die Menschheit in eine schöne neue kohlenstoff-freie Welt zu führen. Wir leben heute in einer neuen kulturellen Epoche, dem Anthropozän, in dem sich die fundamentalen Unterschiede zwischen wissenschaftlichen Fakten, persönlichen Meinungen und religiösen Gewissheiten zunehmend verwischen, während übersättigte Menschen ernsthaft glauben, sie könnten ihre Kuh schlachten und weiterhin deren Milch trinken. 

Das wirkliche Problem der Menschheit bleibt eine ständig wachsende Weltbevölkerung und deren ausreichende Versorgung mit Nahrungsmitteln und Energie sowie der Erhalt natürlicher Lebensräume, die das Erbe der gesamten Menschheit darstellen.

Die Armut in der Dritten Welt ist aber eine direkte Folge von Energiemangel und fehlender demokratischer Beteiligung. Der einzige Weg, der aus diesem Dilemma herausführt, ist eine Demokratisierung und wirtschaftliche Entwicklung dieser Gesellschaften. Eine solche Entwicklung würde ein weiteres Wachstum der Weltbevölkerung eindämmen, wie es der demographische Wandel in den Industrienationen im vergangenen Jahrhundert bewiesen hat. Während einer solchen Entwicklung kann der Verbrauch fossiler Energien in den Industrieländern unter Beibehaltung des gegenwärtigen Lebensstandards minimiert und der Schutz der weltweiten natürlichen Ressourcen sukzessive ausgeweitet werden.

Aber mit dem religiösen Glauben an eine menschengemachte Klimakatastrophe haben sich nun die gewählten und nicht gewählten politischen Führer dieser Welt, unterstützt von wissenschaftlichen Wahrsagern, indoktrinierten Massenmedien, religiösen Führern, mißgeleiteten ökologischen NGOs und malthusianischen Stiftungen entschieden, die Menschheit genau in die entgegengesetzte Richtung zu führen.

Ihr Fahrplan für die herbeigesehnte Dekarbonisierung der Welt bis zum Jahre 2100 wird eher über den Niedergang demokratischer Rechte in den Industrienationen zu einer nachhaltigen globalen Energieverknappung führen, die uns malthusianische Perspektiven für eine Globale Dritte Welt von ökologischen Biokleinbauern eröffnen mag. Oder um es weniger verklausuliert zu formulieren, in einer dekarbonisierten Welt werden die Menschen, unabhängig wie groß deren Zahl am Ende noch sein mag, zwölf Stunden am Tag in der Landwirtschaft arbeiten, um ein Viertel der gegenwärtig verfügbaren pro-Kopf Energiemenge zu erzeugen – gerade so viel wie einstmals in vorgeblich glücklicheren ökologisch-vorindustriellen Zeiten.

Und nun, während in Vorbereitung einer globalen Dekarbonisierung die Klimaideologen bereits weltweit ihre Messer wetzen, um die Menschheit aus diesem fossil befeuerten Paradies zu vertreiben, schauen die übersättigten Lämmer in den westlichen Industrienationen diesem Unterfangen gelassen wiederkäuend zu, als ginge sie das Ganze überhaupt nichts an…

Uli Weber ist Autor des Buches Klimahysterie ist keine Lösung.

Übernommen vom Die kalte Sonne Blog




Wann wird Afrika aufblühen und wohlhabend sein?


Afrika kämpft immer noch mit „Übergangsproblemen“, von Sklaverei und Kolonialismus hin zu Neokolonialismus und Öko-Imperialismus. Die Kriege dort und das Leiden werden niemals enden, solange es dort habgierige Führer gibt, die sich nur um ihre Familien, ihre Kumpel und Stammesmitglieder kümmern.

Der Kontinent verfügt über genügend natürliche Ressourcen, um Frieden, Gesundheit und Wohlstand für nahezu jeden zu bringen. Und doch fehlen 90% aller Afrikaner immer noch der Zugang zu Strom und grundlegenden Bedarfsartikeln, während korrupte Führer, welche helfen könnten, die Nationen zu transformieren, Milliarden unterschlagen und Eltern nebst Kindern hungernd und arm hinterlassen.

Von Ruanda und Liberia bis hin nach Sudan und Uganda erleben wir jeden Tag die schrecklichen Folgen von Krieg – verkrüppelte Menschen, verwitwete Frauen, verwaiste Kinder sowie gebrechliche alte Menschen, ohne Hände und Füße, mit Narben am ganzen Körper. Sie fristen ihr Dasein als Lumpensammler, brechen vor Hunger und Krankheit zusammen, während die Politiker immer reicher werden.

Derweil diktieren Umweltaktivisten, Westmächte und UN-Agenturen, welche Dinge wichtig sind – und benutzen diese, um uns arm und mittellos zu halten: Vom Menschen verursachter Klimawandel, kein Genfood, kein DDT zur Bekämpfung von Malaria, die Nutzung von Wind- und Solarenergie und niemals den Bau von Kohle-, Erdgas- oder Kernkraftwerken. Dies sind kriminelle Machenschaften, um uns unsere grundlegenden Rechte bzgl. bezahlbarer Energie, Arbeitsplätze und modernem Lebensstandard vorzuenthalten.

Anfang dieses Jahres sah ich in Südsudan tausende hungernde Menschen, die unter Kriegsverletzungen litten sowie unter Malaria, Meningitis, Hepatitis, Vitaminmangel und anderen Krankheiten. Hier in Uganda sehe ich Hunderte, die versuchen, diese Krankheiten, Herzattacken, Diabetes, Nierenversagen und Krebs zu überleben und sich davon zu erholen, obwohl sie kaum oder gar keine Medikamente bekommen und in Krankenhäusern, die schon zerfallen und nicht einmal Fenster oder eine sichere Versorgung mit frischem Wasser aufweisen, eine miserable Behandlung erfahren.

Im Januar 2015 besuchte ich das Mulago Hospital in Kampala. Dort war mein Freund und Mentor Cyril Boynes (Foto) in Behandlung wegen Nierenversagens nach einer Herzattacke. Die Ärzte und Krankenschwestern versuchten, ihn zu retten, aber ihnen standen nur eine alte, defekte Ausrüstung zur Verfügung, und ewig kam es zu Stromausfällen. Oftmals gingen dabei die Lichter aus, die medizinischen Geräte stellten ihren Dienst ein, und die Menschen starben, bevor der Strom wieder da war.

Für all jene, die nicht nach Europa zur Behandlung fliegen können, unterscheidet der Tod nicht zwischen arm und reich, zwischen Ugandern und Ausländern. Jedermann ist von den gleichen furchtbaren Mängeln und dem Fehlen von Medikamenten betroffen. In einer Welt mit so viel Geld, Technologie und Wissen gibt es keinen Grund, dass sich dieses immer weiter fortsetzt, Jahr für Jahr.

Bevor im Jahre 2013 der Krieg in Südsudan ausgebrochen war, gab es dort eine gewisse Stabilität und viele Nicht-Regierungs-Organisationen, Unternehmen wie Ford Motor Company, private Investoren und andere Geschäftsleute. Viele dachten, gute Profite zu erzielen, und einige waren erfolgreich.

Einige Menschen in Ostafrika, in Uganda, Kenia, Tansania, Ruanda, Burundi, Somalia, Kongo und anderen Ländern um Südsudan bekamen neue Gelegenheiten und Erfahrungen. Sie konnten ihre Familien ernähren, ihre Kinder zur Schule schicken, Arztrechnungen bezahlen und andere Ausgaben stemmen.

Aber heute herrscht dort Krieg und ökonomische Rezession; die Ölpreise sind kollabiert, und Ford und andere Unternehmen haben ihre Tätigkeit längst eingestellt und sind gegangen. Jetzt haben wieder etwa 80% der Menschen keine Arbeit. Ihre Familien sind wieder verarmt und hungern.

In Südsudan praktizieren die meisten Menschen immer noch eine primitive Landwirtschaft für den Lebensunterhalt. Einem Bericht des UN-Entwicklungsprogramms zufolge sind 90% der Landfläche Südsudans für Ackerbau geeignet, aber nur weniger als 5% werden auch bearbeitet. Ursache hierfür war, dass Öl die primäre Einkommensquelle des Landes war, aber auch der Kollaps der Wirtschaft, und nur wenige Landwirte verfügen über moderne Geräte, Dünger oder Saatgut, um Überschüsse zu erzielen.

Falls die Südsudanesen überhaupt elektrischen Storm haben, stammt dieser aus kleinen Dieselgeneratoren für Wohnungen, Geschäfte und Krankenhäuser. Das ist völlig unzureichend, nur zeitweise verfügbar, und es gibt fast keinen Strom außerhalb der Hauptstadt Juba und anderer größerer Städte. Auch haben nur sehr wenige Menschen Treibstoff für Motoren, für Autos oder landwirtschaftliche Fahrzeuge, und das Land ist zu groß, um von Hand oder durch Huftiere bearbeitet zu werden.

Wenn wir aufgefordert werden, „nachhaltig“ zu leben, und ausschließlich Wind- und Solarenergie sowie Biotreibstoffe, aber niemals fossile Treibstoffe zu verwenden, ist dies die Forderung, dass wir weiterhin Hunger und Tod in unseren armen Ländern akzeptieren sollen. Sie befeuern damit verzweifelte Menschen, furchtbare Dinge zu tun, um zu überleben, jeden Tag aufs neue.

Im Jahre 2006 traf ich im Mulago Hospital eine Frau, deren Sohn wegen Malaria im Sterben lag. Der Congress of Racial Equality [etwa: Kongress zur Rassengleichheit], dem ich angehörte, fragte sie, ob sie wüsste , dass DDT ein gutes Hilfsmittel zum Kampf gegen Malaria war, würde dieses Mittel doch Krankheitserreger tragende Mücken davon abhalten, in die Häuser zu fliegen. Sie erwiderte ja, aber „DDT ist schlecht für die Umwelt“. Also lehnte sie den Gebrauch ab.

Es ist verrückt, wie Lügen über diese Chemikalie Mütter dazu bringt, willentlich ihre Kinder sterben zu lassen, anstatt die Wohnungen zu besprühen. Malaria hat Millionen Menschen in Uganda getötet und ist nach wie vor die Haupttodesursache in Afrika. Über 1000 Babys und Mütter sterben jeden Tag an dieser Krankheit. Wir schützen die Umwelt vor imaginären Problemen und sterben an Krankheiten aus dieser Umwelt.

Welchen Nutzen hat es, eine Umwelt ohne Menschen zu haben, ohne mich und Sie?

Im Jahre 2010 wurden in Südafrika 32 Kohlebergleute erschossen. Sie hatten für mehr Lohn demonstriert, was jedoch die Minenbetreiber und die Regierung von Südafrika mit der Begründung ablehnten, dass sie es sich nicht leisten konnten – wegen der schlimmen Weltwirtschaftslage und niedrigen Kohlepreisen. Inzwischen hungern die Familien der Bergleute.

Unsere Regierung plant den Bau einer Pipeline vom westlichen Uganda nach Tansania. Das Projekt könnte über 15.000 Menschen in Lohn und Brot bringen. Zusammen mit anderen Ölgeschäften wäre sie ein Schub für unsere Wirtschaft und würde uns mehr unabdingbar notwendige Energie bringen. Aber einige Agenturen und Organisationen sind dagegen, weil dies „zur globalen Erwärmung“ beitragen würde, und sie würden lieber sehen, wenn wir arme Bettler beim Westen bleiben würden.

Genau wie diese „Umwelt“-Aktivisten, scheren sich afrikanische Führer nicht um das Wohlergehen ihrer Bürger. Sie sind inkompetent, habgierig, gefühllose Kriminelle, getrieben von Ideologien und einer Sucht nach Macht über Menschen.

Sie lieben ihre Armeen und ihre schnellen Autos, behandeln ihre eigenen Bürger wie Terroristen und haben unseren Kontinent betrogen. Die dringendsten und fundamentalsten Bedürfnisse und Sorgen der Menschen, die arbeitslos und hungrig sind oder Krankheiten und der Umwelt ausgeliefert sind, sind ihnen völlig egal. Es kümmert sie nicht, dass die meisten ihrer Bürger niemals sauberes Wasser, ein vernünftiges Zuhause, genug zu essen oder Strom auch nur für eine Glühbirne oder einen kleinen Kühlschrank haben.

Im Jahre 2007 organisierte Cyril Boynes einen 332 Kilometer langen Marsch von Menschen von Kampala nach Gulu in Uganda, um für die Verwendung von DDT zur Bekämpfung von Malaria zu demonstrieren. Dieses Jahr nahm ich an einem Marsch von Gulu nach Kampala teil, um an all jene zu erinnern, die unter dem langen Krieg mit der mörderischen Gottesarmee von Joseph Kony gelitten hatten; um meine Mutter zu ehren, die jeden Tag 20 Kilometer laufen musste, damit ihre Kinder essen und leben konnten – und um für Gesundheit und Wohlstand für unseren Kontinent einzutreten.

Wann wird jener Tag anbrechen? Wann werden Politiker und Aktivisten, die vorgeben, sich um die Armen dieser Welt zu kümmern, aufhören, über die globale Erwärmung zu schwadronieren, über Pestizide und GMO-Nahrungsmittel – und anfangen uns zu helfen, die Energie, Nahrungsmittel, medizinischen Einrichtungen, Technologien, Arbeitsplätze und ökonomisches Wachstum zu bekommen, die wir zur Verbesserung unseres Lebens brauchen?

—————————————–

Steven Lyazi is a student and day laborer in Kampala, Uganda. He served as special assistant to Congress of Racial Equality-Uganda director Cyril Boynes, until Mr. Boynes died in January 2015.

Link: http://www.cfact.org/2016/07/14/when-will-africa-get-healthy-and-prosperous/

Übersetzt von Chris Frey EIKE