1

Umweltaktivisten plädieren auf Meinungsfreiheit, damit sie nicht für Öko-Terrorismus angeklagt werden

„Earth First! kann nicht verklagt werden, weil es sich formaljuristisch nicht um eine Gruppe handelt„, so Rachel Meeropol, die Beraterin von Earth First! Journal, das Nachrichten über die sogenannten Öko-Kriege veröffentlicht. Sie behauptet, dass Klagen gegen ihre Organisation eingereicht wurden, nicht aus Sorge um geschäftliches Interesse, sondern lediglich um das Recht der Aktivisten auf freie Meinungsäußerung zu verletzen.

Screenshot der Webseite von http://earthfirstjournal.org/newswire/2018/01/08/call-for-submissions-for-the-earth-first-journal-spring-issue/

 

„Earth First! ist eigentlich keine Gruppe … Es ist eine Philosophie, eine Bewegung, also kann man keine Idee verklagen“, sagte Frau Meeropol während eines Greenpeace-Treffens am 30. Januar in einem High-End-Restaurant in Washington, DC. Ihre Gruppe wurde in den späten 1970er Jahren im Südwesten der USA bekannt, als sie direkte Aktionen gegen Firmen wie ExxonMobil und Shell initiierten.

Headshot-Rachel-Meeropol

Rachel Meerpol, Leitende Angestellte und Associate Director der juristischen Aus- und Weiterbildung. Quelle: Vorstellung der Mitarbeiter auf der offiziellen Webseite des Center for Constitutional Rights

[Die Vorgehensweise von Frau Meerpol, „alle Aktivitäten von Umweltgruppen fallen grundsätzlich unter Meinungsfreiheit“, findet man auch bei anderen Vorkommnissen / Anklagen, bei denen ihr Name auftaucht., Recherche des Übersetzers]

Die Gruppe antwortete nicht auf die Anfrage des Daily Caller nach einem Kommentar zur Gültigkeit der Forderung von Meeropol. Aber eine Analyse der Steuererklärungen ihrer Gruppe scheint ihre Argumentation zu widerlegen. Earth First! hat sieben Jahre lang Steuererklärungen eingereicht und verfügt über eine registrierte Arbeitgeber-Identifikationsnummer gemäß der Florida State Department Website. Damit ist es anfällig für Klagen.

Der Daily Caller nahm an dem Get-together teil, das formuliert wurde, um zu zeigen, wie Aktivisten Klagen von Energieunternehmen und Holzfäller [- Unternehmen] entgegenwirken können – Angriffe gegen Ölprojekte und Sägewerke haben einen fiebrigen Höhepunkt erreicht, während die Ölindustrie weiter boomt. Zwei Unternehmen haben die Gerichte genutzt, um gegen Meeropol, ihre Kollegen und andere Umweltschutzgruppen vorzugehen.

Die Energie- Transfer-Partner (ETP) haben gemeinsam mit der Holzfällerfirma Resolute Forest Products gegen Greenpeace und Earth First! geklagt. Gegen die Lügen der Aktivisten über verschiedene Projekte, um Verluste / Kosten für den Betreiber zu erzeugen. Greenpeace und Earth First! ermutigen auch Aktivisten, direkte Aktionen gegen Projekte zu starten, [unbeachtet dessen], ob sie den Gemeinden schaden und amerikanische Jobs kosten können, so ETP und andere.

Greenpeace gab in legalen Befragungen zu, dass ihre Kampagne zur Verunglimpfung eines in Kanada ansässigen Holzunternehmens auf „Übertreibungen“ und „nicht überprüfbaren Aussagen subjektiver Meinungen“ beruhte, die nicht wörtlich genommen werden sollten. Die Gruppe, die Resolute Forest Products 2012 ins Visier genommen hatte, gab zu, dass sie eine hitzige Rhetorik nutzte, die nicht sachlich war, um in ihren juristischen Auseinandersetzungen nicht für Schäden haftbar gemacht zu werden.

Greenpeace bezeichnete die Mitarbeiter von Resolute Forest Products als „Waldzerstörer“, die mit ihrer geschäftlichen Tätigkeit eine „Todesspirale für Karibus [Rentiere] und deren Aussterben“ verursachten, um damit das Unternehmen dazu zu bringen, sich den Forderungen der Umweltschützer zu beugen. Greenpeace hat sogar eine Webseite, in dem sie ihren Fall gegen Resolute auflistete und was das Unternehmen tun soll, einschließlich der Unterbrechung der Holzeinschlagsarbeiten.

ETP hat auch rechtliche Schritte gegen Greenpeace und Earth First! eingeleitet. Greenpeace und Earth First! stellten falsche Informationen über die Dakota Access Pipeline (DAPL) her, damit sie Spenden generieren und die Pipeline torpedieren konnten, sagte ETP letztes Jahr. Die Handlungen von Greenpeace und Earth First! verletzen auch die Gesetze gegen „organisierte Kriminalität“ des Bundes und der –Staaten.

„Die Angriffe waren kalkuliert und völlig unverantwortlich und verursachten enormen Schaden für Menschen und Eigentum entlang der Pipelineroute“, heißt es in der Erklärung der DAPL, die eine Reihe von Greenpeace’s schlimmsten Vergehen auflistet, darunter Vertragsverletzungen gegen  Indianische  Stammesländer und das Entweihen von heiligen indianischen Stätten.

Greenpeace und Earth First! gestanden ein, dass ihre Kampagne der ETP und den Finanzinstituten, die das Unternehmen unterstützen, Schaden in Höhe von mehreren hundert Millionen Dollar zugefügt habe, nach DAPL Aufzeichnungen.

DAPL argumentiert, dass die Behauptungen Anti-DAPL-Aktivisten zu der Annahme verleiten, dass das 3,8 Milliarden Dollar schwere Projekt, welches den Missouri in North Dakota untertunnelt, die  Stammesgebiete verletzt und möglicherweise die primäre Wasserversorgung des Standing Rock Sioux vergiften könnte, wenn die Leitung undicht wird.

Earth First! und Greenpeace argumentieren, dass ETP und Resolute Forest Products eine hinterhältige juristische Technik namens „Strategic Litigation Against Public Participation“ (SLAPP) [Strategischer Prozess gegen Beteiligung der Öffentlichkeit] verwenden, um die Rechte ihres Aktivisten-Netzwerks zu unterdrücken.

Unternehmen würden SLAPP nutzen, um kritische Reden und Interessenvertretung in Angelegenheiten des öffentlichen Interesses zu schwächen, argumentierten Diskussionsteilnehmer am Dienstag. Sie schlagen außerdem vor, dass Firmen den ROC-Ansatz (Racketeer Influenced and Corrupt Organization Act) als eine Art aktualisierte Version von SLAPP verwenden. [Gesetzt gegen kriminelle Vereinigungen, ursprünglich geschaffen gegen die Mafia]

„Das RICO-Statut erlaubt den Prozessbeteiligten, alle an einer Verschwörung beteiligten Personen in eine Klage einzubeziehen. Wenn die Zivilgesellschaft durch Koalitionen, die Ziele einer „kriminellen Verschwörung“ sein könnten, ihre Fähigkeit verliert, Macht aufzubauen, dann gewinnen die Unternehmen und unsere Demokratie, unsere Gemeinschaften und unser Planet verlieren“ so Greenpeace. [Trumps Rechtsanwälte versuchen, eine Umweltphilosophie nach dem Anti-Racketeering-Gesetze zu verklagen, Earth First! Webseite und

Zu o.g. Vorgang Resolute Forest Products vs. Greenpeace, berichtete der Daily Caller am 31.05.2016

 …  Resolute Forest Products (RFP) gibt an, Greenpeace hätte gefälschte und digital modifizierte Fotos fabriziert, um das Unternehmen zu schädigen und die Finanzierungs-Bemühungen zu erhöhen. RFP beschuldigt die Umweltgruppe, „konsequent auf sensationellen Fehlinformationen basiert zu sein, die nicht auf Tatsachen oder Wissenschaft ausgerichtet sind, sondern stattdessen starke Emotionen und damit Spenden erzeugen“.

Ironischerweise hat Greenpeace wiederholt die Bundesregierung aufgefordert, Ölfirmen und Organisationen, die die Risiken der Erderwärmung bestreiten, nach der gleichen RICO-Gesetzgebung anzuklagen. Insbesondere forderte der Medienbeauftragte von Greenpeace das Justizministerium auf, eine „breit angelegte“ Untersuchung durchzuführen, um „die Rolle von Unternehmen im Bereich der fossilen Brennstoffe, von Handelsverbänden und ThinkTanks zu untersuchen, die Zweifel an den Risiken des Klimawandels säen“.

Greenpeace und andere Umweltaktivisten trafen sich im Januar hinter verschlossenen Türen, um zu koordinieren, wie man Staatsanwälte am besten dazu bringt, ExxonMobil anzuklagen, weil sie angeblich die Öffentlichkeit über die globale Erwärmung Irre führen, heißt es im Bericht des Wall Street Journal vom April 2016.

 

Erschienen auf The Daily Caller am 03-02.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/02/03/environmentalist-earth-first-lawsuits-ecoterrorism/




Satelliten: Stärkster Temperaturrückgang in den Tropen seit Jahren

„Man beachte, dass die La Nina-Abkühlung in den Tropen jetzt auf die Troposphäre rückwirkt mit einer Temperaturabweichung von -0,12°C vom Mittel“, schrieben die Atmosphärenwissenschaftler John Christy und Roy Spencer. Sie archivieren Satellitendaten an der University of Alabama in Huntsville, Texas (UAH).

Satellitendaten, welche den Großteil der irdischen Atmosphäre vermessen, zeigen Temperaturanomalien, welche von 0,41°C im Dezember auf 0,26°C im Januar gefallen waren. Ursache der Abkühlung war ein La Nina-Abkühlungsereignis in den Tropen.

La Nina sorgte für einen Rückgang der Temperaturen in den Tropen von +0,26°C im Dezember auf -0,12°C im Januar, das ist der drittgrößte Rückgang der Temperaturen in den Tropen seit Beginn der Satelliten-Aufzeichnungen.

„Das letzte Mal, dass die Tropen kühler waren als derzeit, war im Juni 2012“, schrieben die Wissenschaftler. „Während der 470 Monate langen Satelliten-Aufzeichnungen war der Rückgang von 0,38°C der drittgrößte nach Oktober 1991 (0,51°C) und August 2014 (0,41°C)“.

Jetzt ansehen:

<iframe src=’//players.brightcove.net/5107476400001/B1xUkhW8i_default/index.html?videoId=5227161865001′ allowfullscreen frameborder=0></iframe>

[Falls das Einbetten nicht klappt, bitte in das Original klicken. Es ist KEIN Youtube-Video.]

La Nina setzte Ende 2017 in vollem Umfang ein, wobei kühlere Gewässer vor Südamerika die östlichen pazifischen Inseln erreichte. Es ist das Gegenstück zu Erwärmungsereignissen im Zuge eines El Nino.

Quelle: National Oceanic and Atmospheric Administration

Christy und Spencer weiter: „ Das letzte Mal, dass es auf der Südhemisphäre so kühl war (+0,06°C), war Juli 2015 (+0,04°C). Der lineare Temperaturtrend der globalen mittleren Temperaturanomalien in der unteren Troposphäre von Januar 1979 bis Januar 2018 bleibt bei +0,13°C pro Dekade“.

Link: http://dailycaller.com/2018/02/02/satellites-tropical-temperature-drop-la-nina/

Übersetzt von Chris Frey EIKE




Die Lösung des Lade­säulen­problems ist erfunden – der Strom radelt zum Auto

Dank moderner App kommt der Strom für Elektroautos per Fahrrad

Es ist einfach so: in Deutschland bleibt kein Problem lange ohne Lösung. Der deutsche Erfindergeist – so er ausreichend mit Fördermitteln gespeist wird – zieht alle Probleme immer wieder an seinen eigenen Haaren aus dem Sumpf.

Vor knapp einem Jahr berichtete der Autor über eine Innovation in der Schweiz
[3] EIKE 20.03.2017: Lastenfahrradchauffeur, der neue Zukunftsjob
welche die deutschen Städte im Flug erobert hat. Und nun sieht man die „Industrie 4.0“-Lösung davon in Berlin bereits als eigenständige Weiterentwicklung radeln: Der Fahrradtransport von Strom zum Elektroauto.

Bild 1 Mobile Chargery Funktion. Quelle: CHARGERIE: Homepage

Damit wurden schlagartig alle Sorgen über mangelnde Ladesäulen gerade in Ballungszentren, gelöst und der strikten, politischen Umsetzung zu 100 % Elektroautodichte alle Hindernisse aus dem Weg geräumt.

High-Tech kombiniert mit bewährter Dienstleistungsidee

Moderner und bequemer geht nicht.
Eine App, ein DV-technisches Bestell- und Bezahlsystem, zur Lieferung ein super-ökologisches Transportmedium, darauf eine Kiste mit modernsten Akkus, welche die einzige, bald nur noch geduldete Energieform „Strom (in Ah)“ direkt zum Kunden bringt. So löst man schon heute das Problem, auf der Straße keine Steckdose zu haben. Und billiger, als die bisher angedachten Ladesäulen ab ca. 25.000 EUR wozu man auch noch die Straße „aufbuddeln“ muss, ist sie auch. Der massenhaften Verbreitung kann nichts mehr im Wege stehen.
Man beachte auch einen bisher schmerzlich vermissten Vorteil: Der Strom „ruht“ nicht mehr die meiste Zeit nutzlos hinter einer Steckdose, sondern kommt zum Wunschtermin nur, wenn er wirklich gebraucht wird.

(Beschreibung auf der Homepage) [1] Wie funktioniert’s?
-Einfache Bestellung per Chargery App oder Anbindung an Ihr System
-Wunschtermin für die Ladung mitteilen
-Standort und Kennzeichen werden automatisch übermittelt
-Gesamter Vorgang wird durch uns abgewickelt

Kein Wunder, dass BMW bereits zu den Kunden gehört: [5] Zu den ersten Kunden zählt das Carsharing-Unternehmen DriveNow des Automobilherstellers BMW.

Vorteile, welche bisher unerreichbar waren

Beim Lesen der Vorteile (Bild 2) erkennt man sofort: Da wurde wirklich an alles gedacht.
Sogar scheinbare „Nebensächlichkeiten“, wie das Kernproblem des Strommixes, der wirklich GRÜNEN schlaflose Nächte durch unvermeidbare Mitverwendung falschen Stromes bereitet, kann man dank Transportkiste lösen. Der Autor denkt da gleich weiter und vergäbe Gutscheine, mit denen man sich den einzig wirklich reinen Strom als Kiste schenken und unter den Weihnachtsbaum legen kann. Oder reduzierte Varianten, mit denen das Mobile sicher GRÜN geladen werden kann (natürlich nicht mit UPS versendet, sondern ebenfalls per Fahrrad überbracht.
Das mit den speziellen Fahrradkurieren versteht er allerdings (noch) nicht: Sind das welche, die weniger Atmen gelernt haben, um ihren unvermeidbaren „Strampel-CO2-Ausstoß“ zu verringern?

Bild 2 Vorteile von Mobile Chargery. Quelle: CHARGERIE: Homepage

Kleine Anfangsprobleme sind unvermeidbar

Bild 3 Mobile Chargery Ladebox. Quelle: CHARGERIE: Homepage

Die Box hat laut Beschreibung eine Kapazität von 24 kWh [1]. Ein Elektrosmart hat 17,6 kWh und moderne Elektroautos sollen bis zu 60 kWh Akkukapazität bekommen [4].
Der Autor mag nicht immer alles „verulken“, aber er sieht da Probleme. Alleine um eine Straße mit zum Beispiel 100 Autos zu „versorgen“ muss eine wahre „Chargery Fahrradkurier Kuli Karawane“ tätig werden, welche zwischen Elektroauto und Aufladestation pendelt. Dabei „transradelt“ einer ca. 150 kg Zusatzgewicht. Das kostet Kraft und auch bei Mindestlohn Geld. Und nicht daran zu denken, die treten in eine Gewerkschaft ein und streiken, vielleicht sogar gerade dann, wenn über der Nordsee ein Sturm bläst und dieser reinste Ökostrom eigentlich „in die Töpfe“ fließen sollte [4].

Eine Auszeichnung dafür wäre doch wahrlich verdient

[5] … Für ihr umweltbewusstes Konzept einer mobilen Lademöglichkeit für Elektroautos wurde das Start-up Chargery für den Greentec Award 2018 in der Kategorie Mobilität nominiert. Die Greentec Awards sind eine internationale Preisverleihung für die weltweit innovativsten Projekte für Umweltschutz und Green Lifestyle. Natürlich hoffen die Gründer auf den Gewinn des Preises.
Und dürfen sich dann (so er gewonnen wird), mit anderen, „weltweit innovativsten Projekten“ wie nachhaltig hergestellten Kondomen präsentieren.

Bild 4 Homepage. Quelle: CHARGERIE: Homepage

Hinweis: Der Anlass zu diesem Artikel kam von Ruhrkultour Februar 3, 2018: [2] Fenster in eine neue Welt des Konsums
Dort lasen sich weitere Infos und Hintergründe erfahren.
[2] Stillstand in der geistigen Entwicklung
Das Augenmerk der Öffentlichkeit ist fälschlicherweise auf die Partei der Grünen gerichtet. Die Grünen inszenieren, experimentieren, provozieren, loten aus, was in der Gesellschaft politisch durchgesetzt werden kann und erfüllen damit die Funktion des Trendscouts und zugleich Trendsetters für Großunternehmen. Sie beherrschen vor allem durch eine vorgetäuschte Nähe zur Bevölkerung und ihr Repertoire an Mitteln der Werbung und Propaganda zurzeit die Kirchen, Gewerkschaften und Nicht-Regierungsorganisationen. Parteien, Medien, Verwaltungen und Verbände haben sich die Ideen der Grünen mittlerweile so sehr zu eigen gemacht, dass es nur wenig nennenswerten Widerstand gegen die menschenfeindliche Ideologie der “marktkonformen Demokratie” gibt.

Quellen

[1] CHARGERIE: Homepage

[2] Ruhrkultour Februar 3, 2018: Fenster in eine neue Welt des Konsums

[3] EIKE 20.03.2017: Lastenfahrradchauffeur, der neue Zukunftsjob

[4] EIKE 2. Januar 2018: Das Elektroauto erzeugt nur Gewinner – und man verdient sogar Geld damit

[5] Berlin BOXX: Mobile Ladestationen für Elektroautos




Über die Kosten von Offshore-Windparks

In der vorigen Woche warnte Lamprell Plc, eine internationale Konstruktions-Firma, die Märkte, dass man einen Verlust von etwa 80 Millionen Dollar erwarte (hier) hinsichtlich des Anteils dieser Firma an der Errichtung der ScottishPower Renewables, dem East Anglia ONE Offshore Wind-Projekt, welches gerade in den britischen Gewässern vor der Küste von Suffolk im Gange ist.

Der Verlust ist groß genug, um das Unternehmen insgesamt zu treffen, was auch unumwunden in der Ankündigung ausgesprochen wird, ebenso wie in der nachfolgenden Diskussion, um Marktängste abzumildern:

„Wie die Dinge laufen hinsichtlich des EA1-Projektes wird die Profitabilität der Gruppe im Jahre 2017 signifikant beeinträchtigt, wobei sich der Gesamtverlust des EA1-Projektes bis zur Vollendung auf etwa 80 Millionen Dollar belaufen wird. Die zusätzlichen Kosten des Projektes wurden verursacht durch eine Anzahl variabler Faktoren einschließlich Investitionen in weitere, nicht geplante Erweiterungen der Arbeitskräfte und der Ausrüstung ebenso wie bedeutende Zusatzkosten für Transport und Subunternehmer. In diesen vorhergesagten Verlust bzgl. des Projektes gehen noch nicht irgendwelche potentielle Abwicklungs-Kosten ein. Wir bleiben in konstruktiven Gesprächen mit unserem Kunden und sind zuversichtlich, dessen Erwartungen hinsichtlich der Lieferungsverpflichtungen zu erfüllen“.

Die Schwierigkeiten waren zwar kaum vorherzusehen, sind aber beileibe keine Überraschung. East Anglia ONE will 102 Windturbinen mit einer Gesamt-Kapazität von 714 MW liefern, was die Turbinen zu den größten derzeit verfügbaren Turbinen macht. Jede einzelne Turbine hat eine Kapazität von 7 MW, eine Höhe von insgesamt 197 Metern und einem Durchmesser der Rotoren von 154 Metern. Die Fundamente allein sind jeweils 65 Meter hoch und wiegen 845 Tonnen. Dies ist Bauingenieurswesen in einem extrem großen Maßstab und unter sehr schwierigen maritimen Bedingungen. Irgendetwas kann dabei immer schwer schief gehen und wird auch schief gehen (Daten von 4C Offshore.)

Eindeutig hat dies Implikationen für die Schätzungen der Kapitalkosten des Windparks, dem Vernehmen nach 2,7 Milliarden Pfund, aber die Größenordnung der Unterschätzung ist bis jetzt unklar. Lamprell ist nicht für das gesamte Projekt verantwortlich, sondern den Kosten nach vielleicht nur zu einem Viertel, und bislang hat noch kein anderer Subunternehmer Schwierigkeiten hinsichtlich dieses oder irgendwelcher anderer Projektes vermeldet. Aber der kürzlich erfolgte Kollaps von Carillion gibt Grund, sich zu fragen, ob Lamprell einfach nur ehrlicher ist als andere Unternehmen in diesem Bereich.

Tatsächlich war Carillion selbst bis zu seinem Kollaps ein bedeutender Teilnehmer am Offshore-Windsektor. Es war verantwortlich für die Front-End Engineering Design (FEED)-Studien hinsichtlich der Verkabelung der Offshore-Windparks und Anderes, was damit im Zusammenhang steht. Zum Beispiel war es vertraglich verpflichtet, die Netzanbindung zu konstruieren für das 1,3 Milliarden Pfund teure Rampion Offshore-Windprojekt (hier), ebenso wie für einen 30 Millionen Pfund-Vertrag bezüglich des Dudgeon Offshore-Windparks, welcher im November 2017 in Betrieb ging. Natürlich war Carillion auch in anderen Bereichen aktiv. U. A. war es involviert in drei großen Arbeiten für das nationale Netz (hier) einschließlich einer Netzverbindung für das Horizon-Kernkraftwerk in Wylfa. Eines der vielen interessanten Dinge, die sich aus der Carillion-Untersuchung ergeben könnten wird sein, ob eine aggressive und unrealistische Unterbietung der Netz-Infrastruktur in Relation zu Offshore-Windprojekten Teil der Schwierigkeiten war, und falls ja, was das für die allgemein optimistischen Abschätzungen der Kosten bedeutet, UK mit neuen Fernleitungen zu überziehen, um einen hohen Anteil an Wind- und Solarenergie aufzunehmen.

Es kann kein Zweifel daran bestehen, dass eine Unterschätzung der Kosten und damit ein unrealistisches Angebot ein drückendes und sehr reales Problem für Lamprell ist, so dass einige von dessen Anteilseignern, bisher nur eine kleine Gruppe, fragt, ob die Kapitalkosten für Offshore-Wind wirklich rückläufig sind (hier). Es wäre interessant zu erfahren, was ScottishPower Renewables daraus macht, aber vielleicht misst man dem dort nicht so viel Bedeutung bei. Wie das Beispiel der notwendigen Erwähnung „potentieller Abwicklungs-Schäden“ und der hoffnungsvollen Erwähnung „konstruktiver Diskussionen mit unserem Kunden“ seitens Lamprell zeigt, können Dinge wie Kostenexplosionen und verspätete Zulieferung, soweit es den Entwickler betrifft, die Probleme Anderer sein.

Link: https://www.thegwpf.com/lamprell-carillion-and-offshore-wind-costs/

Übersetzt von Chris Frey EIKE




In Zukunft sorgt die EU für die Sicher­heit von Deutsch­lands Stromver­sorgung

Der „Blick nach vorne“ soll die Fehler der Vergangenheit lösen

Auch wenn es nicht gesagt werden darf, machen sich unsere politischen Führungskräfte wohl doch Sorgen um das EEG [3]. Zumindest für ein Ministerium war es wohl der Anlass, darüber zu diskutieren und das Ergebnis in einer Publikation zu fassen [5].
Beschrieben ist darin, wie man mit „dem Blick nach vorne“ (wohl eine Anlehnung an Maos „großen Sprung nach vorn“ der im totalen Desaster endete) ein Problem lösen will, welches man selbst verursacht hat, dessen Ursachen – falsche Basisentscheidungen – aber nicht korrigiert werden dürfen.

BMWi Homepage: [5] „Strom 2030 – Langfristige Trends, Aufgaben für die kommenden Jahre“
Schon heute sind erneuerbare Energien unsere wichtigste Stromquelle. Spätestens 2050 wollen wir unser Land weitgehend mit sauberer Energie versorgen. Diese Modernisierungsstrategie nennen wir „Energiewende“. Mit der Energie wende beschreiten wir den Weg in eine sichere, wirtschaftliche und umweltverträgliche Zukunft der Energieversorgung und tragen damit zu Wachstum und Beschäftigung bei. Wir wollen die Klimaschutzziele erreichen und die Abhängigkeit von Öl- und Gasimporten vermindern …

Und wieder muss man daran erinnern: Der Hauptgrund ist alleine der sich selbst auferlegte – inzwischen hysterisch betriebene – Zwang zur CO2-Vermeidung (Frau Merkel und Frau Hendricks, ihr habt es angeordnet, wir folgen euch [6]) und die ebenfalls selbst veranlasste Abschaltung der grundlastfähigen, konventionellen Kraftwerke.

BMWi Strategiepapier Strom 2030

BMWi, Publikation: [1] „Strom 2030 – Langfristige Trends, Aufgaben für die kommenden Jahre“
Deutschland hat sich ambitionierte Ziele gesetzt: Bis zum Jahr 2050 wollen wir Treibhausgasemissionen weitgehend vermeiden. Auf diesem Weg ist die Zeit bis 2030 entscheidend. Mit „Strom 2030“ hat das BMWi daher den Blick nach vorne gerichtet und eine Diskussion geführt, welche energiepolitischen Aufgaben anstehen, um langfristig die Klimaziele zu erreichen und eine sichere und kostengünstige Stromversorgung zu gewährleisten.
Im Ergebnispapier „Strom 2030“ zieht das BMWi in Texten und Grafiken Schlussfolgerungen aus der Diskussion …

Diese Publikation liest sich (für den Autor) wie eine Weihnachtswunschkarte elektrotechnisch Unbedarfter, unter dem Einfluss daran partizipierender – ansonsten skrupelloser – Interessenvertreter.

In der Not wird fabuliert, zur Energieversorgung Deutschlands die EU verantwortlich zu machen …

In der erkennbaren Not wird zum Beispiel fabuliert, zur Energieversorgung Deutschlands die EU verantwortlich zu machen: Ein Wunsch, der dem Versuch, die EU in das EEG zu zwingen [9], diametral entgegensteht.
BMWi: [1] … Erzeugungskapazitäten in den Nachbarstaaten darauf zu überprüfen sind, ob sie im Ernstfall auch für die nationale Versorgungssicherheit grenzübergreifend zur Verfügung stehen …

… Wind ausgleicht und Wasserkraft Grundlast und Speicher ersetzt

Was trotz Aussagen angeblicher „Experten“ wettertechnisch nicht funktioniert: Der Windkraft Grundlastfähigkeit „beizubringen“ [5] [6], soll nun als Lösung im großen Stil „in den Sand gesetzt“ werden.
BMWi: [1]
… Wenn der Wind in Norddeutschland schwach ist, kann es etwa einen Ausgleich mit kräftigeren Windverhältnissen in anderen europäischen Ländern geben …
Dazu die Vorstellung, dass der Grundlast- und Speicherbedarf so nebenbei durch Wasserkraft gelöst werden könnte und das Ausland dafür bereitsteht.
… Die großen Wasser- und Pumpspeicherwerke in Deutschland, den Alpen und Skandinavien können den Strom bedarfsgerecht ein- und ausspeisen.

Zitate aus dem BMWi Strategiepapier

Die konkreten Ziele der Bundesregierung für den Energiesektor

… Bis 2050 sollen die Treibhausgasemissionen um 80 bis 95 Prozent im Vergleich zu 1990 und der Primärenergieverbrauch um 50 Prozent gegenüber 2008 zurückgehen.

Der Weg dahin: Mehr Wind und Sonne, mehr Flexibilität, mehr Europa

… Europäische Kapazitäten gewährleisten Versorgungssicherheit gemeinsam. Aus diesem Grund wird der Austausch von Strom zwischen den europäischen Staaten immer wichtiger. Deshalb müssen wir Versorgungssicherheit europäisch – und nicht mehr nur national – buchstabieren.

Strom aus Wind und Sonne senkt die CO2-Emissionen von Fahrzeugen, Gebäuden und Industrie

… Für Wärme, Verkehr und in der Industrie werden heute noch überwiegend fossile Energiequellen wie Öl oder Gas eingesetzt. Um unsere Klimaziele zu erreichen, ist es unerlässlich, dass auch diese Sektoren weniger CO2-Emissionen verursachen …

Stromnetze, flexible Kraftwerke, flexible Verbraucher und Speicher gleichen die wetterabhängige Einspeisung aus Wind und Sonne kostengünstig aus

Wie viel Strom aus Wind und Sonne zur Verfügung steht, hängt vom Wetter ab. Ihre Einspeisung schwankt deshalb im Tagesverlauf und innerhalb des Jahres. Trotz dieser Schwankungen muss die Stromversorgung immer sicher und bezahlbar bleiben – bei steigenden Anteilen erneuerbarer Energien eine zunehmende Herausforderung. Welche Möglichkeiten gibt es, die Schwankungen flexibel auszugleichen? Stromnetze sorgen dafür, dass etwa kostengünstiger Windstrom aus Nord- und Ostdeutschland oder Dänemark die Nachfrage in den großen Verbrauchszentren in Süddeutschland deckt. Großes Potenzial liegt zudem auf der Verbrauchsseite, die sich an die Schwankungen flexibel anpassen kann. Großverbraucher in der Industrie oder Kühlhäuser können – wenn es für sie betriebswirtschaftlich sinnvoll ist – bei einer Windflaute ihren Strombedarf verschieben. Daneben können auch flexible Kraftwerke und Speicher die Schwankungen ausgleichen. Die Kraftwerke reagieren flexibel und werden je nach Verfügbarkeit von Wind- und Sonnenstrom hoch- oder herunterfahren. Die großen Wasser- und Pumpspeicherwerke in Deutschland, den Alpen und Skandinavien können den Strom bedarfsgerecht ein- und ausspeisen.

Grüne Technologien „Made in Germany“ eröffnen Export- und Wachstumschancen

Die Energiewende eröffnet der deutschen Wirtschaft neue Chancen. Sie ist das Schaufenster für innovative, grüne Technologien aus Deutschland.

Europäische Märkte weiter integrieren und flexibilisieren

Mehr europäischer Wettbewerb an den Strommärkten sorgt für geringere Preise. Darum ist es richtig, die Integration des europäischen Stromgroßhandels zügig zu vollenden. Regionale Kooperationen bringen die Integration der europäischen Strommärkte voran. Flexible europäische Strommärkte reagieren auf die fluktuierende Einspeisung von Wind und Sonne. Wenn der Wind in Norddeutschland schwach ist, kann es etwa einen Ausgleich mit kräftigeren Windverhältnissen in anderen europäischen Ländern geben.

Versorgungssicherheit europäisch bewerten

In den letzten Jahren haben wir große Fortschritte bei der Bewertung von Versorgungssicherheit gemacht. Die zunehmende europäische Vernetzung macht klar: Rein nationale Analysen sind im Strom-Binnenmarkt nicht mehr zeitgemäß. Darum ist es konsequent, Versorgungssicherheit „state of the art“ zu bewerten, das heißt europäisch. Umgekehrt ist es aber auch so, dass in diesem Rahmen Erzeugungskapazitäten in den Nachbarstaaten darauf zu überprüfen sind, ob sie im Ernstfall auch für die nationale Versorgungssicherheit grenzübergreifend zur Verfügung stehen.

Forscher fordern Umerziehungsprogramme und staatliche Agenten

Man kann seelenruhig abwarten, wie die vom BMWi diskutierte EEG-Strategie an der Physik, am Wetter und an der EU scheitern wird und rigorose Maßnahmen erforderlich werden.
Nun ist nicht nur Deutschland verrückt geworden. Die Schweiz als Insel in der EU ist inzwischen auch vom Nachhaltigkeits- und damit auch dem EEG-Virus befallen. Und man lache nicht, Deutschland dabei in manchen Dingen schon voraus.
In der Schweiz wurde vorausschauend bereits das Thema „Energienot“ beleuchtet und nicht physische, sondern psychische Lösungen (mit bekanntem Strickmuster) gefunden (Anm.: Auf EIKE in [7] bereits kurz dargestellt).
Basler Zeitung 29.01.2018: [7] Das dicke Ende der Energiewende, Forscher, deren Arbeit vom Bund finanziert wird, fordern Umerziehungsprogramme und staatliche Agenten
Wie die über 550 zwischenzeitlichen Kommentare dazu zeigen, scheint es einigen Schweizer Bürgern nicht wirklich zu gefallen. Man kann aber davon ausgehen, dass sich damit ein Trend vorzeichnet, den China inzwischen begonnen hat:
Frankfurter Allgemeine: [8] Nationales Punktesystem : China plant die totale Überwachung,
und von dem unsere Politikkaste in Berlin zur „Rettung“ ihres EEG-Systems sicher Anleihen übernehmen wird.

Der Bürger hat gar kein Anrecht auf individuelle Energie

Vor allem das Postulat, dass der einzelne Bürger gar kein Anrecht auf individuelle Energie hat, öffnet den Weg für „Lösungen“ und ergänzt den Gedanken der „großen Transformation“:
EIKE 03.02.2017: Die große Transformation – wo sie heute schon gelebt wird! Oder..

Anbei Zitierungen aus dem Originalartikel der Basler Zeitung:
Basler Zeitung 29.01.2018: [7] Das dicke Ende der Energiewende,
… Vor wenigen Tagen hat nun eine Gruppe von Psychologen, Ökonomen und Marketingforschern ein sogenanntes Weisspapier veröffentlicht, in dem sie Empfehlungen geben, wie der Energiekonsum von Haushalten durch gezielte Beeinflussung der Bevölkerung verringert werden kann …
… Die bisher unternommenen Bemühungen zur Effizienzsteigerung reichen (…) nicht aus, um eine substanzielle Reduktion des Energieverbrauchs zu erzielen …
… Um die Ziele der Energiestrategie zu erreichen, seien darum Anstrengungen notwendig, «die weit über diejenigen hinausgehen, die bisher im Gesetz formuliert sind». Die Schweiz müsse auf «Reduktionsprogramme» setzen, wird im Papier gefordert. Es werden Möglichkeiten diskutiert, um die Bevölkerung zu manipulieren, damit sie Energie spart …
… Es gebe «Grenzen» punkto individueller Lebensweisen, denn die Energieversorgung sei «wenigstens partiell ein öffentliches Gut». Das legitimiere den Staat, auf eine Reduktion des Energieverbrauchs in den Haushalten hinzuwirken, steht im Papier …

Wer nicht schon reich ist, darf vom Staat daran gehindert werden, Begründung: Es macht nicht wirklich glücklicher

Basler Zeitung: [7] …Mit der Reduktion des Verbrauchs verringere sich «nicht zwingend» die Lebensqualität, schreiben die Autoren … Zudem zeige die Forschung, «dass ein Mehr an monetärer bzw. materieller Ausstattung ab einem gewissen Niveau die Menschen nicht wirklich glücklicher macht»…

Der Staat wiederholt es so lange, bis er es umsetzen kann

Basler Zeitung: [7] ..Vielleicht ist die Warnung der Gegner des Energiegesetzes, nach einem Ja könnte der energieintensive Import von Bananen verboten werden, doch nicht aus der Luft gegriffen.
Es handelt sich beim Weisspapier nicht um den ersten Versuch, die Umerziehung der Bevölkerung mit Bundesmitteln zu propagieren. Vor drei Jahren hat der Schweizerische Nationalfonds auf Geheiss des Bundesrats das millionenschwere Nationale Forschungsprogramm «Steuerung des Energieverbrauchs» (NFP 71) gestartet. Auch dort wird «erforscht», mit welchen Psychotricks die Bevölkerung dazu gebracht werden kann, Energie zu sparen. Es geht im NFP 71 unter anderem um Informationskampagnen, preisliche Anreize und den Einsatz von Gruppendruck.

Den Weg dahin zeigen unsere „Eliten“ ebenfalls bereits auf, beziehungsweise fordern ihn schon:
[4] EIKE: Den Klimaschutz vorantreiben und gleichzeitig den Industriestandort Deutschland stärken

Quellen

[1] BMWi, Publikation: „Strom 2030 – Langfristige Trends, Aufgaben für die kommenden Jahre“

[2] Basler Zeitung 29.01.2018: Das dicke Ende der Energiewende, Forscher, deren Arbeit vom Bund finanziert wird, fordern Umerziehungsprogramme und staatliche Agenten.

[3] EIKE: Zu viel Strom ist eines der Kernprobleme der Energiewende

[4] EIKE: Den Klimaschutz vorantreiben und gleichzeitig den Industriestandort Deutschland stärken

[5] EIKE 27.12.2017: Offshore lieferte jeden Tag Strom und onshore gab es im Jahr 2016 deutschlandweit keine einzige Stunde ohne Windstromerzeugung

[6] EIKE 11.01.2017: Der Wind weht überhaupt nicht immer irgendwo: Ein Nachtrag zum Märchen von der Wind-Grundlastfähigkeit

[7] EIKE: Schweiz: Das dicke Ende der Energiewende

[8] Frankfurter Allgemeine 22.11.2017: Nationales Punktesystem : China plant die totale Überwachung

[9] TICHYS EINBLICK 6. Januar 2018: Augen zu und durch EU – Energierat hat beschlossen: Planwirtschaft




Wissenschaftler klagt gegen die Universität, die Fakten als unkollegial beanstandete

Die James-Cook-Universität, an der Ridd arbeitet, schoss eine „finale Kritik“ gegen den Geophysiker, weil er in einem Interview mit Sky News im August nicht „kollegial“ nach den „Qualitätsstandards der Wissenschaft zum Great Barrier Reef gehandelt habe.

Dies ist nicht das erste Mal, dass Ridd  von der James Cook Universität getadelt wurde. Ridd ist kritisch gegenüber Wissenschaftlern eingestellt, die den „Tod“ des Great Barrier Reef aufbauschen. Aber diesmal kämpft Ridd zurück. [New York Times: Große Teile von Australiens Great Barrier Reef sind jetzt tot, fanden Wissenschaftler]

Lesen Sie auch: Universität zensiert Wissenschaftler, weil er die Fakten der Behauptung globaler Erwärmung überprüft:

Was war Ridds Verbrechen? Er fand heraus, dass zwei der weltweit führenden Organisationen, die Korallenriffe studierten, irreführende Fotografien benutzten, um zu erklären, dass die globale Erwärmung ein Massensterben der Riffe verursacht habe. Ridd wurde nicht belohnt, dass er die Fakten überprüft und die irreführenden Wissenschaftler bloßgestellt hat. Stattdessen tadelte ihn die James Cook Universität und drohte, ihn wegen der Infragestellung der Orthodoxie der globalen Erwärmung zu entlassen.

 „Diese Fotografien sind eine große Sache, da sie über das Internet gepflastert und sehr weit verbreitet sind, um [damit] Schadenersatz zu fordern“, sagte Ridd der australischen Zeitung The Weekend.

Ridd hat Klage gegen seinen Arbeitgeber eingereicht, argumentierend, dass sie seine akademische Freiheit verletzen. Ridd sagte, der Tadel sei „inakzeptabel“ und „verfalle angesichts meines Instinkts für Wahrheit und Ehrlichkeit und meiner akademischen Freiheit“ laut einer GoFundMe.com- Seite, um Geld für seinen legalen Kampf zu sammeln.

Die ganze Kontroverse begann im Jahr 2016, als ein starkes El Nino Erwärmungsereignis die Wassertemperaturen rund um das Great Barrier Reef anheizte und eine massive Bleiche verursachte, die sich über einen Großteil seiner nördlichen Regionen erstreckte.

Wissenschaftler, die das Riff studiert haben, kamen mit der Behauptung an die Öffentlichkeit, das von der Bleiche 93 Prozent des Riffs betroffen waren, und Folgestudien behaupten, 67 Prozent des nördlichen flachen Riffen wären gestorben. Die Berichterstattung in den Nachrichten erhöhte nur den Alarm und wies mit dem Finger auf die vom Menschen verursachte globale Erwärmung.

Das ARC (Australian Research) Center of Excellence für Korallenriff-Studien veröffentlichte einige der alarmierendsten Studien über das Riff, welche am häufigsten in den Medien erwähnt wurde. Der ARC-Riff-Experte Terry Hughes wurde in vielen Zeitungen zitiert, in denen vor den Auswirkungen der globalen Erwärmung gewarnt wurde.

„Der Klimawandel ist keine Bedrohung für die Zukunft“, sagte Hughes der New York Times im vergangenen Jahr. „Am Great Barrier Reef passiert es seit 18 Jahren.“

Ridd kritisierte die Qualität der ARC-Forschung in einem Interview mit Sky News im August 2017. Ridd war eingeladen, um ein Kapitel zu diskutieren, das er für das Buch „Climate Change: The Facts 2017“ hatte und das vom Institute of Public Affairs veröffentlicht wurde, eine australische Denkfabrik.

„Das grundlegende Problem ist, dass wir den wissenschaftlichen Organisationen wie dem Australian Institute of Marine Science nicht mehr vertrauen können, nicht einmal dem ARC Center of Excellence für Korallenriff-Studien. Vieles wird von diesen Organisationen veröffentlich, die Wissenschaft dazu ist weder richtig geprüft, noch getestet oder repliziert und das ist eine große Schande, weil wir wirklich in der Lage sein müssen, unseren wissenschaftlichen Institutionen zu vertrauen und die Tatsache ist, dass ich das nicht mehr kann „, sagte Ridd gegenüber Sky News.

„Ich denke, dass die meisten Wissenschaftler, die dieses Zeug ausstoßen, wirklich glauben, dass es Probleme mit dem Riff gib. Ich denke nur nicht, dass sie sehr objektiv in Bezug auf die Wissenschaft sind, die sie machen. Ich denke, sie sind emotional an ihr Thema gebunden sind und Sie wissen, dass Sie es ihnen nicht verdenken können, das Riff ist eine schöne Sache.“

Die James-Cook-Universität sagte, Ridds Kommentare verunglimpften den Ruf der Universität, obwohl kein einzelner Forscher erwähnt wurde, oder dass Ridd für die Schule arbeitete.

„Zu keinem Zeitpunkt in meinem Interview mit Sky News habe ich die Universität genannt, in der ich arbeite, oder einen meiner Kollegen. Ich habe auch keine Aussagen gemacht, die ich für unwahr halte“, schrieb Ridd auf seiner Fundraising-Seite.

Ridd sagte, seine Kommentare im Interview basierten auf der Peer-Reviewed-Forschung die er veröffentlicht und die von anderen Experten auf diesem Gebiet geteilt wird.

„Mein Interview drehte sich über die akademische Integrität und wissenschaftliche Forschung, die ich unter den Bestimmungen der intellektuellen Freiheit meines Arbeitsvertrags machen darf“, sagte Ridd.

Erschienen auf The Daily Caller am 01.201.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/02/01/peter-ridd-james-cook-university-great-barrier-reef/




Nach dem Diesel jetzt auch Benziner unter Beschuss

Die nächsten Fahrverbote drohen! Nicht mehr nur für den Diesel, jetzt sollen auch noch die Benziner dran glauben. Zwar nur solche mit sogenannter Direkteinspritzung, aber das haben mittlerweile fast alle Motoren. Die stoßen auch Abgase aus, die lebensgefährlich sein sollen. Deshalb: Stop! Fordert, na, wer schon? Am lautesten die Vertreter der Deutschen Umwelthilfe (DUH).

Die EU hat 2007 auch neue Abgasnormen für Benzinmotoren beschlossen. Sie tritt ab September dieses Jahres, 2018 in Kraft. Im Prinzip gelten dann für Diesel- und Benzinmotoren dieselben Werte für Partikel. Benzinmotoren durften noch das Zehnfache eines Dieselmotors aus dem Auspuff stoßen, jetzt nur noch 6 x 1011 Partikel pro Kilometer. Das sind sehr wenig Teilchen; so werden sowohl aus Diesel- als auch aus Benzinmotoren praktische keine Partikel mehr herauskommen. Solche Werte erreichen Benziner mit Direkteinspritzung in der Regel nicht.

Hintergrund: Auch in einem Benzinmotor findet eine Verbrennung statt. Auch dabei entstehen Abgase. Die Motorenbauer haben auch wie beim Diesel versucht, die Ausbeute zu erhöhen, also mehr Leistung aus dem Kraftstoff zu holen, um damit die Abgase zu reduzieren. Vorrangiges Ziel bei der Entwicklung von Motoren ist die Vermeidung von CO2, das in jenem menschengemachten Märchen von der menschengemachten Klimakatastrophe zum Schadstoff Nummer 1 erklärt wurde. Das hat zur Folge, dass andere Gefahrenstoffe erhöht werden.

Der Kraftstoff muss mit Luft in einem bestimmten Verhältnis vermischt werden. Nur dann zündet das Gemisch. Um noch sparsamer mit dem Kraftstoff umzugehen, also weniger CO2 auszustoßen, entwickelten die Konstrukteure eine Einspritzpumpe. Die bläst ein paar Tröpfchen Kraftstoff in den Brennraum; eine Zündkerze entzündet dann das Kraftstoff-Luft-Gemisch. Das funktioniert allerdings nur gut bei einem bestimmten Anteil von Kraftstoff und Luft. Zudem sitzt hinter dem Motor seit langem ein Katalysator, der die Abgase reinigt. Der aber arbeitet nur bei einem exakten Kraftstoff-Luft-Mischungsverhältnis (Lambda 1), sonst wird er zerstört.
Allerdings bleibt diesem Gemisch nicht immer genügend Zeit, damit alle Benzintröpfchen verbrennen. Die fliegen dann als Rußpartikel durch die Auspuffanlage ins Freie. Gerade bei höheren Drehzahlen werden auch mehr Rußpartikel ausgeblasen.Sie sollen sich in den Atemwegen festsetzen können. Eigene Untersuchungen, wie hoch die Belastung durch Partikel bei Benzinern in den Städten ist, gibt es bisher nicht oder sie sind nicht bekannt.

Diese winzigen Partikel kann man nur noch mit einem Partikelfilter auffangen, der ebenso wie der Katalysator im Abgasstrang sitzt. Anders als beim Dieselmotor gibt es hier nicht solch erhebliche Probleme, den Filter zu reinigen oder „regenerieren“.

Beim Dieselmotor wird in bestimmten Abständen die Temperatur im Partikelfilter erhöht, dabei verbrennen die eingesammelten Rußpartikel, der Filter wird wieder einigermaßen frei. Kurzstrecken sind allerdings Gift. Der Dieselfahrer muss also immer wieder auf die Autobahn, damit der Partikelfilter freigeblasen wird.

Solche Probleme hat der Partikelfilter für den Ottomotor nicht. Hier kommen die Abgase mit hohen Temperaturen aus dem Motor, der Filter soll sich selbst reinigen.

Bisher ist nur Mercedes auf die Bühne getreten und bietet seine S-Klasse serienmäßig mit Partikelfilter an. Hier spielen sowohl die Kosten als auch der Platz für den Einbau keine große Rolle. Erfahrungen bei anderen, vor allem kleineren Fahrzeugen liegen nicht vor. Zu erwarten ist aber, dass es auch wie beim Dieselmotor zu erheblichen technischen Problemen mit den entsprechenden Kosten führt.

Die Fahrzeughersteller rüsten ihre Fahrzeuge mit Partikelfiltern aus. Die Hersteller der Filter allerdings kommen mit ihrer Lieferung in der gewünschten Qualität nicht nach. BMW hat gerade die Auslieferung des M550i gestoppt, weil Motor und Filter zusammen nicht funktionieren. Doch erhebliche Zweifel tauchten schon in der heftigen Auseinandersetzung um die Dieselabgase auf, welchen Anteile sie am Feinstaub haben.

Nur ein geringer Teil der Feinstaubbelastung in den Städten stammt aus dem Verkehr, sagt jedenfalls das Umweltbundesamt in seinen Daten. In den Texterklärungen klingt das wesentlich dramatischer. Dieser sinkt ebenso wie die Stickoxide in den Städten erheblich, wie die Daten des Umweltbundesamtes zeigen. Sie belegen, dass der Verkehr nur zu einem geringen Teil am Feinstaubaufkommen beteiligt ist.

Prof. Matthias Klingner, Leiter des Fraunhofer-Instituts für Verkehrs- und Infrastruktursysteme (IVI) in Dresden, hat erhebliche Zweifel, woher der Feinstaub tatsächlich kommt. Er hat in seinem Institut jahrelang große Datenmengen von Messungen ausgewertet und festgestellt, dass es viele andere Einflussfaktoren wie zum Beispiel die Wetterlage gibt.

So kosten Wertvernichtung der Autos und Fahrverbote nur viel Geld, ohne dass sie viel nutzen. Es muss also dringend über andere Grenzwerte diskutiert werden, fordert Klingner. Klar ist, je weniger Feinstaub, desto besser. Die Frage ist jedoch, in welchem Verhältnis stehen Aufwand und Ertrag. Ist jene gigantische Wertvernichtung angebracht, die gerade stattfindet? Autos werden wertlos, weil vor allem Grüne, die sich derzeit in vielen Rathäusern eingerichtet haben, Verbotszonen ausweisen. Für Anwohner und Lieferanten eine unverträgliche Situation wie zum Beispiel in Hannover.

Ganze Stadtbereiche zu sperren, ergäbe unschöne Bilder, daher wenden die Verwaltungen Salamitaktik an: einzelne Teilbereiche zu sperren. In Stuttgart versuchen die Stadtverwaltung beispielsweise, Halteverbotszonen rund um U-Bahnhaltestellen einzurichten, damit Autofahrer nicht mehr mit dem Auto zur U-Bahn fahren, und dann weiter mit ihr in die Innenstadt. Klar, dass dafür auch Personal abgestellt wird, das entsprechend zu kontrollieren.

Wir sehen: Das Geschäftsmodell „Ausplünderung“ ist ergiebig. Jener dubiose Abmahnverein „Deutsche Umwelthilfe“ wird jetzt auch noch ausgerechnet von jenem zweifelhaften Verein unterstützt, der es mit seinen Manipulationen vor ein paar Jahren so übertrieben hatte, dass dieser hinten runterfiel. Der ADAC hatte bei seiner Wahl zum Autopreis „Gelber Engel“ kurzerhand die Stimmzettel der Leser manipuliert. Das ging über viele Jahre hinweg. Der Verein, der sich noch immer nicht von seinen Betrügereien erholt hat, will jetzt auch ein Wörtchen in Sachen „Auto und Umwelt“ mitmischen; noch reinere als reine Autos fordern, sprich am Auto-Bashing-Hype mit zu verdienen.

Mitverdienen wollen übrigens auch jene beiden Staatskabarettisten, die in der ZDF Sendung „Neues aus der“Anstalt“ so scheinbar kritisch grüne Propaganda verbreiten. Die angeblich so kritischen Staatslacherzeuger beweihräuchern den Chef der Umwelthilfe mit Sprüchen wie „Leute, die mit Engagement und Herzblut zur Sache gehen“. Die Anstalts-Propagandisten rufen die Bürger direkt auf: „Mit ein paar Euro ist man dabei.“ Geld her für die Umwelthilfe – wir vertreten Ihre Interessen.

Ob die Millionen von Autofahrern, die gerade fassungslos eine ungeheure Wertvernichtung ihrer Autos erleben müssen, dies auch so sehen, dürfte ziemlich zweifelhaft sein.

Der Beitrag erschien zuerst bei Tichys Einblick hier




Wer immer mehr versichert, muss auch mehr für Schäden bezahlen Extrem­wetter­daten Deutsch­land

BR24 04.01.2018 Versicherungen Rekordschäden durch Naturkatastrophen 2017
Die Branche muss aufgrund zahlreicher Naturkatastrophen Rekordsummen ausbezahlen. Das zeigt der entsprechende Jahresbericht des weltweit größten Rückversicherers, der Munich Re. 2017 war demnach das bisher teuerste Naturkatastrophenjahr für die Branche.
Und selbstverständlich fand der BR auch einen Klimafachmann, welcher sofort wusste, was die (wie immer gleiche) Ursache dafür ist.
Mojib Latif: „Man muss einfach die Statistik der vergangenen Jahre betrachten, wie sich die Gesamtheit der Extreme entwickelt hat. Da sehen wir einen eindeutigen Trend nach oben und das sagen uns auch die Klimamodelle, dass genau das passieren wird …

Dem Geschäftsergebnis der MuRe tut es wenig Abbruch

Bevor auf Extremwetterdaten eingegangen wird, anbei die „schlimmen“ Auswirkungen, welche diese „Rekordschäden“ auf die Geschäftszahlen der MuRe haben.

Bild 1 Darstellung der Aktionärsrendite der MuRe. Quelle: WIKIPEDIA

Bild 2 MuRe Operatives Ergebnis 2005 – 2016. Grafik vom Autor erstellt. Quelle operatives Ergebnis: WIKIPEDIA

Wobei das nächste Bild zeigt, warum es MuRe trotzdem so gut geht.

Bild 2.1 Schadenssummen weltweit (blau: versichert) 1980 – 2016. Quelle MuRe NatCat Viewer

Auch in Deutschland häufen sich die Klimaschäden …

Nun ist der BR nur ein Beispiel für die deutschen Medien. Auch die taz nahm die Pressemeldung der MuRe auf und erläuterte ihren Lesern den schlimmen Inhalt und traurigen Auswirkungen.
taz 4. 1. 2018: [4] Hohe Kosten durch Klimawandel Eine neue Normalität
Naturkatastrophen wie Hurrikans kosteten Versicherer im Jahr 2017 weltweit 135 Milliarden US-Dollar.
Auch in Deutschland häufen sich die Klimaschäden.
MÜNCHEN dpa … Der weltgrößte Rückversicherer sieht in den Naturkatastrophendaten zwar keinen Beweis, aber doch starke Indizien für die Auswirkungen des Klimawandels.

… während sie gleichzeitig unterdurchschnittlich sind

Dabei „zeigte“ die taz am Ende des Artikels, dass irgend etwas daran nicht stimmen kann.
taz 4. 1. 2018: [4] … In Deutschland waren Naturereignisse wie Stürme, Hagel und Starkregen 2017 für unterdurchschnittliche Schäden von 2 Milliarden Euro verantwortlich. Dies hat der Gesamtverband der Deutschen Versicherungswirtschaft (GDV) ausgerechnet. Laut GDV wüteten im vergangenen Jahr nur wenige, regional begrenzte Unwetter.

Bayerischer Rundfunk und M.Latif in der Apokalypse vereint

Im kürzlich erschienenen Artikel:
EIKE 31.01.2018: Endlosschleife Klimaangst
wurden anhand von Daten weltweit (wieder) gezeigt, dass es keine belegbaren Zunahmen von weltweit, klimawandel-bedingten, Extremereignissen gibt.

Während ein „Experte“ auf Nachfrage jedoch sofort die Antwort weiß:

Bild 3 BR24: [1] Zitat von Mojib Latif
muss ein Laie erst einmal die Daten nachsehen. Anbei ein Ergebnisauszug.

Extremereignisdaten Europa und Deutschland

Der DWD als ein Sprachrohr der sogenannten Klimawissenschaft, schrieb (was der Autor zugegebenermaßen auch gerne macht), eine reißerische Überschrift und dann einen anderen Inhalt. Er konnte nämlich keine wirklichen Extreme finden und beschränkte sich nach einer Listung der „üblichen“ Unwetter-Ereignisse auf eine ja nicht nachprüfbare Zukunftsaussage.
DWD 29.12.2017: Bilanz für 2017: Ein extremes Wetter-Jahr
Überdurchschnittlich warm und mit ungewöhnlichen Ausreißern. So lässt sich das Wetter 2017 zusammenfassen. Der Deutsche Wetterdienst geht davon aus, dass Deutschland in Zukunft häufiger Extremwetter erleben wird.

Temperatur und Niederschlag

Dass es in Deutschland nach der für die Agrarwirtschaft katastrophalen, kleinen Zwischeneiszeit, welche offiziell ungefähr um 1850 endete (in Wirklichkeit allerdings eher bereits um 1600 … 1700 [6]), zum Glück etwas wärmer geworden ist, dürfte Fakt sein.

Bild 4 Jahrestemperaturen Deutschland 1750 – 2017. Quelle DWD (Daten vom Autor als Grafik dargestellt)

Ob dies als Katastrophe, oder als ein Segen wirkt, hängt von der Betrachtungsweise ab:
EIKE 19.09.2016: Biobauern sind die größten Lebensmittel-Vernichter Ohne Klimawandel überlebt die Biolandwirtschaft ihre Ernteverluste nicht
EIKE 27.07.2016: Biobauern darben ohne Klimawandel (und extremen Subventionen) Bei der normalen Landwirtschaft hängt es von der Veranstaltung ab

Und wie sich „überdurchschnittlich warm“ zum Beispiel im besonders von der Hitze betroffenen Franken wirklich darstellt, zeigt eine private Wetterstation. Kann man vor solcher, „stetig fortschreitenden Überhitzung“ Angst bekommen?

Bild 5 Temperaturdaten einer privaten Wetterstation in Franken seit 2003 (Wochenauflösung). Quelle: Wetter Rosstal

Der DWD lebt auch immer mehr von seinem Wissen über die Zukunft, welches man ja immer genauer simulieren kann,
DWD 29.12.2017: Bilanz für 2017: … Die Meteorologen erwarten für die Zukunft mehr Extremwetterlagen. Vor allem heftige Niederschläge im Sommer seien zu befürchten. „Außerdem werden die Winter kürzer und nasser“, sagt DWD-Vizepräsident Paul Becker voraus …,
obwohl die Simulationsbilder eher belegen, dass schon der aktuelle Zustand von den Simulationen grandios verfehlt wird. Man kennt es aber von der Wettervorhersage: Mehr als 14 Tage vorhersagen, geht nicht (außer beim stabilen Sommerwetter im Mittelmehrraum), weil das Wetter unberechenbar ist, die nächsten 100 Jahre seien aber kein Problem, denn das Klima verhalte sich „stabil“ nach Algorithmen.
Frankfurter Allgemeine 18.03.2013: [7] Klimamodelle: Unsicherheiten : Wer die Welt simuliert, hat die Wahrheit nicht gepachtet

Bild 6 Deutschland Niederschlag Winter ab 1881. Quelle: DWD Klimaatlas

Bild 6a Deutschland Niederschlag Sommer ab 1881. Quelle: DWD Klimaatlas

Daten von Versicherungen

Ergänzend zum diesem Thema vorhergehenden Artikel:
EIKE 31.01.2018: [2] Endlosschleife Klimaangst,
anbei weitere, relevante Grafiken – diesmal mehr Europa betreffend – (fast) ohne Kommentar.

Bild 7 Weltweit Opferzahlen 1970 – 2016. Quelle: Swiss Re 2/2017: Natural catastrophes and man-made disasters in 2016: a year of widespread damages

Europa

Bild 8 Europa: Anzahl Sturm Schadenereignisse 1980 – 2015. Quelle: MuRe NatCat Viewer

Bild 9 Europa: Anzahl klimatologische Schadenereignisse 1980 – 2015. Quelle: MuRe NatCat Viewer

Deutschland

Immer neu fragt sich der Autor, wie Frau Umweltministerin Hendricks den (AGW-)Klimawandel „täglich spüren“ kann und die (ihr in nichts nachstehende) bayerische Frau Scharf, sogar „mit Händen greifen“.
Diese Personen müssen eine „besondere Beziehung“ zu ihm haben. Der Autor meint nämlich weiterhin, die Daten sprächen dagegen.

Bild 10 Deutschland: Anzahl Natur-Schadensereignisse 1980 – 2015. Quelle: MuRe NatCat Viewer

Bild 11 Deutschland: Anzahl extremer Fluten 1980 – 2015. Quelle: MuRe NatCat Viewer

Bild 12 Deutschland: Aktualisierung der Hochwassergefahren-Einstufung 2016. Quelle: GDV

Bild 13 Deutschland: Ernteschäden durch Wetterextreme 1990 – 2013. Quelle: GDV

Bild 14 Deutschland: Schadensaufwendungen 1990 – 2016. Quelle: GDV

Bild 15 Deutschland: Schadensaufwendungen durch Blitzereignisse und Überspannungen 2007 – 2016. Quelle: GDV

Leitungswasserschäden sind viel höher als die durch das sich schon immer verändernde Klima

Bei diesen Daten wundert es nicht, dass Leitungswasserschäden die deutschen Versicherungen viel mehr kosten als das Klima (sofern man die Kosten für Heizung nicht auch dem Klima zuordnet).

Der Autor hat aber noch keinen Bürgermeister gefunden, der öffentlich gegen Leitungswasserschäden „kämpft“. Für jedes Kilogramm CO2-Vermeidung „seiner“ Stadt oder Gemeinde (mit dem Geld der Bürger) kämpfen aber viele.

Bild 16 Deutschland: Verteilung Schadensaufwendungen 2014. Quelle: GDV

Lohnt“ es sich, wegen dem schlimmen Klimawandel vorsichtshalber „Selbstmord“ zu machen?

Immer wieder bleibt die Fragestellung, wo sich die „schlimmen Auswirkungen“ des AGW-Klimawandels zeigen. In Klimasimulationen „natürlich“. Jedoch weniger in wirklichen Daten:

Bild 17 Deutschland: Lebenserwartung 1971 – 2017. Quelle: GDV

Wer jedoch einen „Beleg“ möchte, dass es doch „sinnvoll“ sein könnte, kann einen solchen bei KLIMARETTER in der von dieser Homepage gewohnten, überaus „investigativen“, gruseligen Art nachlesen:

KLIMARETTER.INFO: [5] 2017: Der Jahresrückblick in Bildern
… Auch 2017 ist wieder ein Jahr der traurigen Rekorde. Den ersten gibt es schon im Januar: An beiden Polen ist die von Meereis bedeckte Fläche auf einen neuen Tiefstand gesunken, zeigt die Datenerhebung der US-Wetterbehörde NOAA … Der Eisschwund an den Polen ist so dramatisch, dass US-Forscher von der Arizona State University einen ungewöhnlichen Plan entwickelt haben, wie zumindest die Arktis „wieder vereist“ werden könnte. Zehn Millionen windbetriebene Pumpen sollen, so die Idee, im arktischen Winter Wasser auf die Eisdecke pumpen. Das Wasser würde gefrieren und damit die Eisdecke um einen Meter anwachsen lassen … würde man den Klimawandel in der Region quasi um 17 Jahre zurückdrehen, haben die Wissenschaftler errechnet. Die Kosten beziffern sie auf 500 Milliarden US-Dollar …

Hinweis: Die Idee zum Artikel und wesentliche Datenhinweise wurden von Kaltesonne übernommen:
Kaltesonne 29. Januar 2018: [3] Deutsche Naturgefahrenbilanz 2017 fällt mit 2 Milliarden Euro Versicherungsleistung erneut unterdurchschnittlich aus

Quellen

[1] BR24 04.01.2018: Versicherungen Rekordschäden durch Naturkatastrophen 2017

[2] Eike: EIKE 31.01.2018: Endlosschleife Klimaangst

[3] Kaltesonne 29. Januar 2018: Deutsche Naturgefahrenbilanz 2017 fällt mit 2 Milliarden Euro Versicherungsleistung erneut unterdurchschnittlich aus

[4] taz 4. 1. 2018: Hohe Kosten durch Klimawandel Eine neue Normalität

[5] KLIMARETTER.INFO: 2017: Der Jahresrückblick in Bildern

[6] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES2k

[7] Frankfurter Allgemeine 18.03.2013: Klimamodelle: Unsicherheiten(1) : Wer die Welt simuliert, hat die Wahrheit nicht gepachtet




Klimawissen­schaft und der Prozess orthodoxen Verstärkung

Als Beispiele relativ ausgewogener Kommentare zu diesem Punkt möchte ich hier zwei von einem Mann namens Steven Wangsness hervorheben. Auszüge:

Ich würde gerne wissen, warum 95% oder mehr der Klimawissenschaftler weltweit, von denen die meisten Benzinfahrzeuge fahren und möglicherweise Ölaktien besitzen, in eine massive, weltweite Konspiration verwickelt sind, um das Narrativ der globalen Erwärmung voranzutreiben. Welchen Anreiz gibt es für all diese vermutlich ganz normalen, gut gebildeten Leute, um sich in einem solchen verderblichen Betrug zu engagieren? …

Sie schreiben außerdem, dass Tausende von Ph.D.s auf der ganzen Welt in eine massive Konspiration verwickelt sind und dass nicht einer von ihnen ausgebrochen ist und den Betrug offengelegt hat.

Es scheint für Mr. Wangsness – und auch viele andere – einfach unvorstellbar zu sein, dass eine solche „Konspiration“ überhaupt zustande kommen kann. Aber dann denke man einmal an die Prozesse, mittels welcher Orthodoxien erzeugt und verstärkt werden. Es gibt viele, viele Beispiele unter den Menschen mit einer großen Anzahl von Menschen – sogar bis zu Milliarden – die bis ins Detail einem komplexen Glaubenssystem folgen, allgemein Orthodoxie genannt. Eindeutig ist, dass der Prozess auch spezielle Belohnungen oder Bestrafungen vorsieht, verhängt von den Betreibern der Orthodoxie. Aber ich habe den Eindruck, dass ein weit größerer Teil dessen, was Orthodoxien am Leben hält, der universelle Wunsch der Menschen ist, einfach akzeptiert zu werden. Wenn man nicht mit unserem offiziellen Glaubenssystem konform geht, werden wir Sie ächten!

Man denke einmal über das nach, was unzweifelhaft ein archetypisches Beispiel eines strikt durchgesetzten Orthodoxie-System ist, nämlich die katholische Kirche. Hier sollte ich erwähnen, dass ich als Katholik aufgewachsen bin. Ich habe nach wie vor viele Freunde, die praktizierende Katholiken sind, und ich respektiere sie sowohl als Mensch als auch für ihren Glauben. Ich habe auch Hochachtung vor der katholischen Kirche als Institution (nicht so sehr jedoch für das derzeitige Oberhaupt). Ich halte Katholiken nicht für dumm oder böse, nur weil sie sich der Orthodoxie der Kirche verschrieben haben. Aber hier haben wir – was absolut eindeutig ist und dem man zustimmen muss – eine irgendwie eigenartige Orthodoxie, der sich rund 1,2 Milliarden Menschen bis ins Detail verschrieben haben.

Die Bischöfe der Anfänge der katholischen Kirche kamen im Jahre 325 in Nicäa zusammen und vereinbarten etwas, das man Glaubensbekenntnis nennt und dass die fundamentalen Glaubensgrundsätze der Religion festlegt. Mit einigen kleinen Modifikationen in späteren Jahren (zumeist im Jahre 384) rezitiert jeder Katholik diese Liste der Glaubensgrundsätze in jeder Messe unter der Leitung eines Pfarrers. Glauben all diese Menschen wirklich jedes Detail dieser Festschreibung? Sie sagen mit Sicherheit, dass sie das tun, mindestens einmal pro Woche. Es ist eine grundlegende Erfordernis, wenn man praktizierender Katholik ist.

Für alle Nicht-Katholiken möchte ich hier einige Beispiele aus dem Glaubensbekenntnis nennen. Ich nenne auch den relevanten lateinischen Text ebenso wie die englische Übersetzung [die im Folgenden durch die deutsche Übersetzung ersetzt wird, Anm. d. Übers.]:

Ich glaube an den einen Gott“ (Credo in unum Deum). Das ist eine monotheistische Religion.

Oh, es ist aber ein Gott in drei Manifestationen, Heiligen Dreieinigkeit – Vater, Sohn und Heiliger Geist. Ist das ein Widerspruch? Wir alle stimmen überein, dass das nicht der Fall ist.

Der Sohn war ursprünglich „geboren von dem Vater (ex patre natum) zu einer Zeit „vor allen Zeiten“ (ante omnia saecula) durch einen Prozess beschrieben als „ohne Zeugung“ (genitum non factum).

Später wurde der Sohn „Fleisch“ ([flesh] incarnatus est) durch einen Prozess, in welchem der Heilige Geist eine Jungfrau befruchtet (de Spritu Sanctu ex Maria Virgine).

Der Heilige Geist „geht nicht nur vom Vater aus“, sondern auch vom Sohn. (Et in Spiritum Sanctum … qui ex Patre Filioque procedit). Das Diktum über den Heiligen Geist, der „auch vom Sohn“ ausgeht, ist die Grundlage der Spaltung zwischen der römisch-katholischen und der ost-orthodoxen Kirche. Der Osten besteht darauf, dass der Heilige Geist nur vom Vater „ausgeht“.

Es gibt noch viele andere Dinge. Versteht und glaubt jeder Katholik in vollem Umfang jeden dieser Grundsätze? Es spielt eigentlich keine Rolle. Als Belohnung, diesem Glauben regelmäßig Ausdruck zu verleihen, dürfen sie an dieser Religion teilhaben, einschließlich Mitglied in einer Gemeinschaft von Familien, Freunden und Gönnern zu sein, an Zeremonien und Sakramenten teilnehmen zu dürfen und des Versprechens eines glücklichen Daseins im Jenseits.

Die Belohnungen sind fast ausschließlich mentaler und geistiger Natur, nicht materiell. Und auf dieser Basis folgen ihr etwa 1,2 Milliarden Menschen. Im Falle der Pfarrer wird die Befolgung der Orthodoxie verstärkt durch eine Hierarchie, welche Zugang zu Arbeitsplätzen ebenso wie Beförderungen zu Bischöfen, Erzbischöfen usw. kontrolliert. Falls man eine Änderung des Glaubensbekenntnisses fordert, kann man kein Pfarrer sein. Punkt!

Die katholische Kirche ist ja nur ein Beispiel einer detaillierten Orthodoxie, der eine riesige Menschenmenge folgt. Der Islam ist ein anderes Beispiel vergleichbarer Größenordnung, aber ich kenne nicht die Details, welche die Muslime als ihre Orthodoxie festgelegt haben.

Jetzt wollen wir einmal die Prinzipien der Orthodoxie, nämlich Schöpfung und Durchsetzung [enforcement] auf den Bereich „Klimawissenschaft“ übertragen. Ein Kommentator zu Wangsness brachte es so auf den Punkt: „Die Antwort ist einfach. Man folge dem Geld!“ Ich sage nicht, dass da nichts dran ist, aber man beachte, dass im Falle der katholischen Kirche (und in dieser Hinsicht auch des Islam oder jeder anderen Religion) Geld wenig oder gar nichts damit zu tun hat, warum die Menschen ihr folgen, und das in riesigen Massen. Die Hauptfaktoren sind reiner Druck und Akzeptanz; ein weiterer Hauptfaktor ist der zwangsweise Ausschluss von Häretikern. Also überlege man sich, was einen umgibt, wenn man sich heute im Bereich „Klimawissenschaft“ tummelt:

Um überhaupt anfangen zu können, muss man einen Job an einer akademischen Institution bekommen. Falls dieser Institution bekannt wird, dass man auch nur geringfügig skeptisch bzgl. der „Klimawissenschaft“ ist, wird man als Häretiker gebrandmarkt und aller Wahrscheinlichkeit nach nie eine Anstellung bekommen.

Um in der Akademia voranzukommen, muss man Artikel in angesehenen akademischen Journalen veröffentlicht haben. Die prestigeträchtigsten Journale im Bereich Wissenschaft sind Science und Nature. Während der letzten Jahre wurden diese beiden Journale kontrolliert von Zeloten der globalen Erwärmung, die es sich zur zentralen Aufgabe gemacht haben zu verhindern, dass auch nur geringfügig skeptische Artikel im Bereich Klima veröffentlicht werden. Von 2013 bis 2016 war die Wissenschafts-Redakteurin von Science eine gewisse Marcioa McNutt. Sie veröffentlichte 2015 in ihrem Magazin ein Editorial, worin es über Klimawissenschaft heißt: „Die Zeit für Diskussionen ist zu Ende. Maßnahmen sind dringend erforderlich … Entwickelte Nationen müssen ihre Pro-Kopf-Emissionen aus fossilen Treibstoffen noch weiter reduzieren …“. Im Jahre 2016 wurde Mc Nutt zur Leiterin der National Academies of Science gewählt. Wie will man als junger, skeptischer Klimawissenschaftler gegen so etwas ankommen?

Weitere Beispiele einer rücksichtslosen Durchsetzung der Orthodoxie bzgl. Klimawandel in der akademischen Welt finden sich in einem Beiträgen hier und hier.

Aber an dieser Stelle kommt etwas Erstaunliches ins Spiel: Angesichts des unablässigen immensen Drucks, mit der Klimawissenschaft konform zu gehen und dem rücksichtslosen Ausschluss von Häretikern von Veröffentlichungen und von Auszeichnungen und Anerkennung in dem Bereich liegt das Level der Nachfolge der Klima-Orthodoxie unter den Menschen in relevanten Bereichen weit unter den 95%, die Wangsness erwähnt. Die immer wieder zu hörende Behauptung über einen „97%-Konsens“ unter den Klimawissenschaftlern hat seinen Ursprung in einem Artikel von Cook et al. 2013, was aber gleich darauf an vielen Stellen widerlegt worden ist, beispielsweise hier und hier.

Wenn Wangsness sagt, dass „keiner von ihnen ausgebrochen ist und den Betrug offengelegt hat“, dann hat er unrecht. Es gibt viele Top-Wissenschaftler in relevanten Bereichen wie atmosphärischer Physik und Meteorologie, welche ausgebrochen sind und täglich so laut es ihnen möglich war gerufen haben, dass hinter diesem Alarm gar nichts steckt. Erst im vorigen Oktober war ich involviert, einen Brief an die EPA zu schicken, unterschrieben von 65 Top-Wissenschaftlern, in welchem wir forderten, das „Endangerment Finding“ der EPA zu überarbeiten, und zwar wegen des Fehlens jeder wissenschaftlichen Grundlage für Klima-Alarm. Die Liste der Skeptiker unter den Spitzenleuten der Physik enthält u. A. die Namen Freeman Dyson („Meine erste Häresie lautet, dass all das Tamtam um die globale Erwärmung erheblich übertrieben ist. Hier stehe ich gegen die heilige Bruderschaft der Klimamodell-Experten und gegen die Masse der irregeführten Bürger, welche den von den Computermodellen prophezeiten Zahlen glauben“), sowie Will Happer von Princeton, Richard Lindzen vom MIT und Ivar Giaever vom RPI. Es ist unglaublich im Bereich Journalismus, dass ein relativ gut informierter Bürger wie Mr. Wangsness das nicht weiß.

Übernommen von: http://manhattancontrarian.com/blog/2018/1/14/climate-science-and-the-process-of-orthodoxy-enforcement

Video Michael Crichton:

https://youtu.be/MDCCvOv3qZY (wegen unklarer Urheberrechte hier nicht eingebettet)

Link des ganzen Beitrags incl. Video: http://icecap.us/index.php/go/new-and-cool vom 26. Januar 2018

Übersetzt von Chris Frey EIKE




US-Ölproduktion erreicht historischen Meilenstein – 10 Millionen Barrel pro Tag

Die US-amerikanische Energie-Informationsbehörde EIA [statistisches Amt]  berichtete, dass die Rohölproduktion 10.038 Millionen Barrel pro Tag erreichte und damit fast den „all-time“ Rekord von 10.044 Millionen Barrel pro Tag im November 1970 erreichte.

Das sind gute Nachrichten für Präsident Donald Trumps Agenda, die die „Energiedominanz“ der USA fördert. Trump hat die Auswirkungen seiner Rücknahme von Regulatoren in seiner ersten Rede zur Lage der Nation am 30.01.2018 angepriesen.

„Wir haben den Krieg gegen die Energie in Amerika beendet – und wir haben den Krieg mit sauberer Kohle beendet. Wir sind jetzt ein Exporteur von Energie in die Welt.“

Die Trump-Regierung hat die Vorschriften für die Energieproduktion gelockert und mehr Parzellen für Bohrungen angeboten. Die meisten Gewinne aus der Ölexploration entstanden jedoch aus Hydraulic Fracturing auf privaten und staatlichen Grundstücken.

[Da auf dieser Webseite ebenfalls gezeigt, hier die Erdgasproduktion]

Quelle aller hier gezeigten Grafiken: https://www.eia.gov/petroleum/production/#ng-tab

„Vor einem Jahrzehnt mussten wir netto 60 Prozent der Gesamtnachfrage noch einführen. Jetzt sind es nur 20 Prozent „, sagte der Ökonom Daniel Yergin gegenüber CNBC.“Die US-Ölproduktion betrug nur die Hälfte von dem, was sie vor einem Jahrzehnt während der Finanzkrise 2008 war. Aber die hohen Ölpreise 2008 waren auch der Katalysator, der die US-Industrie antrieb, neue Frackingtechnologien zu entwickeln, um Öl an Orten zu fördern, die früher als unmöglich dafür angesehen wurden. „

In nur wenigen Jahren sind die USA in der Lage, Saudi-Arabien als zweitgrößten Ölproduzenten der Welt zu überholen. Analysten gehen davon aus, dass die US-Ölproduktion nächstes Jahr 11 Millionen Barrel pro Tag übersteigen könnte. Die saudische Produktion liegt derzeit bei 10,6 Millionen Barrel pro Tag.

„Die USA könnten ihre Förderung bis Ende 2019 noch um mehr als 2 Millionen Barrel pro Tag steigern, von dem Niveau aus, wo wir heute sind“, sagte Yergin.

Erschienen auf The Daily Caller am 31.01.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/01/31/us-oil-production-10-million-barrels/

* * *

 

Weitere ausgesuchte Informationen der Energie-Informationsbehörde EIA

EIA prognostiziert in etwa gleich bleibende Rohölpreise und steigende globale Produktion bis 2019

In der Januar-Kurzfrist-Prognose wird angenommen, dass Rohöl der Sorte Brent im Jahr 2018 durchschnittlich 60 $ pro Barrel (b) und 2019 61 $ / b betragen wird, etwas höher als die 54 $ / b in 2017. In 2018 und 2019 dürfte die globale Ölproduktion etwas höher sein als der weltweite Verbrauch, wobei die US-Rohölproduktion stärker ansteigt als in jedem anderen Land.

… erwartet wird [daher], dass die … US-Benzinpreise in der Nähe des derzeitigen Niveaus bleiben werden. …. [unterhalb von 2,60 USD / Gallone (~ 68 ct /L) bis 2019 ].

 

EIA erwartet, dass die gesamte Produktion fossiler Brennstoffe in den USA in den Jahren 2018 und 2019 Rekordhöhen erreichen wird

In dem Januar-Kurzfrist-Energieausblick (STEO) in 2018 prognostiziert die EIA, dass die gesamte Produktion fossiler Brennstoffe in den Vereinigten Staaten im Jahr 2018 durchschnittlich 73 Billiarden britische Einheiten (BTU) erreichen wird, das höchste Produktionsniveau seit Beginn der Aufzeichnungen. EIA erwartet, dass die gesamte Produktion fossiler Brennstoffe 2019 einen neuen Rekord aufstellt, wobei die Produktion auf 75 Billiarden Btu steigen wird.

Fossile Brennstoffe umfassen trockenes Erdgas*, Rohöl, Kohle und Kohlenwasserstoffgasflüssigkeiten (HGL). Obwohl die EIA dazu tendiert, die Produktion fossiler Brennstoffe in physikalischen Einheiten wie Kubikfuß für Erdgas, Barrel für Öl und Tonnen für Kohle auszudrücken, ermöglicht die Angabe des Energiegehalts Vergleiche zwischen den Brennstoffarten.

[Trockenes Erdgas ist, was als „Erdgas“ (Methan) nachher genutzt wird. Alle sonstigen, mit-geförderten Stoffe sind entfernt worden.]

 

Bekannte und hinzugekommene Bundesstaaten mit Erdgasproduktion

Mittelblau          hinzugekommene Staaten

 

Ergänzung zu diesem Thema am 02.02.2018

Die britisch – holländische Royal Dutch Shell verdreifachte ihren Gewinn innerhalb einen Jahres: Shells Gewinne stiegen von 3,5 Milliarden US-Dollar im Jahr 2016 auf 12,1 Milliarden US-Dollar im Jahr 2017. Im vierten Quartal stieg der Gewinn von 1 Milliarde US-Dollar auf 3,1 Milliarden US-Dollar.

http://dailycaller.com/2018/02/01/shell-profits-triple-2017/

Davon berichtet gleichlautend finanzen.net

Bloomberg zeigt eine Balkengrafik, wonach Shell die höchsten Steigerungen ihrer Dividende gegenüber der Konkurrenz verzeichnet.

Darunter steht im Bericht: … Strategisch betrachtet ist Shell nach wie vor ein großes Öl- und Gasunternehmen mit einem geringen Anteil an erneuerbaren Energien. Sein Portfolio mag ein Goldesel für Dividenden sein, aber Shell muss [?] sich für den massiven Energiewandel neu positionieren. …

Das führt zur der Überlegung: Also, weil Shell  (bislang) keine Erneuerbaren Energien im Portfolio hat, gibt es viel Gewinn. Könnte es damit vorbei sein, wenn Shell sich der „großen Transition in erneuerbare Energien“ anschließt?!

* * *




Der Januar zeigt keine Klimaerwärmung

Laut Deutschem Wetterdienst – DWD – war der abgelaufene Januar mit einem Schnitt von 3,7 C der sechstwärmste seit den Temperaturaufzeichnungen 1881, wobei wir jedoch anmerken müssen, dass die Wetterstationen damals an ganz anderen und viel kälteren Plätzen standen. Im Folgenden wollen wir nun diesen Januar an verschiedenen Orten über die letzten 30 Jahre betrachten, denn 30 Jahre sind laut Definition die kleinste Klimaeinheit. Und schon über die letzten 30 Jahre zeigt sich für Deutschland Überraschendes:

Grafik1: Der Wintermonat Januar wurde überhaupt nicht wärmer in den letzten 30, bzw. 31 Jahren, trotz des sehr milden Januars 2018. Die Trendlinie zeigt eine deutliche Abkühlung. Seit 1988 fallen die Januartemperaturen in Deutschland. Der Januar wird kälter und nicht wärmer.

Und wie gegensätzlich sich die Januar- Temperaturen und die CO2- Konzentration entwickelt haben, zeigt die folgende Grafik am Beispiel der DWD- Station Erfurt/Weimar. Die Kohlendioxidkonzentration der Atmosphäre steigt, der Monat Januar wird hingegen leicht kälter.

Grafik 2: Januar- Temperaturentwicklung in Erfurt (316m) seit 31 Jahren. Um sie in einem Diagramm mit der CO2-Konzentration, welche von 350 ppm (1988) auf fast 410 ppm (Anfang 2018) am Mauna-Loa-Observatorium gestiegen ist, darstellen zu können, mussten Indexwerte berechnet werden. Den wärmsten Januar seit 1988 gab es hier 2007 mit +4,4°C, den kältesten 2010 mit minus 5,1°C.

Nun sind diese Messungen des DWD nicht wärmeinselbereinigt. Seit 1988 hat die Bevölkerung Deutschlands leicht zugenommen, vor allem aber wurde überall gebaut, täglich kommen fast 100 ha an Gebäuden und Straßen hinzu, Heizungen und Autos haben zugenommen und die gesamte in den Molekülen gespeicherte Wärme der fossilen Energieträger dient der Aufheizung der Städte und der freien Landschaft. Neuerdings heizen die „Erneuerbaren Energien“ der freien Landschaft kräftig ein, denn die Windräder verhindern, dass sich nachts eine bodennahe Kaltluftschicht bildet; tagsüber bremsen sie den kühlenden Wind in Bodennähe. Und die Solarpaneele der „Solarparks“ wandeln kaum 10% der Solarenergie in Strom um, absorbieren aber durch ihre dunkle Oberfläche fast alle übrige eintreffende Solarenergie, während die ungestörte, im Januar nicht selten schneebedeckte Landschaft fast alle Solarenergie reflektiert. In den Städten und Ansiedlungen bleibt kein Schnee mehr liegen, dafür sorgt auch ein immer besser funktionierender Winterdienst.

Diese schleichende, jährlich wachsende Zusatzwärme ist in den DWD-Messdaten verborgen. Könnte man Sie herausrechnen, also um einen Wärmeinselfaktor –WI- korrigieren, dann wäre die Abkühlung noch stärker. Die menschengemachte Zusatzwärme wirkt der Januarabkühlung entgegen, ohne diese Zusatzwärme würde die Trendlinie noch stärker fallen.

Wir fragen uns: Wie hoch ist diese menschengemachte Zusatzerwärmung im Zeitraum der letzten 30 Jahre? bzw. wie stark wäre die Januarabkühlung in Deutschland, wenn sich unser Land in diesem Zeitraum überhaupt nicht durch Menschenhand verändert hätte.

Um diese Frage zu beantworten, betrachten wir 2 Klimastationen. Die Zugspitze und Amtsberg im Erzgebirge. Deutschlands höchster Berg hat im Winter fast keinen WI-effekt, da die Besucher im kalten Januar ausbleiben. Wegen der vor allem in diesem Januar 2018 fast immer geschlossenen Wolkendecke über dem Flachland und dem starken Wind (ruhige, antizyklonale Wetterlagen, welche WI- Effekte begünstigen, gab es kaum), blieb auch die Erwärmung von unten, also über die Siedlungsheizung, weitgehend aus.

Grafik 3a: Und wie erwartet, ist der Januar 2018 auf der Zugspitze überhaupt nicht so mild wie im Flachland. Was aber mehr auffällt: Der Januar 2018 ist etwa gleich wie der Januar 1988. Insgesamt sinken die Temperaturen wie die Trendlinie deutlich zeigt. Innerhalb der letzten 30 Jahre war der Januar 2018 nur der elftwärmste.

Damit lag der Hochwintermonat nur um 1,5 Grad über dem Schnitt des Zugspitz-Betrachtungszeitraumes 1981 bis 2010, für das restliche Deutschland gibt der DWD den Monat auf seiner homepage mit 3,4 Grad „zu warm“ an.

Wir stellen fest: Die Januartrendlinie für die Zugspitze ist stark fallend. In der Höhe Deutschlands wurde es deutlich kälter in den letzten 30 Jahren. Die Trendlinie zeigt eine Abkühlung von deutlich über 2 Grad.

Über einen Leser haben wir den Zugriff auf die Station Amtsberg am Fuße des Erzgebirges erhalten. Glücklicherweise scheint dort die Zeit seit fast 30 Jahren stehen geblieben zu sein, so dass wir die Station als fast WI-frei und in einer größeren Umgebung als fast unbeeinflusst bezeichnen können. In der folgenden Grafik sehen wir den Januarverlauf der DWD-Stationen und Amtsberg im Vergleich zueinander.

Grafik 3b: Bei der fast WI-freien Station Amtsberg (blau gezeichneter Temperaturverlauf) am Fuße des Erzgebirges in der Nähe von Chemnitz sehen die letzten 30 Januarmonate ähnlich aus wie die DWD-Grafik, die Trendlinie ist jedoch stärker fallend als beim DWD-Gesamtschnitt. (negativere Steigungsformel)

Es gibt zu den DWD-Werten für Gesamtdeutschland jedoch zwei Unterschiede:

  1. Der Monat Januar ist gegenüber dem Deutschlandschnitt etwa um 1 Grad kälter.
  2. Die Trendlinien gehen auseinander, der Januar kühlt in ländlichen Gebieten stärker ab als in größeren Ansiedlungen oder gar Städten.

Das führt im Endeffekt dazu, dass die Trendlinie von Amtsberg fallender ist als die von Deutschland. Wie aus der Grafik 3b ersichtlich, wurde der Januar in Deutschland kälter, aber in Amtsberg noch kälter. Der Unterschied der beiden Trendlinien ergibt eine Größenabschätzung auf den Januar-Wärmeinseleffekt für Deutschland in den letzten 30 Jahren.

Überschlag: Die DWD-Trendlinie ist um 1 Grad gefallen, die von Amtsberg fast um 2 Grad. Demnach beträgt der WI Deutschlands für den Monat Januar über die letzten 30 Jahre fast ein Grad, wobei anzumerken ist, dass der Vergleich einer einzelnen Station mit dem „Rastermittel“ des DWD nur grobe Hinweise liefern kann.

Dieser Betrag entspricht etwa dem, den Raimund Leistenschneider aus seiner statistischen Erhebung mit 0,6K für die letzten 35 Jahre für die DWD-Jahresmittelwerte errechnet hat.

Fehlerabschätzung: Nun könnte man natürlich einwenden, dass es sich nur um den Januar handelt, und in diesem Monat wird besonders viel geheizt, ebenso verbrauchen die Autos 30% mehr Sprit und der Stromverbrauch liegt im Januar ebenfalls um 50% höher als in den Sommermonaten. Und jedwede Energie wird am Schluss als Wärme in die Landschaft freigesetzt. Haben wir durch die Auswahl des Monates Januar also cherry- picking betrieben?

Auch lassen wir den Einwand zu, dass sich das Erzgebirge in den letzten 30 Jahren mehr abgekühlt haben könnte als das restliche Deutschland. Trotzdem waren wir bei unserer Arbeit selbst überrascht, dass sich der in den deutschen Daten versteckte, schleichend anwachsende WI-effekt auf so einfache Weise zeigen lässt, und dass unsere bislang angegebene Größenordnung des WI stimmt. Der DWD gibt inzwischen längst zu, dass seine erhobenen Daten nicht wärmeinselbereinigt sind.

Und wer von den Lesern zum ersten Male von unserem WI-Korrekturfaktor hört und nur staunt, dem sei lediglich gesagt: Dass man die Temperaturen von heute und von früher nicht direkt vergleichen kann, da sich die Umgebung der Stationen durch die menschliche Bebauung wärmend verändert hat.

  1. Ab 20 Jahre Zeitdifferenz braucht man einen WI-Korrekturfaktor.
  2. Der WI-Korrekturfaktor ist umso höher, je größere Zeiträume man betrachtet.

Wir möchten abschließend aber auch betonen, dass die Leiter der Wetterstationen zuverlässig arbeiten, ihre erhobenen Daten sind nicht anzweifelbar. Diese und der DWD in Offenbach können nichts dafür, dass sich Deutschland laufend durch menschliche Eingriffe wärmend verändert. Umso größer dürfte die Überraschung sein, dass der Monat Januar sich trotz dieser WI-Zusatzwärme seit 30 Jahren deutschlandweit sogar abkühlt.

Ein Blick über den Ozean:

Auch an anderen Orten der Nordhalbkugel gibt es die Wärmeinselproblematik; und an wärmeinselarmen Stationen zeigen sich Abkühlungstendenzen. Weil bis Redaktionsschluss nicht alle internationalen Januar- Werte für 2018 vorliegen, endet die folgende Grafik mit 2017.

Grafik 4: Die abseits bei einer Farm in Virginia gelegene Enterprise Dale-Weather Station zeigt ebenfalls eine deutliche Januarabkühlung. Im Gegensatz dazu wurde der Januar im gleichen Zeitraum in der Bundeshauptstadt Washington kaum kühler.

Wobei anzumerken ist, dass der Januar 2018 bei Dale Enterprise, also bei der isoliert stehenden Farm in Virginia bitterkalt war und die grüne fallende Trendlinie bestätigen wird. (Grafik endet 2017)

Der Vollständigkeit halber sei erwähnt, dass in Zentralengland, Nordjapan und Mittelschweden ebenfalls eine Januar- Abkühlung seit 30 Jahren zu beobachten ist. In anderen Teilen der Welt kam es in diesem Januar 2018 zu neuen Kälte- oder Schneehöhenrekorden. Darüber wurde sogar kurz in den Medien berichtet; in Deutschland ehr lustlos, denn den hierzulande meist links- grünen Journalisten passen Nachrichten über mehr Kälte und Schnee nicht ins Konzept. Betroffen waren außer Nordamerika auch Sibirien, Zentral-, Süd- und Ostasien. Näheres dazu unter anderem hier

https://www.iceagenow.info/massive-snow-dump-iran/ hier https://www.iceagenow.info/lowest-temperature-ever-recorded-bangladesh-history/ und hier https://eike.institute/2018/01/21/sind-ihnen-die-tage-zurzeit-zu-kalt-dann-lesen-sie-hier-etwas-ueber-sibirien/ . Das „Zu wenig Winter“ bei uns heuer in Deutschland bedeutet eben ein „Zu viel Winter“ andernorts. Schuld sind die Zirkulationsverhältnisse, welche Kälte und Wärme ungleich verteilt haben.

Wir fordern unsere Leser auf, anhand unserer Grafiken den Medien vor Ort mitzuteilen, dass der Monat Januar nicht wärmer, sondern seit 30 Jahren kälter wird und dass die Klima-Abkühlung des Monates Januar viel größer wäre, wenn man die schleichend wachsende Zusatzwärme aus den DWD-Daten heraus korrigieren würde. Das zeigen die Januardaten der Zugspitze oder die Daten ländlich geprägter Stationen.

Zusammenfassung:

Die Januartemperaturen sinken seit gut 30 Jahren. Der CO2-gehalt der Atmosphäre steigt. Somit verhalten sich CO2 und Temperaturen gegensätzlich zueinander. Aus der Statistik könnte man allenfalls schlussfolgern, dass ansteigende CO2-Konzentrationen zu Temperaturabkühlungen führen.

Bei ländlichen Stationen und in Höhenlagen ist die Januarabkühlung laut Trendlinie stärker als in den Städten. Das ist ein Beweis des weiter zunehmenden Wärmeinseleffektes. Man könnte vereinfacht sagen: In den Städten werden die kalten Temperaturen heraus geheizt.

Es wird Zeit, dass endlich wieder Natur- und Umweltschutz in den Mittelpunkt der Politik gestellt wird und nicht das Geschäftsmodell Klimaschutz und das Märchen von der globalen Temperaturerwärmung. Der Januarverlauf seit 1988 braucht keinen Erwärmungsstopp, da er von selbst kälter wird.

Josef Kowatsch, Naturbeobachter und unabhängiger Klimaforscher

Stefan Kämpfe, Diplom- Agrar- Ingenieur, unabhängiger Natur- und Klimaforscher




Total verstrahlt: Die ARD und ihre Atom-Berichterstattung

Döschner ist ein Journalist jener Schule, die sich, frei nach Hanns-Joachim Friedrichs, mit jenen Sachen gemein macht, die sie für gut befunden hat. Er wurde sozialisiert in einer Zeit, als man zwischen Gut und Böse noch klar unterscheiden konnte.

Gut waren die kritischen und widerständigen Grünen, die aus Minderheitenpositionen und Graswurzelbewegungen heraus das Establishment der Kohl- und Flick-Ära herausforderten und der geistig-moralischen Wende die „Energiewende“ entgegensetzten – damals noch ein neues Wort. Gut war eine Berichterstattung, welche der Großindustrie investigativ zu Leibe rückte. Überflüssig zu sagen, was damals als schlecht galt: Waldsterben war schlecht. Bleibenzin war schlecht. Atomkraftwerke waren schlecht. Heute ist das Mainstream quer durch die Parteien. Das Benzin ist entbleit, der Wald gerettet und die Kernkraftwerke zur Strecke gebracht. Der deutsche Politiker von Grün bis CSU schaltet vor jede Aussage über die Kernenergie eine Verwerflichkeits-Präambel.

Doch die süße Zeit, als man noch ein einsamer Kämpfer für’s Gute war, gegen die Übermacht der Bösen mit den fetten Kassen, die hat den Herrn Döschner süchtig gemacht. Und daher hängt er an seiner Anti-Atom-Berichterstattung wie der Quartalssäufer am vierteljährlichen Alkohol-Exzess. Mangels deutscher Atomanlagen, die entweder abgeschaltet sind oder unspektakulär und störfallfrei ihren befristeten Dienst tun, hat sich Döschner eine neue Hassliebe gesucht, der er beständig hinterherstalkt: Die Kernenergie in Belgien. Er kann sich als Verdienst anrechnen, wesentlich zur behördlichen Anschaffung von Jodtabletten-Vorräten im Raum Aachen beigetragen zu haben. Denn in den Schlagzeilen des Herrn Döschner, die den öffentlichen Raum Nordrhein-Westfalens beschallen, muss das Wort „Super-GAU“ mindestens einmal vorkommen, und am liebsten fragt er gleich: „Wann knallt’s?“

Lange Zeit hatte Döschner es mit den „maroden“ Reaktordruckbehältern von Tihange-2  und Doel-3, die er zu „Bröckelreaktoren“ deklarierte. Bereits mit dieser Wortwahl signalisierte er, dass er von kerntechnischen oder materialwissenschaftlichen Zusammenhängen keine genaueren Vorstellungen hat. Wer wissen will, was es mit diesen Problemen rund um Wasserstoff-Flocken, Sprödbruch-Kennlinien und vorgeheiztes Notkühlwasser wirklich auf sich hat, kann sich hier informieren.

Hilfe, es ist stiller geworden um die Belgien-AKWs!

Nun ist es stiller geworden um Tihange-2 und Doel-3, denn die belgischen Behörden halten das Thema nach umfänglichen Prüfverfahren für umfänglich diskutiert, entschieden und abgeschlossen. Für den Quartalsbeitrag Jürgen Döschners zur deutschen Atom-Angstkultur taugen sie also derzeit nicht. Daher kam ein kürzliches Schreiben der belgischen Aufsichtsbehörde FANC wie gerufen, das dem WDR zugespielt wurde. In ihm geht es um die Anlage Tihange-1, wie ihre Nachbarblöcke ein Druckwasserreaktor französischen Typs. In dem Schreiben wurde dargelegt, dass es in dieser Anlage binnen zwei Jahren zu einer Häufung von sogenannten „precursor“-Ereignissen gekommen sei.

Precursor-Ereignisse (precursor events, precursor incidents) sind Störungen oder Störfälle in einem Kernkraftwerk, welche im Zusammenspiel mit etlichen anderen Folgeereignissen zu schweren Brennelementschäden führen könnten. Precursor-Analysen wiederum sind ein Spezialfall probabilistischer Sicherheitsanalysen, d.h. auf Wahrscheinlichkeitsberechnungen beruhender Einschätzungen, mit denen man Schwachstellen komplexer, eng gekoppelter technischer Systeme ausfindig machen kann. Wenn beispielsweise bei einer Wiederkehrenden Prüfung EINE KOMPONENTE EINES Sicherheitssystem, etwa eine Notkühlpumpe oder ein Druckspeicher, sich als nicht verfügbar erweist. sich als nicht verfügbar erweist, wird, ausgehend von diesem konkreten Ereignis, unter Einbeziehung möglichen Versagens anderer Systeme, die man für die Gewährleistung der Unterkritikalität des Reaktors und die sichere Nachzerfallswärme-Abfuhr benötigt, eine Wahrscheinlichkeit für eine Kerngefährdung errechnet. Nur wenn diese größer oder gleich 10 hoch -6 beträgt (d.h. die Wahrscheinlichkeit einer Kerngefährdung bei eins zu einer Million liegt), spricht man von einem precursor, einem Vorläufer-Ereignis.

Stellt man eine Langzeitanalyse an – beobachtet man also die Meldung von Vorläufer-Ereignissen über einen längeren Zeitraum hinweg –, dann können Häufungen von precursors in ein und derselben Anlage tatsächlich einen Hinweis auf ihr Sicherheitsniveau geben. Das ist gleichwohl noch keine Aussage über einen konkreten gegenwärtigen, gar gefährlichen Anlagenzustand. Um die genannte generalisierende Aussage zu machen, braucht man längere Zeitreihen und genauere Informationen darüber, welche Systeme betroffen waren, ob es Clusterungen gab, wie hoch die Schadenswahrscheinlichkeiten im einzelnen beziffert wurden.

Experten, die sich mit probabilistischer Sicherheitsanalytik beschäftigen, werden aufgrund des hohen Komplexitätsgrades ihres Geschäfts häufig missverstanden. So wurde ihnen in den 1970er Jahren, als diese Berechnungen dank immer besserer Rechnerleistungen aufkamen, angesichts der genannten Zahlenverhältnisse vorgeworfen, sie rechneten schwere Unfälle „klein“.

Störfall-Datenbanken und Weiterleitungs-Meldesystem

Dabei ist die Philosophie der PSA (Probability Safety Analysis) gerade anders – sie hält jeden Unfall prinzipiell für möglich und lediglich für eine Frage der Zeit. Wenn eine PSA zu dem Schluss kommt, ein bestimmter Unfall habe eine Wahrscheinlichkeit von eins zu einer Million, dann sagt sie damit keinesfalls aus, es käme erst in einer Million Reaktorbetriebsjahren zum Unfall, wie viele Atomkraftgegner unterstellten. Sie schließt nur nicht aus, dass es morgen, oder in viertausend, oder in einer Million Reaktorbetriebsjahren dazu kommen könnte. Aber sie schließt eindeutig aus, dass es dreimal oder zwanzigmal binnen einer Million Reaktorbetriebsjahren dazu kommen könnte.. Sie schließt nur nicht aus, dass es morgen, oder in viertausend, oder in einer Million Reaktorbetriebsjahrenahren dazu kommen könnte. Aber sie schließt eindeutig aus, dass es dreimal oder zwanzigmal binnen einer Million Reaktorbetriebsjahren dazu kommen könnte.

Im Falle der precursor incidents kommt hinzu, dass Unfälle in einer Anlage nicht notwendigerweise Vorläufer in derselben Anlage gehabt haben müssen – wohl aber in einer anderen Anlage, mitunter mit großem zeitlichen Abstand der Ereignisse. So gilt ein glimpflich abgelaufener Störfall im schweizerischen Beznau Anfang der 1970er Jahre als Vorläufer des Kernschmelz-Unfalls von Three-Mile Island-2 1979, und auch der Reaktivitäts-Unfall mit Leistungsexkursion in Tschernobyl-4 1986 hatte einen Vorläufer-Störfall, der elf Jahre vorher im KKW Leningrad-1 abgelaufen war.

Diese wichtige Information wurde aber im System der sowjetischen Kernenergiewirtschaft nicht analysiert und dann weitergegeben, sondern analysiert – und geheimgehalten. Auch die Anlagenfahrer von TMI-2 hatten 1979 keinerlei Kenntnis von dem Ereignis in Beznau. Aus diesem Grunde gibt es in der Kernenergiewirtschaft heute internationale Störfall-Datenbanken und Weiterleitungs-Meldesysteme: So können sicherheitstechnisch bedeutsame Ereignisse möglichst rasch auf ihre Relevanz für andere Anlagen überprüft werden.

Die Tagesschau und die üblichen Verdächtigen

Gleichwohl machte die ARD-Tagesschau aus dem vorliegenden Befund die Schlagzeile „Tihange-1 gefährlicher als bislang bekannt“, was unterstellt, es sei bereits vorher bekannt gewesen, dass die Anlage „gefährlich“ sei; nun sei sie eben „gefährlicher“. Das nicht für atomfreundliche Aussagen bekannte SPD-geführte Bundesumweltministerium beeilte sich daher klarzustellen, dass es sich hier um eine simplifizierende Fehlinterpretation handle. „In der aktuellen Berichterstattung entsteht der Eindruck, dass man auf Grundlage der Anzahl von sogenannten Precursor-Ereignissen auf die Sicherheit einer Anlage schließen könne. Das ist aber nicht der Fall. Sie sind vielmehr probabilistisch durchgerechnete Anlässe, die dabei helfen, sich ein bestimmtes Szenario genauer anzusehen. Diese sehr komplexen Precursor-Berechnungen sind ein Element einer umfassenden Sicherheitsarchitektur. Die Wahrscheinlichkeitsberechnungen können helfen, weitere Optimierungen an einem lernenden Sicherheitssystem dieser oder anderer Anlagen vorzunehmen.“

Der für den ARD-Beitrag verantwortliche Jürgen Döschner zitiert zwei Experten, die das ganz anders sehen: alte Bekannte, die in fast jedem Döschner-Beitrag auftreten, und die unschwer als in die Jahre gekommene Vertreter jener grünen Gegen-Expertise zu identifizieren sind, welche es erfolgreich von den Bauzaun-Protesten in die Ministerien und staatlichen Fachgremien schafften. Manfred Mertins ist ein ehemaliger Mitarbeiter der Gesellschaft für Reaktorsicherheit und tritt häufig als Gutachter für die Grünen und andere atomkritische Verbände auf. Der Ingenieur Dieter Majer war nach seinem erfolgreichen Marsch in die Institutionen Ministerialdirigent unter den Umweltministern Trittin (Grüne) und Gabriel (SPD) und wirkte dort als Leiter der Abteilung kerntechnische Sicherheit. Auch er machte nie einen Hehl aus seinen Überzeugungen.

Bei der Stillegung des KKW Krümmel nach einem Transformatorbrand im Sommer 2007 war Majer eine der treibenden Kräfte, welche wider besseres Wissen Zweifel und Angst über einen ernsthaften Störfall streuten – vermutlich sollte das der Profilierung des SPD-Umweltministers Gabriel in einer CDU-geführten Regierung dienen. Der SPIEGEL, der den Hintergrund dieser Geschichte recherchierte, konstatierte seinerzeit, dass alle Beteiligten von Anbeginn an wussten, dass der Brand auf die Sicherheit der Anlage keinerlei Auswirkungen gehabt und das Betriebspersonal richtig gehandelt und die Anlage sicher abgefahren hatte.

Wider besseres Wissen zum Kriminalfall aufgeblasen

Trotzdem wurde die Angelegenheit zum Kriminalfall und gefährlichen Nuklearstörfall aufgeblasen, was das Ende für Krümmel bedeutete. Nach Beendigung seiner Ministerialkarriere fungierte Dieter Majer, wie sein Experten-Kollege Mertins, als Berater atomkritischer Initiativen, etwa als „gemeinsamer Beobachter von Luxemburg, Rheinland-Pfalz und dem Saarland“, jener Länder und Bundesländer, die sich für die Stillegung des französischen KKW Cattenom stark machen.

Döschners Atomexperten liefern keine fachlichen Hintergründe zum besseren Verständnis und zur Einordnung des Schreibens, sondern die bestellte Panikorchester-Musik für einen Bericht, dessen Ergebnis vermutlich schon feststand, bevor sie überhaupt befragt wurden. Mertins lässt sich mit folgenden Worten zitieren: „Precursor kann man schon als einen Indikator für den Sicherheitszustand der Anlage einstufen“, und begibt sich mit dieser vereinfachenden Aussage in Widerspruch sowohl zu den Papieren seines Ex-Arbeitgebers GRS als auch zu den Aussagen des BMU. Dieter Majer, Gabriels Mann für’s nukleare Grobe unter Rot-Schwarz, tönt unisono. Er sieht in den Befunden ein Anzeichen, „dass die Anlage sicherheitstechnische Schwachstellen hat.“

Was bleibt zu sagen? Das Kernkraftwerk Tihange hat noch einen dritten Block, und wir erwarten, dass auch diese bislang noch nicht gewürdigte Anlage bald in den Fokus des Herrn Döschner gerät. Er muss nur noch einen Anlass finden – sagen wir, in einem Vierteljahr? Zweifelsfrei feststellbar ist jedoch, dass die ARD mit den Standards einer sachlichen und vorurteilsfreien öffentlich-rechtlichen Berichterstattung offensichtlich ein Problem hat, wenn sie Themen der Energieversorgung, insbesondere der Kernenergie, anspricht.

Würde der WDR dieselben Qualitätsmaßstäbe, die er bei seiner Atom-Berichterstattung setzt, bei der Diskussion über den Familiennachzug von Flüchtlingen anlegen, dann dürfte er ausschließlich Experten von Pegida, AfD und NPD zu Wort kommen lassen, und müsste mit Schlagzeilen von „Asylantenflut“ und „Volkstod“ den baldigen Super-GAU Deutschlands beschwören. Dieses Verständnis von Journalismus ist nur eines: gefährlicher als angenommen.

Dr. Anna Veronika Wendland ist Osteuropa-Historikerin am Herder-Institut für historische Ostmitteleuropaforschung in Marburg. Ihr Habilitationsprojekt „Atomgrad. Kerntechnische Moderne im östlichen Europa“ ist dem Sonderforschungsbereich SFB/TR 138 „Dynamiken der Sicherheit“ assoziiert. Sie lebt mit Mann und drei Söhnen in Leipzig. 

Übernommen von ACHGUT hier



Warum 2017 als „dritt­wärmstes Jahr jemals“ ein Lang­weiler ist

Die New York Times trompetete: „2017 war eines der wärmsten Jahre jemals“ und fügte hinzu: „NASA-Wissenschaftler listeten das vorige Jahr an zweiter Stelle seit Beginn zuverlässiger Aufzeichnungen im Jahr 1880; lediglich das Jahr 2016 war noch wärmer. Die NOAA listete es mit einem anderen analytischen Verfahren an dritter Stelle nach 2016 und 2015“.

Auch der Guardian tönte: „Dank der globalen Erwärmung war 2017 das wärmste Jahr jemals ohne El Nino“ (hier).

Ähnliche Schlagzeilen erschienen auf der ganzen Welt.

Selbst notorische „Klimaskeptiker“ wie Roy W. Spencer (führendes Mitglied der Cornwall Alliance) und John R. Christy von der University of Alabama UAH, wo man Satelliten-Temperaturdaten archiviert, berichteten „2017 war drittwärmstes Jahr während der 39-jährigen Satelliten-Ära“ (hier).

Aha! Die Debatte bzgl. der gefährlichen, vom Menschen verursachten globalen Erwärmung ist vorüber, und die Alarmisten haben gewonnen.

Zumindest ist es das, was die Alarmisten uns glauben machen wollen.

Aber das behaupten sie schon seit 30 Jahren, und die Debatte geht weiter. Man fragt sich, ob die Fakten wirklich dem Gewicht entsprechen, welches die Alarmisten ihnen beimessen.

Als Erstes bleibt festzuhalten, dass die Unterschiede bei der „globalen mittleren Temperatur“ viel zu gering sind, um irgendwelche signifikanten Auswirkungen auf irgendein Ökosystem zu haben, geschweige denn auf das Wohlergehen der Menschen – können sich diese doch besser als die meisten anderen Lebensformen an ihre Umwelt anpassen und – noch wichtiger – sie können diese so modifizieren, dass es für sie nützlich ist.

Man betrachte einmal genau die Graphik der monatlichen UAH-Satellitendaten von 1979 bis 2017 (Quelle):

Die blauen Kreise repräsentieren die Abweichung von der globalen mittleren Temperatur der unteren Troposphäre vom Mittel der Jahre 1981 bis 2010 (das entspricht dem größten Teil der Atmosphäre und ist vermeintlich am empfänglichsten für eine CO2-getriebene Erwärmung), und zwar für jeden Monat von Dezember 1979 bis Dezember 2017. Die rote Linie repräsentiert das gleitende Mittel über 13 Monate.

Man beachte vor allem die Skala der vertikalen Achse – sie reicht von -0,7°C bis +0,9°C, das ist eine Spanne von 1,6°C. Während der 39 Jahre lag die größte negative Abweichung vom Mittel der Jahre 1981 bis 2010 mit 0,51°C unter dem Mittelwert in einem Monat des Jahres 1985, während die größte positive Abweichung in einem Monat des Jahres 2016 aufgetreten war mit 0,88°C; das ergibt eine Gesamt-Schwankung von etwa 1,39°C.

Jetzt betrachte man die rote Linie etwas näher – also das über 13 Monate geglättete Mittel. Die größte Differenz zeigt sich zwischen einem Monat im Jahre 1983 mit 0,35°C unter dem Mittel und einem Monat im Jahre 2016 mit 0,5°C über dem Mittel – eine Bandbreite von etwa 0,85°C.

Die Rohdaten hinter dieser Graphik zeigen, dass 1985 das kälteste Jahr war mit 0,36°C unter dem Mittel 1981 bis 2010, während 2016 das wärmste Jahr war mit 0,511°C über diesem Mittel. Das ist eine Bandbreite von insgesamt 0,871°C.

Jetzt betrachte man die folgende Graphik von dem in den Ruhestand getretenen Atmosphären-Physiker Richard Lindzen, Professor der Meteorologie am MIT. Sie zeigt die tatsächlichen Höchst- und Tiefsttemperaturen (in °F) von Boston für jeden Tag vom 9. Februar bis zum 11 März (blaue Balken), die klimatologische Bandbreite der Temperatur für jedes Datum (dunkelgraue Balken) und die kälteste bzw. wärmste Temperatur für jedes Datum (hellgraue Balken).

Wie man sieht, bewegte sich die tatsächliche Temperatur-Bandbreite in Boston an jedem gegebenen Tag in jenem Zeitraum 2013 von vielleicht 1,1°C am 27. Februar bis etwa ca.14°C am 11. Februar. Nach Augenschein würde die mittlere Bandbreite ca. 5,6° bis 8,3°C betragen. Für den letzten gezeigten Tag, dem 11. März 2013, lag die tiefste Temperatur bei ca. 12,8°C (1939) und die höchste Temperatur bei ca. 19,4°C (1990). Die tiefste Temperatur der gesamten Periode von 31 Tagen während der letzten 175 Jahre betrug ca. -27,8°C, die höchste Temperatur ca. 22,2°C].*

[*Im Gegensatz zu den anderen Absätzen stehen hier die Angaben nur in °F. Der Einfachheit, aber auch der besseren Lesbarkeit halber habe ich alle Werte in °C umgewandelt und nur diese hier geschrieben. Wer das nachprüfen will, gehe auf den entsprechenden Abschnitt im Original. Anm. d. Übers.]

Was einem sofort ins Auge springt ist der Umstand, dass die geringste Bandbreite zwischen höchster und tiefster Temperatur eines einzelnen Tages von etwa 1,11°C um etwa ein Viertel größer ist und die mittlere Bandbreite für einen einzelnen Tag (~5,6°C bis ~8,3°C) etwa 6 bis 10 mal größer ist als die Gesamt-Bandbreite zwischen dem wärmsten und dem kältesten Jahr weltweit (0,871°C).

Oh, und was ist mit der roten Linie in Lindzens Graphik? Deren Dicke spiegelt die gesamt-Zunahme der globalen mittleren Temperatur während der letzten 175 Jahre – welche in etwa gleich ist der geringsten Temperaturdifferenz an einem einzelnen Tag in Boston ist vom 9. Februar bis zum 11. März 2013. Sie beträgt etwa ein Fünftel bis ein Achtel des mittleren Differentials eines Tages und etwa ein 25-tel des größten Tagesintervalls.

Und doch haben die Bostoner überlebt.

Aber nun ist da noch die Tatsache, dass den UAH-Satellitendaten zufolge 16 der 20 wärmsten Jahre während der Satelliten-Ära während der letzten 17 Jahre aufgetreten waren (welche wie erinnerlich nur bis zum Jahr 1979 zurückreicht). Zeigt dies nicht, dass – wie die NASA es ausdrückt – „…sich der langfristige Erwärmungstrend der Erde fortsetzt?“

Keineswegs! Man betrachte noch einem die rote Linie in der UAH-Graphik. Daraus geht eindeutig hervor, dass es seit 1998 keinen signifikanten Erwärmungstrend mehr gab. Lindzen drückte es so aus:

Die Betonung auf „wärmste Jahre jemals“ scheint eine Reaktion auf die Beobachtung zu sein, dass die Erwärmungsperiode von 1978 bis 1998 sich abgeschwächt zu haben scheint und dass die Temperaturen seit 1998 in etwa gleich geblieben sind. Natürlich, falls 1998 das wärmste Jahr jemals war, finden sich alle nachfolgenden Jahre ebenfalls unter den wärmsten jemals, da die Temperatur in jenem Jahr zu steigen aufgehört hat, was sich während der Folgejahre fortsetzte – von denen jetzt alle so warm sind wie das Rekordjahr 1998. Nichts hiervon widerspricht der Tatsache, dass die Erwärmung zum Stillstand gekommen ist.

Und noch etwas: Christy zufolge beträgt die Fehlerbandbreite bei den Schätzungen der jährlichen globalen mittleren Temperatur bei Satellitenmessungen etwa 0,1°C.

Damit im Hinterkopf zeigt sich, dass die Differenz zwischen irgendeinem gegebenen Jahr und dem nächstwärmsten Jahr nur in einem einzigen Fall über die Fehlerbandbreite hinausgegangen war: 1998 (zweitwärmstes Jahr in der Reihe) war um 0,107°C wärmer als 2017 (drittwärmstes Jahr).

Die Differenz zwischen 2016 (dem wärmsten Jahr) und 1998 betrug lediglich 0,028°C oder etwa drei Zehntel der Fehlerbandbreite. Mit anderen Worten, wir wissen gar nicht, ob 2016 wärmer war als 1998 oder umgekehrt. Das viert- und fünftwärmste Jahr (2010 und 2015) liegen ebenfalls innerhalb der Fehlerbandbreite bzgl. ihrer Differenz untereinander.

Man muss vom sechstwärmsten Jahr (2002) zum elftwärmsten Jahr (2001) gehen, um erneut eine über die Fehlerbandbreite hinausgehende Differenz zu finden; d. h. wir wissen nicht, ob das Jahr 2002, 2005, 2003, 2014, 2007, 2013 oder 2001 das sechst- oder zwölftwärmste Jahr gewesen ist – oder irgendetwas dazwischen.

All das zeigt ziemlich eindeutig, dass die globale Temperatur während der letzten 20 Jahre gleich geblieben ist. Wir wissen einfach nicht, ob der „langfristige Erwärmungstrend der Erde“ 1998 zum Stillstand gekommen ist, ob er wieder einsetzt oder ob er sich in einen Abkühlungstrend umkehrt.

Dabei geht es noch nicht einmal um die Frage der Gründe für die Erwärmung von 1880 bis heute – oder, wie aus dieser NOAA-Graphik der globalen Land- und Wasser-Temperaturanomalien hervorgeht – der Abkühlung von etwa 1880 bis 1910, der Erwärmung von etwa 1910 bis 1945, der Abkühlung von 1945 bis 1975, der Erwärmung von 1975 bis 1998 und für das Plateau von 1998 bis 2015. (Anders als die Satellitendaten sind die NASA-Werte sehr zweifelhaft wegen der räumlichen Verteilung, der Ausfälle von Stationsmessungen, von Homogenisierungs-Verfahren und anderer Probleme). Dagegen wissen wir ziemlich gut, was hinter der Erwärmung von 2015 bis 2016 bis in das Jahr 2017 hinein steckt: ein starker El Nino ähnlich dem des Jahres 1998).

Klimaalarmisten ordnen die Erwärmung gebetsmühlenartig der steigenden atmosphärischen CO2-Konzentration zu, wie es in dieser Graphik von Climate Central zum Ausdruck kommt:

Auf den ersten Blick scheint der Verlauf von CO2 und der Temperaturanomalie ziemlich gut zu passen. Aber bei näherem Hinsehen, vor allem wenn man noch einmal die UAH-Graphik oben betrachtet, erkennt man, dass der CO2-Gehalt schon während der Abkühlungs-Perioden der Jahre 1880 bis 2010 gestiegen war und sogar immer stärker stieg während des Plateaus von 1998 bis 2015. Dies zeigt, dass CO2 zumindest nicht der einzige Treiber und möglicherweise nicht einmal der Haupttreiber der Erwärmung insgesamt während der 137-Jahre-Periode ist.

Und wie das so geht, Forschungen von John Christy, Joseph D’Aleo und James Wallace ergaben, dass solare, vulkanische und ozeanische Strömungsvariationen alle beobachteten globalen Temperaturvariationen erklären können, so dass keine dieser Variationen übrig bleibt, um sie CO2 zuzuordnen.

Man lasse sich also nicht ins Bockshorn jagen durch die Schlagzeilen. Man schaue hinter dieselben, und man wird etwas ganz anderes erkennen.

Link: https://wattsupwiththat.com/2018/01/29/why-2017s-third-warmest-year-on-record-is-a-yawner/

Übersetzt von Chris Frey EIKE




Wir dürfen den Kampf gegen den Klima-Alarmismus nicht aufgeben!

Meine Damen und Herren,

herzlichen Dank für die Einladung und für die Gelegenheit, an dieser bedeutenden Zusammenkunft teilzunehmen. Es ist großartig, nach so vielen Jahren in Frankreich zu sein und Paris so zu sehen, wie es in der Ära der Massen-Migration aussieht.

Ich reise fast ununterbrochen, aber nicht nach Frankreich.

Ich weiß nicht, ob es meine Schuld oder irgendetwas anderes ist. Teilweise mag der Grund meine fehlenden Kenntnisse der französischen Sprache sein, was ich als große Bildungslücke meinerseits ansehe. Teilweise kann es aber auch der offensichtliche Graben sein zwischen meinen Ansichten und dem Mainstream-Denken in Frankreich.

Nichtsdestotrotz wurde ich während der letzten Jahre durch die Arbeit mehrerer französischer Autoren inspiriert wie Michel Houellebecq, Pascal Bruckner, Pierre Manent, Alain Finkielkraut, und nicht zuletzt durch meine alten Freunde wie Pascal Salin. Dadurch ist erneut meine Motivation erwacht, mit Frankreich und seinen Intellektuellen in Verbindung zu treten.

Ich muss zugeben, dass ich bis vor Kurzem von der French Association des Climato-réalistes, deren Aktivitäten und deren Fähigkeit ausreichen, ein solches Treffen wie das Heutige zu arrangieren, nichts wusste. Vielen Dank dafür, mich hier sprechen zu lassen vor diesem gebildeten Publikum.

Das Thema Klima-Alarmismus einer vom Menschen verursachten und die menschliche Gesellschaft gefährdenden globalen Erwärmung ist zu einem meiner Haupt-Beschäftigungen und -Sorgen geworden. Ich bin höchst entschieden gegen die Doktrin der globalen Erwärmung. Sie ist ein arroganter Glaubenssatz, eine Ideologie, wenn nicht sogar eine Religion! Sie gefährdet die Freiheit und das Wohlergehen der Menschen! Sie lebt unabhängig von der Wissenschaft Klimatologie. Bei dessen Streitpunkten geht es nicht um Temperatur; sie sind Teil des „Konfliktes von Ideologien“.

Erinnerungen an den Kommunsimus

Meine Art, dieses Thema zu behandeln, ist geprägt von der sehr speziellen Erfahrung unter dem kommunistischen Regime, unter dem ich zwei Drittel meines Lebens zugebracht habe. Diese Erfahrung schärfte unsere Augen. Wir wurden hypersensitiv gegenüber allen Versuchen, Freiheit, Vernunft und freien Meinungsaustausch zu unterbinden, und wir wurden hypersensitiv dagegen, Dogmen übergestülpt zu bekommen von jenen, welche sich selbst für besser halten als die Übrigen von uns. In der kommunistischen Ära wurden wir Zeugen einer irrationalen Situation, in der Wissenschaft gleichzeitig gefördert und behindert, gepriesen und gefeiert, manipuliert und missbraucht wurde. Meine Gefühle derzeit sind dem sehr ähnlich.

Mein Standpunkt zu diesem Thema beruht auch auf meiner Eigenschaft als Ökonom, welcher feste Ansichten hat über die Rolle von Märkten und Regierungen in der menschlichen Gesellschaft und in der Ökonomie; über die Rolle sichtbarer und unsichtbarer Hände bei der Kontrolle unseres Lebens und die Zukunft betreffend. Und ich betrachte die politischen Eingriffe in die Wirtschaft in Verbindung mit Ambitionen, das Klima zu bekämpfen, als absolut unhaltbar.

Und schließlich basiert mein Standpunkt auf dem Umstand, dass ich zuletzt 25 Jahre lang Politiker war, der immer alle Varianten grüner Ideologie und besonders dessen Höhepunkt, der Doktrin der globalen Erwärmung, bekämpft hat. Viele Jahre lang war ich intensiv involviert in die weltweite kontroverse und erheblich manipulierte Debatte über globale Erwärmung und über die Rolle des Menschen dabei. Ich war der einzige Staatschef, der es wagte, ganz offen einer abweichenden Haltung auf der UN-Vollversammlung Ausdruck zu verleihen, und zwar schon vor zehn Jahren. (Siehe dazu „Statement von H.E. Mr. Vaclav Klaus, Präsident der tschechischen Republik, vor der 62. Sitzung der UN-Vollversammlung in New York“ am 26. September 2007; www.klaus.cz/clanky/1109.)

,Ignoranz und Unehrlichkeit‘

Ich habe auf vielfältige Weise an dieser Debatte teilgenommen, am deutlichsten in Gestalt eines Buches mit dem Titel Blue Planet in Green Shackles [übersetzt „Blauer Planet in Grünen Fesseln“], welches inzwischen weltweit in 18 Sprachen übersetzt worden ist.

In diesem Jahr publizierte ich einen Artikel mit dem Titel Shall We Be Destroyed by Climate or by Our Fighting the Climate? [übersetzt „werden wir durch das Klima oder durch unseren Kampf gegen das Klima zerstört?“] Bislang gibt es diesen nur in Tschechisch, Übersetzungen folgen aber bald.

Ich widerspreche dem so genannten Konsens, welcher bzgl. dieses Themas seitens der Globale-Erwärmung-Alarmisten proklamiert wird. Der wirkliche Konsens ist sehr eng. Die Wissenschaftler – und alle rationalen Menschen – stimmen darin überein, dass sich das Klima während der letzten beiden Jahrhunderte erwärmt hat und das menschliche Aktivitäten in gewisser Weise dazu beigetragen haben können. Nichts weiter! Es ist offensichtlich, dass sowohl das Ausmaß dieser Erwärmung als auch deren Gründe weiterhin heiß diskutiert werden. Es gibt in dieser Hinsicht absolut keinen Konsens.

Die Politiker, welche vor zwei Jahren das Paris-Abkommen unterzeichnet hatte, sind sich entweder der fehlenden wissenschaftlichen Grundlage dafür nicht bewusst, oder sie haben unterzeichnet, weil es ihren persönlichen und politischen Interessen zupass kommt. Es dürfte beides sein: Ignoranz und Unehrlichkeit.

Die Politiker haben verstanden, dass das Spiel der globalen Erwärmung zu einfachen Spielregeln möglich ist, zumindest kurz- und mittelfristig. Und sie wissen gemeinsam mit dem einflussreichen britischen Ökonom John Maynard Keynes, dass wir langfristig alle sterben werden. Das Problem ist, dass Politiker nie die langfristigen Folgen ihrer Politik auf der Grundlage dieser Doktrin bedenken. Sie hoffen, dass die Wähler ihr Kümmern um Dinge substantieller als die nächsten Wahlen anerkennen.

Globale Erwärmung zusammengefasst

Die Theorie der globalen Erwärmung kann folgendermaßen zusammengefasst werden:

Sie beginnt mit der Behauptung, dass es eine unbestreitbare und unbestrittene, empirisch bestätigte, statistisch signifikante, globale und nicht lokale Erwärmung gibt. Es geht dann weiter mit dem Argument, dass die Zeitreihe der globalen Temperaturen einen zunehmenden Trend zeigt, welcher deren zyklische und Zufalls-Komponenten dominiert. Dieser Trend ist vermeintlich nicht linear, vielleicht exponentiell. Dieser Trend wird als gefährlich für die Menschen deklariert (in den Augen „weicher“ Umweltaktivisten) und für den Planeten deklariert (seitens Betonkopf-Umweltaktivisten).

Die Zunahme einer mittleren globalen Temperatur wird postuliert als ein allein oder zum größten Teil dem Menschen geschuldetes Phänomen, welches sich zuordnen lässt zu steigenden Emissionen von Kohlendioxid durch industrielle Aktivitäten und das Verbrennen fossiler Treibstoffe. Die Sensitivität der globalen Temperatur selbst gegen geringe Variationen der Kohlendioxid-Konzentration in der Atmosphäre soll vermeintlich sehr hoch sein. Der Temperaturanstieg kann umgekehrt werden mittels einer radikalen Reduktion der Kohlendioxid-Emissionen, was gesteuert werden sollte mittels Institutionen einer globalen Regierung.

Sie vergessen dabei uns zusagen, dass diese Umkehr nicht möglich ist ohne Zerschlagung der Demokratie, ohne Aufgeben der Unabhängigkeit individueller Länder, der menschlichen Freiheit, der wirtschaftlichen Prosperität und der Chance, die Armut in der Welt zu bekämpfen.

Kein wissenschaftlicher Konsens

Ich glaube an keinen einzigen dieser Glaubensgrundsätze, und ich bin froh, damit nicht allein zu stehen. Es gibt viele Natur- und auch Sozialwissenschaftler, vor allem Ökonomen, die ebenfalls nichts davon für bare Münze nehmen. Das Problem ist, dass die wahren Wissenschaftler, oder zumindest die meisten von ihnen, Wissenschaft betreiben und nicht in der Öffentlichkeit in die Diskussion über diese Doktrin involviert werden möchten.

Wie kann man das ändern? Ich wage mal zu sagen, dass die Wissenschaft selbst dies nicht bewerkstelligen kann. Die Doktrin der globalen Erwärmung [The Global Warming Doctrine (GWD)] basiert nicht auf Wissenschaft. Demzufolge kann die wissenschaftliche Diskussion selbst diese Doktrin nicht in Verruf bringen.

Ich befürchte außerdem, dass eine entscheidende Änderung auch mit neuen empirischen Daten nicht kommen wird. Es ist offensichtlich, dass die derzeitigen Temperaturdaten weder alarmistische oder apokalyptische Standpunkte der Gläubigen bestätigen noch deren quasi-wissenschaftliche Hypothesen bzgl. einer ausschließlichen Relation zwischen Kohlendioxid und Temperatur. Wie wir alle wissen, zeigten die statistischen Daten keine globale Erwärmung während der 18 Jahre von 1998 bis 2015.

Ideologie, nicht Wissenschaft

Die immer tiefere Diskussion über Formalitäten wird uns auch nicht helfen, weil die Unterstützer der Globale-Erwärmung-Doktrin daran nicht interessiert sind.

Deren Gedanken sind die Gedanken von Ideologen, nicht von Wissenschaftlern oder Klimatologen. Daten und Theorien, wie anspruchsvoll sie auch immer daherkommen, werden deren Standpunkte nicht ändern.

Gleiches gilt für die ökonomische Dimension dieser Debatte. Falls jemand Kohlendioxid-Emissionen reduzieren oder ganz eliminieren will, muss er entweder eine Revolution der ökonomischen Effizienz hinnehmen (welche die Emissions-Intensität bestimmt) oder damit beginnen, einen weltweiten wirtschaftlichen Niedergang zu organisieren. Nichts anderes ist möglich.

Unrealistische Diskontsätze

Die radikale Verminderung von Kohlendioxid-Emissionen hat sowohl kurz- als auch langfristig Konsequenzen.

Diese zu analysieren erfordert von uns, zwischenzeitliche [intertemporal] Relationen [?] genau zu verfolgen und Alternativkosten in Betracht zu ziehen.

Mit der Annahme eines sehr niedrigen Diskontsatzes nahe Null ist es offensichtlich, dass Befürworter der Globale-Erwärmung-Doktrin den Zeitfaktor und alternative Möglichkeiten vernachlässigen. Ein in den Modellen der globalen Erwärmung herangezogener niedriger Diskontsatz bedeutet, dass jetzige Genrationen gegenüber zukünftigen Generationen geschädigt werden. Wir sollten Behauptungen nicht akzeptieren, denen zufolge wir mit Übernahme niedriger Diskontsätze die Interessen zukünftiger Generationen schützen, oder dass alternative Kosten irrelevant sind, weil es im Falle der globale Erwärmung keine Wahl gibt. Dieser unökonomische oder vielleicht anti-ökonomische Denkweise darf niemals akzeptiert werden.

Als jemand, der persönlich Planwirtschaft und Versuche erlebt hat, die Gesellschaft als Ganzes durch Direktiven von oben zu steuern, fühle ich mich verpflichtet, vor den Argumenten und Absichten der Gläubigen an die Globale-Erwärmung-Doktrin eindringlich zu warnen. Deren Argumente und Absichten sind sehr ähnlich denen, die wir unter dem Kommunismus gehört haben. Diesem gefährliche Gedankengut gegenüber muss Widerstand geleistet werden. Es muss auf politischer Ebene geschehen. Wir müssen es der Allgemeinheit erklären.

Link: https://www.heartland.org/news-opinion/news/we-must-not-give-up-the-fight-against-climate-alarmism

Übersetzt von Chris Frey EIKE

 




Illustration des Scheiterns der Klimabewegung – in einer einzigen Graphik

Dr. Roger Pielke schreibt via Twitter:

Ich bereite einige Folien vor für ein bevorstehendes Gespräch (über Klimapolitik, wer hätte das gedacht!). Im Anhang bemühe ich mich, auf verständliche Art und Weise die überwältigende Größenordnung der Energie-Herausforderung zu zeigen im Zusammenhang mit grundlegender Dekarbonisierung. Was glauben Sie?

Bildinschriften: roter Kasten: „Während der Ära der Klima-Diplomatie hat der globale Verbrauch fossiler Treibstoffe um 57% zugenommen“. – Grüner Kasten: „Es sind noch rund 12.000 Tage bis zum Jahr 2050, und die Welt wird über 11.000 Millionen Tonnen Öl-Äquivalent (mtoe) im Jahre 2017 verbrauchen. – Um den Verbrauch fossiler Treibstoffe um 90% oder mehr bis zum Jahr 2050 zu erreichen, ist folglich eine Reduktion dieses Verbrauchs von ~1 mtoe pro Tag erforderlich, jeden Tag bis 2050. – Was ist 1 mtoe? a) ~1,5 X 1 GW Kernkraft, b)1500 X 2 MW Windturbinen, c) 14 Millionen X 295 W Solarpaneele. – Dies ist das Äquivalent zu den fossilen Treibstoffen, die jeden Tag ersetzt werden müssen“.

Diese Graphik des globalen Verbrauchs fossiler Treibstoffe sagt alles: Bemühungen der Grünen zur Reduktion fossiler Treibstoffe sind ohne jede Auswirkung erfolglos geblieben. Mit der Zunahme des Verbrauchs fossiler Treibstoffe um 57% seit 1992 waren deren gesamte Bemühungen umsonst.

Man verbreite diesen Beitrag und halte ihn all jenen vor Augen, die da glauben, sie hätten „etwas bewirkt“.

Aktualisierung:

Jemand stellte zu Roger Pielkes Tweet eine „was wäre wenn“- Frage zu dieser Graphik.

Frage: Falls keine „Klima-Diplomatie“ gegeben hätte, um wie viel hätte der Verbrauch fossiler Treibstoffe zugenommen? Gibt es einen Zeitraum von 25 Jahren, den man vergleichen kann?

Antwort von Roger:

Gute Frage.

1980 bis 1992 Zunahme des Verbrauchs um 1,6% pro Jahr.

1992 bis 2016 1,6% pro Jahr.

Link: https://wattsupwiththat.com/2018/01/29/illustrating-the-failure-of-the-climate-movement-in-one-graph/

Übersetzt von Chris Frey EIKE