1

Oktober warm – dass Gott erbarm‘?!

Wenden wir uns zunächst den Bauernregeln zu. Ihnen liegt das Prinzip zugrunde, dass man den Wetter- oder Witterungsverlauf zu einem bestimmten Zeitpunkt oder einem bestimmten Zeitraum beobachtet und dann versucht herauszufinden, ob die Folgewitterung ebenfalls einen bestimmten Verlauf nimmt.

Hinsichtlich der Bauernregeln gibt es nun aber drei fundamentale, unlösbare Probleme, die den Gebrauch von Bauernregeln bis zur Unbrauchbarkeit einschränken. Entstanden sind sie ja während des Mittelalters. Die Bauern des Mittelalters (heute nennt man sie Landwirte) waren natürlich Witterungsunbilden noch viel stärker ausgesetzt als heutzutage. Diese eventuellen Unbilden rechtzeitig erkennen zu können war ihnen naturgemäß ein dringendes Anliegen. Es ist schon absolut erstaunlich, wie sorgfältig die Bauern der damaligen Zeit das Wetter beobachtet und ihre Schlüsse daraus gezogen haben.

Es gibt aber, wie gesagt, drei fundamentale Probleme:

1) Die meisten Bauernregeln sind vor etwa 1000 Jahren entstanden. Damals herrschte bekanntlich ein deutlich wärmeres Klima als heute, und ob die damals gefundenen Zusammenhänge auch in einem kälteren Klima gelten, ist nicht erforscht.

2) Um sich Bauernregeln besser merken zu können, wählte man als Bezugszeitpunkt in der Regel (katholische) Feiertage, die damals eine ganz andere Bedeutung hatten als heute. Außerdem wurden sie der besseren Merkfähigkeit wegen auch in Reimform gepresst. Die Beobachtungen erfolgten naturgemäß am Wohnort der Bauern. Die Herumreiserei von heute gab es natürlich damals nicht. Die Örtlichkeit oder das Gebiet, in dem die jeweilige Bauernregel entstanden ist, ist aber von ausschlaggebender Bedeutung. Ob eine im Allgäu gefundene Bauernregel auch für Ostfriesland gültig ist, ist zumindest fraglich. Der Ursprung der jeweiligen Bauernregeln ist aber heute nicht einmal ansatzweise feststellbar.

3) Dann gab es da noch eine Kalenderreform, bei der 10 Tage einfach unter den Tisch fielen (interessante Parallele: Die katholische Kirche hatte damals so viel Macht, dass sie mit der Zeit das machen konnte, was das IPCC heute mit Klimadaten macht, nämlich manipulieren. Der Unterschied ist jedoch, dass der Nutzen der Kalenderreform heute völlig unbestritten ist, während man dies von der ,Datenreform‘ des IPCC wohl nicht unbedingt sagen kann).

Die Tage-Bezugspunkte der Bauernregeln machten diese Verschiebung jedoch nicht mit, ein Umstand, der bei der Diskussion um die Bauernregeln heute in der Regel vergessen wird. (Dieser letzte Punkt ist vermutlich nicht so relevant, wenn man Zeiträume, d. h. in der Regel Monate, als Bezugspunkt nimmt. Dazu später mehr).

Vorhersagen auf der Grundlage von Bauernregeln werden heute seriöserweise nicht mehr gemacht, wenngleich viele Menschen immer noch auf sie schwören. Es wäre jedoch grob fahrlässig, den Wissensschatz der Bauernregeln einfach außen vor zu lassen. An dieser Stelle kommt einer der meiner Ansicht nach größten Zufälle der Wissenschaft ins Spiel. In den fünfziger und sechziger Jahren hat nämlich ein Meteorologe versucht, das statistische Prinzip, auf dem die Bauernregeln beruhen, in die heutige Zeit zu übertragen. Warum Zufall? Weil dieser Meteorologe Baur hieß (ohne e)! Mehr zu seiner Person hier bei Wikipedia.

Prof. Dr. Franz Baur hat im vorigen Jahrhundert auf Basis von Beobachtungen (Numerik gab es damals noch nicht bzw. steckte allenfalls in den Kinderschuhen) genau dieses Prinzip der Bauernregeln angewendet. Er fand auch viele teils sehr deutliche Zusammenhänge, die als die – Baur’schen Regeln bekannt sind. Zu Prof. Baur, seiner Vita und seiner Arbeit kann man viel googeln. Es würde aber diesen Beitrag sprengen und auch ein wenig am Thema vorbeigehen, wenn man hier näher darauf eingehen würde.

Häufig war es so, dass Prof. Baur altbekannte Bauernregeln einfach für die heutige Zeit „übersetzt“ hat. So wurde aus der altbekannten Bauernregel zum Siebenschläfer (astronomisch am 26. Juni) eine Baur’sche Regel zum Siebenschläfer (dem meteorologischen um den 5. Juli).

Prof. Baur selbst hat noch sehr genau seine eigenen Baur’schen Regeln mit der Realität überprüft. Hinsichtlich der Siebenschläfer-Regel fand er (und findet man bis heute!) eine Korrelation über 0,9 unter der Voraussetzung, dass die Statistik strikt angewendet wird.

Wie wichtig dies ist, soll am Beispiel der in der Überschrift zu diesem Beitrag genannten Bauernregel erläutert werden. In den Medien war schon vielfach die Rede davon, dass auf einen warmen Oktober ein kalter Winter folgen soll. Tatsächlich gibt es auch andere Bauernregeln, die mit anderen Worten auf den o. g. Zusammenhang hinweisen. Nicht von ungefähr sind jedoch von mir hinter die Überschrift die zwei Satzzeichen gesetzt worden. Übersetzen wir doch diese Regel mal in eine Baur’sche Regel. Die gibt es wirklich, und zwar die Regel Nr. 64. Sie hat folgenden Wortlaut:

Wenn der Oktober in Mitteleuropa mehr als zwei Grad zu warm und gleichzeitig deutlich zu trocken ausfällt, ist mit hoher oder sehr hoher Wahrscheinlichkeit ein kalter oder extrem kalter Januar in Mitteleuropa zu erwarten“.

Anhand dieser Regel soll näher erläutert werden, was man mit einer solchen statistischen Regel anfangen kann – und was nicht. Unabdingbar ist zu prüfen, ob die genannten statistischen Witterungserscheinungen wirklich so aufgetreten sind. Für diesen Oktober 2014 bedeutet das, dass er sicher deutlich zu warm ausfällt, vermutlich weit über 2 Grad zu warm. Der kurze Kaltlufteinbruch um den 20. des Monats ändert daran nicht viel. Aber hinsichtlich des zweiten Kriteriums gilt das nicht! Er war eben nicht deutlich zu trocken. In manchen Gebieten war er das zwar wirklich, aber nicht im Flächenmittel. Dabei spielt es statistisch keine Rolle, ob der Regen mehr oder weniger gleichmäßig über den ganzen Monat verteilt ist oder ob ein singuläres, flächendeckendes Starkregenereignis an einem einzigen Tag die Ursache dafür ist, dass der Monat zu nass ausfällt. Wer jetzt sagt „nun ja, wenn man von dem einzelnen Tag absieht…“. Das wäre bereits eine Verbiegung der Statistik. Beim IPCC ist das zwar gang und gäbe, aber es ist unwissenschaftlich. Fazit: die Regel ist also in diesem Jahr nicht anwendbar.

Nun ist dauerhaft warme und trockene Witterung im Oktober nur auf wenige Wetterlagen beschränkt. Ein zentrales Hochdruckgebiet über Mitteleuropa ist dafür im Gegensatz zum Hochsommer auf keinen Fall geeignet. Sehr schnell würde sich nämlich in den immer längeren Nächten Nebel bilden, der sich tagsüber kaum noch auflöst, mit der sukzessiven Folge einer immer weiter fortschreitenden Abkühlung der unteren Luftschichten. Starker Wind würde zwar für Durchmischung sorgen, doch wird dies nur von durchziehenden Tiefdruckgebieten bewerkstelligt, die aber eben auch Regen mitbringen. Warme und gleichzeitig nasse Okobtermonate treten also viel häufiger auf (beispielsweise in diesem Jahr 2014) als trockene und warme bzw. deutlich zu warme. Die einzige Wetterlage, die noch im Oktober dauerhaft warmes und trockenes Wetter bringen könnte, wäre eine kräftige südwestliche Strömung zwischen einem Hochdruckgebiet über dem Balkan und dem jahreszeitlich bedingten Aufleben der atlantischen Tiefdrucktätigkeit. Eine milde Westwindwetterlage mit viel Regen bringt eben nicht gleichzeitig warmes und trockenes Wetter.

Nun gab es in diesem Oktober tatsächlich immer wieder ausgeprägte Südwestlagen. Die teils extrem hohen Maxima bis hin zu Sommertagen (< 25°C Maximum) können nur aufgrund einer solchen Wetterlage zustande kommen. Nur wurden diese Südwestlagen in diesem Monat immer wieder unterbrochen. Außerdem macht die Statistik nach Prof. Baur keinerlei Aussage darüber, aufgrund welcher Wetterlage die warme und trockene Witterung zustande kommt. Im vorigen Jahrhundert kam es etwa 10 bis 12 mal vor, dass der Oktober mehr als 2 Grad zu warm und gleichzeitig deutlich zu trocken ausgefallen war. In allen Fällen ohne Ausnahme gab es danach in der Tat einen kalten Winter in Mittelruopa. Das heißt nun aber NICHT, dass ein zu warmer und gleichzeitig zu nasser Oktober einen milden Winter zur Folge hat!

(Nebenbei: ein statistisch viel signifikanteres Ereignis ist die Tatsache, dass im völligen Gegensatz zum vorigen Jahr im Oktober die atlantische Tiefdrucktätigkeit kaum Anzeichen einer merklichen Belebung zeigt. Außerdem ist bereits der russische Hochdruckblock unübersehbar – zu einem statistisch ungewöhnlich frühen Zeitpunkt).

Auch wenn man die Statistik in einer solchen Regel ins Gegenteil verkehrt, also ein kalter und überaus nasser Oktober auftritt, ist keine statistische Aussage möglich. Das heißt, die nachfolgenden Winter waren teils zu kalt, teils zu mild oder teils ausgeglichen. Gäbe es hier einen Zusammenhang, hätte Prof. Baur den mit Sicherheit entdeckt. Zwar gab es statistisch in 6 oder 7 von 10 Fällen mit einem nassen und kalten Oktober tatsächlich einen milden oder sehr milden Winter in Mitteleuropa, aber ein solches Verhältnis ist sicher noch nicht als statistisch signifikant einzustufen. Musterbeispiel hier war der Oktober des Jahres 1974, der im Flächenmittel in Deutschland über 300% (!) der im Mittel zu erwartenden Regenmenge gebracht hatte. Auf dem Zugspitzplatt lag der Schnee damals Ende Oktober, also zu einem Zeitpunkt, an dem die Schneedecke dort besonders niedrig bzw. (noch) gar nicht vorhanden ist, über 300 cm hoch.

Dies alles sollte bedenken, wer in den Medien pauschal mit der Prämisse „warmer Oktober – kalter Winter“ konfrontiert ist.

Und weil es so schön ist und gerade passt, soll hier noch eine weitere Baur’sche Regel genannt werden, und zwar eine mit einem Korrelationsfaktor von fast 1:

Fällt die erste Dekade im Dezember mehr als 2 Grad zu mild aus und ist auch die gesamte erste Dezemberhälfte zu mild, ist mit sehr hoher Wahrscheinlichkeit ein milder oder sehr milder Hochwinter in Mitteleuropa zu erwarten unter der Voraussetzung, dass die milde Witterung mit einer Westlage verknüpft ist“.

Diese Einschränkung am Ende wird gerne vergessen, ist aber sehr wichtig, wie Prof. Baur selbst betont hat. Im Dezember 1986 beispielsweise (den hat Prof. Baur nicht mehr erlebt) herrschte in der ersten Dezemberhälfte sehr mildes und trockenes Wetter im Bereich einer kräftigen südlichen und südöstlichen Strömung. Ziemlich genau zur Monatsmitte kippte diese Wetterlage. Es folgten eine klassische „weiße Weihnacht“, die in Berlin die höchste jemals an den Weihnachtstagen gemessene Schneedecke gebracht hatte, und ein sehr kalter Winter.

Aber auch diese Regel ist die Übersetzung einer uralten Bauernregel: „Ist bis Weihnachten kein Winter, kommt auch keiner mehr dahinter“.

Das heißt, auch im Mittelalter, vor allem zur Zeit der MWP, gab es schneelose, milde Winter. Diese Erkenntnis zu vermerken würde manchen Alarmisten ganz gut zu Gesicht stehen!

Zum Abschluss noch eine Anmerkung: Diese letzte Regel für den Dezember lässt sich aus synoptischer Sicht sehr gut herleiten. Das ist im Falle eines warmen und trockenen Oktober nicht so ohne Weiteres möglich. Generell gilt aber für statistische Betrachtungen:

Wenn in 10 von 10 Fällen immer der gleiche Ablauf verzeichnet wird, besteht hier ein sehr hoher statistischer Zusammenhang. Das heißt NICHT, dass beim elften Mal diese Abfolge MIT SICHERHEIT wieder eintritt, sondern nur, dass es dafür eine sehr hohe statistische Wahrscheinlichkeit gibt. Für Prognosezwecke ist es dabei aber VÖLLIG UNERHEBLICH, wie dieser Zusammenhang beschaffen ist, solange er nur statistisch signifikant ist.

Hans-Dieter Schmidt

Kleiner Nachtrag für die Alarmisten, die ja die Wärme so gerne als die große Katastrophe darstellen: Die Bauern der damaligen Zeit hatten natürlich vor der Kälte Angst, nicht vor der Wärme!

Hans-Dieter Schmidt war schon von Kindesbeinen an ein – wie er es nennt – Wetterfreak. Bereits während seines Studiums in den siebziger Jahren arbeitete er nebenher als Wetterbeobachter im Beobachtungs- und Radardienst. Nach seinem Diplom im Jahre 1980 arbeitete er durchweg im Bereich synoptische Meteorologie und Wettervorhersage. Da es zu seiner Zeit längst nicht die technischen Möglichkeiten wie heute gab, wurde er zum Spezialisten für Synoptik mit heute über 40-jähriger Erfahrung, um allein aus Wettermeldungen möglichst viele Erkenntnisse für die Vorhersage zu gewinnen. – Vita zusammengestellt von Chris Frey




Neue Studie: Bedrohung durch ,Ozean-Versauerung‘ widerlegt; Erwärmung lässt pH-Wert steigen

Falls die globale Erwärmung nach dem „Stillstand“ wieder einsetzt, werden die Ozeantemperaturen folglich zusammen mit dem Ausgasen von CO2 steigen, was die Ozeane basischer macht, nicht saurer. Es gibt einfach nicht beide Möglichkeiten zugleich (hier):

Entweder die Ozeane erwärmen sich und die CO2-Konzentration im Meerwasser nimmt ab, was bedeutet, dass die Ozeanversauerung infolge anthropogenen CO2 Unsinn ist.

Oder die Ozeane kühlen sich ab, und das anthropogene CO2 aus der Atmosphäre löst sich im kälteren Meerwasser und verursacht eine – nicht signifikante – Ozeanversauerung, was bedeutet, dass die sich erwärmenden Ozeane und der damit verbundene Anstieg des Meeresspiegels Unsinn ist.

Man wähle also – die REALE WISSENSCHAFT sagt, dass nicht beides zugleich der Fall sein kann.

Außerdem zeigt die Studie, dass der pH-Wert des Sees über eine große Bandbreite variiert hat von etwa 7,5 bis 8,8, was einfach abhing von der Temperatur eines jeden Monats des Jahres. Wie die „Versauerungs“-Alarmisten zu sagen pflegen, eine Variation von 1,3 pH-Einheiten ist äquivalent zu einer Änderung von Wasserstoff-Ionen von 1995% infolge der logarithmischen pH-Skala, und das nur in einem einzigen Jahr! Sommermonate sind natürlich verbunden mit wärmeren Temperaturen und alkalischerem Wasser, höhere pH-Werte und Wintermonate sind assoziiert mit kälteren Temperaturen und viel „saureren“ niedrigeren pH-Werten. Man beachte auch, wie der pH variiert zwischen etwa 7,5 und 8,8, einfach abhängig von der Tiefe zu einer gegebenen Zeit, weil kälteres Wasser in größeren Tiefen höhere Partialdrucke von CO2 aufweist als das wärmere Oberflächenwasser:

Die zweite Graphik von links zeigt den rekonstruierten pH der letzten 280.000 Jahre, die dritte Graphik von links die Temperatur-Rekonstruktion. Man sieht, wie sehr beide in Harmonie schwingen, obwohl die Studie sagt, dass pH der Temperatur manchmal bis zu vielen tausend Jahren hinterherläuft. Dies entspricht genau den Ergebnissen aus Eisbohrkernen, denen zufolge der CO2-Gehalt der Temperatur ebenfalls rund 1000 Jahre hinterherläuft.

Der Vergleich mit Pollenansammlungen in Bohrkernen aus dem Biwa-See zeigt, dass der pH von Seewasser durch die Sommertemperaturen in Zeiten geringer Exzentrizität bestimmt worden ist, während er in Zeiten hoher Exzentrizität durch die Sommerniederschläge bestimmt worden ist. Von vor 130.000 bis 55.000 Jahren lief der pH-Wert des Sees (Sommerniederschlag) hinter dem der sommerlichen Temperatur um viele tausend Jahre hinterher.

Diese Ergebnisse stehen in direktem und vollständigem Widerspruch zu der Angstmache um die „Versauerung“ seitens CAGW. Stattdessen zeigt sich, dass eine Erwärmung die Ozeane alkalischer machen sollte, nicht „saurer“.

Clim. Past, 10, 1843-1855, 2014
http://www.clim-past.net/10/1843/2014/
doi:10.5194/cp-10-1843-2014

Die Studie: Water pH and temperature in Lake Biwa from MBT’/CBT indices during the last 280 000 years

T. Ajioka, M. Yamamoto, K. Takemura, A. Hayashida, and H. Kitagawa
Abstract

Wir haben eine 280.000 Jahre überdeckende Aufzeichnung des pH-Wertes und der Wassertemperatur im Biwa-See in Zentraljapan erstellt, indem wir den Methylierungs-Index [?] (MBT) und das Verhältnis des Zyklisierungs-Verhältnisses [?] (CBT) in verzweigten Tetraedern in Sedimenten von Kolben und Bohrloch-Kernen analysierten [Original der ganze Satz: „by analysing the methylation index (MBT) and cyclisation ratio (CBT) of branched tetraethers in sediments from piston and borehole cores“. Das ist mir völlig unverständlich. Eine Bildungslücke von mir? Anm. d. Übers.] Unser Ziel war es, die Reaktionen auf Niederschlag und Lufttemperatur in Zentraljapan besser zu verstehen im Rahmen der Variabilität des Ostasiatischen Monsuns in orbitalen Zeitmaßstäben. Weil der pH-Wert des Wassers im Biwa-See durch den Eintrag von Phosphor- und Kalisalzen bestimmt wird, sollte die Aufzeichnung des pH-wertes im Wasser die Änderungen der Temperatur und des Niederschlags in Zentraljapan spiegeln. Ein Vergleich mit Pollenansammlungen in Sedimentkernen aus dem Biwa-See zeigt, dass der Seewasser-pH bestimmt wurde durch die Sommertemperatur während der Niedrig-Exzentrizitäts-Periode vor 55.000 Jahren, während er in der Hoch-Exzentrizitäts-Periode danach durch den Sommerniederschlag bestimmt worden ist. Von vor 130.000 bis 55.000 Jahren lief die Variation des Seewasser-pH (Sommerniederschlag) dem durch die Sommertemperatur bestimmten Wert um viele tausend Jahre hinterher. Diese Perspektive ist konsistent mit den Ergebnissen früherer Studien (Igarashi und Oba 2006; Yamamoto 2009) denen zufolge die Temperaturvariation der Niederschlagsvariation in Zentraljapan vorausging.

Link: http://wattsupwiththat.com/2014/10/21/new-paper-debunks-acidification-scare-finds-warming-increases-ph/

Übersetzt von Chris Frey EIKE




Europas grüner Selbstmord: Schwerindustrie verlegt Investitionen ins Ausland

In den achtziger Jahren des 19. Jahrhunderts gründete Friedrich Engelhorn eine Firma, um Färbemittel für die boomende Textilindustrie in Europa herzustellen. Fast 150 Jahre später ist diese Firma – Badische Anilin & Soda Fabrik BASF – der weltgrößte Hersteller von Chemikalien.

Trotz des Wachstums zu einem globalen Unternehmen blieb BASF ein integraler Bestandteil der industriellen Basis, die geholfen hat, Deutschland zur größten Volkswirtschaft in Europa zu machen. Und Ludwigshafen bleibt die Heimatstadt des Unternehmens. Das BASF-Grundstück, ausgedehnt über vier Quadratmeilen [ca. 10 km²] entlang des Rheins, ähnelt einer kleinen Stadt mit 33.000 Arbeitern, die in 2000 Gebäuden tätig sind und die durchzogen ist von Straßen und Schienen.

In letzter Zeit allerdings hat BASF immer mehr Investitionen außerhalb Deutschlands getätigt, vor allem in den USA. Und die Gründe hierfür helfen zu illustrieren, warum die deutsche industrielle Ökonomie an Fahrt verliert – und warum Deutschland Gefahr läuft, in eine Rezession zurückzufallen.

BASF-Direktoren sagen, dass die Politik in Deutschland und der Europäischen Union gegen die Industrie gerichtet ist, vor allem dann, wenn es um Energie geht. Diese Politik zwingt große Unternehmen, sich anderswo umzuschauen, wenn sie expandieren wollen.

Energie ist möglicherweise der größte Einzel-Kostenfaktor für BASF. Gewaltige Mengen Energie werden benötigt, um chemische Rohmaterialien wie Äthylen, Propylen und Butan für eine Vielzahl von Produkten herzustellen wie Plastik, Pharmaka und Gummi. Und Öl oder Erdgas bilden die Grundlage zur Erzeugung dieser Chemikalien.

Vor allem in Deutschland sind die Energiepreise nach oben geschnellt als Folge des großen Vorantreibens erneuerbarer Energiequellen seitens der Regierung – eine Politik, die die Regierung von Kanzlerin Merkel Energiewende genannt hat.

Gleichzeitig sorgt die rasant steigende Förderung von Erdgas aus Schiefergestein in den USA für billige und mehr verfügbare Energie denn je, was den Chemiewerken und anderen Fabriken in den USA neue Wettbewerbsvorteile gegenüber Europa verschafft. Das ist ein gewichtiger Grund für BASF, einige seiner Werke in den USA auszubauen und dort auch neue Werke zu errichten.

Schon jetzt hat BASF seine jährlichen Investitionen in den USA verdoppelt auf etwa 1 Milliarde Dollar pro Jahr. Zusammen mit dem französischen Partnerunternehmen Total wurde kürzlich eine Erweiterung um 400 Millionen Euro abgeschlossen und eine Aufwertung ihres petrochemischen Werkes in Port Arthur, Texas, mit 250 Arbeitern.

Als Folge dieser Modifikationen kann die Haupterzeugungsmaschine der Fabrik, eine unter der Bezeichnung Steam Cracker bekannte Installation – die zum ersten Mal 2001 in Betrieb genommen worden war und die zuvor mit Öl betrieben wurde – jetzt die Chemikalien aus Schiefergas herstellen, was riesige Einsparungen zur Folge hat.

„Wir verlagern Investitionsgelder von Europa in die USA als Konsequenz der immer schlechter werdenden Wettbewerbsfähigkeit in Europa“, sagte Harald Schwager, Vorstandsmitglied bei BASF, in einem Interview. Das ist eine bedeutende strategische Verlagerung seitens des Unternehmens, das im vorigen Jahr ein Betriebseinkommen von 74 Milliarden Euro erzielt hatte.

Während der nächsten fünf Jahre plant BASF, ein Viertel seines geplanten Investitionsvolumens in Höhe von 20 Milliarden Euro in Nordamerika zu stecken. Zum ersten Mal plant das Unternehmen, seine Ausgaben in Deutschland vom traditionellen Drittel auf ein Viertel der Investitionssumme zurückzufahren.

BASF ist nicht das einzige Unternehmen, dass sich jenseits der Grenzen von Europa umschaut. Seit 2011 hat die chemische Industrie insgesamt – Deutschlands drittgrößter Industriesektor nach Auto- und Maschinenbau – seine Produktion oder Investitionen in Deutschland nicht erhöht, sagt der Industrieverband VCI.

Und einer Umfrage der deutschen Industrie- und Handelskammer zufolge erwägt fast ein Viertel aller Unternehmen der Schwerindustrie, die Produktion in Deutschland zu verringern, (…) „Die schlechte Nachricht aus europäischer Perspektive – also nicht aus der Perspektive eines einzelnen Unternehmens – ist, dass es nicht nur BASF ist“, sagte Herr Schwager. „Es sind viele energieintensive Unternehmen. Sie merken immer mehr, dass die Vorteile einer Verlagerung von Investitionen aus Europa in die USA immer größer werden“.

Link: http://www.thegwpf.com/europes-green-suicide-heavy-industry-moves-investment-abroad/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Steht davon eigentlich irgendetwas in der deutschen „Qualitäts“-Presse? Wie sonst wenn nicht hier soll man also darüber informieren?




Zahl der Naturkatastrophen sinkt 2013 auf Zehn-Jahres-Tief

Auch die Süddeutsche Zeitung hat es am 16. Oktober 2014 bemerkt:

Zahl der Naturkatastrophen sinkt 2013 auf Zehn-Jahres-Tief
Die Zahl der Naturkatastrophen ist im vergangenen Jahr so niedrig gewesen wie seit zehn Jahren nicht mehr. Das geht aus dem „Weltkatastrophenbericht 2014” hervor, den die Föderation der Rotkreuz- und Roter-Halbmond-Gesellschaften (IFRC) in Genf veröffentlichte. Demnach wurden im vergangenen Jahr 337 Naturkatastrophen gezählt, fast die Hälfte des Höchststandes 2005. Die Zahl der Toten lag bei 22 452 und damit deutlich unter dem Durchschnitt des Jahrzehnts von 97 954 Opfern.

Weiterlesen in der Süddeutsche Zeitung.

Übernommen von Die kalte Sonne




Die deutsche Energiewende – das Billionen-Grab

Wie sich die 7 Billionen Euro zusammensetzen

Allein die zusätzlichen Stromkosten, die das Erneuerbare-Energien-Gesetz (EEG) verursacht, beziffert Limburg auf rund 2 Billionen Euro. Die zusätzlichen Kosten für das Stromnetz mit weiteren Trassen veranschlagt er auf 1 bis 1,5 Billionen. Die Energiesparverordnung (EnEV) führt nach Limburg zu einer Kostenbelastung von rund 3 Billionen.

Hinzukommt: Mit zu hohen Stromkosten verlieren Betriebe an Wettbewerbsfähigkeit. Zwingt das, wie es schon geschieht, zu Schließungen oder zu Verlagerungen ins Ausland, gehen Arbeitsplätze dauerhaft verloren. Die Kosten, die sich daraus ergeben, sind noch nicht bezifferbar, aber es werden, so Limburg, weitere Milliarden sein. Hinzukommt, dass mit immer mehr Windkraft- und Fotovoltaikanlagen die Gefahr für die Netzstabilität noch größer wird als schon bisher. Denn der Strom mit Wind und Sonne ist höchst unzuverlässig, ist „Flatterstrom“. Netzzusammenbrüche führen zu flächendeckenden Stromausfällen. Auch diese Kosten lassen sich vorher schwer berechnen. In die Milliarden werden auch sie gehen.

7 Billionen Euro sinnlos verpulvert

Also rund 7 Billionen insgesamt. Wer nun sagt „Na ja, bis zum Jahr 2050 ist es noch ziemlich weit, und der jährliche Betrag – seit Beginn bis dahin durchschnittlich auf die Jahre gerechnet – sieht doch schon viel kommoder aus, das packen wir schon“, der unterschlägt, das auch der jährliche Betrag schon zuviel ist. Vor allem aber unterschlägt er dies: Diese Kosten von 7 Billionen sind völlig unnötig und werden sinnlos verpulvert. Denn ohne seine „Energiewende“ könnte sich Deutschland wie zuvor reibungslos und sicher mit Strom versorgen, ohne diese Billionen ausgeben zu müssen und ohne alle damit zu belasten. Und noch schlimmer: Das Klima wird damit schon gar nicht gerettet, dieses vorgebliche Ziel also noch nicht einmal erreicht.

Wieviel sind 7 Billionen? Zum Beispiel: 140 Milliarden 50-Euro-Scheine

Eine Billion ist bekanntlich eine Eins mit zwölf Nullen. Eine Billion sind tausend Milliarden, sieben Billionen also siebentausend Milliarden oder siebenhunderttausend Millionen oder sieben Millionen Millionen. Das sind Größenordnungen, die sich der Normalbürger schwer vorstellen kann. Versuchen wir es mal mit der 50-Euro-Banknote. Wer eine Billion Euro in 50-Euro-Scheinen auszahlen wollte, müsste sich 20 Milliarden dieser Scheine besorgen. Würde man alle diese Geldscheine der Länge nach hintereinander legen, so entstünde ein Band, das sich siebzigmal um den Erdball wickeln ließe. 2)   Das also ist eine Billion. Aber mit sieben Billionen Euro in 50-Euro-Noten (= 140 Milliarden Scheine) käme man vierhundertundneunzigmal um die Erde herum. Also ziemlich viel Holz, untertreibend salopp gesagt. Aber zuviel Holz, wenn man nicht verblödet ist, es sei denn, es stecken Ziele dahinter, die verborgen bleiben sollen. Aber was verborgen wird, ist noch gefährlicher.

Womit die Menschen für die „Energiewende“ geködert werden

An Zielen, an Absichten, die nicht verborgen werden, führte Limburg in Frankfurt (neben dem Vermeiden von CO2 als „Klimaschutz“) diese auf: eine nachhaltige Entwicklung der Energieversorgung ermöglichen, die volkswirtschaftlichen Kosten der Energieversorgung auch durch die Einbeziehung langfristiger externer Effekte verringern (Internalisierung externer Kosten), fossile Energieressourcen schonen und die Weiterentwicklung von Technologien zur Erzeugung von Strom aus erneuerbaren Quellen fördern sowie mit der EnEV bis 2050 einen nahezu „klimaneutralen“ Gebäudebestand zu erreichen. Ebenfalls ausdrückliches Ziel der Energiewende ist „Weg von der Stromerzeugung mit Kernkraft“. Aber für die Wende geködert werden die Menschen mit der bekannten, aber unbewiesenen Behauptung, anthropogenes CO2 führe zu einer zu starken Erwärmung der Erde und damit zu einem  Klimawandel, folglich sei das (bestehende) Klima zu retten.

Für 7 Billionen Euro ein Temperatursenkungseffekt in 36 Jahren um 0,004 Grad

Selbst dann, wenn man der Behauptung glaubt und ihr folgt: Das Ergebnis ist derart grotesk, dass es ein Wahnsinn ist, dafür 7 Billionen Euro auszugeben und zu verschwenden. Auch das führte Limburg vor. Geht man vom Jahr 2000 aus, dann belief sich der errechnete deutsche Ausstoß von anthropogenem CO2 in Deutschland (Industrie, Haushalte, Verkehr, Energie u.a.) auf rund 830 Millionen Tonnen. Da sind zwar auch andere sogenannte Treibhausgase dabei, aber zu 99 Prozent bestehen diese 830 Millionen aus CO2. Der Ausstoß dieses vorgeblichen Treibhausgases soll – unter anderem durch Stromerzeugung mittels Wind, Sonne und „Biogas“ – bis 2050 auf 166 Millionen Tonnen verringert werden. Dann hätte das einen errechneten Temperatursenkungseffekt von gewaltigen 0,004 Grad – aber nur rein theoretisch, denn ob es wirklich (in 36 Jahren!) so kommt, ist unbeweisbar.

Für zigtausend subventionierte Arbeitsplätze zigtausende bedrohte und vernichtete

Die Arbeitsplätze in der Windkraft-, Fotovoltaik- und Biogasindustrie sind hochsubventioniert. So beliefen sich die EEG-bedingten Zwangsbelastungen der Stromverbraucher 2013 netto auf rund 20 Milliarden Euro. Mit diesem Betrag wurden die Erzeuger von EEG-Strom (aus Wind, Sonne, Biogas) subventioniert. 2013 waren in dieser Industrie nach Angaben Limburgs rund 85 000 Menschen real beschäftigt. Jeder Arbeitsplatz ist also im Durchschnitt mit 235 000 Euro subventioniert worden, weit mehr als einst im deutschen Kohlebergbau. Diesen subventionierten Arbeitsplätzen muss man auch jene Arbeitsplätze gegenüberstellen, die die Energiewende durch die Stromverteuerung vernichtet. Als Beispiele direkter Arbeitsplatzverluste nannte Limburg diese: Bei den Stromversorgern seien 20 000 Beschäftigte bedroht, bei den Kraftwerkzulieferern akut derzeit etwa 10 000, EnBW baue 1350 Arbeitsplätze ab, RWE 10 400, EON 11 000, Siemens (bei der Windkraft) 1000, Vattenfall 1500 sowie RWE, Evonik, Lanxess zusammen 30 000.3)

1) Veranstalter dieser 8. Konferenz Internationalen Klima- und Energiekonferenz (IKEK-8) und der früheren sieben Konferenzen ist das Europäische Institut für Klima und Energie e.V., das sich abgekürzt EIKE nennt. Michael Limburg ist dessen Vize-Präsident.

2) Quelle für das Beispiel hier.

3) Limburg gab auch einen Überblick, womit alles begann, und darüber, wie es weiterging. Zuerst gab es das Stromeinspeisungsgesetz, in Kraft getreten am 1. Januar 1991. Seine Autoren waren Matthias Engelsberger (CSU) und Wolfgang Daniels (Grüne). 1991 standen in Deutschland rund 1000 Windkraftanlagen, 1999 waren es schon 10 000. Bundesumweltministerin von 1994 bis 1998 ist Angela Merkel (CDU) gewesen, danach hat bis 2005 Jürgen Trittin (Die Grünen) das Amt gehabt. Am 1. Januar 2001 folgte das Erneuerbare Energien Gesetz (EEG). Die Autoren: Michaele Hustedt, Hans-Josef Fell (beide Bündnis 90/Die Grünen), Hermann Scheer und Dietmar Schütz (beide SPD). 2001 waren rund 11 500 Windkraftanlagen aufgestellt und 2013 rund 24 000. Am 1. Februar 2002 trat die Energieeinsparverordnung (EnEV) in Kraft.

Der Beitrag erschien zuerst auf dem Blog von Dr. K.P.Krause als dessen erster Teil. Weitere Teile daraus folgen in Kürze




Die neue, „vorbildliche“ EU-Klimapolitik – Ein Meisterwerk doppelbödiger Täuschung

Die mit diesen Beschlüssen verfolgte Absicht ist ebenso einfach wie klar: Angesichts der Tatsache, dass selbst in dem Land, wo ein Großteil der Bevölkerung den grünen Göttern weiterhin kniefällig opfert, manche Häretiker und sogar Teile der Industrie immer lauter gegen die Belastungen durch eine existenzvernichtende Energiepolitik aufbegehren, hat die große Mutterspinne beschlossen, sich etwas aus der Schusslinie zu bringen, indem eine politische „große Rochade“ inszeniert wird. Statt sich allein dem Volkszorn auszusetzen, sollen andere große Länder – vor allem die USA und China – dazu gebracht werden, einen bindenden UN-Beschluss mitzutragen, der massive CO2-Reduktionsziele vorschreibt. Gestützt auf diesen äußeren Zwang, so die offensichtliche Hoffnung mancher EU-Granden, kann man dann den zunehmend widerspenstigen eigenen Völkern und sogar ganzen Nationen weiterhin Vorschriften „zur Rettung des Planeten“ aufoktroyieren. Um dieses edle Ziel zu erreichen, haben die maßgeblichen Strippenzieher der europäischen Politik ein Meisterwerk doppelbödiger Täuschung inszeniert. Ungeachtet der Tatsache, dass die europäische Klimapolitik inzwischen fatal an den biblischen Koloss auf tönernen Füßen erinnert, haben sie alle erdenklichen politischen Tricks eingesetzt, um mit freundlicher Mithilfe der Medien nach außen den Anschein zu erwecken, als stünde die EU geschlossen hinter kühnen Maßnahmen zur Bekämpfung des „Klimawandels“. Das Täuschungsmanöver ist in der Tat brillant: Während der Protest gegen ruinöse Strompreise langsam, aber sicher zunimmt, wird den Nationen, die am „Klimagipfel“ in Paris teilnehmen, die Illusion einer EU vorgegaukelt, die geschlossen und entschlossen hinter ambitionierten Zielen zur Klimarettung steht. In kommenden Jahren wird man dann, so die offensichtliche Hoffnung, die aufgrund dieses Täuschungsmanövers zustande gekommenen verbindlichen UN-Beschlüsse als Druckmittel benutzen können, um der widerstrebenden Bevölkerung eine Politik aufzuzwingen, die den eigenen Interessen diametral entgegengesetzt ist.

Unmögliches wird sofort erledigt

Dabei ist der Trick eigentlich leicht zu durchschauen. Man muss sich nur einige Fakten in Erinnerung rufen, welche die meisten sogenannten „Qualitätsmedien“ in ihrer Berichterstattung sorgfältig ausgeklammert haben. Ein wesentlicher Aspekt ist beispielsweise die Tatsache, dass Deutschland – als treibende Kraft hinter diesem Mummenschanz – selbst außerstande sein wird, die vollmundig proklamierten Ziele zur CO2-Reduktion einzuhalten. In den ersten Jahren nach der Wiedervereinigung war noch leicht gefallen, den CO2-Ausstoß zu senken, da dies eine quasi automatische Folge der Stilllegung maroder und grotesk ineffizienter Industrien der ehemaligen DDR war. So gelang es, den CO2-Ausstoß, der 1990 noch bei 1042 Mio. Tonnen lag, bis 2009 auf nur noch 786 Mio. Tonnen zu senken. Seither ist er jedoch langsam, aber stetig wieder auf 834 Mio. Tonnen im Jahre 2013 angestiegen.

Bild 1: Stromerzeugung aus EE-Quellen in TWh (Endangabe in Prozent des Gesamtverbrauchs, Grafik-Limburg, Quellen siehe Bild) vs CO2 Emissionen zur Stromerzeugung in Deutschland

Somit haben wir die eigentlich widersinnige Situation, dass Deutschland als leistungsstärkste Industrienation Europas außerstande sein wird, die „Klimaziele“ zu erreichen, die man anderen schmackhaft machen will.

Bequeme Ausstiegsklausel

Auch die Zustimmung der übrigen europäischen Nationen zu den lauthals proklamierten „40-27-27“-Zielen wurde in vielen Fällen nur durch Einsatz aller möglichen politischen Tricks erreicht. Die Bandbreite reichte dabei von Erpressung bis hin zur Bestechung, indem man beispielsweise an skeptische Nachbarländer wie Polen großzügige Geschenke wie umfangreiche Gratiszuteilungen an CO2-Zertifikaten verteilte. Dennoch konnte man den letztlich präsentierten Konsens nur sicherstellen, indem man den Zweiflern in einem wesentlichen Punkt entgegenkam: Es gelang den Verlierern dieses Machtkampfs, in dem Vertragswerk eine Zustimmungsklausel zu verankern, die es in Zukunft jedem Land ermöglichen wird, unerwünschte Beschlüsse zu blockieren. Einzelne Länder der EU werden daher künftig die Möglichkeit haben, die hehren Ziele, die man jetzt allen anderen Nationen der Welt aufschwatzen will, innerhalb der EU selbst zu verhindern. Eine wirklich raffiniert doppelbödige Ausstiegsmöglichkeit….

Das Geldscheffeln soll weitergehen

Fasst man all diese Punkte zu einem Gesamtbild zusammen, so erkennt man die wahren Dimensionen des politischen Schwindels, der hier in einer Serie aufwendiger, sorgfältig auf nationaler wie auch internationaler Ebene arrangierter Täuschungsmanöver durchgezogen werden soll. Vorrangiges Ziel ist dabei zunächst, andere Nationen dazu zu bringen, „Klimarettungsziele“ zu unterstützen, welche die europäischen Länder selbst in Wahrheit weder imstande noch bereit sein werden, selbst zu tragen. Offensichtlich hofft man darauf, dass dank dieser Täuschung einflußreiche Länder wie die USA, deren Präsident aus seinen „Klimaschutzneigungen“ keinen Hehl macht, oder wie das von erheblichen Smogproblemen gebeutelte China den ausgelegten Köder schlucken werden. Hat man diese erst einmal auf seiner Seite, so dürfte es leicht fallen, die restlichen Länder mit an Bord zu bekommen. Natürlich auf Kosten der Masse der Bevölkerung.

Doch neben zahlreichen Verlierern wird es im Falle der Durchsetzung dieser Politik auch diverse Gewinner geben. Treibende Kraft hinter diesen Machenschaften ist der dringende Wunsch interessierter Kreise, die bisherige Gelddruckmaschine „Klimarettung“ weiter unter Dampf zu halten. Dieses Geschäftsmodell von mittlerweile industriellen Ausmaßen beschert nämlich den entsprechenden Oligarchen Gewinne, neben denen sich die Erträge der internationalen Drogenmafia geradezu mickrig ausnehmen. Und im Gegensatz zu letzteren braucht man als „Öko-Mafiosi“ weder seine Freiheit noch gar sein Leben auf’s Spiel zu setzen…

Fred F. Mueller




Taschenspielertricks mit der EEG Umlage – AGORA fordert weitere EEG Subventionen..

Reduzierung der EEG-Umlage

In den letzten Tagen wurde in der Presse die Reduzierung der EEG-Umlage von 6,24 Cent je Kilowattstunde auf 6,17 Cent angekündigt. Dies ist nicht gerade viel, aber selbst diese winzige Senkung scheint einzig auf einem Buchungstrick zu beruhen. Der Bund der Steuerzahler meldet:

„Trügerischer EEG-Überschuss: Das EEG-Konto weist zum Ende August einen Überschuss von 1,5 Mrd. Euro aus. Der Überschuss ist jedoch hauptsächlich aufgrund einer Buchungsänderung entstanden. Die Zahlungen der sogenannten Marktprämie, dem zweithöchsten EEG-Ausgabeposten, werden künftig erst im Folgemonat kontowirksam. Somit fielen im August einmalig Ausgaben von rund 700 Mio. Euro weg, die nun erst im September das Konto belasten werden. Aufgrund des Überschusses kann aber mit einer Reduzierung der EEG-Umlage zum Jahreswechsel gerechnet werden.“

http://www.handelsblatt.com/politik/deutschland/eeg-umlage-deutliche-entlastung-von-stromkunden-bleibt-aus/10860376.html

http://www.steuerzahler.de/Stromverbraucher-endlich-entlasten/63717c73763i1p637/index.html

Planer fordern eine neue Ökostrom-Abgabe

… der Kreativität sind keine Grenzen gesetzt:

http://www.welt.de/wirtschaft/energie/article133325028/Planer-fordern-eine-neue-Oekostrom-Abgabe.html

Die Frage ist, wer das bezahlen soll, wer davon profitiert und was es nutzt.

 

Schwarzbuch des Bundes der Steuerzahler kritisiert öffentliche Steuergeldverschwendung durch Windkraft

„Kein Glück mit der Windenergie

Die Naturstrom Landkreis Böblingen GmbH, eine Tochtergesellschaft des Landkreises Böblingen, hatte große Pläne. Im Dezember 2011 wurde die Planung für den Bau von zwei Windkraftanlagen auf einem Flurstück in der Nähe der Autobahn und unweit des Stuttgarter Flughafens auf der Gemarkung der Stadt Leonberg endgültig angestoßen. Dazu beauftragte man eine Fachfirma zur Begleitung und Erstellung der Genehmigungsunterlagen. Die Genehmigung schien kein Problem. Windmessungen ergaben eine positive Wirtschaftlichkeitsprognose, die Erschließung schien einfach und auch der Natur- und Artenschutz war gewährleistet. Als offener Punkt stand jedoch noch das Thema Flugsicherung aus – und das wurde dem Projekt zum Verhängnis. Im Juli 2013 wurden die Planungen aufgrund von Einwänden der Flugsicherung gestoppt und nach einer negativen Entscheidung durch die Fluglärmkommission im November 2013 endgültig eingestellt. An den bis dahin angefallenen Entwicklungskosten in Höhe von rund 373.000 Euro beteiligen sich die Stadtwerke Sindelfingen anteilig mit rund 27.000 Euro für einige Messungen. Den Löwenanteil von rund 346.000 Euro trägt dagegen die Naturstrom Landkreis Böblingen GmbH. Inzwischen ist klar: Auch die für 2014 vorgesehene Änderung des Erneuerbare-Energien-Gesetzes mit geringeren Einspeisevergütungen hätte – so die Ausführungen des Landrats – das wirtschaftliche Aus des Projekts bedeutet. Auf Nachfrage teilte der Landkreis Böblingen mit, dass er keine weiteren Windenergieanlagen plane.“

http://www.schwarzbuch.de/content/kein-gluck-mit-der-windenergie

Hier wird ein Projekt kritisiert, welches gar nicht realisiert wurde. Was ist aber mit all den kommunalen Windparks, welche im laufenden Betrieb Verluste produzieren? Bitte meldet alle defizitären kommunalen Windparks (auch kommunaler Energieversorger / Stadtwerke) an den Bund der Steuerzahler und den Landesrechnungshof, am besten mit entsprechendem Hintergrundmaterial (z.B. Auslastung in % [Volllaststunden], Gegenüberstellung IST-Ertrag mit SOLL-Ertrag aus Projektprospekt, IST-Ertrag als % des Referenzertrages, usw.).

http://www.schwarzbuch.de/node/add/verschwendungsfall

  

Neue Bauordnung mit Überraschungen

Ökologisches Bauen:  Jetzt kommt die Zwangsbegrünung

http://www.faz.net/aktuell/wirtschaft/wirtschaftspolitik/bauordnung-in-baden-wuerttemberg-zwangsbegruente-haeuser-13208204.html

http://www.faz.net/aktuell/wirtschaft/baden-wuerttemberg-gruene-fesseln-13208196.html

Ziemlich problemlos soll künftig jeder in seinem Garten Kleinwindkraftanlagen aufbauen können …

Wer einen Garten hat, darf dort zukünftig ein kleines Windrad hinstellen, damit die Energiewende noch mehr Schwung bekommt. Ob es dem Nachbarn nun passt oder nicht … 

Grüne Energie wird überproportional viel gefördert

40 Milliarden Euro Subventionen für Ökostrom

http://www.faz.net/aktuell/wirtschaft/eu-unterstuetzungen-helfen-am-ehesten-oekostrom-13204505.html

http://www.handelsblatt.com/politik/international/eu-studie-140-milliarden-euro-energiesubventionen/10833902.html

Den „niedrigen Kosten“ der Windenergie sind sicherlich noch die Kosten für Backup-Kraftwerke bzw. Stromspeicher und die Stromtrassen hinzuzurechnen um ein realistisches Bild zu bekommen.

Mit Dank an BÜRGERINITIATIVE  „PRO SCHURWALD“     

mailto: pro-schurwald-lichtenwald@web.de

Internet:  www.pro-schurwald.com




Eine einfache Wahrheit: Computer-Klimamodelle können nicht funktionieren

Bild rechts (Abbildung 1): Wigley und H.H.Lamb, Gründer der CRU. Quelle

IPCC-Computer-Klimamodelle sind die Zugpferde bei der Irreführung der Öffentlichkeit hinsichtlich AGW mit der Behauptung, dass menschliches CO2 die globale Erwärmung verursacht. Sie erzeugen die Ergebnisse, für die sie konstruiert worden sind.

Das Akronym GIGO (Garbage In, Garbage Out) reflektiert den Umstand, dass die meisten an Computermodellen Arbeitenden das Problem kannten. Einige schlagen vor, dass es in der Klimawissenschaft tatsächlich steht für Gospel In, Gospel Out [etwa: Prinzip hinein, Prinzip heraus. Ich belasse es wegen der vielen Bedeutungen beim Original. Anm. d. Übers.]. Die Gospel Out-Ergebnisse sind die IPCC-Vorhersagen (Projektionen), und sie sind konsistent falsch. Das ist für mich keine Überraschung, weil ich von Anfang an die Unzulänglichkeit der Modelle betont habe. Ich habe beobachtet, wie die Klimamodellierer die Klimakonferenzen als Präsentatoren von Schlüsselbemerkungen gekapert und dominiert haben. Es waren Modellierer, die die CRU dominiert haben und mittels der CRU auch das IPCC. Die Gesellschaft ist immer noch fasziniert von Computern, so dass sie diesen eine Aura der Genauigkeit und Wahrheit zugebilligt wird, die durch nichts gerechtfertigt ist. Pierre Gallois erklärt dazu:

Falls man Albernheiten in einen Computer füttert, kommt nichts außer Albernheiten heraus. Aber diese Albernheiten hier sind durch eine sehr teure Maschine gelaufen und wurden irgendwie geadelt, und niemand wagt es, sie zu kritisieren.

Michael Hammer fasst es so zusammen:

Es ist wichtig, sich daran zu erinnern, dass der Modelloutput vollständig und exklusiv bestimmt wird durch die in den Input-Fragen enthaltenen Gleichungen. Der Computer bewirkt kein Hinterfragen, bringt keine neuen Informationen und keine größere Sicherheit im Output. Er liefert nur Rechenleistung.

Es ist ein guter Artikel, der jedoch den wichtigsten aller Punkte nicht anspricht, nämlich dass ein Modell nur so gut ist wie die Struktur, auf dem es konstruiert wurde, nämlich Wetteraufzeichnungen.

Die IPCC-Lücke zwischen Daten und Modellen beginnt

Dieses Auslassen ist keine Überraschung. Der CRU-Gründer Hubert Lamb definierte das grundlegende Problem, und sein Nachfolger Tom Wigley besorgte die Transition zum größeren Problem von politisch dirigierten Klimamodellen.

Der Grund von Lamb, die CRU zu gründen, wird auf Seite 203 seiner Autobiographie genannt mit dem Titel: Through all the Changing Scenes of Life: A Meteorologists Tale”:

…es war klar, dass die erste und größte Notwendigkeit darin bestand, die Fakten von Aufzeichnungen des natürlichen Klimas aus der Vergangenheit zu etablieren, bevor irgendwelche Nebeneffekte menschlicher Aktivitäten wichtig geworden sein könnten“.

Lamb wusste, was los war, wenn er kryptisch schreibt:

Mein direkter Nachfolger Professor Tom Wigley war zuallererst an den Aspekten einer Veränderung des Weltklimas interessiert als Folge menschlicher Aktivitäten, primär durch das Verbrennen von Holz, Kohle, Öl und Gasvorräten…“ – „Nach nur wenigen Jahren wurde fast die gesamte Arbeit an der historischen Rekonstruktion von Klima- und Wettersituationen der Vergangenheit, die die CRU zunächst so bekannt gemacht hatte, aufgegeben“.

Lamb erklärte des Weiteren, wie eine Zuwendung der Rockefeller Foundation zu einem völligen Fehlschlag wurde:

…eine verständlicherweise unterschiedliche wissenschaftliche Beurteilung zwischen mir und dem Wissenschaftler Dr. Tom Wigley, den wir damit beauftragt haben, die Verantwortung für die Forschung zu übernehmen“.

Wigley trieb die Anwendung von Klimamodellen voran, aber Lamb wusste, dass diese nur so gut waren wie die Daten, die für ihre Konstruktion verwendet worden waren. Lamb liegt immer noch richtig. Die Modelle beruhen auf Daten, die entweder gar nicht existieren oder hinsichtlich aller Messungen ungeeignet sind.

Abbildung 2

Das Konstrukt von Klimamodellen

Modelle reichen von einfachen maßstäblich verkleinerten Kopien mit erkennbaren individuellen Komponenten bis zu Abstraktionen wie mathematische Formeln, die weit entfernt sind von der Realität, wobei Symbole die individuellen Komponenten repräsentieren. Abbildung 2 ist ein einfaches schematisches Modell mit den für ein Computermodell notwendigen Gliederungen. Der Abstand der Gitterpunkte (gezeigt hier 3° mal 3°) variiert, und es wird behauptet, dass eine Reduktion des Abstandes der Gitterpunkte verbesserte Genauigkeit liefert. Das spielt aber keine Rolle, weil es so wenige Stationen mit angemessener Länge oder Zuverlässigkeit gibt. Die mathematische Gleichung für jeden Gitterpunkt kann nicht genau sein.

Abbildung 3: Anzahl der Stationen nach NASA GISS

Diese Karte ist betrügerisch, weil jeder Punkt eine einzelne Wetterstation repräsentiert, aber im Maßstab der Karte jeweils ein paar Hundert Quadratkilometer überdeckt. Aber unabhängig davon ist es Realität, dass es in riesigen Gebieten der Welt überhaupt keine Wetterstationen gibt. Möglicherweise gibt es an über 85% der Gitterpunkte keine Daten. Das tatsächliche Problem ist sogar noch größer als NASA GISS, vielleicht unwissentlich, und wird in Abbildung 4 illustriert:

Abbildung 4

Abbildung 4(a) zeigt die Länge der Aufzeichnung. Nur 100 Stationen reichen 100 Jahre zurück, und fast alle von ihnen liegen in dicht besiedelten Gebieten im Nordosten der USA oder Westeuropa und sind Schauplatz des städtischen Wärmeinseleffektes (UHI). Abbildung 4(b) zeigt den Rückgang der Anzahl von Stationen um das Jahr 1960. Teils erfolgte dieser Rückgang wegen der vermuteten besseren Abdeckung durch Satelliten. Effektiv war das aber erst 2003-2004 der Fall. Die Messungen an der Erdoberfläche blieben der Standard für die IPCC-Berichte. Abbildung 5 zeigt eine von der CRU erstellte Karte für den Arctic Climate Impact Assessment (ACIA)-Bericht [etwa: Bericht zur Abschätzung von Klimaauswirkungen in der Arktis].

Abbildung 5.

Es ist eine stereographische Projektion über den Zeitraum 1954 bis 2003 und zeigt für den Arktischen Ozean (14 Millionen km², also fast die Größe von Russland) „no data“. Trotz des signifikanten Rückgangs der Anzahl von Stationen in Abbildung 4(b) zeigt die Graphik 4(c) nur einen leichten Rückgang der abgedeckten Gebiete. Dies liegt daran, dass man annimmt, dass jede Station einen Umkreis von 1200 km um die Station repräsentiert. Das ist absurd. Man zeichne einen Kreis mit einem Radius von 1200 km um irgendeine Station an Land oder auf See und schaue, was darin eingeschlossen ist. Die Behauptung ist sogar noch dümmer, wenn der Umkreis teilweise Wasser überdeckt.

Abbildung 6a zeigt den direkten Abstand zwischen Calgary und Vancouver, der 670 km beträgt und in etwa auf der gleichen geographischen Breite liegt.

Abbildung 6a

Abbildung 6b: Distanz zwischen London und Bologna 1154 km.

Abbildung 6c: Distanz zwischen Trondheim und Rom 2403 km. Man beachte, dass dieser Kreis mit Durchmesser 2400 km fast ganz Europa einschließt.

Ein Beispiel der Probleme, die sich aus der 1200-km-Behauptung ergeben, zeigte sich vor ein paar Jahren in Saskatchewan. Der Ombudsmann der Provinz suchte meinen Rat hinsichtlich Behauptungen einer Frostversicherung, die sinnlos schienen. Die Landwirtschafts-Versicherung der Regierung entschloss sich, Versicherungen gegen Frost anzubieten. Jeder Landwirt wurde aufgefordert, die nächstliegende Wetterstation als Basis für Entscheidungen heranzuziehen. Schon im allerersten Jahr kam es zu Frost bereits Ende August. Mittels der Aufzeichnungen von Wetterstationen erhielt die Hälfte aller Landwirte keinen Ausgleich, weil ihre Station +0,5°C gemessen hatte, obwohl sie alle von „schwarzem Frost“ betroffen waren. Die Bezeichnung „schwarzer Frost“ deswegen, weil vormals grüne Blätter nach dem Frost schwarz waren. Die andere Hälfte wurde ausbezahlt, obwohl es dort keine Beweise für physischen Frost gab, die Station aber eine Temperatur von -0,5°C angezeigt hatte. Der Ombudsmann konnte dieses Missverhältnis und die Ungenauigkeit der Temperaturmessungen nicht glauben, vor allem in einem nahezu isotropen Gebiet. Vor allem, nachdem ich darauf hingewiesen hatte, dass die Temperaturmessungen von einer Stevenson Wetterhütte (Screen) stammten, zumeist 1,25 bis 2 m über Grund und damit über dem Getreide. Die Temperaturen unterhalb dieses Niveaus sind markant unterschiedlich.

Empirischer Test der Temperaturdaten

Eine Gruppe, die ein Kartographie-Projekt durchführte und dabei versuchte, Daten für die praktische Anwendung zu verwenden, brachte die Unzulänglichkeit der Temperaturaufzeichnung ans Licht:

Die Story dieses Projektes beginnt mit Kaffee, wir wollten Karten erstellen, die zeigten, wo in der Welt Kaffee am besten gedeiht und wohin er nach der Ernte geht. Wir erkundeten Daten der weltweiten Kaffeeproduktion und besprachen, wie man die optimalen Wachstumsgebiete auf der Grundlage entscheidender Umweltbedingungen kartographieren könnte: Temperatur, Niederschlag, Höhe, Sonnenlicht, Wind und Bodenqualität.

Den ersten extensiven Datensatz, den wir finden konnten, enthielt Temperaturdaten vom National Climatic Data Center NCDC der NOAA. Also begannen wir eine Karte der Erde zu zeichnen auf der Grundlage der historischen monatlichen Temperatur. Der Datensatz enthielt Messungen bis zum Jahr 1701 zurück von über 7200 Wetterstationen auf der ganzen Welt.

Jede Klimastation konnte an einem bestimmten Punkt auf dem Globus platziert werden aufgrund der geographischen Koordinaten. Nordamerika und Europa wiesen dicht gedrängt Messpunkte auf, während die räumliche Verteilung von Stationen in Südamerika, Afrika und Ostasien ziemlich spärlich ist. Die Stationsliste veränderte sich von Jahr zu Jahr, wobei einige Stationen neu online gingen und andere verschwanden. Dies bedeutete, dass man nicht einfach die Temperatur an einem bestimmten Punkt mit der Zeit plotten konnte.

Abbildung 7

Die von ihnen erstellte Karte illustriert die Lücken sogar noch stärker, aber das war nicht das einzige Phänomen.

An dieser Stelle hatten wir eine Karte mit einer passablen Approximation der globalen Temperatur (Abbildung 7), aber es war schwierig, Daten hinsichtlich Niederschlag, Höhe über NN, Sonnenlicht, Wind und Bodenqualität zu finden. Die Temperaturdaten allein lieferten uns keine überzeugende Story.

UK mag genaue Temperaturmessungen haben, aber das ist ein kleines Gebiet. Viel größere Länder weisen ungeeignete Instrumentation und Messungen auf. In den USA gibt es möglicherweise das beste, mit Sicherheit aber das teuerste Netzwerk. Forschungen von Anthony Watts zeigten, dass die US-Aufzeichnungen nur 7,9 Prozent Wetterstationen mit einer Genauigkeit unter 1°C aufweisen.

Daten bzgl. Niederschlag sind das größere Problem

Wasser in allen Aggregatzuständen ist kritisch für den Energietransport durch die Atmosphäre. Der Transfer von zusätzlicher Energie aus den Tropen, um Defizite in Polargebieten auszugleichen (Abbildung 8) erfolgt zum größten Teil in Gestalt latenter Wärme. Niederschlag ist lediglich eine Art, diese grundlegende Variable zu messen.

Abbildung 8

Es ist eine nur sehr schwer genau zu messende Variable, und die Aufzeichnungen sind räumlich und zeitlich völlig ungeeignet aufgelöst. Ein Beispiel dieses Problems zeigte sich in Versuchen, Computermodelle zu verwenden, um den afrikanischen Monsun vorherzusagen (Science, 4. August 2006):

Alessandra Giannini, eine Klimawissenschaftlerin an der Columbia University: „Einige Modelle sagen eine nassere Zukunft vorher, andere eine trockenere. Sie können nicht alle richtig sein“.

Ein ausgemachter Schuldiger hierfür war die Unzulänglichkeit der Daten.

Ein offensichtliches Problem ist das Fehlen von Daten. Das afrikanische Netzwerk von 1152 Wetterstationen, die Daten in Echtzeit übermitteln und Eingang in internationale Klimaarchive finden, enthält nur ein Achtel der minimalen Stationsdichte, wie sie von der WMO verlangt wird. Außerdem fallen die tatsächlich bestehenden Stationen oftmals aus.

Wahrscheinlich erfüllen nur sehr wenige Gebiete die von der WMO vorgegebene Dichte. Das Problem ist komplexer, weil sich die Temperatur relativ einheitlich ändert, allerdings mit Sicherheit nicht in einem Radius von 1200 km. Die Niederschlagsmenge jedoch variiert schon im Abstand einiger Meter. Viel Niederschlag wird von Schauern geliefert aus sich im Tagesverlauf entwickelnden Cumulus-Wolken. Viele Farmer in den USA sind bestens vertraut damit, dass Teile ihrer Ländereinen einen Wolkenbruch abbekommen, während es in anderen Teilen trocken bleibt.

Temperatur und Niederschlagsmenge, die beiden wichtigsten Variablen, sind vollkommen ungeeignet, um die Bedingungen zu schaffen und damit die Formel für irgendein Gitterpunktsnetz im Modell. Im jüngsten Zustandsbericht des IPCC, AR5, heißt es in zwei klassischen Understatement-Bemerkungen:

Die Fähigkeit der Klimamodelle, die bodennahe Temperatur zu simulieren, hat sich in vielen, aber nicht allen wichtigen Aspekten verbessert relativ zu der Erzeugung der Modelle wie im AR 4 beschrieben.

Die Simulation großräumiger Verteilungen des Niederschlags hat sich seit dem AR 4 etwas verbessert, obwohl die Modelle hinsichtlich des Niederschlags weiterhin viel schlechter sind als hinsichtlich der Temperatur.

Aber die Atmosphäre ist dreidimensional, und die Anzahl der Daten über der Oberfläche ist fast nicht existent. Nur ein Beispiel soll diese Probleme hier illustrieren. Es gab einmal alle 60 Meter Instrumente an einem 304 Meter hohen Turm außerhalb der städtischen Wärmeinsel der Stadt Winnipeg. Die Änderungen auf dieser kurzen Distanz waren bemerkenswert und zeigten viel mehr Inversionen als wir erwartet hatten.

Mancher glaubt, dass die Parametrisierung erfolgt, um grundlegende Daten wie Temperatur und Niederschlag zu ersetzen. Das ist nicht der Fall. Es ist eine Methode, um Prozesse zu ersetzen, die zu kleinräumig oder zu komplex sind, um physikalisch durch einen vereinfachten Prozess im Modell repräsentiert werden zu können.

Selbst dann räumt das IPCC Grenzen und Varianzen ein:

Die Differenzen zwischen Parametrisierungen sind eine wichtige Ursache, warum sich die Ergebnisse von Klimamodellen unterscheiden.

Daten für die dynamische Atmosphäre sogar noch unzulänglicher

Sie „füllen“ die Lücke mit der Behauptung der 1200 km, was zeigt, wie bedeutungslos das alles ist. Sie haben wenige oder gar keine Daten in irgendeinem der Kreise, und doch sind diese die mathematischen Fundamente der Computermodelle. Wahrscheinlich gibt es Daten zwischen der Oberfläche und der freien Atmosphäre nur für etwa 10% des atmosphärischen Volumens. Diese Bemerkungen gelten für eine statistische Situation, aber die Volumina ändern sich konstant täglich, monatlich, jahreszeitlich und jährlich in einer dynamischen Atmosphäre, und all dies ändert sich mit dem Klimawandel.

Ockhams Rasierer zeigt, dass jede Diskussion über die Komplexität der Klimamodelle einschließlich der Verfahren, Prozesse und Prozeduren irrelevant ist. Sie können nicht funktionieren, weil die einfache Wahrheit lautet, dass die Daten, das Fundament der Modelle, vollständig unzulänglich sind. Tolstoi hat über das Phänomen einer einfachen Wahrheit Folgendes gesagt:

Ich weiß, dass die meisten Menschen einschließlich jener, die Problemen größter Komplexität entspannt gegenüber stehen, selten auch nur die einfachsten und offensichtlichsten Wahrheiten akzeptieren können, falls diese sie dazu zwingen würden, die Fehlerhaftigkeit von Schlussfolgerungen einzuräumen, die sie so erfreut ihren Kollegen erklärt haben, die sie stolz gelehrt haben und die sie Faden für Faden mit ihrem Leben verwoben haben“.

Eine andere einfache Wahrheit lautet, dass ein Modelloutput niemals als Basis für irgendetwas benutzt werden sollte, und schon gar nicht für die globale Energiepolitik.

Link: http://wattsupwiththat.com/2014/10/16/a-simple-truth-computer-climate-models-cannot-work/

Übersetzt von Chris Frey EIKE




ARGO: Große Bandbreite von Erwärmungs- (und Abkühlungs-)Raten der Ozeane bis zu einer Tiefe von 2000 Metern

Bemerkung: KNMI hat ihrem Climate Explorer auch die Daten des ozeanischen Wärmegehaltes der Japanese Meteorological Agency (JMA) hinzugefügt für Tiefen von 0 bis 700 Metern. Wir werden sie in einem späteren Beitrag mit den NODC-Daten vergleichen.

In diesem Beitrag wollen wir einen kurzen Blick auf die vertikal gemittelte Temperaturanomalie von 0 bis 2000 Metern werfen. Das ist der Zeitraum, in dem Temperaturmessungen unter der Wasseroberfläche mit ARGO-Bojen durchgeführt worden sind, welche eine einigermaßen vollständige Übersicht der Ozeantemperatur von 0 bis 2000 Metern vermittelt. Die anderen Tiefenbereiche werden wir in späteren Beiträgen beleuchten.

Vorbemerkung

Das NODC präsentiert seine Daten auf vierteljährlicher Basis. KNMI hat diese in monatliche Daten konvertiert, indem die vierteljährlichen Werte jedem der jeweiligen Monate zugeordnet wurden. Als Folge zeigen die monatlichen Daten einen stufenartigen Verlauf mit vielen kleinen Plateaus. Wir könnten diese Daten mit 3-Monats-Filtern glätten, um diese kleinen Stufen zu eliminieren, aber in diesem Beitrag würde das kaum etwas bringen, weil wir vor allem Erwärmungs- (und Abkühlungs-)Raten betrachten.

Globale hemisphärische Erwärmungsraten

Abbildung 1 zeigt die vertikal gemittelten NODC-Temperaturanomalien für Tiefen zwischen 0 und 2000 Metern vom 1. Quartal 2005 bis zum 2. Quartal 2014. Seit dem 1. Quartal 2005 haben sich die Ozeane der südlichen Hemisphäre in Tiefen zwischen 0 und 2000 Metern mit einer Rate von etwa +0,05°C pro Dekade erwärmt, basierend auf dem linearen Trend. Andererseits ist der lineare Trend der nördlichen Hemisphäre bemerkenswert geringer, erfolgt doch die Erwärmung nur mit etwa 10% der Rate auf der Südhemisphäre. Dies ist ein ziemlicher Unterschied in einer Welt, wo anthropogene Treibhausgase vermeintlich für die Erwärmung verantwortlich sind und in der man sagt, dass anthropogene Treibhausgase gut durchmischt sind.

Abbildung 1

Vergleich der Ozeanbecken

Ich habe die Ozeanbecken in Teildatensätze aufgeteilt, und zwar mit den gleichen Koordinaten, die ich für die Aktualisierungen der Wasser-Oberflächentemperatur verwendet habe (hier):

● Arktischer Ozean (65N-90N)

● Nordatlantik (0-70N, 80W-0)

● Nordpazifik (0-65N, 100E-90W)

● Indischer Ozean (60S-30N, 20E-120E)

● Südatlantik (60S-0, 70W-20E)

● Südpazifik (60S-0, 120E-70W)

● Südlicher Ozean (um die Antarktis) (90S-60S)

Abbildung 2

Den Arktischen Ozean habe ich aus Abbildung 3 entfernt. Wie man sieht, gibt es eine große Bandbreite von Erwärmungsraten für alle anderen Ozeanbecken bis zu einer Tiefe von 2000 Metern. Im Indischen Ozean wurde die stärkste Erwärmung der ARGO-Ära verzeichnet, die mehr als doppelt so hoch liegt wie die Erwärmungsraten des Südatlantiks und des Südpazifiks und etwa dreimal so hoch wie die Rate im Nordatlantik. Und doch, in Tiefen zwischen 0 und 2000 Metern zeigen der Nordpazifik und der Südliche Ozean um die Antarktis praktisch keine Erwärmung im vorigen Jahrzehnt.

Abbildung 3

Welche Breiten haben sich erwärmt, welche haben sich abgekühlt?

Abbildung 4 zeigt die Erwärmungs- und Abkühlungsraten (°C pro Dekade) der globalen Ozeane auf der Basis zonaler Mittelwerte in verschiedenen Breiten. Die vertikale Y-Achse ist in °C skaliert. Die horizontale X-Achse ist nach Breitengraden skaliert, wobei der Südpol links (bei -90 oder 90 S) liegt, der Nordpol rechts bei +90 (oder 90 N) und der Äquator in der Mitte bei Null Grad Breite.

Abbildung 4

Während der ARGO-Ära zeigte sich die größte Erwärmung in Tiefen bis 2000 Metern in den niedrigen mittleren Breiten der Nordhemisphäre und den mittleren Breiten der Südhemisphäre. Die stärkste Abkühlung ereignete sich in den mittleren und hohen Breiten der Nordhemisphäre und im Südlichen Ozean. Man beachte auch, dass die Abkühlung auf der Nordhemisphäre mehr als nur den Arktischen Ozean umfasst.

Regionale Ozeanabkühlung bis zu Tiefen von 2000 Metern sind schwierig voneinander abzugrenzen in einer Welt, in der Treibhausgase vermeintlich das Klima dominieren. Falls natürliche Faktoren dafür sorgen können, dass der Ozean abkühlt, können sie auch zu dessen Erwärmung beitragen.

Abschließender Kommentar

Bereits seit einigen Jahren haben wir illustriert, wie entsetzlich schlecht die jüngsten und größten Klimamodelle die Wassertemperatur der globalen Ozeane simulieren. Siehe dazu die beiden jüngsten Beiträge:

●Vielleicht sollten die IPCC-Modellierer mal versuchen, die Ozeane der Erde zu simulieren (hier) oder

●Das IPCC macht sich immer noch Illusionen hinsichtlich des Kohlendioxids (hier).

Einige Leser könnten argwöhnen, dass falls die Modelle die Wassertemperatur der Ozeane nicht simulieren können, sie auch nicht besser sind, wenn sie versuchen, Erwärmung und Abkühlung bis zu einer Tiefe von 2000 Metern zu simulieren. Unglücklicherweise werden die Ergebnisse der Klimamodelle für Ozeantemperaturen unter der Wasseroberfläche nicht in Formaten präsentiert, die geeignet sind, sie einfach dem KNMI Climate Explorer hinzuzufügen. Und es ist unwahrscheinlich, dass die klimawissenschaftliche Gemeinschaft jenes Scheitern der Modelle präsentieren wird.

Link: http://wattsupwiththat.com/2014/10/17/with-argo-there-is-a-wide-range-warming-and-cooling-rates-of-the-oceans-to-depths-of-2000-meters/

Übersetzt von Chris Frey EIKE




Folge der Energiewende: Fossile Kraftwerke werden zum Sicherheitsrisiko

P R E S S E M I T T E I L U N G 03/2014

6. Oktober 2014

des Fachverbands Anlagenbau (FDBR)

Die Energiewende nachhaltig absichern

Thermische Kraftwerke bleiben zentraler Faktor für eine zuverlässige Strom­versorgung / Bestehende Anlagen sind auf die heutigen Betriebsanforderun­gen technisch nicht auslegt

Düsseldorf – Düsseldorf – Thermische Kraftwerksleistung wird auch weiterhin essenziell für eine sichere Energieversorgung sein. „Selbst wenn das Potenzial der erneuerbaren Energien hundertprozentig ausgeschöpft wird, muss eine Back-up-Leistung von 80 Gigawatt durch konventionelle Kraftwerke gewährleistet sein“, erklärt FDBR-Geschäftsführer Dr. Reinhard Maaß.

Doch angesichts der Geschwindigkeit, mit der die Energiewende vorangetrieben wird, gera­ten die Betreiber der konventionellen Kraftwerke zunehmend in Zugzwang. Die rasant stei­gende Nutzung von erneuerbaren Energien stellt Betriebsanforderungen an die bestehenden Gas- und Kohlekraftwerke, auf die sie technisch nicht ausgelegt sind. So müssen die Anla­gen häufiger ein- und ausgeschaltet werden, um die Schwankungen, die die Energiegewin­nung aus Sonne, Wind und Wasser mit sich bringt, kompensieren zu können. Die Zahl der Lastwechsel ist zum Teil mehr als 200 Mal höher als bei der Zulassung der Kraftwerke. Da­durch wächst die Gefahr von nachhaltigen Schäden an den Anlagen – zugleich nehmen die Risiken für die Versorgungssicherheit zu.

Allein können die Anlagenbetreiber die notwendigen Investitionen in die technische Umrüs­tung von thermischen Kraftwerken nicht stemmen. Schon heute ist der Betrieb von konventi­onellen Gast- und Kohlekraftwerken kaum noch rentabel, selbst die geregelte Instandhaltung wird immer mehr zurückgefahren. Entsprechend ist die Politik gefordert, nicht nur Speicher­technologien und Netze zu fördern, sondern auch die Bestandskraftwerke in ihre Planung zu integrieren. „Wer die Energiewende will, muss auch für ihre Absicherung sorgen“, betont Maaß. „Konventionelle Stromversorgung bleibt unverzichtbar, darf aber auf Sicht nicht auf Basis einer nicht mehr genehmigungsfähigen Technik erfolgen.“

Kurzprofil FDBR

Der FDBR bündelt die Interessen von über 180 Unternehmen des Anlagenbaus in der Ener­gie-, Umwelt- und Prozessindustrie. Mit seiner Kompetenz aus jahrzehntelanger Verbands­arbeit fördert und begleitet der FDBR technische Innovationen, engagiert sich für die Fort­entwicklung und Harmonisierung des gesamten technischen Regelwerks auf nationaler und internationaler Ebene und wirkt mit an der Ausgestaltung zukunftsfähiger Rahmenbedingun­gen. Darüber hinaus trägt der FDBR aktiv zur Meinungsbildung auf allen branchenrelevanten Feldern der Energie-, Umwelt- sowie Industriepolitik bei und leistet damit einen wichtigen, technologisch orientierten Beitrag zur Gestaltung zukünftiger politischer und wirtschaftlicher Entscheidungen. Sitz des Verbands ist Düsseldorf.

Kontakt:

FDBR e.V. – Fachverband Anlagenbau Dr. Reinhard Maaß Sternstraße 36 40479 Düsseldorf t 0211 / 498 70-0 f 0211 / 498 70-36 r.maass@fdbr.de www.fdbr.de

Nachtrag und Ergänzung

Anlässlich des kraftwerkstechnischen Kolloquiums der Universität Dresden mit 700 Teilnehmern, auf dem ich einen der Plenarvorträge hielt (s. Veranstaltungsprogramm als pdf), boten sich Gelegenheiten zu zahlreichen Gesprächen mit Kraftwerks-Fachleuten und -Managern. Dabei kam immer wieder das in der FDBR-Pressemitteilung beschriebene Problem von aktuell nicht mehr sicheren und damit auch NICHT mehr GENEHMIGUNGSFÄHIGEN fossilen Kraftwerken zur Sprache, das zur Zeit offenbar weder Politik, noch TÜV, noch die Öffentlichkeit wahrnehmen.

Es ist zu betonen, dass bei Kesselexplosionen, Rohrbrüchen oder Turbinenhavarien infolge vorzeitiger Materialermüdung auch mit Personenschäden des Bedienungspersonals zu rechnen ist. Havarierte Anlagen werden zudem die ohnehin bereits kritische Stromversorgungssituation weiter verschärfen und die Black-Out- Wahrscheinlichkeit erhöhen. Als Kosten der nötigen Instandsetzung und Wartung der aktuell durch die Energiewende belasteten Anlagen wurden mehrere Milliarden Euro genannt.

Herrn Dr. Reinhard Maaß danke ich für seine freundliche Veröffentlichungsgenehmigung der FDBR-Pressemitteilung auf der EIKE-Webseite. Das Original der Presseerklärung ist zusätzlich als pdf angehängt und kann weitergegeben werden.

Horst-Joachim Lüdecke

EIKE-Pressesprecher

Related Files




EU Klima-Gipfel für Dummies

In Nachrichten aus Europa hieß es jüngst, dass die EU ambitionierte Ziele zur Reduktion von Treibhausgasen beschlossen habe, die eine Reduktion dieser Emissionen bis zum Jahr 2030 um 40% verlangen. Aber die Ankündigung steckte voller „Flexibilitäten“ und enthielt so viele widersprüchliche Elemente, dass sie eindeutig nicht ernst gemeint sein kann. Meine Lieblingsbedingung ist Folgende:

Ein 27%-Ziel bzgl. erneuerbarer Energie, dass auf gesamteuropäischer Ebene bindend, aber freiwillig für individuelle Mitgliedsstaaten ist.

In der Praxis bedeutet das: lasst die Deutschen es machen! Sie sind dumm und reich genug, diesen Unsinn weiter zu subventionieren. Und warum auch nicht? Deutschland will es auch dem Rest der Ökonomien in der Euro-Zone überstülpen mit seiner de facto-Dominanz der Euro-Währung, was den ökonomischen Interessen der ärmeren südeuropäischen Nationen zuwider ist. Wäre ich Grieche, Portugiese oder Spanier, würde ich Deutschland nur zu gerne noch mehr Windmühlen in den Hintern schieben!*

[*Der Autor drückt sich noch drastischer aus. Anm. d. Übers.]

Über allem schwebt das Ziel, auf dem UN-Klimagipfel in Paris im nächsten Sommer ein gesetzlich bindendes internationales Abkommen zu erreichen. Aber die Obama-Administration hat bereits signalisiert, dass sie keinen weiteren politischen Selbstmord begehen und einem bindenden Vertrag nicht zustimmen werde. Stattdessen will sie ein lockeres Rahmenabkommen erreichen, wobei es jedem Land überlassen wird zu entscheiden, welche Anstrengungen es unternehmen wolle. An diesem Punkt würde sich diese neue europäische Verpflichtung in Luft auflösen. Frankreichs Präsident Francois Hollande, Gastgeber des nächsten Klimagipfels, hat bereits aufschlussreich vermeldet, dass das Abkommen, obschon „schlüssig und definitiv“, noch einmal „überarbeitet“ werden könne.

Das alles erinnert mich allmählich an die Farce der Verhandlungen über die Kontrolle von Waffen in den siebziger Jahren, als Abkommen, die vermeintlich den Abbau von Waffen enthielten, nur lustige Ummäntelungen waren, den weiteren Ausbau der Arsenale zu regulieren. Aber jeder war glücklich dabei: Brot und Spiele für die Politiker sowie Arbeit für die „Gemeinschaft der Waffenkontrolleure“. Dieses Fundamental änderte sich erst, als Präsident Reagan die Bühne betrat und mit einer neuen Technologie winkte (SDI).

Und darin liegt eine Lektion für den Klimawandel. Das riesige Menuett von Klimaverhandlungen mit seinen „Zielen und Zeitplänen“ wächst sich zu einem Deckmantel aus für fortgesetzten „Business as Usual“. (Wie wir früher schon angemerkt haben, Deutschland errichtet viele große neue Kohlekraftwerke, während es seine emissionsfreien Kernkraftwerke abschaltet. Das ist nicht das, was Leute machen, die ernst genommen werden wollen). Unabhängig davon, was man zu diesem Thema meint – nichts wird passieren, bis neue Quellen billiger, grundlastfähiger Energie entwickelt sind, die den Gebrauch von Kohlenwasserstoffen überflüssig machen.

Link: http://www.thegwpf.com/climate-negotiations-are-a-sideshow-to-keep-the-green-blob-happy/

Übersetzt von Chris Frey EIKE




Die dunkle Seite von WIKIPEDIA: EIKE Zensur – kurz und knapp

So zensiert Wikipedia in Deutschland

EIKE wegzensiert – kurz und knapp

Auf Wikipedia geschieht nichts ohne Diskussionen. Auf jeder Seite findet man oben neben „Artikel“ den Knopf „Diskussion“, und dort sieht man, was an dem jeweiligen Artikel tatsächlich interessant ist und kontrovers diskutiert wird. Jeder kann hier durch Drücken von „Bearbeiten“ (ebenfalls ein Karteireiter oben) mitreden, ohne sich anmelden zu müssen. Allerdings wird ohne Anmeldung die IP-Nummer veröffentlicht, sobald man seine Bearbeitung speichert.

Nun würde man erwarten, dass bei einer so gewichtigen Angelegenheit wie der „Blacklist“, die ja immerhin eine handfeste Zensur darstellt, eine ausführliche Diskussion und Bewertung stattfindet, es sei denn, es handelt sich um eine offensichtliche SPAM-Seite. Die Diskussion, die zur Sperrung von EIKE geführt hat, ist über drei Jahre her, längst archiviert, kann aber hier nachgelesen werden. Vereinfacht dargestellt lief sie so ab (die Beteiligten Benutzer sind kmk, Jbo, hg6996 und seth)

  • kmk: „EIKE ist eine Klimaleugner-Seite! Immer wieder wird versucht, die Seite zu verlinken, zuletzt hier“ “(es folgen 2 Beispiele, beide mit dem selben Link, nämlich zu Cleves Vortrag zum THTR).
  • Jbo: „Es wird immer wieder versucht, EIKE als Belege zu verlinken. Daher SPAM!“ (Weitere Beispiele werden nicht angegeben)
  • Hg6996: „EIKE-Inhalte sind gruselig!“ (führt als Beispiel EIKEs Grundsatzbehauptung zur Zunahme des antarktischen Eisschilds an und als „Gegenbeweis“ einen Artikel aus den Geophysical Research Letters)
  • seth: „Ok, EIKE gehört auf die Blacklist.“
  • seth (5 Tage später): „Erledigt. Die Links aus den Artikeln und Diskussionen sind auch alle entfernt.“
  • Hg6996: „Super, danke!“

Eine wahrhaft kurze und knappe Diskussion. Nun mag dies bei einer Webseite mit offensichtlich rechtswidrigen Inhalten angemessen sein, hier geht es jedoch um einen als gemeinnützig anerkannten Verein, dem renommierte Doktoren und Professoren angehören, und der vom Potsdam-Institut für Klimafolgenforschung (PIK) immerhin schon als ernstzunehmender Streitpartner eingeladen wurde (siehe hier und hier). Diese „Diskussion“ ist um so erschreckender, als dass die Blacklist nach den eigenen Richtlinien so klein wie möglich gehalten werden sollte und Sperrungen grundsätzlich nur temporär sein sollten. Wäre EIKE ein Angeklagter vor Gericht, so käme dies einer Verurteilung zu lebenslanger Haftstrafe ohne Verhandlung und ohne „Indizien“ gleich. Wer weiss, wer als nächster dran ist.

Was passiert, wenn eine Webseite auf der Blacklist ist? Versucht nun ein Benutzer, einen Link auf irgendeine EIKE-Seite zu setzen, um damit Aussagen zu belegen oder auch nur weiterführende Informationen anderen Lesern zugänglich zu machen, so erhält er beim Abspeichern eine Fehlermeldung: „Die von dir vorgenommenen Änderungen werden durch den Spamfilter blockiert. […] Der folgende Text wurde vom Spamfilter gefunden: eike-klima-energie.eu“. Auch auf Diskussionsseiten kann EIKE nicht mehr verlinkt werden, was es natürlich besonders schwierig macht, dessen „Unschuld“ zu belegen. Mehr noch, jeder Speicherversuch wird ab jetzt registriert und kann von Administratoren kontrolliert werden, was in der großen Diskussion (s.u.) dann wiederum als Argument gegen EIKE angeführt wurde.

Das „Blacklisten“ von EIKE passierte im August 2011. Ein und zwei Jahre danach folgten zwei Wünsche von unterschiedlichen Benutzern auf Entsperrungen, wenigstens auf Unterseiten, die jedoch wiederum brüsk abgelehnt wurden (siehe Fortsetzung der Diskussion darunter). Der zuständige Administrator „seth“ blieb und bleibt hart. Die Blacklist wird nicht verändert.

Woher hat ein Administrator diese Rechte? Dazu ein kleiner Ausflug in das Wikipedia-Rechtesystem.

Von Administratoren, Sichtern und Benutzern…

Auf Wikipedia kann jeder mitschreiben – in der Theorie. Drückt man ohne Anmeldung den „Bearbeiten“-Knopf, so scheint dies auch zu gelingen – das Speichern ist erlaubt. Eine Überraschung erlebt man jedoch auf der deutschen Wikipedia, denn nach dem Speichern ist die Änderung keineswegs in den Artikel übernommen, sondern schlummert unter einem Karteireiter oben, unter „Ungesichtete Änderungen“. Nun muss man darauf warten, dass sich ein „Sichter“ des Artikels annimmt und die Änderung genehmigt.

Ein Sichter ist ein Benutzer, der mindestens 200 Bearbeitungen getätigt hat, in diesem Sinne also „erfahren“ ist (es gibt noch weitere Kriterien, die sich aber dann meist automatisch daraus ergeben). Nach 50 Bearbeitungen ist man aber bereits „passiver Sichter“, was bedeutet, dass die eigenen Bearbeitungen automatisch gesichtet werden – man ist also nicht mehr auf einen Sichter angewiesen. Von den 2 Millionen registrierten deutschen Benutzern haben 30 000 den passiven Sichterstatus erlangt, 15 000 den „aktiven“.

Administratoren (kurz Admins) werden im Gegensatz zu Sichtern durch Wahlen bestimmt, grundsätzlich für unbestimmte Zeit, es sei denn, eine Mindestzahl von Benutzern verlangt eine Wiederwahl (oder Abwahl, je nach Ausgang). Die Kriterien für die Wahlberechtigung sind dabei ganz ähnlich denen von Sichtern: Mindestens 200 Bearbeitungen. Admins haben besondere Rechte: Sie dürfen Artikel und Benutzer sperren, Artikel löschen, und Eintragungen auf der besagten Blacklist vornehmen. Auf Wikipedia gibt es zurzeit 253 Admins.

Es gibt noch weitere Typen von Benutzern wie „Checkuser“, „Bürokraten“ und „Oversighter“, die jedoch keine so große Rolle spielen. Die täglichen Grabenkämpfe spielen sich unter Benutzern, Sichtern, und Admins ab. Am meisten werden Artikellöschungen bemängelt, weil sie nach Meinung weniger Admins „nicht relevant“ seien. Ein interessantes Beispiel ist der Artikel des frisch gekürten deutschen Nobelpreisträgers Eric Betzig, der nach der Erstellung des Artikels vor 5 Jahren prompt von einem Admin zur Löschung vorgeschlagen wurde. Diese sogenannte „Löschadmin“-Diskussion ist ein ständiges Streitthema auf der deutschen Wikipedia.

…und was diese tatsächlich machen

Soweit die guten Absichten, aber wie sieht das in der Praxis aus? Ein Sichter soll in erster Linie Vandalismus verhindern, z.B. dass ein Benutzer, ob angemeldet oder nicht, Artikel verunstaltet, sei es aus Spaß oder als gezielte Platzierung von Links, denn Wikipedia gilt bei Suchmaschinen als „besonders wertvoll“, eine Link aus Wikipedia erhöht somit das eigene Ranking. Auf der englischsprachigen Wikipedia gibt es das Sichtersystem übrigens nicht, so dass jede Änderung sofort öffentlich ist. Bei offensichtlichem Vandalismus dauert es aber nicht lange, bis dies einem anderen Benutzer auffällt, und die Änderung wieder rückgängig gemacht wird. Bei häufig besuchten Artikel geschieht dies innerhalb einer Minute, denn es gibt viele Autoren, die den Artikel überwachen.

Es ist also fragwürdig, ob ein Sichtungssystem überhaupt notwendig ist, um so mehr, wenn man beobachtet, was die Sichter tatsächlich machen. Statt einer Änderung, die offensichtlich kein Vandalismus ist, stattzugeben, wird von den Sichtern fast immer eine inhaltliche Prüfung vollzogen, es sei denn, es handelt sich lediglich um die Verbesserung von Tippfehlern. Diese inhaltliche Prüfung sollte jedoch im Diskurs von den Benutzern untereinander vollzogen werden, nicht durch eine übergeordnete Instanz. Der Sichter wird damit zum Richter.

Ähnlich verhält es sich mit den Admins. Sie sollten nur Löschanträge, Benutzersperren und Blacklisteinträge auf formale Richtigkeit prüfen. Am Beispiel der Blacklistdiskussionen sieht man jedoch, dass auch eine aktive Teilnahme an den Diskussionen stattfindet. Mehr noch, Admins fühlen sich auch bemüßigt, selbst an den Richtlinien für die Blacklist mitzuarbeiten, während sie mit ihren Sonderrechten als einzige auch zum Vollzug und damit zur Auslegung berechtigt sind. Dass so etwas nicht gutgehen kann, ist der Grund, dass in unserem Staat eine Gewaltenteilung eingeführt wurde. Auf Wikipedia gilt das nur bedingt.

EIKE-Blacklistdiskussion 2014 – rekordverdächtig

Die grundlose Sperrung von EIKE erfüllt vermutlich den Straftatbestand der üblen Nachrede. Die Server stehen aber in den USA, weshalb Wikimedia Deutschland jede Verantwortung weit von sich weist. Einige Wikipedia-Benutzer wollten dies nicht hinnehmen, so dass es vor einigen Wochen zu einer erneuten, dritten Diskussion kam, die den Rahmen des Üblichen sprengte. Die komplette Diskussion ist hier zu finden, es wäre aber eine Zumutung, den Inhalt hier detailliert wiederzugeben – möge sich jeder selbst ein Bild machen. Es handelt sich um die vermutlich längste Diskussion im Wikipedia-Namensraum.

Am Ende war das Ergebnis: EIKE bleibt auf der Blacklist. Lediglich einen Einzellink hat der Admin seth nun freigegeben, und Sie dürfen raten, welchen. Richtig, es handelt sich um den Link zu Cleves Vortrag zum THTR, also jenen Link, der 2011 ursprünglich als Grund für die Sperre angegeben wurde, siehe oben. Alleine der Versuch, diesen Vortrag zu verlinken, wurde damals mit einer Komplettsperrung der Domain geahndet. 3 Jahre später gesteht der verantwortliche Admin ein, dass dies wohl ein Fehler war, entsperrt den Link, bleibt aber dabei, dass EIKE insgesamt auf die Blacklist gehört. Eine bemerkenswerte Logik.

Der tiefere Grund für das Scheitern, EIKE von der Blacklist zu entfernen, liegt in den Mehrheitsverhältnissen. Es gab zwar keine offizielle Abstimmung, jedoch standen am Ende der Diskussion 3 Verteidiger 12 Gegnern von EIKE gegenüber. Dies sieht zwar „demokratisch“ aus, berücksichtigt aber nicht, dass es hier um Grundsätze und deren Auslegung geht. Man legt in unserem Rechtssystem schließlich auch nicht per Mehrheitsbeschluss fest, dass eine Person hinzurichten sei. Dennoch bleibt die Frage, woraus sich diese Mehrheitsverhältnisse ergeben. Warum gibt es so viele „erfahrene“ Wikipedia-Benutzer, die so eine unerhörte Vorgehensweise billigen?

Dabei ist natürlich zunächst die Frage zu stellen, ob es sich bei diesen „Erfahrenen“ tatsächlich um normale Benutzer handelt. Es ist nämlich auffällig, dass diese teilweise mit mehreren Zehntausend (!) Bearbeitungen in nur wenigen Jahren aufwarten (Beispiel hier, Berechnung dauert etwas). Es ist schwer vorstellbar, dass sich hinter so einem Benutzerkonto nur jeweils eine Person verbirgt, und es gibt keine Möglichkeit, dies zu überprüfen. Es ist sogar denkbar, dass Cluster von Benutzerkonten systematisch von Interessengruppen aufgebaut und unterhalten werden, um über Wikipedia-Artikel die Wahrnehmung bestimmter Themen zu verändern. Die Bearbeitungen einzelner Benutzer können alle eingesehen werden, so dass man sich fragt, wie derartige dauerhafte Bearbeitungsorgien wie diese (Benutzer Andol) auf einen einzelnen Benutzer zurückzuführen sind. Wikipedia wird von derartigen „Benutzern“ langsam aber stetig umgestaltet.

Drumherum scharen sich dann oft Mitläufer, die wahrscheinlich real sind, aber dafür nur nach sehr einfachen Mustern argumentieren, bzw. den Unsinn der Wortführer nur wiederholen. Diese bestimmen jedoch die Mehrheitsverhältnisse in Diskussionen, was dann zu entsprechenden Ergebnissen wie die Sperrung von EIKE führt. Bei genauerem Hinsehen sind die Mehrheitsverhältnisse jedoch durchaus angreifbar. In der Blacklistdiskussion bedurfte es nur weniger zusätzlicher EIKE-Verteidiger, und die Lage wäre gekippt. Warum gibt es so wenige davon?

Eine naheliegende Erklärung ist die, dass naturwissenschaftlich-technisch ausgebildete Leute kaum Interesse an Bearbeitungen auf Wikipedia haben. Sie interessieren sich für ihren Beruf, den sie meist aus Leidenschaft und Interesse betreiben. Viel Zeit, sich auf Wikipedia mit unausgebildeten und meist aggressiv und auf schlechtem Niveau argumentierenden Leuten herumzuschlagen bleibt da nicht. Wissenschaftliche Aufarbeitung von Themen kostet Zeit, und diese Zeit fehlt eben beim Engagement auf Wikipedia. Das Problem: Derweil übernehmen diejenigen Wikipedia, die beliebig dafür Zeit haben, dafür aber nicht das nötige Fachwissen. Im Ergebnis entsteht ein Zerrbild, das wiederum auf die öffentliche Meinungsbildung zurückwirkt, denn Politiker und Journalisten bedienen sich auch gerne aus Wikipedia. Mit dieser Zurückhaltung sägen gute Wissenschaftler also am eigenen Ast. Was kann man tun?

Aufruf an die Leser

Daher appellieren wir an alle Leser und Mitglieder mit naturwissenschaftlich-technischer Ausbildung: Engagieren Sie sich bei Wikipedia! Nutzen Sie Ihr Fachwissen, um dort Artikel zu verbessern! Scheuen Sie sich nicht vor Diskussionen!

Seit einiger Zeit können Artikel auf Wikipedia ohne Kenntnis der Syntax bearbeitet werden, sobald man auf „Bearbeiten“ klickt wird die Seite so, wie sie ist, editierbar. Dies gilt jedoch nicht für Diskussionen, hier muss man sich noch etwas auskennen. Der Erfolg von Wikipedia beruht zu einem nicht geringen Teil aber gerade darauf, dass diese Syntax sehr einfach ist. Im einfachsten Fall kann man einfach Text schreiben, und er erscheint so, wie man ihn tippt. Für komplexere Formatierungen, z.B. bei Diskussionen, gibt es gute Anleitungen:

Aber wichtig: Man sollte immer erst diskutieren, bevor man wesentliche Änderungen in Artikeln vornimmt, sonst kann man ziemlich sicher sein, dass ein anderer Benutzer die Änderung gleich wieder revertiert. Niemals einen Edit-War anfangen.

Ein Anfang ist leicht gemacht. Gehen Sie mal auf die Diskussionsseite eines bekannten Artikels, z.B. der zu “Kernenergie“. Dort findet man gleich mehrere Themen, wo Sie auch ohne Anmeldung mitreden können. Besser ist es natürlich, sich zu registrieren – und keine Angst, die persönlichen Daten wie Email und Klarname können nicht mal Admins einsehen. Sie können also immer anonym bleiben. Der Vorteil: Ab jetzt zählt jede Bearbeitung. Und sobald Sie 50 Bearbeitungen in Artikeln (nicht in Diskussionen) gemacht haben, sind Sie bereits passiver Sichter. Die genauen Bedingungen stehen hier.

Beim Diskutieren können Sie auch ganz gut die Wikipedia-Gepflogenheiten und die Syntax kennen lernen. Seien Sie am Anfang eher unauffällig und lassen Sie sich nicht frustrieren – irgendwann klappt es. Sie werden nicht selten von anderen „(„erfahrenen“) Benutzern zurechtgewiesen werden, oder Ihre Bearbeitungen werden kommentarlos zurückgesetzt. Es ist trotzdem wichtig, dran zu bleiben, denn nur so kann auf Dauer die Übermacht derjenigen gebrochen werden, die Wikipedia nur als Plattform benutzen, ideologischen Unsinn zu verbreiten.

Hoffen wir also, dass sich auch unsere Leser engagieren, und dass wir langfristig etwa bewirken können. Denn, wie gesagt, wir wissen nicht, wer als nächstes auf die Blacklist kommt.




Buchtipp: Die nacheiszeitliche Klimaentwicklung in den Alpen im Vergleich zur Temperaturentwicklung der Gegenwart

Verfasst wurde das Buch von Prof. (in Ruhe). Dr. Patzelt, Glaziologe an der Universität Innsbruck. Er erschien in der EIKE Schriftenreiehe und kann hier z.B. bei Amazon bezogen werden. Für interessierte, die es in Ihrem Umfeld verteilen wollen können begrenzte Mengen an Freiexemplaren bei EIKE geordert werden.




Bericht über die 8. Internationale Klima- und Energiekonferenz (IKEK-8)

Die Veranstaltung fand am 17.10.14 im Steigenberger Hotel "Frankfurter" Hof in Frankfurt am Main statt. Über 100 Besucher nahmen an ihr Teil. Die Vorträge wurden, wie immer, simultan Deutsch <-> Englisch in beide Sprachen übersetzt. Infolge des relativ engen Themenbereichs war ein Tag für die Gesamtveranstaltung ausreichend.

10.00 bis 12;00 Uhr: Begrüßung des EIKE-Präsidenten

In der Begrüßung des EIKE-Präsidenten „Der deutsche Sonderweg, Klimaschutz als Selbstzweck“ ging Dr. Holger Thuss auf die bekannte politische und mediale Situation in Deutschland ein. An der von vielen Experten als unhaltbar eingestuften technisch/wirtschaftlichen Situation der Energiewende hat sich bis heute nichts geändert. Politik und Medien halten dennoch unbeirrt an dem einmal eingeschlagenen Kurs fest und nehmen kein Sachargument zur Kenntnis. Selbst fundierte Einschätzungen ausgewiesener Experten, es sei nur Prof. Hans-Werner Sinn vom ifo-Istitut genannt, werden konsequent ignoriert.

So ist es schon Gewohnheit, dass die deutschen Medien EIKE-Konferenzen nicht wahrnehmen. Dass bei diesen Konferenzen international anerkannte Wissenschaftler vortragen (stellvertretende Beispiel unserer bisherigen Vortragenden: die Professoren Lindzen, Veizer, Svensmark, Sahviv, Mörner, Habermann, Reiter usw. usw.) wird nicht als Gelegenheit wahrgenommen, über fachlich begründete Gegenpositionen zu berichten oder gar mitzudiskutieren sondern um wegzusehen. In diesem Sinne besitzt EIKE zweifellos das Alleinstellungsmerkmal der „außerparlamentarischen“ Opposition in einer politischen Medienlandschaft, die in ihrem Umgang mit unliebsamen Fakten der ehemaligen DDR um nichts nachsteht. EIKE lädt unbeirrt zur offenen Diskussion ein. Wer sich den Fakten verweigert und hierüber trotz seines Berichtungsauftrages schweigt, wirft die wichtigste Spielregel einer offenen demokratischen Gesellschaft über Bord.

10:00-15:00 Uhr: Podium „Klima – Messungen vs. Modell“ moderiert von Edgar Gärtner

Erster Vortrag:

EIKE-Pressesprecher Prof. Dr. Horst-Joachim Lüdecke sprach über „Präzises Klima-Timing über die letzten 2500 Jahre“. Der Beitrag behandelte eine neue Methode, die es ermöglicht, den in der Fachliteratur schon mehrfach vermuteten und beschriebenen Einfluss des bekannten De Vries/Suess – Sonnenzyklus auf Klimazyklen besser sichtbar zu machen und zu analysieren. Die Klimazyklen sind in Proxy-Temperaturreihen aus Stalagmiten, Baumringen und Sedimenten enthalten, die Sonnenzyklen in den Produktionsraten der kosmischen Isotope 14C und 10Be. Die Arbeit zs. mit Koautoren wird aktuell zur Veröffentlichung eingereicht.

Zweiter Vortrag:

Prof. Dr. Carl-Otto Weiss berichtete in „Grund zur Panik? Klimazyklen der letzten 250 Jahre“ über die Ergebnisse der Publikation von Lüdecke, Hempelmann und Weiss in Clim. Past (2013) der Europäischen Geophysikalischen Union (EGU). In dieser Studie konnte kein anthropogenes CO2-Signal in jüngster Zeit aufgefunden werden, was den heutigen Kenntnisstand bestätigt. Ein solches Signal – so es denn gibt – ist offenbar zu schwach, um es aus dem natürlichen Klimarauschen herausdestillieren zu können. Dagegen stellte sich heraus, dass zumindest die nordhemisphärische Temperaturentwicklung der letzten 250 Jahre von nur wenigen Zyklen ungewöhnlich genau wiedergebbar ist (hier).

Dritter Vortrag:

Prof. Dr. Friedrich-Karl Ewert sprach über „Klimafakten – was wurde gemessen?“ Der Vortrag betonte die Priorität der Messungen vor (Klima)Modellen, dem seit Galilei gültigem Paradigma der Physik. Tatsächlich gibt es bis heute keinen messtechnischen Nachweis einer Einwirkung von anthropogenem CO2 auf das Klima. Nur fiktive Klimamodelle, die noch nicht einmal die Klimavergangenheit oder die Eintrittszeitpunkte des ENSO (El Nino) wiederzugeben in der Lage sind, können hierüber etwas aussagen. Der Vortrag ging weiter auf Einzelheiten der verfügbaren instrumentellen  Temperaturreihen ein. Schlussendlich wurde die bemerkenswerte Beobachtung geschildert, dass das GISS/NASA historische Temperaturdaten in seiner öffentlichen Datenbank rückwirkend verändert. Als Extrembeispiel – aber eines von hunderten- kann Palma De Mallorca angeführt werden, eine Reihe, deren realer Abkühlungstrend von rund 1 °C über 130 Jahre vom GISS zu einem Erwärmungstrend verfälscht wurde. Es ist in diesem Zusammenhang nicht erstaunlich, dass die fragwürdigen "Homogenisierugen" des GISS sich fast ausschließlich auf nachträgliche Temperaturerhöhungen in der zweiten Hälfte des 20. Jahrhunderts beschränken.

12:00 Uhr: Mittagspause:

Es entwickelten sich zwischen Zuhörern und Vortragenden zahlreiche interessante Diskussionen, es wurden neue Bekanntschaften geschlossen, man traf alte Bekannte wieder … und man aß sehr gut. Dies sollte an dieser Stelle erwähnt werden, die Steigenberger Küche war von außergewöhnlicher Qualität.

13:00 Uhr:

Prof. Dr. Friedrich-Karl Ewert (Geologe) sprach über „Bildungsbedingungen der Kohlenwasserstoffe und Hydraulic Fracturing verlängert ihre Verfügbarkeit“. Der Vortrag ging auf die geologischen Bedingungen für das Hydraulic Fracking ein. Eine solche Information ist unabdingbar, will man die gegenwärtige Diskussion über Für oder Wider das Fracking auf eine sinnvolle Basis stellen. Interessant war im kurzen Schlussteil die Beantwortung der immer wieder gestellten Frage nach einem evtl. nicht biotischen Ursprung von Öl und Gas. Gemäß Ewert ist dies auszuschließen, zumindest Öl und Gas in Schiefergestein können nur syngenetisch entstanden sein.

13:30 Uhr:

Dr. Volker Wrede vom geologischen Dienst NRW sprach über „Unkonventionelle Gasvorkommen in Deutschland – Potential und Risiken aus geowissenschaftlicher Sicht“. Wredes Vortrag war sehr ausführlich, dies war angesichts der gebotenen Information auch angebracht. So gut wie kein Gesichtspunkt, kamen sie nun seitens der Befürworter oder der Gegner des Fracking, wurde ausgelassen. Es handelt sich nach unserer Kenntnis wohl um die bislang beste und erschöpfendste Darstellung des Themas in einem allgemeinverständlichen Fachvortrag. Selbst die berühmten-berüchtigten „Flammen aus dem Wasserhahn“, die als US-Bild immer wieder durch die Medien geistern, kamen zur Sprache. Es handelte sich hier aber erwiesenermaßen um ein ganz natürliches Eindringen von CH4 ins Grundwasser ohne menschliches Zutun. Das "brennende" Leitungswasser wird damit zwar weder ungenießbar noch giftig, es besitzt aber das Potential der Verpuffung. Mit Fracking hatte diese Erscheinung, die in den USA wiederholt beobachtet wurde (das erste Mal 1965 im Bundesstaat Michigan beschrieben) nichts zu tun.

15:45 Uhr:

Dr. Peter Kaznacheev, Direktor des Zentrums für Ressourcenökonomie der russischen Akademie für Volkswirtschaft (RANEPA), Managing Partner der Khaznah Strategies Ltd. und ehemaliger Berater der russischen Präsidial-Administration, sprach über das Thema „Energieversorgung in Zeiten des Konflikts. Die Wirkung von Sanktionen gegen den russischen Öl- und Gassektor und die EU-Russische „Energiebeziehung“. Der Vortrag behandelte im Wesentlichen die Wirkungen der westlichen Sanktion gegen Putin infolge des Ukraine-Konflikts. Besonders interessant waren die folgenden Punkte: Die US-Schiefergasförderung hat globalpolitische Auswirkungen. Die Ölproduktion Russlands hat sich in den letzten 20 Jahren verstärkt, während die Gasproduktion gleich geblieben ist. Die westlichen Sanktionen werden vermutlich wenig Wirkung zeigen und wenn doch, dann auf beiden Seiten. Allerdings kann eine Abkehr der westlichen Beteiligung an Joint Venture Projekten mit den Russen (Beispiel arktische Off-Shore-Exploration von Öl) erhebliche Folgen für die russische Seite nach sich ziehen, weil Russland hier nicht über das nötige Know-How verfügt und auf westliche Zusammenarbeit angewiesen ist. Fatal für die russische Wirtschaft ist auf jeden Fall der aktuell extrem tiefe Ölpreis, der mit den Sanktionen aber nichts zu tun hat. 

16:30 Uhr

Anthony Livianos berichtete in einem höchst spannenden  und interessanten Vortrag über die neuen Öl- und Gas-Versorgungslinien und ihre geostrategischen Auswirkungen für die Veränderungen der Öl- und Gasversorgung Europas und der USA. Durch die inzwischen fast völlige Selbstversorgung Nordamerikas aus eigenen Öl- und Gasquellen wächst der Druck auf asiatische Produzenten, insbesondere auf Aserbeidschan und Armenien, aber in Zukunft (nach möglicher Beendigung des Embargos) auch den Iran, ihre Gas- und Öllieferungen nach Europa zu lenken. Die Nahchfrage und der Wille zu kaufen sind jedenfalls da. Dazu sind derzeit umfangreiche Pipelines – unter Umgehung Russlands – in Planung, bzw. schon im Bau. Es scheint jedenfalls für die kundigen Beobachter völlig klar zu sein, dass zumindest die bisher dominante Rolle Russlands bei der Gasversorgung weiter Teile Europas auf eine deutlich weniger dominante Rolle zurück gedrängt werden könnte. Sicher nicht klammheimlich, sondern mit entsprechend großem Getöse. Eine hoch interessante, sehr nachdenklich machende Analyse.

17:30 Uhr

Dr. Jacob Nordangard sprach über "Biotreibstoffe – Die unheilige Allianz zwischen Lebensmittelindustrie und Umweltschützern"

Anhand umfassend recherchierter Beispiele aus seiner Dissertation beschrieb er die unheilige Allianz zwischen der NGO Greenpeace – dem Lebensmittelkonzern Unilever – einigen EU Offiziellen in Politik und Verwaltung, sowie dem Shellkonzern, zur Herstellung der Akzeptanz, der öffentlichen medialen Unterstützung, sowie der umfassenden direkten und indirekten Subventionierung von Biosprit aus Palmöl. Umweltbelange fielen bei dieser Allianz völlig unter den Tisch. Unilever vermied eine geplante Kampagne von Greenpeace in dem man für beide Seiten  vorteilhafte Vereinbarungen schloss, Shell und die EU Bürokratie wurden als wilige Helfer udn Nutznießer eingebunden. Ein Lehrstück politischer Lobbyarbeit, statt auf dem Teller landete das Öl im Tank.

18:15 Uhr:

Dipl.-Ing. Limburg trug über "Energiewende – Das Milliardengrab?" vor. Anhand vieler Beispiele zeigte Limburg die exponentiell ansteigenden Kosten derEnergiewende auf. Viele Beispiele dazu wurden gebracht, auch der notwendige zusätzliche Netzausbau wurde dargestellt, der nur dazu dient, Überschussstrom aus den Erzeugergebieten an der Küste zu den Verbrauchszentren im Süden zu leiten. Da diese rechnerisch die meiste Zeit des Jahres keinen Strom liefern, aber bei vollem Ausbau und voller Leistung ein Vielfaches des Bedarfes erzeugen, müssen die Leitungen für diesen zigfachen Überschuss ausgelegt sein. Die Gesamtksoten der Energiewende incl. der Dämmung von Häusern bezifferte Limburg auf einen Betrag von 5-7 Billionen €. Deswegen korrigierte der den Titel seines Vortrages zum Schluss auf "Energiewende – Das Billionengrab?

19:15 Uhr:

Wolfgang Müller, Generalsekretär von EIKE sprach das Schlusswort.

20:00 Uhr:

Abendveranstaltung – Gemeinsames Essen mit Tischrede von Prof. Dr. Hartmut Kliemt, Professor für Philosophie und Ökonomik an der Frankfurt School of Finance & Management, mit dem Thema "Klimaberichterstattung – Glauben vs. Wissen. Warum Fakten keine Rolle spielen". In diesem, mit humorvollen Randbemerkungen gewürzten Vortrag lernten die Zuhörer den Unterschied zwischen "Fakten" und "Glauben an nicht vorhandene Fakten" näher kennen. Die Klimafrage hat zumindest bei Zeitgenossen mit nicht allzu hohem intellektuellen Niveau Glaubens- oder gar Religionsqualität erreicht. Sachargumenten prallen dagegen wirkungslos ab. Nur die mit Sicherheit kommenden harten wirtschaftlichen Folgen der derzeitigen EU- und Deutschland-Politik in "Klimaschutz" und "Energie" werden dies ändern. Bis dahin werden unzählige Milliarden nutzlos verbrannt und insbesondere der Musterschüler Deutschland um ein Erhebliches ärmer geworden sein.

Anmmerkung: Die Vorträge sind auf Dropbox gespeichert und werden auf Anfrage für Interessenten (Mail am M. Limburg; siehe Impressum) freigegeben. Wie immer wird es Videos von der Konferenz und den Vorträgen geben. Das wird aber noch einige Wochen dauern

Related Files




Elektroautos – Der Wahn von der Allwissenheit des Staates

Wir, die Betroffenen und hoffentlich noch klar denkenden Bürger haben jetzt die Wahl: Wir können feststellen, dass fast alle unsere Politiker, angeführt von der Kanzlerin von dieser Verhaltungsstörung befallen sind, oder aber wir beurteilen die Auswirkungen des Kampfes um die Reduzierung von CO2 auf unser tägliches Leben. Wichtigste Feststellung: Der Staat greift in einem noch nie dagewesenen Umfang selbst in unseren Alltag ein. Vorschriften über die Art der Beleuchtung, die Kraft eines Staubsaugers, den Wasserdurchlauf eines Duschkopfes könnten noch als Satire durchgehen, die massive Erhöhung der Strompreise, die Eingriffe in die Abläufe der Industrieproduktion und die Subventionsorgien für unrentable, aber angeblich klimafreundliche Wirtschaftszweige sind ein Spiel mit der Zukunft des Landes. Schließlich wird das „gefährliche“ CO2 auch noch für den Umbau der Gesellschaft missbraucht, die von Planwirtschaftlern und Moralwächtern dominiert wird.

Dazu zwei Beispiele: Seit der Energiewende haben sich die Strompreise so verteuert, dass es für untere Einkommensschichten ein Luxus geworden ist, ihre Wohnung ausreichend zu wärmen und das Licht einzuschalten, während Kapital- und Dachbesitzer Milliarden von den Stromverbrauchern abkassieren dürfen. Und schon in den Schulen werden Kinder indoktriniert, dass ihre Eltern kein Fleisch mehr kaufen sollen – Schweinefleisch wegen der Massentierhaltung, Rindfleisch wegen des Umweltschutzes (Methangas).

Einen besonderen Feldzug führen die Klimaaktivisten gegen den Individualverkehr. Das Auto wird von den Sozialisten aller Schattierungen seit Beginn der Nachkriegszeit verteufelt, ein Kampf, über den ich in dem Buch: Deutschland in Stau“ ein ganzes Kapitel unter der Überschrift: „Don Quichotte und die Windmühlen“, geschrieben habe. Die Klimadebatte eröffnet neue Schlachtfelder: „Das Auto produziert das schädliche Treibhausgas CO2“, „Die Straßen versiegeln die Landschaft“, „Der Individualverkehr ist für die Feinstaubbelastung verantwortlich.“ Das ist nur eine kleine Auswahl der Argumente gegen Straßen und Autos, die in vielen Varianten vorgebracht werden. Dies ist jedenfalls so erfolgreich geschehen, dass die Aussagen von der Masse unserer Politiker vom Kommunalparlament bis hin in den Bundestag und „gesellschaftlich“ relevanten Kräften, wie die Kirchen einfach übernommen werden.

In unserem Buch. „Deutschland im Stau“ rechnet mein Co-Autor Dr.-Ing Gottfried Ilgmann vor, das die Umweltbilanz unseres öffentlichen Nahverkehrs alles andere als vorbildlich ist. Denn die Hamburger U1 zum Beispiel ist nur zu 16% ausgelastet. Leere Waggons durch die Städte und übers Land zu schicken ist aber Verschwendung pur, CO2 hin oder er. Ein von vier Pendlern vollbesetzter Mittelklasse Personenkraftwagen hat nach Ilgmanns Berechnungen die beste Umweltbilanz – vorausgesetzt, man macht den CO2-Ausstoß zum Maßstab aller Entscheidungen.
Das Argument, Deutschland würde mit Autobahnen das Land betonieren, ist geradezu lächerlich. Gerade mal 0,08% des Landes werden von Autobahnen und Schnellstraßen benötigt. Eine Erhöhung auf 0,1% würde für alle geplanten und noch fehlenden Autobahnen ausreichen. Bleibt also der Antrieb des Autos durch Diesel und Benzin. Und auch dafür haben unsere allwissenden Planwirtschaftler in der Regierung eine Lösung gefunden: Das Elektroauto.

Neueste Statistik des Kraftfahrzeugbundesamtes: Im letzten Jahr von Juli bis Juli gerechnet waren 1,6% aller Zulassungen mit alternativen Antriebsarten ausgestattet, davon etwa ein Viertel mit Elektromotoren – also so gut wie gar Nichts. Dabei hat die Zahl der Zulassungen insgesamt in Deutschland um 3% und in Europa sogar um 6% zugenommen. Diese Zahlen stehen im krassen Widerspruch zur öffentlichen Wahrnehmung. Über Elektroautos steht ständig etwas in den Zeitungen. Hier rüstet eine Stadt ihren Fuhrpark mit einem E-Auto um, da wird das E-Mobil groß in Anzeigen angekündigt. Autosalons übertreffen sich mit neuen E-Modellen, die alle entsprechend gelobt und gefeiert werden. Selbstverständlich hat auch unsere Regierung einen Plan: 1 Million E-Autos sollen bis 2020 auf unseren Straßen fahren und dafür lobt sie 1 Milliarde Euro als Subvention aus. Und da es die Hersteller nicht mit der Regierung verderben wollen, spielen sie mit – verbal jedenfalls. Sie haben das Problem, dass sie sich nicht auf den Markt verlassen können, sondern damit rechnen müssen gegen alle Vernunft zum Bau von Autos gezwungen zu werden, die nur mit noch mehr Milliarden zu verkaufen sind.

Was für ein Allwissenheitswahn von Merkel und Co. Glauben sie wirklich, sie wüssten, was für ein Antrieb in 20 Jahren unsere Autos bewegen werden? Glauben sie wirklich, sie wüssten welche Technologien sich durchsetzen und welche Autos auf dem Markt erfolgreich sein werden? Es ist zu befürchten, dass sie so von sich überzeugt sind, nicht zuletzt, weil sie Opfer ihrer eigenen Propaganda werden. Im regierungsnahen Sender ZDF lieferte dafür die Sendung „Zoom“ im Oktober ein Musterbeispiel. „Fährt Auto-Deutschland vor die Wand?“ lautete für diese Werbesendung für das E-Auto der Titel. 43 Minuten lang führte ein zappeliger Reporter, Peter Ruppert den Zuschauer durch die weite Welt von China bis nach Kalifornien. Überall fand er Beweise, dass die Welt schon viel weiter ist, um den „größten Umbruch in der Geschichte des Automobils“.

Der Film beginnt mit: „Ich“ – „Ich bin der Botschafter Deutschlands. Meine Name ist Freiheit.“ Im Bild sitzt in Großaufnahme der Autor am Steuer, gemeint aber ist das Auto. Sämtliche Platitüden grüner Vorstellungen über das Auto werden vorgeführt. Natürlich treten junge Berliner auf, die kein Auto mehr kaufen – sie dienen als Beweis, dass das Auto eh keine Zukunft mehr hat. Die realen Zulassungssteigerungen, siehe den Anfang dieses Artikels, werden unterschlagen.

Autor Peter Ruppert lobt die Chinesen, die E-Autos für 43 000 Euro herstellen und mit 12 000 Euro subventionieren. Er besucht Tesla in Kalifornien, dessen E-Wagen 70 000 Dollar kosten und mit 10 000 Dollar gefördert werden. Wie erbärmlich empfindet er deswegen Deutschland, das sich nicht solche Subventionsorgien leistet. Fast selbst ununterbrochen im Bild, was scheinbar zur Machart dieser Sendung gehörte, fand er überall „Experten“ die das baldige Ende der deutschen Automobilindustrie voraussagten, weil sie am alten Kolbenmotor festhalten. 
Peter Ruppert machte keinen Hehl daraus, dass er ein tiefgläubiger Anhänger der Klimareligion ist und das Ende der Menschheit sieht, wenn nicht das Treibhausgas verbannt wird. Er war im Film sozusagen der Obermessdiener, der die Klima-Kurienkardinäle danach fragte, wie dringend das Klimagas CO2 bekämpft werden muss, um die Welt zu retten. Und danach stellte er fest, dass die obersten Autoritäten seine Überzeugungen bestätigt haben. Aber was soll denn ein Jos Dalbeke, der EU-Generalsekretär für Klimapolitik sonst auch sagen außer, dass der Verbrennungsmotor durch E-Autos abgelöst werden muss. Und dann wird auch noch Axel Friedrich befragt, ehemaliger Leiter der Abteilung Umwelt und Verkehr beim Bundesumweltamt, der Behörde, die im Staatsauftrag über die reine Lehre der Klimaerwärmung wacht.

Mit keinem Wort wurde erwähnt, woher die Energie kommt, die in den Batterien steckt, um das Auto anzutreiben. Die schöne heile abgasfreie Welt des Obermessdieners Ruppert übersieht, dass Bewegung Energie verbraucht und die muss irgendwo herkommen. In den USA werden die Batterien von Tesla weitgehend mit Kohle- und Atomstrom gespeist und das wird noch lange so bleiben. Auch sein Vorbild China baut die Kohleverstromung immer noch aus. Und auch das E-Mobil in Deutschland wird nicht mit sogenannter „erneuerbarer Energie“ fahren, weil es keine erneuerbare Energie gibt. Was weg ist, ist weg – und von nix kommt nix. Zwei ganz einfache Lehrsätze aus der Physik. Und weil das so ist, macht sich die deutsche Automobilindustrie sehr weitreichende Gedanken, mit welchen Antrieben in einigen Jahren oder Jahrzehnten der Individualverkehr ausgestattet wird. Denn alle Fachleute kennen die List der E-Mobilitätsverfechter: Man rechnet den CO2-Anteil der Energie nicht von der Energiequelle bis zum Rad sondern erst vom „Tank“ bis zum Rad. D.h. in der Batterie wird CO2 zu Null gesetzt! Im Gegensatz zum Verbrennungsmotor, dieser muss sich die gesamten fossilen CO2-Emissionen anrechnen lassen. Erst nach 2020 soll auch für Elektrofahrzeuge die seriöse Anrechnung des CO2 aus den übrig gebliebenen fossilen Kraftwerken erfolgen. Bis dahin wird der benötigte E-Mobilitätsstrom noch nicht einmal CO2-arm sein! Voraussichtlich wird „erneuerbarer“ Strom ein so knappes Gut sein, dass alle E-Mobil Anhänger diesen Offenbarungseid in die ferne Zukunft verlegen werden. Dies in der Hoffnung, dass eines noch ferneren Tages unser Strombedarf restlos von „erneuerbarer“ Energie gedeckt wird.

Peter Ruppert war so versessen auf die Elektromotoren, was ja auch unsere Regierung und viele Politiker sind, dass er vergessen hat, andere nicht von Diesel und Benzin angetriebene Autos als Alternative überhaupt nur in Erwägung zu ziehen. Was passiert zum Beispiel mit Tesla und all den anderen, die nur auf E-Autos setzen, wenn sich die Brennstoffzelle durchsetzt. Dann haben sie sich von ihren Regierungen und den üppigen Subventionen verführen lassen und werden die Pleiten ihrer Unternehmen den bösen Politikern in die Schuhe schieben. Ein Vorgang, der übrigens in der deutschen Solar- und Windkraftbranche schon angefangen hat. Toyota hat in Japan das erste serienmäßige Brennstoffzellenauto auf den Markt gebracht. Es kostet 60 000 Euro und ist mehr ein Ausrufezeichen für die Märkte, denn eine ernsthafte akute Bedrohung für die gängigen Verbrennungsmotoren.

Ein paar Scheuklappen freie Recherchen hätten dieses Propagandastück schon im Vorfeld abgewürgt. Längst arbeiten die Ingenieure an neuen Synthetischen Kraftstoffen, die dem E-Auto weit überlegen sind, weil sie sowohl unbegrenzt zur Verfügung stehen, wie auch schadstoffarm verbrennen. Ich bin kein Physiker und dies kann auch kein Aufsatz über den Stand der Forschung für die Antriebe der Zukunft sein. Aber OME (Oxymethylenether) ist ein potentiell nachhaltiger hergestellter Dieselkraftstoff. Aus CO2 als Kohlenstoffquelle und nachhaltig hergestellten H2 sind Methanol und OME synthetisierbar. Auf dem Internationalen Wiener Motorensymposium wurden die Verfahren und Arbeiten an diesem Kraftstoff behandelt. Die TU München berichtet von Erfolg versprechenden Ergebnissen, die folgende Eigenschaften vorweisen. CO2-neutral, unbegrenzt verfügbar, niedrigste Emissionen, hohe Wirtschaftlichkeit und große Reichweiten. Doch OME1 ist nur einer der Designerkraftstoffe, die so gründlich verbrennen, dass die Luft, die aus dem Katalysator kommt, sogar sauberer ist, als die der Motor aus der Umwelt einsaugt.

Weit fortgeschritten sind auch die Anwendungen mit der CWtL-Technologie (Carbon Oxides & Water to Liquid Fuel.) Zweck dieses Verfahrens ist es, z.B. das bei der Kohleverbrennung entstehende CO2 chemisch als recycelbaren Wertstoff zu nutzen und wieder in einen Träger chemischer Energie zurück zu verwandeln. Ja, sie haben sich nicht verlesen: Das als giftig von den Klimagläubigen verunglimpfte CO2 wird zum Rohstoff für die Herstellung von Benzin und Diesel. Es gibt Berechnungen, dass bei dem CWtL-Verfahren zurzeit der Literpreis für Benzin 61 weniger als 1 Euro betragen würde. Elektromotor ade. Auch weil er keine Luft umwälzt, wird niemals die städtische Luft reinigen können. Erst in einigen Jahren werden wir erfahren, was uns die Planwirtschaft gekostet hat, weil einige Juristen, Soziologen, Germanisten und Sozialpädagogen sich für das Elektroauto entschieden haben und dies dank einer völlig falschen Wirtschaftspolitik der Gesellschaft aufoktroyieren konnten.

Sicher wird das Zeitalter, in dem Autos mit Benzin und Diesel aus fossilen Quellen angetrieben wurden bald zu Ende gehen. Dann kommt der Kraftstoff aus den Chemieanlagen. Der Verbrennungsmotor wird diesen Wandel bestens überstehen, weil er einen Vorteil hat, den kein Elektromotor je schafft. In Zukunft wird es dann nämlich heißen: Fahr noch `ne Runde um den Block und reinige die Stadtluft. Ein Film über die neuen synthetischen Kraftstoffe, die auf CO2 basierend, wäre das mindeste, was das ZDF als Wiedergutmachung für die peinliche Propagandasendung leisten sollte.

Von Günter Ederer und Gottfried Illgmann ist soeben das Buch “Deutschland im Stau”erschienen

Übernommen von ACHGUT hier 

Anmerkung der Redaktion:

Das Buch von Günter Ederer ist unbedingt zu empfehlen. Unserer Rezension finden Sie hier. Bestellen können das Buch hier