1

TRANSATOMIC – schon wieder ein neuer Reaktortyp?

Gänzlich anders als in Deutschland, in dem man sich mehr denn je zurück ins Mittelalter träumt, setzt man in USA verstärkt auf die Ausbildung junger Ingenieure und Wissenschaftler und ermutigt sie, eigene Unternehmen zu gründen. Eines der Programme ist das Gateway for Accelerated Innovation in Nuclear (GAIN), des U.S. Department of Energy (DOE). Vereinfacht gesagt, gibt es dort Gutscheine, die die (sonst kostenpflichtige) Nutzung staatlicher Forschungseinrichtungen durch Unternehmensgründungen ermöglicht. Acht solcher “Gutscheine” im Gesamtwert von zwei Millionen Dollar gingen an sog. startups aus der Kerntechnik.

Eines dieser jungen Unternehmen der Kerntechnik ist Transatomic Power Corporation (TPC). Wie so oft in den USA, ist es eine Gründung von Absolventen des MIT. Glückliches Amerika, in dem noch immer tausende junger Menschen bereit sind, sich den Strapazen eines Kerntechnik-Studienganges aussetzen, während man hierzulande lieber “irgendwas mit Medien” studiert. Allerdings kennt man in den USA auch keine Zwangsgebühren zur Schaffung von hoch dotierten Nachrichtenvorlesern und Volksbelehrern. Jeder Staat setzt halt seine eigenen Prioritäten.

Noch etwas ist in den USA völlig anders. Das junge Unternehmen hat bereits mehrere Millionen Dollar privates Risikokapital eingesammelt. Es braucht noch mehr Kapital und hat deshalb ein Papier veröffentlicht, in dem das Konzept seines Reaktors näher beschrieben ist. Sicherlich ein erhebliches wirtschaftliches Risiko. Man vertraut offensichtlich darauf, mangelnde “Geldmacht” durch Schnelligkeit kompensieren zu können. Erklärtes Ziel ist es, möglichst schnell einen kleinen Versuchsreaktor mit 20 MWth zu bauen. Das erste kommerzielle Kraftwerk soll rund 500 MWel (1250 MWth) Leistung haben und rund zwei Milliarden Dollar kosten.

Abgebrannte Brennelemente als Brennstoff

Der Reaktor ist vom Typ “molten salt”. Der Brennstoff wird in geschmolzenem Salz gelöst, welches gleichzeitig dem Wärmetransport dient. Populär ist dieser Reaktortyp im Zusammenhang mit Thorium gemacht worden. Man beschränkt sich hier bewußt auf Uran als Brennstoff, um auf die dafür vorhandene Infrastruktur zurückgreifen zu können. Thorium wird eher als Option in ferner Zukunft gesehen.

Der besondere Charme dieses Konzeptes liegt in der Verwendung abgebrannter Brennelemente aus Leichtwasserreaktoren als Brennstoff. Solche abgebrannten Brennelemente bestehen zu rund 95% aus Uran–238 und etwa je einem Prozent Uran–235 und Plutonium. Der Rest sind Spaltprodukte als Abfall. Das klassische Modell, wie es z.B. in Frankreich praktiziert wird, ist die Wiederaufbereitung nach dem Purex-Verfahren: Man erhält sehr reines Uran, welches als Ersatz für Natururan wieder in den Kreislauf zurückgeführt wird und reines Plutonium, welches als Mischoxid zu neuen Brennelementen verarbeitet wird. Die Spaltprodukte mit Spuren von Aktinoiden werden verglast und als Atommüll endgelagert. Für diese chemischen Prozeßschritte (Wiederaufbereitungsanlage) geht man von Kosten in Höhe von 1300 bis 3000 US-Dollar pro kg aus. Bei heutigen Preisen für Natururan eine unwirtschaftliche Angelegenheit. Deshalb füllen sich die Lager mit abgebrannten Brennelementen auch weiterhin. Allein in den USA lagern über 70.000 to ausgedienter Brennelemente. Für die “Zwischenlagerung” in Behältern (ähnlich den Castoren in Deutschland) geht man von etwa 100 Dollar pro kg aus. Für die “Entsorgung” haben sich bereits über 31 Milliarden US-Dollar Rücklagen angesammelt – was etwa 400 Dollar pro kg entspricht.

Wem es gelingt, einen Reaktor zu bauen, der die abgebrannten Brennelemente “frißt”, ist in der Rolle einer Müllverbrennungsanlage: Er wird für die Beseitigung des Mülls bezahlt und kann sich mit seinem Preis an den anderen Möglichkeiten (z. B. Müllkippe) orientieren. Die entstehende Wärme ist umsonst. Die elektrische Energie aus der “Müllbeseitigung” ist ein weiteres Zubrot. Es kommt lediglich darauf an, eine besonders günstige “Müllverbrennungsanlage” zu bauen. Genau an diesem Punkt, setzt TPC an.

Das Transatomic Konzept

Die Angst vor dem “Atommüll” wird mit seiner Langlebigkeit begründet. Es gibt wahrlich gefährlichere Stoffe, als abgebrannte Brennelemente. Solange man sie nicht aufisst, sind sie recht harmlos. Es ist aber die berechtigte Angst, ob man diese Stoffe für Jahrmillionen sicher von der Biosphäre fern halten kann, die viele Menschen umtreibt. Spaltprodukte sind in diesem Sinne kein Problem, da sie in wenigen hundert Jahren faktisch von selbst verschwunden sind. Jahrhunderte sind aber durch technische Bauwerke (Kathedralen, Pyramiden etc.) oder natürliche Barrieren (einige hundert Meter gewachsene Erdschichten) sicher beherrschbar.

Man kann aber alle langlebigen Aktinoide durch Spaltung in kurzlebige Spaltprodukte umwandeln und dabei noch riesige Mengen Energie erzeugen – am besten in einem Kernkraftwerk. Ein solcher Reaktor muß besonders sparsam mit den bei einer Spaltung freiwerdenden Neutronen umgehen, um möglichst viele andere Kerne umzuwandeln und letztendlich zu spalten.

Spaltprodukte haben teilweise sehr große Einfangquerschnitte. Mit anderen Worten, sie wirken parasitär indem sie wertvolle Neutronen “wegfangen”. Die Konsequenz ist eine integrierte Wiederaufbereitung. Dies läßt sich nur über eine Brennstofflösung erreichen.
Es dürfen nur möglichst wenig Neutronen das System verlassen. Dazu muß man den Reaktor mit einem Reflektor versehen, der die Neutronen wieder in den Reaktor zurück streut. Idealerweise verwendet man dafür ebenfalls Uran, damit nicht zurück streubare Neutronen bei ihrem Einfang wenigstens neuen Spaltstoff – hier Plutonium – erzeugen.
Bei Reaktoren mit festen Brennstoffen, kann man die Spaltstoffe nicht kontinuierlich ersetzen. Man benötigt deshalb zu Anfang eine Überschußreaktivität. So zu sagen, mehr Spaltstoff als eigentlich zuträglich ist. Diese Überschußreaktivität muß durch Regelstäbe und abbrennbare Gifte kompensiert werden: Wertvolle Neutronen werden unnütz weg gefangen.
Will man mit möglichst geringer Anreicherung auskommen – was einem bereits abgebrannten Brennelement entspricht – muß man zwingend auf ein thermisches Neutronenspektrum übergehen. Sogenannte “Schnelle Brüter” erfordern eine zweistellige Anreicherung. Also wesentlich höher, als sie in einem frischen Brennelement für einen Leichtwasserreaktor vorliegen. Man kann in einem thermischen Reaktor zwar nicht brüten – also mehr Spaltstoff erzeugen als beim Betrieb verbraucht wird – aber fast genau soviel erzeugen, wie verbraucht wird. Man muß es auch gar nicht, da ja der “Atommüll” noch Spaltstoff enthält.

Wieviel wird nun gespart?

Ein heutiger Leichtwasserreaktor produziert pro 1000 MWel etwa 20 to abgebrannter Brennelemente pro Jahr. Geht man von einer direkten Endlagerung aus, ist dies die Menge “Atommüll” die in ein Endlager muß. Erzeugt man die gleiche elektrische Energie aus eben solchem “Atommüll”, ist diese Menge schon mal komplett eingespart.

Gleichzeitig wird aber auch der ursprünglich vorhandene “Atommüll” in der Form abgebrannter Brennelemente weniger. Die Energie wird durch die Spaltung von Atomkernen erzeugt. Sie sind nach der Spaltung unwiederbringlich vernichtet. Wird Uran noch von vielen Menschen als natürlich und damit relativ harmlos angesehen, ist z. B. Plutonium für sie reines Teufelszeug. Genau diese Stoffgruppe dient aber bei diesem Reaktortyp als Brennstoff und wird beständig verbraucht.

Ein solcher Reaktor produziert rund 1 to Spaltprodukte pro 1000 MWel und Jahr. Die Spaltprodukte sind darüberhinaus in einigen Jahrhunderten – gegenüber 100.000den von Jahren bei Plutonium – verschwunden. In Bezug auf die Energieversorgung sind solche Reaktoren eine echte Alternative zu sog. “Schnellen Brütern”. Bereits die vorhandenen abgebrannten Brennelemente und die absehbar hinzukommenden, wären eine schier unerschöpfliche Energiequelle.

Was ist neu bei diesem Reaktortyp?

In den USA hat man über Jahrzehnte Erfahrungen mit Salzschmelzen in Versuchsreaktoren gesammelt. Hier strebt man bewußt die Verwendung von Uran und nicht von Thorium an. Dies hat bezüglich des Salzes Konsequenzen: Lithiumfluorid kann wesentlich höhere Konzentrationen Uran gelöst halten (LiF-(Actinoid)F4) als das bekanntere FLiBe-Salz. Erst dadurch ist der Einsatz abgebrannter Brennelemente (niedrige Anreicherung) möglich. Allerdings liegt die Schmelztemperatur dieses Brennstoffs bei etwa 500 °C. Ein wesentliches Sicherheitskriterium ist daher, Verstopfungen in Kanälen und Rohrleitungen durch Ablagerungen sicher zu vermeiden.

Als Moderator sollen Stäbe aus Zirconiumhydrid eingesetzt werden. Sie wirken wie “umgekehrte Regelstäbe”: Je tiefer sie in die Schmelze eingetaucht werden, um so mehr Neutronen werden abgebremst und die Spaltungsrate erhöht sich. Die Moderation solcher Stäbe ist gegenüber früher verwendetem Graphit so viel besser, daß fast der doppelte Raum für die Salzschmelze bei einem vorgegebenen Reaktorvolumen zur Verfügung steht. Ein weiterer wichtiger Schritt zu der Verwendung von “Atommüll” als Brennstoff.

Die integrierte Wiederaufbereitung

Die Spaltprodukte müssen kontinuierlich aus der Salzschmelze entfernt werden. Sie wirken nicht nur parasitär, sondern stellen auch das eigentliche Sicherheitsproblem dar. Je weniger Spaltprodukte gelöst sind, um so weniger Radioaktivität könnte bei einem Störfall freigesetzt werden.

Etwa 20% der Spaltprodukte sind Edelgase. Sie sollen mit Helium aus der Salzschmelze abgeschieden werden und anschließend in Druckgasflaschen gelagert werden.

Rund 40% der Spaltprodukte sind Metalle, die Kolloide in der Schmelze bilden. Sie sollen mit Geweben aus Nickel ausgefiltert werden.

Der Rest – hauptsächlich Lanthanoide – sind sehr gut in der Salzschmelze gelöst. Sie sollen mittels flüssigen Metallen extrahiert werden und anschließend in eine keramische Form zur Lagerung überführt werden.

In der Abscheidung, Behandlung und Lagerung der Spaltprodukte dürfte die größte Hemmschwelle bei der Einführung von Reaktoren mit Salzschmelzen liegen. Welcher Energieversorger will schon gern eine Chemiefabrik betreiben? Vielleicht werden deshalb erste Anwendungen dieses Reaktors gerade in der chemischen Industrie liegen.

Zusammenfassung

Der Gedanke, “Atommüll” möglichst direkt als Brennstoff einzusetzen, hat Charme. Wirtschaftlich kommt man damit in die Situation einer Müllverbrennungsanlage. Man kann sich an den Aufbereitungs- und Entsorgungspreisen des Marktes orientieren. Diese Einnahmen sind schon mal vorhanden. Die Stromproduktion ist ein Zubrot. Es wird noch sehr viel Entwicklungszeit nötig werden, bis ein genehmigungsfähiger Reaktor vorliegt. Auch die Kostenschätzung über zwei Milliarden Dollar für den ersten kommerziellen Reaktor, ist in diesem Sinne mit der gebotenen Vorsicht zu betrachten. Allerdings handelt es sich bei diesem Reaktor nicht um ein Produkt einer “Erfindermesse”. Man hat sehr sorgfältig den Stand der Technik analysiert und bewegt sich auf allen Ebenen auf dem machbaren und gangbaren Weg. Es ist nur zu hoffen, daß diesem jungen Unternehmen noch etwas Zeit verbleibt, bis es – wie so viele vor ihm – auf und weg gekauft wird.

Weltweit tut sich etwas in der Entsorgungsfrage: Salzbadreaktoren, Entwicklung metallischer Brennstoffe – sogar für Leichtwasserreaktoren – und abgespeckte chemische Wiederaufbereitungsverfahren in Rußland.

Übernommen von NUKEKLAUS hier

 




Möge Meinungsfreiheit unangefochten an erster Stelle stehen und wissenschaftliche Forschung die Oberhand gewinnen.

 In den vergangenen vier Jahren koordinierten die Klimawandel Aktivisten sich heimlich miteinander, in Bezug auf Möglichkeiten, Einzelpersonen, Organisationen und Unternehmen, die ihre ideologischen Feinde sind, zu verfolgen. Sie trafen sich eine Strategie zu entwickeln, um RICO (Racketeer Influenced and Corrupt Organizations Act) zu verwenden. Dieses Gesetz sollte stärkere Waffen schaffen, um [eigentlich] organisierte Verbrechen zu verfolgen. Hier wird es gegen diejenigen genutzt, die sich gegen den Anti-fossile-Brennstoffe Krieg der Obama-Regierung stellen.

In jüngerer Zeit haben sich die Aktivisten, darunter Naomi Oreskes und Bill McKibben mit Staatsanwälten / Staatsministern (Attorneys General – AG) koordiniert, das gipfelte am 29. März in einer Pressekonferenz, geleitet von New Yorker AG Eric Schneiderman, unter Teilnahme des ehemaligen Vizepräsidenten Al Gore. Dort wird die "noch nie dagewesene Koalition" – so Schneiderman in der Pressemitteilung – bekannt gegeben: die neu gebildeten AGs für Clean Power. Obwohl "vage" in ihren spezifischen Plänen, wollen 17 AGs (16 Demokraten und 1 Unabhängiger), wie die Huffington Post berichtet: " einen Alle-Hebel-Ansatz nutzen", wie Gore sagte: "um diese kommerziellen Interessen aufzudecken, mit der besten verfügbaren Evidenz,  die das amerikanische Volk täuschen wollen und auf betrügerische Art und Weise kommuniziert werden".

[Evidenz [unmittelbare, mit besonderem Wahrheitsanspruch (unbezweifelbare) auftretende Einsicht; Quelle Wikipedia; Uff, ausgerechnet Al Gore reklamiert solche Ansprüche …; der Übersetzer]

Quelle CFACT, Grafik Mckibb – Kommission für Meinungsfreiheit: Nächster Fall
links: Ankläger, rechts: Verteidiger

ExxonMobil war das erste und offensichtlichste Ziel gewesen. Während der RICO Act [Gesetz] im Jahr 1970 durch die Bundesgesetzgebung verabschiedet wurde, haben mehr als zwei Dutzend Staaten "Baby RICO" Gesetze, nach InsideClimateNews.org "umfassender als die Bundes-Version."

Vier verschiedene Ermittlungen wurden eingeleitet wegen der Behauptung, dass Exxon sich verschworen hat, sein Verständnis der Klimawissenschaft zu vertuschen. Schneiderman war der erste [der diese Ermittlungen anstieß]. Im November vergangenen Jahres erließ er eine Vorladung: "Dass Exxon Mobil Corporation den Ermittlern Dokumente über vier Jahrzehnte ihrer Forschungsergebnisse und der Kommunikation über den Klimawandel vorlegen"

Quelle CFACT, excli;  „… linke Ökospinner!“ – „Das sind Exxon Beauftragte“

Im Januar verkündete die Los Angeles Times: "Kaliforniens Justizministerin Kamala D. Harris ermittelt, ob Exxon Mobil Corp. wiederholt die Öffentlichkeit belogen und seine Aktionäre über das Risiko für ihr Geschäft aus dem Klimawandel informierte und ob dieses Wertpapierbetrug und Verstöße gegen Umweltgesetze darstellen könnte“.

Webseite des Kalifornischen Justizministeriums, Justizministerin, Kamala D. Harris

Am 19. April leitete Massachusetts Justizministerin Maura Healey eine Ermittlung ein, "um Informationen zu  erhalten, ob Exxon Verbraucher und / oder Investoren in Bezug auf die Auswirkungen der Nutzung fossiler Brennstoffe auf den Klimawandel und der Klimawandel getriebene Risiken für die Exxon-Geschäft in die Irre geführt hat“.

Nur wenige Tage nach der Pressekonferenz am 29. März, wurde Virgin Islands‘ AG Claude Walker, mit seiner Einforderung von Aufzeichnungen, der erste der das RICO Gesetz zitierte "um Exxon für ihre langjährige Leugnung des Klimawandels und der Rolle ihrer Produkte zu sondieren". Darüber hinaus listete er rund 100 akademische Einrichtungen und ungebundene Think Tanks in seiner Vorladung auf. Die National Review berichtet, dass Walker eine "transformierende" Nutzung seiner Strafverfolgungsbefugnisse versprach, für den Kreuzzug der globalen Erwärmung.

 

Webseite des Justizministeriums Virgin Islands, Justizminister Claude Walker

Getrennt davon, wurden durch Walker Aufzeichnungen des angesehenen Washington DC Think Tank, des Competitive Enterprise Institute (CEI) angefordert [Vorladung gegen CEI widerrufen, The Daily Signal vom 23.Mai, CEI will dennoch klagen gegen die Einschränkung der „Free Speech“ ~ Meinungsfreiheit, von Beginn der Aktion an, so der Rechtsanwalt von CEI].

Quelle CFACT; Webseite Virgin Islands

Schneiderman und Healey haben auch Aufzeichnungen von Forschungs und Interessengruppen gefordert. Von Kamala D. Harris, die sich inzwischen um einen Sitz im Senat bemüht, als Nachfolgerin für in Pension gehende Senatorin Barbara Boxer (D-CA), " wird nicht [mehr] viel erwartet, in Bezug auf die Untersuchung von Exxon" nach The Daily Caller.

Free Beacon hält "interne Dokumente" als Referenz, dass die übergeordneten Ziele der Kampagne sind:

• [ExxonMobil] als politischer Akteur zu delegitimieren [für unrechtsmäßig erklären]

• Beamte der Staatsgewalt sich von Exxon distanzieren

• Verkauf von Exxon antreiben und

• Exxon & Klima in das Zentrum der 2016er Wahl stellen

`The Wall Street Journal (WSJ) fügt hinzu:

• in der Öffentlichkeit die Meinung zu schaffen, dass Exxon eine korrupte Institution ist, die Menschheit (und die ganze Schöpfung) in Richtung Klimachaos und schweren Schaden getrieben hat

Quelle CFACT; climateidiots;

Riss in der Rüstung, Global Warming Kreuzzug, gehackte Emails

Trotz der Angriffe auf Exxon, zitiert WSJ Lee Wasserman, Direktor der Rockefeller Familien Stiftung – einen der Ziele hinter dem Kreuzzug – mit den Worten: "Es ist nicht wirklich gegen Exxon." Stattdessen: "Es geht darum, die breite Öffentlichkeit zu unterstützen, dass sie die Dringlichkeiten der Suche nach Lösungen zum Klimaschutz verstehen".

Senator Sheldon Whitehouse (D-RI), befürwortete schon lange, dass das Department of Justice (DOJ) untersucht, ob Exxon und andere Unternehmen von fossilen Brennstoffen gegen das RICO Gesetz verstoßen haben, indem sie [die Unternehmen] die Rolle von fossilen Brennstoffen für die globale Erwärmung bestritten haben. Während der letzten Anhörung, fragte er Justizministerin Loretta Lynch, ob sie in Betracht gezogen hatte, RICO gegen Unternehmen von fossilen Brennstoffen anzuwenden. Sie antwortete: "Diese Angelegenheit wurde diskutiert. Wir haben Informationen darüber erhalten und haben es an das FBI berichtet, zu prüfen, ob es die Kriterien erfüllt, für die wir Maßnahmen einleiten könnten."

WebSeite, Sheldon Whitehouse, Senator von Rhode Island

Das WSJ berichtet: "Die neue Rechtstheorie gewinnt noch an Dynamik innerhalb des Justizministeriums, nach Offiziellen die mit internen Diskussionen vertraut sind. Aber nach dem Anstoß durch Gesetzgeber, hat das FBI eine vorläufige Überprüfung durchzuführen. "

Auch Rechtswissenschaftler, wie Professor Merritt B. Fox an der Columbia Law School, der laut Reuters, mit dem Stellenwert des Klimawandels übereinstimmt, äußerte sich skeptisch über die rechtliche Strategie der Ankläger: "Der Markt war mit Informationen über den Klimawandel aus einer Vielzahl von Quellen gut versorgt." Reuters fügt hinzu:" Investoren erhalten Informationen über den Klimawandel aus vielen Quellen und Exxon ist wahrscheinlich nicht in der Lage, die "Gesamtmischung" von öffentlich verfügbaren Informationen zu verändern".

In ähnlicher Weise wird Pat Parenteau, Professor für Umweltrecht an der Vermont Law School, von InsideClimateNews.org zitiert: "Hoffentlich gibt es etwas mehr als den unbegründeten Verdacht, um dieses zu unterstützen." Parenteau erklärt: "Die wichtigste Frage ist, ob der Generalstaatsanwalt [Walker] eine Grundlage hat zu vermuten, dass Exxon in Aktivitäten engagiert ist, die die Statuten über den Erhalt von Geld durch Vorspiegelung falscher Tatsachen und Betrug verletzt haben."

Im Wall Street Journal, David Uhlmann, ein Jura-Professor an der Universität Michigan und ehemaliger Staatsanwaltschaft für Bundedelikte, äußerte sich besorgt über das Vermögen "klare Strafbarkeit für die globale Erwärmung" zu etablieren: "Millionen von Menschen tragen mit ihren Verbrauch fossiler Brennstoffe dazu bei, während die nationalen Regierungen wenig getan haben, trotz der Risiken die sie kennen". Uhlmann erklärt:" Exxon hätte viel offener sein sollen über die Risiken bezüglich des Klimawandels, aber wir sind alle schuldig, für unser kollektives Versagen uns zu ändern".

Dann gibt es die Gegner. Das WSJ weist darauf hin: "Beide Seiten sehen dies als einen entscheidenden Moment in einer wachsenden Kampagne von Umweltschützern, eine juristische Strategie wie gegen Tabakunternehmen in den 1990er Jahren zu implementieren, mit dem Argument, dass Ölfirmen zu lange verborgen haben, was sie über den Klimawandel wissen."

Ende letzten Monats haben fünf republikanische Senatoren ein Schreiben an Justizministerin Merril Lynch geschickt, [hier bei Eike behandelt] indem sie fordern: „das das DOJ unverzüglich seine laufende Nutzung von Strafverfolgung einstellt, um private Debatten über eines der umstrittensten Themen unserer Zeit zu ersticken – den Klimawandel."

William Perry Pendley, dessen Gruppe, die Mountain States Legal Foundation wird [ebenfalls] in Walkers Vorladung genannt, erzählte mir von den Anstrengungen der Umweltgruppen "die ein Missbrauch von Macht sind, wie wir in diesem Land seit Woodrow Wilson nicht mehr gesehen haben." Seine Stiftung, so die Washington Times, hat "schon lange bekannt gemacht, dass Exxon eine seiner vielen Förderer ist."

Pendley sagt: "Finanzierung von Exxon zu akzeptieren und nicht einverstanden zu sein mit Greenpeace über die Ursachen und das Ausmaß des Klimawandels sind kein Verbrechen. Wir sind beschuldigt, weil wir sagen: "Vielleicht gibt es keine globale Erwärmung, vielleicht ist es nicht vom Menschen verursacht und vielleicht wird Ihre Lösung nicht funktionieren. Es wird zu teuer werden und uns in die Armut treiben."

Ronald Bailey, wissenschaftlicher Korrespondent der Reason-Stiftung – auch in Walker‘s Vorladung genannt – sagte, gemäß der Washington Times: "Diese Vorladungen sind ein großer Schritt bei der Verwendung von Gerichten um Menschen zum Schweigen zu bringen, die Ansichten vertreten, die sich von denen der mächtigen Regierungsbeamten unterscheiden."

CEI, die Organisation die für Walkers Vorladung separat herausgegriffen wurde, gab das folgende Statement von Präsident Ken Lassman: "Alle Amerikaner haben das Recht, Gründe an die sie glauben zu unterstützen und die CEI Vorladung ist ein Missbrauch des Rechtssystems und ein Versuch, Personen einzuschüchtern und zum Schweigen zu bringen, die mit bestimmten Staatsanwälten über Klimadebatte nicht übereinstimmen. Anderer Meinung zu sein als ein Regierungsbeamter ist kein Verbrechen; Regierungsmacht zu missbrauchen um Amerikanern ihre Rechte wegnehmen ist es. "

Webseite The Heartland Institute; Marita Noon, Executive Director

Ich [Marita Noon] weiß, dass meine Organisation, wenn auch nicht auf Walkers Liste aufgeführt, immer noch ein Opfer ist. Wir hatten einige wesentliche Mittel, die es uns erlaubt hätten, monatelange ohne extreme finanzielle Belastung weiterzumachen. Jedoch, der DC-Policy-Shop, der unsere Bemühungen unterstützte, zog seine Unterstützung als Ergebnis der Kampagne der AG’s zurück.

Mir  wurde gesagt, dass die Finanzierung genehmigt wurde, aber, als ich meine Kolumne vom 25. April über den Film Climate Hustle schrieb – der die Wissenschaft hinter der politisch korrekten Erzählung des von Menschen verursachten katastrophalen Klimawandels in Frage stellt – bekam die Leitung kalte Füße, weil auch sie eine der Organisationen auf der Liste sind. Zuerst wollte ich aufhören, denn ohne die Finanzierung kann ich nicht weitermachen. Aber dann wurde ich stinkig. Ich erkannte, dass, wenn ich aufhöre zu tun was ich tue, würden diese AGs gewinnen – was ihr Ziel ist. Indirekt versuchen sie, mich zum Schweigen zu bringen. Ich bin dankbar für Einzelpersonen und Unternehmen, die an meine Arbeit glauben und einspringen, die Finanzierungslücke zumindest für ein paar Monate zu füllen.

Diejenigen von uns, die angegriffen wurden, sind nicht die einzigen die den Fehler des Kreuzzuges der AG sahen. Exxon und CEI haben Klagen gegen die Ankläger eingereicht. Exxon behauptet, dass die Vorladungen „Verfassungsrechte auf Meinungsfreiheit verletzen, unangemessene Durchsuchungen und Beschlagnahmen und die Gleichbehandlungsklausel [14. Amendement]." Als Ergebnis der vergangenen Woche zog Walker seine Vorladungen zurück und Healey, berichtet The Daily Caller, hat einer einstweiligen Einstellung des Verfahrens zugestimmt. Das bedeutet, ihr Büro will die Vorladung nicht erzwingen, bis alle rechtlichen Einsprüche abgehandelt sind, was Jahre dauern kann.

Als einen großen Sieg für die Meinungsfreiheit konstatiert es The Hill: "Der Rückzug schließt ein großes Kapitel in den Bemühungen von Liberalen und Umweltschützern um Exxon zu bestrafen, dass es vor Jahrzehnten wusste, dass fossile Brennstoffe Klimawandel verursachen, aber es öffentlich leugneten."

Regierungswebseite: Abgeordneter Lamar S. Smith, Vertreter für Texas; Republikaner

Als Reaktion auf den "Rückzug", sagte der Abgeordnete Lamar Smith (R-TX), Vorsitzender des Haus-Ausschusses für Wissenschaft und Technologie, dass es "bestätigt, was mein Ausschuss bereits wusste – dass alle diese gesetzlichen Maßnahmen von Umweltgruppen angetrieben wurden, die eine extreme politische Agenda haben und keine Rücksicht auf das Gesetz nehmen.“ Er fügte hinzu: „Die Unternehmen, gemeinnützigen Organisationen und Wissenschaftler verdienen die Möglichkeit, Forschung frei von Einschüchterung und Bedrohung mit Strafverfolgung zu verfolgen".

Quelle CFACT; inquis : „Sie wagen es, die Globale Erwärmung wissenschaftlich anzufechten?“

Das Heartland Institute, dem ich als "Experte" in Energiefragen diene, ist auch auf „der Liste“. Sein Präsident, Joe Bast, hat mir gesagt: "Es gibt eine lebhafte Debatte über die Ursachen und Folgen des Klimawandels, diese Rechtsstreitigkeiten hat Auswirkungen auf das Recht zur Meinungsfreiheit [First Amendment] "Er fügte hinzu: „Es ist nicht die Möglichkeit eines Schadens für die Öffentlichkeit, die entscheidend für die AGs und das DOJ ist, eine gottlos komplizierte wissenschaftliche Debatte anzufangen, es ist die Möglichkeit der gegenwärtigen Regierung im Weißen Haus zu schaden. Ihr Ziel ist es, die Opposition von Exxon Mobil und CEI (und anderen gemeinnützigen Organisationen ähnlich des CEI) zur drakonischen Energiepolitik der Regierung zum Schweigen zu bringen."

Wie diese Angriffe auf die Meinungsfreiheit sich entwickeln, wird abzuwarten sein. Aber wie Texas Staatsminister Ken Paxton als Reaktion auf Walker Rückzug meinte: "In Amerika haben wir die Freiheit, anderer Meinung zu sein und wir verfolgen Menschen nicht rechtlich, nur weil ihre Meinung sich von der unseren unterscheidet."

Quelle: Webseite der Regierung von Texas, Staatsminister Ken Paxton, Republikaner

Möge Meinungsfreiheit und wissenschaftliche Untersuchung vorherrschen. Wahre Wissenschaft begrüßt die Herausforderung, weil es die aushalten kann – während politische Korrektheit die Herausforderung zum Schweigen bringen muss.

Erschienen am 4. Juli 2016   

Übersetzt durch Andreas Demmig

http://www.cfact.org/2016/07/04/may-free-speech-reign-and-scientific-inquiry-prevail/

Nachsatz:

Diese Übersetzung war schwierig für mich, da ich einige Hintergrundinformationen und Ausdrücke nicht kannte und nachrecherchiert habe.
Mein Kollege Chris Frey half mir den Einstieg zu finden, mit der Information über Studentenbewegungen in den USA – vielen Dank für die Unterstützung.
Ich komme nun zu der Überzeugung, dass auch die USA unter den „1968er“ zu leiden haben. Hoffentlich können wir diese Entwicklung in Deutschland eindämmen.

Danke für Ihre Aufmerksamkeit, A. Demmig




Elektroauto-Verehrung und -Subventionierung – eine Politiker-Krankheit

Den neuen Startschuss gab kein Geringerer als Barack Obama während seiner Wahlkampagne im August 2008. Er forderte, dass bis zum Jahre 2015 eine Million Hybrid- und Elektroautos (merken Sie was ?) über die Straßen der U.S.A. rollen sollten. Seither ist dort eine sehr erhebliche Summe an Dollars – die Zeitschrift Scientific American spricht von „Milliarden“ – an staatlicher Förderung ausgegeben worden: An Steuervergünstigungen (7.500 US$ beim Kauf) ; 2,4 Mrd. US$ für Batterie-F&E; 115 Mio US$ für Ladestationen…(Es kommt einem sehr bekannt vor – siehe unten die Beschreibung des deutschen „Nationalen Entwicklungsplans Elektromobilität“.)

Dieses Ziel der US-Administration wurde weit verfehlt.

Deutschland folgt: Mit dem Nationalen Entwicklungsplan Elektromobilität (Lit.6)

Dieser Regierungsplan vom August 2009 nennt als Ziele: Forschung und Entwicklung, aber dann auch Marktvorbereitung und Markteinführung – also Planwirtschaft, anstatt die Entwicklung dieses Wirtschaftsbereichs dem Markt zu überlassen. Die gleiche Planwirtschaft, die die gesamte Energiewendepolitik kennzeichnet.

Interessante Aussagen im Plan: (Anmerkungen kursiv)

–  „In Verbindung mit erneuerbaren Energien leistet sie (die E-Mobilität) einen bedeutenden Beitrag zur Umsetzung der Klimaschutzziele der Bundesregierung. 

    Bewertung: Das bedeutet: Wind- und Solarstrom sollen die E-Autos antreiben, was leider nicht funktioniert, weil deren Stromerzeugung unzuverlässig ist und speziell nachts kaum im Netz existiert. Es sei denn, man zwingt die E-Auto-Besitzer zur Installierung sog. Smart Meter für ihre private Ladestation, mit denen man den Strom durch den Versorger abschalten kann, wenn nur der böse Braunkohlestrom im Netz ist – und ihn wieder anschaltet, wenn Petrus etwas Wind wehen lässt. 

–   „Fahrzeuge in das Stromnetz integrieren“. „Die intelligente Nutzung der Batterien von E-Fahrzeugen als Stromspeicher bietet die Möglichkeit, die Gesamteffizienz der Stromversorgung zu erhöhen. Das geschieht über eine verbesserte Abnahme von Erzeugungsspitzen (die es in der konventionellen Stromversorgung gar nicht gibt), Annäherung von Erzeugungs- und Lastkurven (was eine konventionelle Stromversorgung routinemäßig erledigt) sowie perspektivisch auch die Bereitstellung von Regelenergie (die in einer konventionellen Stromversorgung kaum benötigt wird). 

Bewertung: Das durch die Energiewende angerichtete Elend bei der Stromversorgung (massive Netzstörungen durch Windstromspitzen und Flautenlöcher, Ruinierung der Spitzenlast-Gaskraftwerke und auch der Pumpspeicherkraftwerke) soll jetzt durch Heranziehung der noch arglosen Käufer von E-Autos etwas abgemildert werden. 

–   Ein verblüffend ehrlicher Satz ergänzt diese Absichtserklärungen:

    „Die damit verbundene Reduzierung der Batterielebensdauer ist dem gegenüberzustellen.“

    Bewertung: Es ist zu hoffen, dass die E-Auto-Besitzer diese Falle rechtzeitig erkennen

    (s.u. den Abschnitt „E-Autos als Hilfsspeicher für das Stromnetz ?“).

–   Eine weitere sehr zutreffende Feststellung fand ihren etwas versteckten Platz im Plan:

    „Der Mangel an Naturwissenschaftlern, Ingenieuren und technischen Fachkräften droht zur vielleicht größten Wachstumsbremse für die E-Mobilität zu werden.“ 

    Bewertung: Das Wörtchen „vielleicht“ ist zu streichen. Prof. Endres, einer der wenigen in Deutschland noch tätigen Fachleute der Physikalischen Chemie, von dem im vorliegenden Artikel  ausführliche Stellungnahmen enthalten sind, schrieb dazu in Lit.2 

       „Forschungsgeld für die physikalische Chemie: Polit-Saison-bedingt.

       Die politische Blamage in den 1990er Jahren hatte leider für die Forscher  fatale Folgen, denn in der Folge wurde die Elektrochemie an den deutschen Hochschulen faktisch abgewickelt; es gab keine Forschungsgelder mehr für Batterien, höchstens vereinzelt, und in der Szene der physikalischen Chemie wurden Elektrochemiker milde belächelt.

       Dann kam ca. 2007/2008 das Thema wieder hoch, dieses Mal begründet mit der „Klimakatastrophe“  und der Endlichkeit der Ressourcen. Diesmal wurde das politische Ziel ausgegeben, gleich eine Million Elektroautos bis 2020 auf die Straßen zu bringen (Manfred Kanther lässt grüßen). Im April 2015 platzte auch diese Politblase, denn auf eine präzise parlamentarische Anfrage vermied die wenig amüsierte Regierung die nochmalige Erwähnung oder gar Bestätigung dieses Ziels. 

        Zwar gibt es wieder einige Batterieforscher, aber diese sind wegen der geringen Forschungsmittel in gegenseitiger Konkurrenz, der erhebliche technologische Rückstand zum Ausland konnte auch noch nicht aufgeholt werden. Erfahren die Politiker aber vom selbst verschuldeten und kaum aufzuholenden Rückstand, werden sie die Finanzierung vermutlich wieder einstellen, das könnte man auch Grundlagenforschung nach der Methode des politischen Schweinezyklus nennen.

        Für neue Ideen, die einen langen Atem erfordern, fehlt Politikern meistens der Mut; lieber   werden wohl die alten Fehler schnell vergessen.

        Die Musik der Batterieforschung spielt sowieso längst in Asien und jetzt auch vermehrt in den USA.“ (Ende des Zitats) 

–    Ohne die unausweichlichen Konsequenzen dieses von den Autoren des Nationalen Plans selbst erkannten Riesenproblems zu begreifen, haben sie der kaum noch existierenden Forschung und Entwicklung in der Physikalischen Chemie eine Reihe von Anforderungen an die zu erbringenden Ergebnisse verordnet:

     o  Kostenziel: 300 – 500 €/kWh  (heute 1000 – 1200 €/kWh)

     o  Energiedichte-Ziel: 200 Wh/kg bis 2015 (das ist der Faktor 2 gegenüber Li-Ionenbatterien im Jahre 2009). Langfristig 1000 Wh/kg.

     o  Lebensdauer und Zyklenfestigkeit: 10 – 15 Jahre, d.h. 3000 – 5000 Ladezyklen.

     Bewertung: So denken Planwirtschaftler. Sie verordnen der viele Jahre vernachlässigten Forschung die tollsten Ergebnisse. Das ist nur noch tragikomisch.

Angela Merkel wünscht sich die Million

Bei der Konferenz „Elektromobilität bewegt die Welt“ am 27.5.2013 mit Vertretern aus Wissenschaft, Industrie und Politik erklärte Merkel: „Ziel der Bundesregierung ist es, dass bis 2020 eine Million Elektrofahrzeuge auf unseren Straßen im Einsatz sind. Bis 2030 könnten es auch 6 Millionen Fahrzeuge sein“. Und noch am 27.5.2013 verkündete sie auf der von der Regierung organisierten Konferenz „Elektromobilität weltweit“: „Das ist machbar.“

Damit übernahm sie Obamas großes Ziel, allerdings für ein viel kleineres Land und ohne die geringste Chance, bei der Entwicklung neuer und sehr viel besserer Batterien – also bei der für E-Autos alles entscheidenden Technologie – noch eine Rolle spielen zu können (s.o.). Aber politische Visionen haben keine Obergrenze und eine Million bringt ja viel mehr PR als mickrige 50.000.    

„Der neue und alte Elektroauto-Hype (Zitat von Prof. Frank Endres, Lit.2)

Es scheint eine Gesetzmäßigkeit zu sein, dass die deutschen Politiker in regelmäßigen Abständen meinen, dass sie jetzt in den Automobilmarkt eingreifen müssen, um einer vermeintlich überlegenen Antriebstechnik zu ihrem verdienten Durchbruch zu verhelfen, der ihr von der verstockten Kundschaft verwehrt wird.

Elektrofahrzeuge sind ja in der Tat sehr leise und, so lange die Batterie genügend Ladung hat, entspannt und angenehm zu fahren. Aber eine Reichweite von 60 km im Winter bei einem bald

30.000 € teuren Kleinwagen ist nicht wirklich ein Kaufanreiz, dazu kommt die Alterung von Batterien, und ein schneller Rückgang der Preise ist bei ihnen nicht zu erwarten.

Das Problem der Elektrofahrzeuge liegt somit bei den Batterien – wie schon immer. Die deutsche Politik hat schon einmal den großen Durchbruch verkündet. Zwischen 1992 und 1995 führte die damalige Regierung – begeistert  befürwortet durch Forschungsminister Heinz Riesenhuber und die heutige Bundeskanzlerin Angela Merkel, damals Umweltministerin, – einen großen Feldtest für Elektroautos auf Rügen durch. Und der damalige Innenminister Manfred Kanther gab das Ziel aus, dass mindestens 10 Prozent aller neu zugelassenen KFZ im Jahre 2000 Elektroautos sein sollten. Nicht allzu überraschend kam es etwas anders.“ (Lit.2)

 

Und abermals das Elektroauto – diesmal für den Klimaschutz

Dass die derzeitige Regierung – wie auch schon Regierungen vor ihr – trotzdem wieder einmal das Elektroauto exhumiert, ist nicht weiter verwunderlich.  Man kann folgende Gründe finden:

Ø  Mit dem sogenannten Klimaschutz glaubt man ein neues und stichhaltiges Argument für E-Mobilität zu haben. Dazu gehört der Glaube an große CO2-Einsparungen  durch den Elektroantrieb – was sich als ein Irrglaube herausstellt (s.u.).

Ø  Politiker sind zunehmend beratungsresistent und empfinden Sachargumente als kleinkarierte Quengelei und lästige Ablenkung von ihren Plänen zur Beglückung der Wähler.

Ø  Die Ministerien, die eigentlich auch die Aufgabe haben, die Regierung von unsinnigen Plänen abzubringen, sind mittlerweile in allen mittleren und oberen Etagen mit Parteibuch-Karrieristen und Mitläufern besetzt, von denen nur Vorschläge für Gesetze und Verordnungen erzeugt werden, die eine Unterstützung der Ideen „derer da oben“ bewirken sollen. 

Bisher glaubte man, dass die Regierung deshalb auf die massive Einführung von Elektroautos setzt, weil sie damit etwas für den „Klimaschutz“ tun will.  Es wird schließlich fest angenommen, dass E-Autos weniger CO2 produzieren als Benzin- oder Diesel-PKW. Dass mit dieser Annahme etwas nicht stimmt, ergaben bereits einfache Vergleichsmessungen, aus denen hervorging, dass Otto- oder Dieselmotoren kleinerer Leistung schon jetzt nicht mehr CO2 emittieren als die E-Autos. 

Aber diese Bilanz wird für die Elektroautos noch schlechter; dafür hat die Regierung bereits gesorgt:

Weil die E-Autos weit überwiegend tagsüber genutzt werden, erfolgt die Aufladung ihrer Batterien nachts in der eigenen Garage. Niemand wird stundenlange Wartezeiten an öffentlichen Aufladestellen in Kauf nehmen. Nachts ist leider absolut kein Solarstrom im Netz – und ob sich etwas Windstrom im Strommix befindet, entscheidet das Wetter. Man kann den Erzeugungs-Diagrammen der gesamten installierten Windkraft entnehmen, dass  im Durchschnitt der Nächte etwa 10% des Stroms aus der Steckdose von Windrädern erzeugt wird – der „Rest“ von 90% besteht überwiegend aus  Braunkohlestrom – und bis 2022 auch noch aus Kernkraftstrom. Und weil die restliche Kernkraft ab 2022 per Gesetz abgeschaltet wird, bestehen die 90% des Auflade-Nachtstroms danach nur noch aus Braunkohlestrom. Damit sind die Elektroautos dazu verurteilt, die CO2-Emissionen Deutschlands weiter zu erhöhen. Diese Bilanz wird mit jedem abgeschalteten Kernkraftwerk schlechter.

Und sie wird nochmals schlechter durch die von der EU beschlossene mehrfache Anrechenbarkeit von E-Auto-Verkäufen auf den für die Hersteller attraktiven und dann von Strafzahlungen befreiten Verkauf von mehr großen PKW und SUV’s (s.u.).

Von „Klimaschutz“ kann bei Elektroautos also keine Rede sein

Das Bündel schwerwiegender Nachteile hat eine Ursache: Die Batterien

Die Angebote der Industrie an E-Autos überzeugten bisher nur wenige Kunden, was nicht weiter verwundert, wenn man die hohen Preise, das hohe Gewicht, die kläglichen Reichweiten – die im Winter nochmals abnehmen -, die langen Ladezeiten und die begrenzte Lebensdauer der extrem teuren Batterien betrachtet. Autofahrer sind nicht dumm und es spricht für sie, dass sie sich auch nicht für dumm verkaufen lassen. (Lit.4) 

Weiter aus dem Beitrag von Prof. Endres (Lit.2):

„Die weitgehend auf Erinnerungsschwäche beruhende neue Begeisterung von Politikern für das alte Thema ignoriert weiterhin das Fehlen zuverlässiger und kostengünstiger Antriebsbatterien. Das ist seit etwa 100 Jahren der Fall, als mit der Erfindung des Automobils sofort auch der Elektroantrieb Anwendung fand. Nach einigen Jahren hängte der Verbrennungsmotor, der seine Energie aus den  flüssigen Kohlenwasserstoffen holt,  den E-Antrieb hoffnungslos ab. Seither arbeiten Generationen von Experten der physikalischen Chemie an der Verbesserung der Akkumulatoren. Alternativ versucht man den Menschen einzureden, dass sie eh kein Auto bräuchten, das mehr als 100 km Reichweite hat. Sie sollen für längere Strecken schließlich die Bahn nutzen.

Lebensdauer, Alterung und Betriebssicherheit von Batterien

Alle Batterien unterliegen unvermeidbar einer zyklischen (gemäß der Zahl der Lade/Entladezyklen) und kalendarischen Alterung. In den letzten Jahren waren Lithiumionen-Batterien in aller Munde. Lithium ist jedoch ein sehr reaktives und auch nicht sehr häufiges Metall, das mit jedem bekannten Elektrolyten chemisch reagiert.  Solche Batterien sind daher nicht dauerhaft stabil. Lässt man eine Lithiumionenbatterie mehrere Jahre liegen, bläht sie sich im Laufe der Zeit wegen der Alterung auf. Wird sie dann stark belastet, kann sie zu brennen beginnen. Auch beim wiederholten Laden/Entladen leidet die Batterie – ihre Materialien werden durch mechanischen Stress während der zyklischen Belastung immer mehr zerstört. 

Wir haben post-mortem-Analysen von Batterien, die gebrannt hatten, durchgeführt und konnten sehen, dass sich in den Batterien sog. „hotspots“ bildeten, die schließlich derart viel Wärme erzeugten, dass die Batterie in einen instabilen Überhitzungszustand geriet. 

Bei Zink-Luft-Akkumulatoren nimmt die dort verwendete Kalilauge Kohlenstoffdioxid aus der Luft auf; hier altert also der Elektrolyt, und neue Konzepte sind erforderlich. 

Wegen der kalendarischen Alterung liegt die maximale Lebensdauer bei 6 Jahren, aber auch nur 3 Jahre Lebensdauer können vorkommen.

Und ein gänzlich neues Batteriekonzept ist so schnell nicht zu erwarten.

Die Energiedichte

In der Frage der erreichbaren Energiedichte schlägt leider die Thermodynamik unbarmherzig zu. Die elektrochemische Spannungsreihe erlaubt maximal 6 Volt für ein Elektrodenpaar; das wäre dann aber eine (hochgefährliche) Lithium/Fluor-Batterie, deren technische Umsetzung und Verwendung kaum vorstellbar sind. Voll geladene Lithiumionen-Akkus heutiger Bauart haben bei einer Einzelzelle eine Spannung von 4,2 Volt. Mehr ist schwer zu erreichen, weil man noch keine Elektrolyte gefunden hat, die für sog. „5-Volt-Batterien“ geeignet sind. Es ergibt sich wegen des spezifischen Gewichts der Batteriematerialien derzeit eine maximale Energiedichte von 0,3 kWh/kg; technisch erreichen kann man heute nicht mehr als 0,15 kWh/kg.

Kohlenwasserstoffe enthalten dagegen rund 12 kWh/kg, wovon ein guter Dieselmotor ca. 5 kWh in mechanische Energie umsetzt.

Wirkungsgrad-bereinigt schneiden Kohlenwasserstoffe bezüglich der Energiedichte also mindestens 30-mal besser ab als Li-Ionen-Akkumulatoren.

Energiedichten von 1 – 5 kWh/kg sind nur mit Metall-Luft-Batterien denkbar. Relativ leicht herstellbare Zink/Luft-Batterien erreichen schon bis zu 0,5 kWh/kg, aber die oben beschriebene Alterung des Elektrolyten ist das zentrale Problem. Neue Konzepte sind in der Erforschung; mit einem Markteinsatz ist frühestens in 5 Jahren zu rechnen – und da am ehesten aus US-amerikanischer Fertigung.

Lithium-Luft-Batterien wurden als die Lösung aller Probleme angepriesen, und man sprach von bis zu 15 kWh/kg, was aber eine höchst unseriöse Zahl ist, da sie nur auf das Lithium alleine bezogen wurde und die andere Elektrode, der Elektrolyt, das Gehäuse usw. nicht berücksichtigt wurden. Im Labor erreichen Lithium/Luft-Batterien 1 kWh/kg, sie altern aber rasch, und eine Lösung für dieses Problem erscheint in weiter Ferne. Ein Einsatz ist frühestens in 20 Jahren zu erwarten, falls überhaupt.

Mit Unterstützung des BMBF arbeitet unser Institut an der TU Clausthal grundlegend an Aluminium/Luft und Silizium/Luft-Batterien. Die denkbaren Energiedichten liegen bei 1 – 4 kWh/kg, aber das ist Grundlagenforschung und ebenfalls weit von einer kommerziellen Nutzung entfernt.

Vielleicht können Lithium/Schwefel-Batterien als Nächstes vermarktet werden. Im Labor erreichen sie schon 1 kWh/kg. Sie altern aber schnell und die nutzbare Energiedichte liegt bei ca. 0,3 kWh/kg, was im Vergleich zu Lithiumionenbatterien immerhin um einen Faktor 2 besser wäre.

Ich rechne eher mit einer langsamen Evolution im Batteriesektor als mit einer schnellen Revolution.

Die Kosten

Wirklich gute Lithiumionen-Akkus, wie sie z.B. im Modellflug verwendet werden, kosten zwischen 1.000 und 1.500 €/kWh und selbst die „billigen“, wie sie in Elektroautos genutzt werden, kosten heute 500 €/kWh. Auf die immer einmal wieder ins Feld geführten 100 – 200 €/kWh werden wir m.E. noch ein wenig warten müssen, und bei der angepriesenen Speicherbatterie eines Elektroautoherstellers mit ca. 300 €/kWh muss man die Langzeitqualität abwarten.

Das Fazit der näheren Betrachtung der elektrochemischen Batteriearten, die mindestens  eine gewisse Entwicklungsreife aufweisen, als mögliche Speicher zur großtechnischen Netzstabilisierung lautet somit „nicht langzeitbeständig“ und „unbezahlbar“.

(Ende des Zitats von Prof. Endres)

Feuer !

Akkus, die brennen können, gab es bei den braven, schweren Bleiakkus, die  in unseren nichtelektrifizierten Autos immer noch treu ihre Dienste verrichten, niemals. Seit den Lithium-Ionen-Batterien – eine große Erfolgsgeschichte – hat sich das geändert. Als erstes gingen Laptops reihenweise in Flammen auf. Dann traf es auch mehrfach Autos, die mit diesen Stromspeichern angefüllt waren: So verabschiedete sich am 4.1.2016 ein Tesla Modell S an einer norwegischen Ladestation in einer spektakulären Flammenshow. Der Brand konnte nicht gelöscht werden.

Aber die Alarmnachrichten berücksichtigen nicht, dass inzwischen Hunderte von Millionen Li-Ionenbatterien in Gebrauch sind und diese Unfälle daher immer noch selten sind. Benzin- und Dieselautos brennen durchaus häufiger als E-Autos – weshalb es sogar Konferenzen dazu gibt: So die „3. Internationale Konferenz über Feuer in Fahrzeugen“, die am 1. Oktober 2014 in Berlin stattfand.

Aber neue Gefahren rufen immer neue Gegenmaßnahmen hervor, weshalb die Internationale Zivilluftfahrt-Organisation ICAO Anfang ab April 2016 die Mitnahme aller Geräte mit Lithium-Ionen-Akkus im aufgegebenen Fluggepäck verboten hat. Ebenso dürften aber auch gefüllte Benzinkanister verboten sein.

Je näher man den physikalischen Grenzen in der Batterietechnik kommt, desto kritischer scheint es für die Benutzer zu werden. Ob deshalb die Hoffnungen auf Batterietechnologien mit wesentlich höheren Energiedichten so ihr Ende finden, wird sich zeigen.

Mein persönlicher Albtraum ist allerdings die Wasserstoff-Tankstelle in der Nähe.

E-Autos als Hilfsspeicher für das Stromnetz ?

Eine Idee, die schon länger und immer wieder einmal in die hoffnungslose Diskussion über die im Stromnetz zum Ausgleich der gefährlichen Windstromschwankungen erforderlichen Speicher (die es nicht gibt und auch niemals geben kann) geworfen wird, ist die Benutzung von E-Autos als Hilfsspeicher für das Netz.

Die in den Garagen stehenden und am Ladekabel hängenden PKW sollten nach diesen Vorstellungen vom Stromversorgungs-Unternehmen mit einer Fernwirktechnik ansteuerbar gemacht werden, damit man sie bei Bedarf entweder als Stromlieferanten in das Netz oder auch zur Aufnahme von Leistungsspitzen der wetterabhängigen Ökostromerzeuger  benutzen kann.

Im Nationalen Entwicklungsplan Elektromobilität, der oben behandelt wurde, ist diese Idee ganz deutlich als politische Absicht enthalten.

Anscheinend hat bei den Verfassern niemand nachgerechnet, weil das bei der Energiewende als unfair gilt.

Jedenfalls erzeugt schon eine Bierdeckel-Kalkulation einiges Kopfschütteln, denn die geringe Kapazität der Antriebsbatterien von ca. 25 kWh, von der nur ein kleinerer Teil wirklich für Lade-Entlade-Vorgänge zur Verfügung stünde, ergibt nur eine bescheidene und uninteressante Gesamt-Speicherkapazität. Hinzu kommt erschwerend, dass die E-Auto-Besitzer genau wissen, dass viele zusätzliche Lade-Entlade-Zyklen die ohnehin schon geringe Batterielebensdauer drastisch verkürzen – siehe die Ausführungen von F. Endres, aber sogar auch der im Text des Plans schamhaft versteckte Hinweis auf dieses Problem.     Wenn die teure Batterie dann ein Jahr früher den Geist aufgibt, als es sowieso schon droht, wird sich wohl niemand darauf einlassen. Und die zwangsweise Installierung von Smart Metern bei den E-Auto-Besitzern traut sich die Regierung nicht anzuordnen – noch nicht.

Diese Idee ist also sinnlos, aber teuer, weshalb sie zur Energiewende passt – deshalb wird sie gewiss verwirklicht. Noch nicht mit Zwang, aber mit weiteren Subventionen.

Wie die Industrie gezwungen wurde, E-PKW zu entwickeln

Zu den Methoden, eine offenkundig unattraktive Technik dennoch in den Markt zu bringen, gehört die Ausübung von wirtschaftlichem Druck auf die Hersteller. Das hat die EU sehr wirksam erledigt (s.u.). Nun also bieten die großen Automobilhersteller unter erheblicher Selbstverleugnung gequält begeistert etliche E-Mobile an. Wegen der sehr teuren Technik zu unvermeidlich saftigen Preisen, an  denen dennoch nichts verdient werden kann.

Dass die renitenten Autofahrer aber trotzdem und immer noch auf die regierungsamtliche E-Auto-Begeisterung nur mit Kaufverweigerung reagierten, verstört die Politiker sehr. 

Es ist das Verdienst des Heidelberger Umwelt- und Prognoseinstituts UPI, mit seinem im August 2015 veröffentlichten Bericht Nr. 79 mit dem Titel „Ist die staatliche Förderung von Elektro- und Hybridautos sinnvoll ?“ (Lit. 1) Licht in diese seltsame Aktivität gebracht zu haben.

Das Geheimnis dieser teuren Aktivität ist die Flottengrenzwertregelung der EU, in der die Elektroautos trotz ihrer Emissionen, die mit ihrer Stromversorgung zusammenhängen, juristisch als „Null-Emissionsfahrzeuge“ definiert sind.  Die von den Herstellern sehr erwünschte Folge: Fügen sie E-Autos  ihrer PKW-Palette hinzu, dann sinkt der Durchschnitt der Emissionen der ganzen Flotte zwar überhaupt nicht, sehr wohl aber in der EU-Statistik. Hersteller können daher mit den verkauften Elektro- und Plug-In-Hybridautos hohe, über dem Grenzwert liegende Emissionen bei großen PKW rechnerisch kompensieren – und ersparen sich Strafzahlungen.

Dass sich die Hersteller aus EU-fernen Ländern kreativ weitere Statistik-Tricks zur Schönung ihres Flottenverbrauchs ausgedacht haben, wird unten im Abschnitt „Irreführende Fahrzeugstatistik..“ beschrieben. 

Die Folgen der „Kompensationslösung“ in der Praxis

– „Ein Elektroauto ermöglicht im Durchschnitt ca. 5 großen PKW mit über dem Grenzwert liegenden CO2-Emissionen die rechnerische Einhaltung des Grenzwerts.

– Die Automobilindustrie kann 2013-2015 und 2020-2022 E-PKW als „Super-Credits“ definieren: Dann zählen Elektroautos mehrfach. Ein E-PKW kompensiert dann auf dem Papier die CO2-Grenzwertüberschreitungen von 7 bis 10 großen PKW.

– Ein E-Auto erspart den Herstellern pro ca. 5 Geländewagen oder SUV Strafzahlungen wegen CO2-Grenzwertüberschreitung in Höhe von z.Zt. 10.000 Euro.

– Dieselben Regelungen gelten bei Plug-In-Hybrid-PKW; die CO2-Kompensationen sind etwa halb so stark wie bei reinen E-Autos.

Elektro- und Plug-In-Hybridautos führen deshalb entgegen der allgemeinen Meinung nicht zu einer Minderung, sondern zu einer Erhöhung der CO2-Emissionen. Ein neu verkauftes Elektroauto ermöglicht mehreren großen PKW über die Laufzeit gerechnet über dem CO2-Grenzwert liegende Emissionen von ca. 50 Tonnen CO2 ohne Strafzahlungen.“

„Rebound-Effekte“ – wenn gute Absichten ins Leere gehen

Die UPI-Forscher haben weitere Auswirkungen des Einsatzes von E-Autos eingehend betrachtet, und zwar die sog. Rebound-Effekte. Damit werden Nebenwirkungen oder Rückkopplungseffekte einer Maßnahme bezeichnet, die letztlich zum Gegenteil des ursprünglichen mit der Maßnahme Beabsichtigten führen.

Bekanntes Beispiel dafür: Die Anschaffung stromsparender Geräte im Haushalt (z.B. Energiesparlampen) macht eine stärkere Nutzung von Strom attraktiv, weil man ja nun durch das Stromsparen neuen Spielraum für den Verbrauch gewonnen hat. Die Stromkunden verwenden die erzielten Einsparungen zur Erhöhung ihrer Wohnqualität und ihres Komforts; die Ziele der Politiker sind nicht die ihren.

Zu den Rebound-Effekten bei E-Autos sagen die UPI-Experten:

– „Da E-Autos häufig als Zweit-oder Dritt-Wagen angeschafft werden, erhöhen sie die Gesamtzahl der Autos. Das verschärft den Ressourcen- und Flächenverbrauch des Straßenverkehrs und das Stellplatzproblem in den Städten.“

– „Obwohl in der Anschaffung teurer als normale PKW, liegen E-Autos in den Betriebskosten niedriger. Außerdem meint man, besonders umweltfreundlich unterwegs zu sein. Das führt zu einer recht drastischen Verkehrsverlagerung vom öffentlichen zum Individualverkehr:

In Norwegen, dem Land mit besonders vielen Elektro-PKW, nutzten 23% der Bürger den ÖPNV für Fahrten zur Arbeit vor dem Kauf eines E-Autos; nach dem Kauf eines E-Autos waren es nur noch 4%.  Weil der Strom in Norwegen fast ausschließlich mit Wasserkraft erzeugt wird, gibt es bezogen auf die Art der genutzten  Energie keinen Unterschied zwischen dem ÖPNV (elektrische Bahnen) und E-Autos. Einen anderen Unterschied aber gab es: Mehr Straßenverkehr und Parkplatzknappheit. (Lit.1 und 3).

Eine Umfrage des DLR-Instituts für Verkehrsforschung im Jahre 2014 zum gleichen Thema ergab identische Zahlen für Deutschland.(Lit.1) 

– „Wenn der Plan der Bundesregierung, bis 2020 eine Million Elektrofahrzeuge auf die Straßen zu bringen, realisiert werden würde, dann würde die von der EU vorgesehene Absenkung des Grenzwerts von heute 130 auf 95 g CO2/km  im Jahr 2020 durch die beschriebenen Kompensationsmöglichkeiten einer Million E-Autos fast vollständig unwirksam gemacht. Es gäbe die damit geplante Absenkung nicht.“ (Lit.1)

Auf diese Weise konterkariert die EU ihre CO2-Absenkungspolitik durch eigene Maßnahmen. 

Es ist allerdings nicht zu erwarten, dass der Plan der Regierung aufgehen wird, denn sie hat dabei die Physik gegen sich: UPI: „Die Speicherung von Strom erfordert auch bei modernen Akkus eine um mehr als das 10-fache höhere Masse des Speichers als die Energiespeicherung mit flüssigen Treibstoffen. Deshalb gibt es einen Markterfolg nur bei E-Bikes und Pedelecs, da bei diesen wegen ihrer viel kleineren Masse, der geringeren benötigten Reichweite und der integrierten Muskelkraft die zu speichernde Strommenge viel kleiner ist.

Elektromobilität ist daher wie schon bisher nur beim schienengebundenen öffentlichen Verkehr sinnvoll.“(Lit.1)

Wenn alles nichts mehr nützt: Subventionen verteilen

Als dieser Artikel im Oktober 2015 in einer ersten Fassung geschrieben wurde (Lit.4), lautete der Schlußsatz:

„Es ist zu befürchten, dass die Regierung bei weiter anhaltender Ablehnung der Kunden in ihrer bekannten Methode, Fehler nicht zu beheben, sondern sie mit mehr Geld zuzukleistern, dem Wunsch der Automobilindustrie nach Kaufpreis-Subventionen nachgeben wird. Es wäre die logische Konsequenz in Befolgung des bereits angetretenen Marsches in die staatliche Planwirtschaft.“ 

Genau das ist nun erfolgt. Die Regierung beschloss eine Subvention – den „Umweltbonus“ (s.u.) – für den Kauf von Elektroautos,  Hybrid-Elektro-PKW und auch Brennstoffzellen-Fahrzeugen. 

Irreführende Fahrzeugstatistik: Fast jedes zweite Elektroauto in Deutschland verschwindet spurlos

Das war der Titel eines Artikels von Nils-Viktor Sorge in SPIEGEL Online am 12.4.2016. (Lit.5)

Das Kraftfahrzeug-Bundesamt (KBA) hatte gemeldet: In 2015 hätte die Zulassung reiner Batteriefahrzeuge um 45% zugenommen – auf 12.363 Exemplare in diesem einen Jahr. Der SPIEGEL bemerkte aber Ungereimtheiten in dieser Aussage: Im Vergleich zum 1.1.2015 erhöhte sich die Zahl der in D. länger als nur kurzfristig zugelassenen Batterieautos lediglich um 6554 Autos. Mit den vom KBA angegebenen zusätzlichen 12.363 Stück hätten es insgesamt 31.311 in D. zugelassene Batterieautos sein müssen – aber es waren in Wahrheit nur 25.502 Stück.

Fast jedem zweiten neu zugelassenen E-Auto steht also ein anderes gegenüber, das nahezu spurlos aus der Statistik verschwindet.

Ironisch bemerkt der Autor, dass es bei diesem Tempo bis zum Jahr 2168 dauern würde, bis die Merkel‘sche Million erreicht wäre.

Das KBA lehnte es ab, gegenüber der Presse seine Statistik nicht erläutern.

Die SPIEGEL-Leute fanden aber eine Erklärung für dieses Wunder. Es ist eine übliche Praxis für ausländische Hersteller – z.B. wie beim in Deutschland beliebten KIA Soul EV – ihre nach Deutschland importierten Elektroautos auch hier zuzulassen, sie aber anschließend wieder in Drittländer zu exportieren. Zweck dieser Kurzzeitzulassungen ist es, die CO2-Flottenbilanz des Herstellers in der EU zu schönen. Auch der Autoexperte Dudenhöffer meint, dass Exporte eine der wahrscheinlichsten Ursachen für den nur schleppend steigenden E-Auto-Absatz in Deutschland sind. Kurt Sigl, Präsident des Bundesverbandes Elektromobilität erklärte mit Blick auf die „verschwundenen“ Autos: „Die gehen alle ins Ausland“. Zum Absatz in Deutschland meinte er, dass dieser mittlerweile faktisch rückläufig sei.

Autor Sorge meint zu dieser Statistik-Ente: „Damit gerät das offizielle Ziel der Bundesregierung noch mehr zur Lachnummer als ohnehin.“

Der Artikel schließt mit der Aussage, dass die Industrie verzweifelt auf staatliche Kaufanreize hoffe.

Ihre Bitten wurden inzwischen erhört – siehe unten:  „Der Umweltbonus“.

Ist die Zukunftstechnik Elektroauto bereits ein Auslaufmodell ?

Dass die Brennstoffzellen-Autos hinzu kamen ist offenbar eine Reaktion auf die Entscheidung von Toyota, in Anbetracht der vielen prinzipiellen Probleme der Batterie-E-Autos künftig auf die Brennstoffzelle (BSZ) zu setzen. Dadurch wird man das Reichweiten- und das Ladezeitproblem der Batterieautos los, handelt sich aber große Schwierigkeiten bei der Reife dieser Technik und angesichts noch viel höherer Kosten ein.  Auf jeden Fall ist dieser Schritt des weltgrößten Automobilherstellers ein klares Signal für das absehbare Ende der Batterie-Elektroautos, für die die Deutschen jetzt ein Subventionsprogramm auflegen.

Was den Zeitraum für das Erreichen der Marktreife der Brennstoffzellen-PKW anbelangt, kann der Autor dieser Zeilen aus seinen ersten Erfahrungen beim Eintritt in das Bundesministerium für Forschung und Technologie im Jahre 1972 berichten: Als erstes bekam ich einen Aktenstapel mit laufenden Förderungsprojekten zur weiteren Bearbeitung auf den Tisch. Es waren Entwicklungsprojekte für Brennstoffzellen. Seitdem sind 44 Jahre weiterer Entwicklung ins Land gegangen – und auf die Produktion zuverlässiger und bezahlbarer BSZ werden wir noch lange warten dürfen.

Politiker denken in Legislaturperioden. In diesen 4-Jahres-Etappen verkünden sie sehr gerne Visionen für neue Technologien (die oft schon ziemlich alt sind) und können sich die wahren Zeiträume der Entwicklung bis zur Marktreife nicht im Entferntesten vorstellen. Bei den BSZ sind es schon mehr als 12 Legislaturperioden….Eine besondere Anwendung gibt es aber bereits: In den neuen U-Booten.

Der „Umweltbonus“

So nennt die Bundesregierung ihre neue Subvention. Dass E-Autos der Umwelt eher schaden als nützen, wurde bereits erläutert. In dem Förderungs-Infoblatt des Bundesamts für Wirtschaft und Ausfuhrkontrolle (BAFA) steht dazu immerhin ein verräterischer Satz: „Der Bundesanteil am Umweltbonus beträgt für ein reines Batteriefahrzeug bzw. ein Brennstoffzellenfahrzeug (keine lokale CO2-Emission) 2000 Euro…..“  Damit wird zugegeben, dass die Emissionen nur an einen anderen Ort verlagert werden.

Weitere Einzelheiten: Hybrid-E-Fahrzeuge sollen 1.500 € bekommen; die Automobilhersteller sollen mindestens den gleichen Anteil vom Listenpreis als Nachlass gewähren – und „der Netto-Listenpreis des Basismodells darf 60.000 € netto nicht überschreiten“ (!).

Das könnte man fast eine Sozialklausel nennen.

Man findet noch eine weitere interessante Zahl im BAFA-Infoblatt: Es werde damit auch eine „Stärkung der Nachfrage nach umweltschonenden Elektrofahrzeugen um mindestens 300.000 Fahrzeuge geleistet“.  So lange ist es ja nicht her, dass Frau Merkel 1 Million E-Autos in Deutschland sehen konnte. Aber was ist schon ein Faktor 3,3 in der Politik ? 

Immerhin gab es wenigstens einige Kritik und es dauerte etwas, bis alle Kabinettsmitglieder zugestimmt hatten. Dies wäre eine Chance für den Finanzminister gewesen, eine unsinnige Ausgabe zu verhindern. Aber er ließ schon viele andere Gelegenheiten dazu verstreichen.

Es gab auch einige Kritik in der Presse: Man konstatierte, dass auch diese Subvention nichts an den immer noch viel zu hohen Kosten dieser Fahrzeuge ändere; von den übrigen zahlreichen Nachteilen, an denen sich auch nichts ändert, ganz abgesehen.  Als einzigen Effekt würde man damit die Anschaffung von Zweit- oder Drittwagen durch Wohlhabende subventionieren, die sich mit etwas Öko-Image schmücken möchten. Also etwas Öko-Deko für Reiche auf Kosten des „kleinen Mannes“.

Insofern eine zum Grundprinzip der Energiewende gut passende Maßnahme.

Quellen:

Lit.1: D. Teufel, S. Arnold, P. Bauer, T.Schwarz: „Ist die staatliche Förderung von Elektro- und Hybridautos sinnvoll ?“, UPI-Bericht Nr. 79 vom August 2015,

www.upi-institut.de/upi79_elektroautos.pdf 

Lit.2: Frank Endres: „Batterien: Physikalische und ökonomische Grenzen“, aus G. Keil, F. Endres, H. Klinkert, M. Limburg, B. Reimer und H. Stirnberg :„Energiepolitisches Manifest 2 – Argumente für die Beendigung der Energiewende“, Juli 2015, Kap. 2.14, S.115, www.eike-klima-energie.eu/uploads/media/Manifest_2-_Fassg_3-35_1_02.pdf

Lit.3: Bjart Holtsmark, Statistics Norway und Anders Skonhoft, Dept. Of Economics, Norw. University of Science and Technology, Trondheim

Lit.4: Günter Keil:  „Der Elektroauto Bluff“: 

www.ageu-die-realisten.com/archives/date/2015/10

Lit.5: Nils-Viktor Sorge: „Irreführende Fahrzeugstatistik: Fast jedes zweite Elektroauto in Deutschland verschwindet spurlos“, SPIEGEL Online vom 12.4.2016;

www.spiegel.de/auto/aktuell/elektroautos-jedes-zweite-auto-verschwindet-aus-der-statistik-a-1086729.html

Lit.6: Bundesregierung: „Nationaler Entwicklungsplan Elektromobilität“, August 2009;

www.bundesregierung.de/webs/Breg/DE/Themen/Energiewende/Mobilitaet/podcast/_node.html

Sankt Augustin, 14.8.2016

                                            




Wie man den Meerespegel-Verlauf in die richtige Richtung dreht Aus dem Lehrbuch für (Klima-)Statistikbetrug

Solche Manipulationen sind in der „Klimawissenschaft“ zwar gängiger Standard und gehören dort zur „wissenschaftlichen“ Methodik. Dieses Beispiel ist jedoch so lehrbuchhaft, dass es sich der Autor erlaubt, es für Klimaskeptiker und Mathematiklehrer (für deren Schüler) als Vorzeigebeispiel in einem eigenen Artikel nochmals darzustellen. Dies insbesondere, als gerade die Gegend des Südpazifik als Musterbeispiel für durch den Klimawandel untergehende oder bedrohte Inseln gilt; siehe EIKE.

Ein erhöhter Meerespegel-Anstieg von 6 mm pa führt zum Klima-Untergang der Inseln?

Auf WIKIPEDIA steht (Hervorhebung durch den Autor):

[2] Der Klimawandel, der in der Torres-Straße zu einem besonders hohen Meeresspiegelanstieg von mehr als 6 mm pro Jahr seit 1993 und veränderte Wetterverhältnissen, etwa verstärkter zyklonischer Aktivität, geführt hat, war wahrscheinlich ein maßgeblicher Grund für den Vegetationsverlust.

Die Leser werden damit übereinstimmen, dass diese Angabe so verstanden werden soll, dass der Pegelanstieg erst seit dem Beginn des „schlimmen“ Klimawandels stark ansteigt, während er es vorher nur „natürlich“ machte und der Pegel selbst niedriger war.

Der Beleg dafür ist der Satellitenpegel (Bild 1). Die Aufzeichnung beginnt um 1993, weil der erste Messsatellit 1992 startete. Die lineare Regression dieses Verlaufs berechnet den 6 mm pa Pegelanstieg, wie er im Bild eingetragen ist und in Studien als Referenz Verwendung findet.

[7] gauge data from the region suggest sea level rise of 6 mm per year between 1993 and 2010, twice the global average.

Bild 1 [4] Figure 21. Mean Sea level changes in the Torres Strait region. Source: Colorado State University.

Im nächsten Bild hat der Autor zu diesem Pegelverlauf parallel den Einfluss der Ozeanischen-Oszillation ENSO hinterlegt [5] um zu zeigen, wie stark der Meerespegel in betroffenen Gebieten davon bestimmt wird. Vor der Berechnung eines Regressionswertes hätte man zwingend diese Oszillation herausrechnen müssen (und zusätzlich einen langjährigen Mondzyklus). Das hat man offensichtlich unterlassen und stur über einen solch kurzen Zeitraum eine lineare Regression berechnet welche man als „wahre“ Zahl, die man in die Zukunft weiter schreiben könnte verkündet.

Bild 2 [4] Satelliten-Pegelverlauf von Bild 1 mit dem ENSO-Index aus [5] hinterlegt

Das eigentliche Thema ist aber die Manipulation der Pegelrichtung durch geeignetes „Einpassen“ in eine Oszillation.

Zuerst der Verlauf der australischen Pegelstation Booby Island in der Nähe der Torres-Straße (Bild 3), bei der es sich um die am weitesten zurückreichenden und glaubhaften Pegeldaten dieser Gegend handelt.

Trotz einer erheblichen (bei Tidenpegel aus irgend einem Grund leider weltweit häufig vorkommenden) Datenlücke ist langfristig weder ein Pegelanstieg noch ein Klimawandel-Einfluss mit steigenden Pegeln erkennbar.

Bild 3 [6] Pegelverlauf Insel Booby Island, Nord-Australien von 1970 – 2013. Vom Autor aus den Daten umgesetzt. Monatsauflösung (rot), Jahres-Mittelwert (blau). Pegel auf das Jahr 2013 normiert

Eine vergleichende Recherche zeigt auch bei anderen Fundstellen mit Tidenangaben bestätigende Aussagen:

-Die Pegelverläufe der benachbarten australischen Tiden-Stationen Goods Island und Turtle head [1],

-sowie in einem politischen Strategiepapier aus Australien: [8] Whilst the precise amount of sea level rise in the Torres Strait has not been recorded, 25 Australian seas generally have risen 7 centimetres since 1950.

(Anm: diese Angabe ergibt einen weit unter dem globalen Durchschnitt liegenden Anstieg von ganz knapp über 1 mm pa).

Setzt man die Pegelverläufe übereinander, sieht man dass die Pegel-Mittelwerte der Satellitendaten von Bild 1 (Figure 21) und Bild 3 (Pegelmessstation Booby Island) ungefähr gleich verlaufen (grüne Linie Booby Island, rote Linie Satellitendaten als „Klimawandel-Beleg“).

Allerdings sieht man damit auch die vollkommen falsche Aussage über den wirklichen, längerfristigen Pegelverlauf.

Durch diese Ausschnitt-Wahl des genau passenden Zeitraumes und einer aufgrund der Vorgeschichte und weiterem Verlauf des Mittelwertes (sowie nicht-Berücksichtigung der ENSO-Zirkulation) unzulässigen, linearen Regressionsberechnung wird trotz einer eindeutigen, langfristig nicht vorhandenen Pegelerhöhung – eher Pegelminderung – ein ganz schlimmer Pegelanstieg errechnet und weltweit publiziert.

Bild 4, Pegelverlauf von Booby Island (Bild 3). Monatswerte blau, Jahres-Mittelwert grün und Werte von Bild 1, Mittelwert rot, übereinander gelegt

Es ist vollkommen unwahrscheinlich, dass dies den Verfassern der Pegelangabe von Bild 1 unbekannt war. Man muss deshalb davon ausgehen, dass diese Angabe 6 mm pa bewusst generiert und publiziert wurde, was auch die Tatsache zeigt, dass ausschließlich dieser alarmistische Anstiegswert in den vielen Klima- und Vulnerabilitätsreports zu finden ist.

Welche Daten hat der „wahre“ Pegelverlauf

Es soll nun gezeigt werden, wie schwierig es ist für solche Gegenden den „wahren“ Wert zu ermitteln und wie sich „beliebige“, abhängig von der gewünschten Aussage „berechnen“ lassen. Dazu kommt noch, dass sich die Satellitendaten von den Tidendaten erheblich unterscheiden und Satelliten Küstenpegel nur ungenau messen können.

Die Regressionsgerade von Booby Island ermittelt einen langfristigen Pegelverlauf von -280 mm / 43 Jahre = -6,5 mm pa

Das ist heftig, allerdings genau in der umgekehrten – in keiner Publizierung erwähnten – Richtung.

Bild 5, Pegelverlauf von Booby Island mit Regressionsgerade (rot)

Nimmt man nur den Zeitraum ab der Datenlücke (ca. 1990), dann ergibt die Regressionsgerade einen kleinen Anstieg, der Jahres-Mittelwert ist aber deutlich niedriger als zu Beginn des betrachteten Zeitraumes. Dass die Regression überhaupt positiv ist, liegt jedoch eher am großen el Nino welcher den tiefen Pegel um 1997 verursachte, als am wahren Pegelverlauf.

Bild 6, Pegelverlauf von Booby Island ab ca. 1990 mit Regressionsgerade (rot)

Beim Verlauf des Tidenpegels einer Nachbarinsel von Turtle Head, der leider recht kurz ist, lässt sich einfach ein (ganz leicht) steigender oder auch fallender Pegelverlauf erzeugen, indem man das Startjahr „mitnimmt“, oder eben weglässt.

Bild 7 Pegelverlauf Turtle head in Monatsauflösung ab 1999 bis 2013 mit Regressionsgerade (rot). Linkes Bild ganz leicht steigend, rechtes Bild ganz leicht fallend

Es gibt in dieser Gegend keinen alarmistischen Tidenanstieg

Allen Verläufen der Tidenstationen ist aber eines gemeinsam: Es gibt in Wirklichkeit keinen alarmistischen Anstieg von
+6 mm pa der Küstenpegel. Der Wahrscheinliche Verlauf liegt irgendwo zwischen dem natürlichen von +- 0 … 3 mm pa, wobei er eher gegen 0 bis vielleicht sogar negativ tendiert. Die Daten widersprechen somit eindeutig allen alarmistischen Darstellungen und zeigen vollkommene Entwarnung.

Wie gehen die Australier damit um

Die Ableitung daraus ist auch in Australien die gleiche wie in Deutschland: die wirklichen Messwerte aus der Natur interessieren nicht. Weil es die Natur konsequent ablehnt, sich nach der AGW-Klimatheorie zu verhalten, wird (wie in Deutschland) simuliert – und diese Simulationen zeigen ganz schlimme Zukunftsdaten. Das gelingt problemlos, da man mit geeigneten Parametern jeden beliebigen Verlauf erzeugen kann. Da ausreichende Simulationsdaten für die Gegend jedoch fehlen (womit könnte man die regionale Ableitung auch bei der schlechten Datenlage kalibrieren?), werden die des IPCC angezogen und vorsorglich damit der „notwendige“ Alarm erklärt.

[9] Simulated changes in climate indicate that a significant degree of climate change in the Torres Strait region is inevitable, and is likely to become increasingly apparent over the next 30-100 years. Changes are expected in both the mean values and in the magnitudes and frequency of extremes. This means that long-term planning should not assume that future climate and resources will be as they were over the past 100 years. Significant adaptation to a changing climate will be required.

Im Gegensatz zu vielen Informationen unserer Medien wird dabei wenigstens noch darauf hingewiesen, dass der Alarm alleine das Ergebnis von Simulationen ist. Ob der australische Bürger diese „Feinheiten“ jedoch zu unterschieden weiß, kann der Autor nicht nachprüfen.

Bild 8 [9] Figure 22. Projected mean sea level rise (m) for the 21st century. Source: IPCC 2007

Quellen

[1] EIKE 22.06.2016: Ist eine kleine Ratte das erste, unschuldige Opfer des Klimawandels?

http://www.eike-klima-energie.eu/news-cache/ist-eine-kleine-ratte-das-erste-unschuldige-opfer-des-klimawandels/

[2] WIKIPEDIA: Bramble Cay https://de.wikipedia.org/wiki/Bramble_Cay

[3] Gynther, I., Waller, N. & Leung, L.K.-P. (2016) Confirmation of the extinction of the Bramble Cay melomys Melomys rubicola on Bramble Cay, Torres Strait: results and conclusions from a comprehensive survey in August–September 2014.

[4] Suppiah, R., Bathols, J., Collier, M., Kent, D. & O’Grady, J. 2010. Observed and Future Climates of the Torres Strait Region. Report to the Torres Strait Regional Authority. CSIRO, Marine and Atmospheric Research. Aspendale, Vic

[5] DAS ENSO-Phänomen Basisinformationen http://www.enso.info/enso.html

[6] PSMSL Catalogue Viewer http://www.psmsl.org/data/obtaining/map.html

[7] Suppiah, R., Bathols, J., Collier, M., Kent, D. & O’Grady, J. 2010. Observed and Future Climates of the Torres Strait Region. Report to the Torres Strait Regional Authority. CSIRO, Marine and Atmospheric Research. Aspendale, Vic

[8] Melbourne Journal of International Law Vol 9, Owen Cordes Holland: THE SINKING OF THE STRAIT: THE IMPLICATIONS OF CLIM ATE CHANGE FOR TORRES STRAIT ISLANDERS’ HUMAN RIGHTS PROTECTED BY THE ICCPR

===================================================

Anmerkung der EIKE-Redaktion: 

Eine aktuelle Gegenüberstellung von Pegel- und SAT-Daten findet sich auf EIKE-home hier: http://www.eike-klima-energie.eu/klima-anzeige/saekularer-und-aktueller-meeres-anstieg-pegel-16-mmjahr-oder-sat-altimeter-32-mmjahr-was-ist-richtig/ ;

sowie in der Anlage zum PDF-Download.

===================================================

Related Files




UK schafft das Energie- und Klimaministerium ab*

Bildinschrift Bild rechts: „Offizielle Zahlen – ursprünglich vom Ministerium zurückgehalten – zeigen gewaltige Anstiege der Strompreise bis zum Ende dieses Jahrzehnts, die jeder aufbringen müsste, um die Maßnahmen der Regierung bzgl. des Klimawandels zu finanzieren“.

Angesichts dessen, dass sich die neue Regierung unter Theresa May auf die erheblich wichtigeren Themen konzentriert wie wirtschaftliches Wachstum, internationale Wettbewerbsfähigkeit und den Austritt aus der EU wird diese Entscheidung vitale Einsparungen mit sich bringen. Allgemein herrscht die Hoffnung, dass die Auflösung des DECC auch neues Gewicht auf den Übergang zu einer kosteneffektiven Politik legt.

„Die Verlagerung der Energiepolitik in das neue Department for Business, Energy and Industrial Strategy [Ministerium für Wirtschaft, Energie und Industriestrategie] sollte den Ministern frischen Schwung verleihen sicherzustellen, dass die Kosten für Verbraucher und Wirtschaft sinken und nicht weiter nach oben getrieben werden“, sagte GWPF-Direktor Dr. Benny Peiser.

Die Zeitung The Independent nennt dies einen „einfach dummen und zutiefst besorglichen Vorgang“ (hier), siehe folgenden Auszug:

Die Entscheidung, das DECC aufzulösen, wurde von vielen Seiten als „einfach nur dumm“, „zutiefst besorglich“ und „schrecklich“ verurteilt – von Politikern, Campaignern und Experten.

Eine der ersten Amtshandlungen von Theresa May als Premierministerin war es, die Verantwortung für Klimawandel einem neuen Department for Business, Energy & Industrial Strategy zuzuweisen.

Erst am Montag hatten Berater der Regierung die dringende Notwendigkeit sofortiger Maßnahmen hervorgehoben (hier), um UK auf Überschwemmungen, Dürren, Hitzewellen und Nahrungsmittelknappheit vorzubereiten, die vom Klimawandel verursacht werden.

Die Nachricht kam nach der Berufung von Andrea Leadsom – deren erste Frage an die Regierung lautete, nachdem sie im vorigen Jahr Energieministerin geworden war „ist der Klimawandel real?“ – zur neuen Umweltministerin.

Und nachdem die ehemalige Ministerin für Energie und Klimawandel Amber Rudd im November verkündet hatte, dass UK bis zum Jahr 2025 die „Kohle schließen“ werde, hat Ms. Leadsom später die Kohleindustrie aufgefordert, definieren zu helfen, was dies tatsächlich bedeutet (hier).

Experten fürchten ein ,Freudenfeuer‘ von Vorschriften mit dem Ziel, die Umwelt zu schützen

Der ehemalige Labourführer Ed Milliband twitterte: „Die Auflösung des DECC ist einfach dumm. Das Stichwort ,Klima‘ wird im Titel des neuen Ministeriums nicht einmal erwähnt. Dies ist von Bedeutung, weil Ministerien Prioritäten setzen und Ergebnisse bringen“.

Greenpeace sagte, man sei besorgt, dass die neue Regierung den Klimawandel nicht als eine ernste Bedrohung betrachte.

John Sauven, der geschäftsführende Direktor der Kampagnen-Gruppe sagte: „Das Abstimmungsergebnis und der Anschluss an Klimaskeptiker seitens Schlüsselmitgliedern des Kabinetts sind zutiefst besorglich“.

Der gesamte Beitrag steht hier.

Nein! Alles, was zutiefst besorglich ist, ist der Umstand, dass Organisationen wie Greenpeace so viel Macht erlangen konnten, dass sie die Regierung effektiv mit Aktivisten infiltrieren konnte. Meiner Ansicht nach haben sie die Ergebnisse ihrer Jahre mit übertriebenem Alarmismus eingeheimst, und der Rückschlag, den wir jetzt erleben, ist die direkte Folge davon, dass sie den Bogen überspannt haben mit Bemerkungen wie „Notwendigkeit dringender Maßnahmen“ (hier), wenn eine allmähliche Änderung es auch tun würde. Falls es einige wirkliche Untersuchungen bzgl. Klimagate anstatt der Reinwaschung von Muir Russell (hier) gegeben hätte – vielleicht wäre dann das Ministerium nicht total aufgelöst worden. Und dann sind da natürlich noch die zusätzlichen Kosten, die zu veröffentlichen das DECC verpflichtet worden ist:

siehe Bild oben rechts!

Die Auflösung des DECC ist hoch verdient und war meiner Absicht nach schon lange überfällig.

Link: https://wattsupwiththat.com/2016/07/14/britain-abolishes-the-department-of-energy-and-climate-change/

Übersetzt von Chris Frey EIKE




Nassim Nicholas Taleb schaut auf die Risiken, die die Menschheit bedrohen

Eine Reihe von Studien von Nassim Nicholas Taleb et al. leistete einen großen Beitrag zu unserem Verständnis von Risiko: Das Vorsorgeprinzip innerhalb der statistischen und probabilistischen Struktur von „Ruin“-Problemen (hier). Die Hauptstudie trägt den Titel „The Precautionary Principle (with Application to the Genetic Modification of Organisms)“ und ist lesenswert für alle, die an GMOs oder Risikoanalysen interessiert sind. Ich versuche gar nicht erst, sie alle hier zusammenzufassen, sie verdienen die vollständige Lektüre. Ich möchte einen relevanten Punkt herausgreifen, der für viele der grundlegenden Herausforderungen unserer Zeit bedeutsam ist: wie sollten Politiker Gelder vergeben, um verheerende Bedrohungen zu verhindern oder abzuschwächen – potentiell katastrophal, aber von geringer Wahrscheinlichkeit?

Auszug: Was ist ein „Ruin“-Szenario, und wie sollten wir darauf reagieren?

Wir glauben, dass das Vorsorgeprinzip [PP] nur in Extremsituationen zur Anwendung kommen sollte: wenn der potentielle Schaden systemisch (und nicht lokaler Natur) ist und die Folgen die totale irreversible Zerstörung sein kann wie etwa das Aussterben der Menschen und allen Lebens auf dem Planet.

Ein Ruin-Problem ist eines, bei dem die Wahrscheinlichkeit unwiederbringlicher Verluste als die Folgen des Risikos nicht Null ist. … In der Biologie wäre es das Beispiel, dass eine Spezies ausgestorben ist. Für die Natur bedeutet „Ruin“ Umweltzerstörung: ein irreversibles Ende allen Lebens in einer bestimmten Größenordnung, die weltweit auftreten könnte. [Ohne Freisetzung von CO2 in die Atmosphäre löscht sich das Leben auf der Erde mit Sicherheit unwiederbringlich aus, wenngleich auch schleichend. Anm. d. Übers.].

Unsere Bedenken gelten der offiziellen Politik … Politiker haben eine Verantwortung, katastrophale Schäden für die Gesellschaft als Ganzes zu vermeiden: der Schwerpunkt liegt auf der Gesamtheit, nicht auf der Ebene von Einzel-Individuen; und auf globalem systemischen Schaden, nicht auf spezifischen Schäden. Dies ist die Domäne kollektiver „Ruin“-Probleme.

…Zum Beispiel gilt für die Menschheit, dass man globale Verheerung nicht in einem Scale messen kann, in welchem der Schaden proportional zum Niveau der Zerstörungen ist. Der Schaden durch komplette Zerstörung ist nicht der Gleiche wie zehn mal die Zerstörung von einem Zehntel des Systems. Erreicht die prozentuale Zerstörung 100%, divergiert die Abschätzung des Schadens ins Unendliche (anstatt sich in einer bestimmten Zahl zu manifestieren) als Folge des Wertes, der für eine Zukunft angenommen wird, die aufhört zu existieren.

Weil die „Kosten“ des Ruins effektiv unendlich sind, ist eine Kosten-Nutzen-Analyse kein sinnvolles Paradigma mehr. Eine Kosten-Nutzen-Analyse bedeutet, dass der potentielle Schaden und der potentielle Vorteil durch ihre Wahrscheinlichkeiten multipliziert und gegeneinander aufgewogen werden. Selbst wenn erwartet wird, dass die Wahrscheinlichkeiten bei Null liegen, aber eine Unsicherheit ungleich Null aufweisen, dann führt eine Sensitivitäts-Analyse, die die Auswirkung jener Unsicherheiten berücksichtigt, ebenfalls ins Unendliche. Der potentielle Schaden ist so substantiell, dass alles andere in der Gleichung aufhört, eine Rolle zu spielen. In diesem Falle müssen wir alles tun, was wir können, um die Katastrophe zu vermeiden.

Falls die Konsequenzen systemisch sind, muss die damit verbundene Unsicherheit bzgl. der Risiken anders behandelt werden als wenn dies nicht der Fall ist. In derartigen Fällen basieren Vorsorgemaßnahmen nicht auf direkten empirischen Beweisen, sondern auf analytischen Annäherungen auf der Grundlage des theoretischen Verständnisses der Natur des Schadens. Es beruft sich auf die Wahrscheinlichkeits-Theorie, ohne Probabilitäten zu berechnen. Die grundlegende Frage lautet, ob der Schaden global auftreten kann oder nicht.

————————- Ende des Auszugs —————————

Politische Auswirkungen von „Ruin“-Szenarien

Taleb erklärt, dass „,Ruin‘-Ereignisse um jeden Preis bekämpft werden müssen … Weil die ,Kosten‘ des Ruins effektiv unendlich sind … wir müssen alles tun, was wir können, um die Katastrophe zu vermeiden“. Operationell ist dies sinnlos, weil es viele Schockwellen-Szenarien mit ruinösen Folgen gibt (hier).

Dieser Theorie zufolge ist die notwendige relevante Aufwendung dazu da, „gegen alle diese Probleme vorzugehen“. Ich möchte nur zwei Bedrohungen erwähnen, um dies zu illustrieren. Erstens, die Ozeane sterben, mit potentiell ruinösen Folgen für die Menschheit. Siehe the Ocean Health Index; siehe the jellyfish warnings; siehe some of the many warnings about this problem.

Zweitens, die Erde ist in der Vergangenheit von Asteroiden und Meteoren getroffen worden mit ruinösen Folgen – wobei mitunter die wesentlichen Lebensformen der Erde ausgelöscht worden sind. Dies wird wieder geschehen. Siehe dazu Diese Beiträge. Komischerweise erwähnt Taleb die Historie der Aussterberaten durch Einschläge von Asteroiden, macht aber keine Aussage dazu, warum diese Art des Ruin-Ereignisses nicht zu einer vordergründigen politischen Angelegenheit wird. Dies trifft exakt seine formale Definition. (Genauso nimmt er auch Stellung zu den Wahrscheinlichkeiten eines Dritten Weltkrieges (hier), sagt aber nichts zu dem „Ruin“-Szenario eines globalen Nuklearkrieges).

Nachdem wir jedes Ruin-Szenario „koste es, was es wolle“ angegangen haben, müssen wir mehr ausgeben, um uns auf die nur schlimmen Szenarien vorzubereiten, als da wären Erdbeben, Tsunamis, Pandemien (wie Grippe) und Hungersnöte. Dann gibt es noch exotischere Bedrohungen wie etwa die Umpolung des irdischen Magnetfeldes (hier), den Ausbruch des Yellowstone Supervulkans, Zerstörung von Kontinenten durch andere Vulkane (hier), Trinkwasserknappheit (hier) und andere Schockwellen-Ereignisse (hier). Wir können nicht die riesigen Summen für alle davon aufbringen.

Wie können Politiker die Ressourcen gegen eine solche Bandbreite von Ressourcen aufteilen? Die Empfehlungen von Talebs Verfahren helfen weniger als die einfache und objektive – wenngleich nicht perfekte – Methode der üblichen Vergleiche zwischen Wahrscheinlichkeit, Kosten und Risiken.

Ein Supervulkan wird wieder ausbrechen – vielleicht.

Eine weitere Perspektive von Risiko:

„Darum sage ich euch: Sorgt nicht um euer Leben … Wer ist unter euch, der seines Lebens Länge eine Spanne zusetzen könnte, wie sehr er sich auch darum sorgt? … Trachtet zuerst nach dem Reich Gottes und nach seiner Gerechtigkeit. … Darum sorgt nicht für morgen, denn der morgige Tag wird für das Seine sorgen. Es ist genug, dass jeder Tag seine eigene Plage hat.“*

Matthäus 6, Verse 25 bis 34

[*Direkt aus der Luther-Bibel; keine Rückübersetzung!]

Weitere Informationen

Das Photo von Nassim Nicholas Taleb stammt von seiner Websitemit Erlaubnis.

Mehr über Talebs Arbeiten steht auf seiner Website, vor allem seine Studie Doing Statistics Under Fat Tails Program. Siehe auch bei Wikipedia.

[WeitereLink-Empfehlungen bekommt man bei Anklicken des Links zum Originalbeitrag. Anm. d. Übers.]

Link: https://wattsupwiththat.com/2016/07/11/nassim-nicholas-taleb-looks-at-the-risks-threatening-humanity/

Übersetzt von Chris Frey EIKE




El Niño, La Niña und Erdgas

[*Im Original sind alle Angaben in Grad Fahrenheit. Sie wurden hier vom Übersetzer in Grad Celsius konvertiert. Anm. d. Übers.]

Ja, in den meisten Gebieten der USA ist es ein heißer Sommer – aber das hat Joe Bastardi von Weather Bell bereits am Ground Hog Day [2. Februar] vorhergesagt. Unter Bezug auf El Niño sagte er: „Wir könnten den heißesten Sommer seit 2012 erleben“. Dr. Roy Spencer, Leitender Forschungswissenschaftler an der University of Alabama in Huntsville [UAH] erklärt: „Normalerweise ist das zweite Kalenderjahr nach einem El Niño-Ereignis das wärmste Jahr“. Der gegenwärtige El Niño machte 2015 „zum drittwärmsten Jahr der Satelliten-Aufzeichnungen“ — also zum drittwärmsten Jahr der letzten 38 Jahre (alle drei der heißesten Jahre traten im Zuge von El Niño-Ereignissen auf). Das El Niño-Ereignis 2015/2016 ist eines der stärksten jemals.

El Niño ist ein natürliches Wetterphänomen, dem man bereits vor Jahrhunderten auf die Spur gekommen war, als peruanische Fischer bemerkten, dass sich der Ozean oftmals jeweils zum Jahresende erwärmte. Sie nannten das Phänomen „El Niño“, das Christkind. Bloomberg zufolge „erkannten moderne Forscher in den sechziger Jahren die Bedeutung dieses Ereignisses für das globale Wetter, als sie die Verbindung entdeckten zwischen warmem Wasser und damit korrespondierender atmosphärischer Veränderungen“. (Siehe Bild oben rechts).

El Niño bedeutet normalerweise mildere Winter und kühlere Sommer in den USA – was schlecht war für die Erzeuger von Erdgas in Amerika, wird doch weniger davon gebraucht für Heizung bzw. Air Condition. In einer Beschreibung des Winters 2015/2016 hieß es in einem Bericht: „mild, nass oder sogar ,welcher Winter‘?“ Diese milderen Wintertemperaturen fielen zusammen mit einer üppigen Gaserzeugung aus Schiefer-Formationen, die im vergangenen Winter weiter zugenommen hatte. Bei Natural Gas Intelligence (NGI) hieß es: „Die Erdgaspreise sind auf ihr niedrigstes Niveau seit 1999 gesunken“. Als Folge davon fielen auch die Strompreise auf dem Großmarkt.

Der Trend ,weg von Kohle‘ bei der Stromerzeugung hatte den Gaserzeugern ursprünglich geholfen, konnte doch die gesteigerte Erzeugung mühelos die steigende Nachfrage decken. Jedoch hat diese Nachfrage nachgelassen, weil NGI zufolge „die meisten Regionen der USA , die sich den Ausstieg aus der Kohle leisten konnten, diesen Schritt bereits vollzogen hatten“.

Während der mildere Winter und die Überversorgung zufällig zusammenfielen und die Erdgaspreise auf Talfahrt schickten bis auf das niedrigste Niveau seit 17 Jahren, sorgen Wetter und Vorräte jetzt wieder dafür, dass die Preise steigen.

El Niño-Ereignissen folgt gewöhnlich ein La Niña genanntes Ereignis – zu dem es kommt, wenn sich der Ozean abkühlt. La Niña dauert allgemein drei Monate oder bis zu zwölf Monaten nach einem El Niño-Zyklus. In einem Bericht von CNBC im Januar wurde projiziert, dass der diesjährige El Niño „von Mai bis Juli verschwinden werde“. Genau das erleben wir jetzt auch, und das führt zu dem trockeneren und heißeren Sommer. Im Browning World Climate Bulletin heißt es: „Die Faktoren, die in so großen Gebieten von Nordamerika im April und Mai für sehr niedrige Temperaturen sorgten, verschwinden immer mehr, so dass die heißen maritimen Luftmassen wieder landeinwärts vordringen können“. Auch bei NGI heißt es: „Das El Niño-Ereignis, das zu den Rekord-Wintertemperaturen in Nordamerika geführt hatte, hat inzwischen der Transition zu La Niña Platz gemacht, was normalerweise zu Sommertemperaturen über den Normalwerten führt“.

Unter Verweis auf diese Wettervorgänge zitiert Bloomberg Kevin Trenberth mit den Worten: „Die Zyklen treten im Mittel alle zwei bis drei Jahre auf und helfen bei der Regulierung der Temperatur auf der Erde, wenn der äquatoriale Pazifik die Sonnenwärme absorbiert während eines El Niño und dann die Wärme in die Atmosphäre freisetzt. Das kann eine La Niña erzeugen: ein ,Wiederauflade-Zustand‘ wenn ,die Erde kühler ist als zur Zeit vor diesen Vorgängen’“.

Während Experten noch unterschiedlicher Meinung hinsichtlich des Timings sind, erwarten die Meisten doch die Bildung von La Niña bereits im Juli oder erst im Dezember oder sogar Januar. Trenberth erklärt: „La Niña ist mehr eine Überbetonung von ,normal‘. Falls es in einem Gebiet typischerweise trocken ist, kann es bei einem La Niña arid werden. Ist es typischerweise nass, kann es Überschwemmungen geben“. Was einen kälteren und volatileren Winter bedeutet – obwohl Prophezeiungen von trockenem und wärmerem Wetter im Südwesten der USA sprechen. Aus Berichten geht hervor, dass eine starke La Niña mehr Polarluftmassen in die USA lenken könnte, und typischerweise folgt einem starken El Niño, den wir gerade hinter uns haben, eine starke La Niña.

Am 29. Juni verkündete die Financial Times: „Die Erdgaspreise in den USA sind sprunghaft um 30% in diesem Monat gestiegen, da heißes Wetter die Nachfrage nach Air Conditioning hat steigen lassen und die Vorräte auf mehr marktkonforme Mengen hat schrumpfen lassen“.

Bastardi zufolge wird sich der heiße Sommer noch bis zum Herbst hinziehen, wobei die 32°C-Marke im Nordosten und dem Mittleren Westen sogar noch im Oktober gerissen werden könnte. Dann geht es von einem Extrem zum Nächsten mit niedrigeren Temperaturen in der gesamten Nordhälfte der USA.

Diese Bedingungen sorgen via Heizung und Kühlung für eine höhere Nachfrage nach Erdgas. Und das wird den US-Gaspreisen zusammen mit den geringeren Vorräten einen Schub verleihen – was zu einem Ausgleich auf dem Markt führt“.

Investoren rät Bloomberg: „Angesichts der Erwartungen nach strengeren Wintern in den USA im Zuge einer La Niña empfiehlt SocGen (Societe Generale Corporate & Investment Banking), in Erdgas zu investieren“. Mitarbeiter Phil Flynn stimmt dem zu. Er sagte mir, dass wir in unserem Bemühen, die Stromerzeugung auf die Grundlage von Erdgas zu stellen, jetzt anders als im Winter 2014 an einem Punkt angelangt sind, an dem es nicht genügend Kohlekraftwerke gibt, um die Nachfragelücke zu füllen. Der Grundgedanke war, dass die Winter im Zuge der globalen Erwärmung mild bleiben würden, aber mit dem natürlich auftretenden La Niña-Zyklus und dem projizierten kalten Winter stehen wir vor einer hohen Nachfrage zu einer Zeit, in der die Erdgaserzeugung vor dem Zusammenbruch steht. Mit geringerer Versorgung und gesetzlichen Hindernissen für den Pipelinebau könnte Erdgas nicht die gesamte Nachfrage decken. Er ermutigt seine Kunden bzgl. Erdgas.

Für die Verbraucher könnte dies bedeuten, dass wegen der starken Korrelation der Strom-Großmarktpreise mit den Erdgaspreisen die Energiekosten beeinflusst werden können – was zu höheren Rechnungen führt. Wegen der niedrigen Erdgaspreise haben Hausbesitzer noch nicht das volle Ausmaß der höheren Kosten von Erneuerbaren gefühlt – aber dies könnte sich ändern auf unserem Weg in einen La Niña-Winter.

Link: http://oilpro.com/post/25732/el-nio-la-nia-and-natural-gas

Übersetzt von Chris Frey EIKE




Kurzinfo: „97%-Klimakonsens“ ist reine Phantasie

Auf der Liste der Studien stehen 43 zu solaren Einflüssen, 27 zu natürlichen Ozean-Oszillationen, 2 zu Rossby-Wellen, 3 zu Ozon, 6 zu den geringen CO2-Auswirkungen, 11 zur natürlichen Variabilität, 11 zu Wolken und Aerosolen, 3 zur Abkühlung der Stratosphäre durch CO2, 15 zu Klimaten der Vergangenheit, 4 zu „settled science“, 19 zur Unzuverlässigkeit von Klimamodellen, 2 zu städtischen Wärmeinseln, 6 zu vulkanischen Antrieben, 2 zur Erwärmung der Ozeane, 7 zu verschiedenen Themen, 2 zu Waldbränden, 2 zum Verhältnis von Todesfällen durch Kälte bzw. Wärme, 6 zu Klimapolitik, 7 zu Extremwetter, 20 zum polaren Eis, 9 zum Anstieg des Meeresspiegels, 12 zur Versauerung der Ozeane, 2 zu Hurrikanen, 4 zu Dürren, 3 zu natürlichen Klimakatastrophen, 7 zu Ergrünung und der Steigerung von Ernteerträgen sowie 1 zur geringen Klimasensitivität.

Link: https://wattsupwiththat.com/2016/07/13/already-240-published-papers-in-2016-alone-show-the-97-climate-consensus-is-a-fantasy/

Übersetzt von Chris Frey EIKE




Endlich scheint die Sonne auch nachts

Der Kopp-Verlag, manchmal mit der verzweifelten Neigung, „Technikkompetenz“ beweisen zu wollen, meldete:

kopp-Verlag: Blick in die Zukunft: In China ist eine Entwicklung gelungen, die auch in Deutschland die Solarenergie grundlegend verändern wird. Denn in Zukunft kann man mit neuen Solaranlagen aus China auch nachts Strom produzieren. … Die Chinesen haben dieses Problem jetzt gelöst – und die Deutschen schauen neidisch zu.

Bei einer so brisanten Nachricht die alle Probleme des EEG lösen könnte, muss man unbedingt nachsehen. Es wäre zu peinlich, am Stammtisch wie gewohnt weiter von Problemen des EEG zu erzählen und die Stammtisch-Brüder lachen einen aus, nur weil man nicht über die neueste – endlich bahnbrechende – Erfindung informiert ist.

In einer anderen Fundstelle wird das Thema schon etwas konkreter. Nicht die Solarzelle liefert nachts den Strom, sondern eine Zusatzschicht versucht einen zu generieren, falls Regen auf diese Schicht fällt. Je verunreinigter, also leitfähiger, der Regen ist, um so mehr Strom lässt sich daraus „gewinnen“. Im EEG-Neusprech nennt sich das Energie-Harvesting.

golem.de: Solarzellen wandeln Regen in Strom

Strom aus Solarzellen bei Regen? Klingt paradox, ist aber möglich. Haben chinesische Forscher herausgefunden. Eine Beschichtung macht aus der Solar- eine Regenzelle.

Regen ist der Feind von Solarstrom: Bei Niederschlag produzieren die Zellen keinen elektrischen Strom. Das wollen Wissenschaftler aus China ändern: Sie haben eine Solarzelle entwickelt, die aus Regentropfen Strom erzeugt.

Die Forscher aus Qingdao im Nordosten Chinas haben die Solarzellen mit Graphen beschichtet. Der einlagige Kohlenstoff ist ein sehr guter elektrischer Leiter, der in Wasser an seine Elektronen positiv geladene Ionen binden kann.

Ionen und Elektronen stehen sich gegenüber

Im Regenwasser sind Salze wie Ammonium, Calcium oder Natrium gelöst. Trifft ein Wassertropfen auf die Graphenschicht, können sich die positiv geladenen Ionen an das Graphen binden. An einer solchen Stelle sammeln sich auf der Seite des Graphens Elektronen, in dem Wassertropfen die positiv geladenen Ionen.

Es entsteht eine Doppelschicht aus Elektronen und Ionen. Sie bildet einen Pseudokondensator. Die damit verbundene elektrische Potentialdifferenz reicht aus, um eine Spannung zu erzeugen und Strom fließen zu lassen.

Die Forscher um Qunwei Tang beschreiben ihre Entwicklung in der Fachzeitschrift Angewandte Chemie. Trotz des Einsatzes auch bei schlechtem Wetter ist der Wirkungsgrad der Solarzelle noch verbesserungswürdig: Der beträgt etwa 6,5 Prozent. Eine herkömmliche gute Solarzelle schafft um die 20 Prozent.

energiezukunft, das Portal für Naturstrom und erneuerbare Energien, brachte die Information ebenfalls und war begeistert (was mehr auf das Niveau dieses Portals als das der Erfindung schließen lässt):

Wenn es die Wissenschaftler aus China schaffen, ihre Erfindung zu verbessern und den Wirkungsgrad zu steigern, könnten Solarzellen also in Zukunft auch Strom erzeugen, wenn die Sonne nicht scheint…. weitere Forschung ist allerdings noch notwendig.

Irgendwie erinnert das den Autor an die bei technikaffinen Kindern beliebte Stromquelle Apfel-Piks:

DIE WELT: Die essbare Batterie

Kurzerklärung: Man nehme etwas mit Potentialunterschied in der elektrochemischen Spannungsreihe und dazwischen verunreinigte Flüssigkeit, damit zwischen den durch Piksen erzeugten Polstellen Elektro-Ionen wandern können. Schon hat man eine Batterie „entwickelt“.

Früher kam man aber nicht auf die Idee, damit die Welt retten zu wollen. Einmal, weil die Energiemenge sogar für ein Kind erkennbar arg schwächelte und es zudem offensichtlich war, dass der Apfel im Magen „mehr“ davon hergab. Beim EEG ist man aber auf jedes Elektron angewiesen, koste es was es wolle.

Wirklich viel gegenüber damals scheint sich jedoch nicht verändert zu haben. Der Energieinhalt durch Regen ist gar nicht angegeben (zumindest hat der Autor keine frei zugängliche Information dazu gefunden und die Originalmitteilung ist kostenpflichtig). Dafür hat die Solarzelle dank dieser Innovation anstelle ca. 20 % nur noch ca. 6,5 % Wirkungsgrad – eine wahre Freude für jeden Paneelerrichter.

Ob dies der Fortschritt ist, welcher das EEG retten wird, vermag der Autor nicht zu beurteilen – dazu meint er, zu viel Sachkenntnis zu haben. Bestimmt hat die Erfindung das Potential dazu: irgendwann, zumindest auf dem Papier, wenn man die massiven Nachteile und Kosten weglässt, wenn man es produzieren könnte, wenn man die Physik nicht berücksichtigen muss, wenn man unbedingt mehr Energie hineinstecken als zum Schluss gewinnen will. Vor allem aber: Wenn man dem Entwicklerteam noch viel, viel Forschungsgeld zur Verfügung stellt.

An einer Stelle gibt es aber echte Entwarnung. Nicht die Chinesen waren die Ersten, welche solche Innovationen erfanden. Den Regen EEG-sinnvoll zu nutzen, haben schon Europäer vor Längerem gelöst. Gut, nicht per Ionenwanderung, aber mindestens genau so innovativ kenetisch.

Bild der Wissenschaft, 2008: Die Regen-Energie

Französische Forscher können aus Regenschauern elektrischen Strom erzeugen: Die fallenden Regentropfen treffen auf eine spezielle druckempfindliche Oberfläche, die einen Teil der Bewegungsenergie in Strom umwandelt.

Die Versuchsanordnung lieferte ein Mikrowatt elektrische Leistung im simulierten Nieselregen. Dies ist zwar winzig im Vergleich zu Leistungen von Solarzellen vergleichbarer Größe. Der Fortschritt sei jedoch, eine weitere Energiequelle der Umwelt anzapfen zu können, erläutern die Forscher. Im Unterschied zu Solarzellen funktioniere das Verfahren auch bei Dunkelheit

Damit ein vorgezogener, kleiner Nutzen generiert wird, lies sich der Autor zu einem Textversuch inspirieren. Endlich kann man ein Lied aus einer Zeit, als die allein wichtige Nachhaltigkeit noch sträflich ignoriert wurde und Texte nutzloses Zeug reimten modern, fortschrittweisend und vor allem eben nachhaltig aktualisieren:

Nachhaltiges Lied, beschreibend die Vorteile der hoch-innovativen neuen Solarzelle. Entwurf der ersten Strophe:

Regentropfen, die auf mein Solardach tropfen, das glaube mir, sind EEG-Vergütung von Dir. Sonnenstrahlen, die an dein Fenster fallen, das merke Dir, sind ein Verlust dafür. Abends aber dann, wenn mal der Mond scheint, find ich doch zu Dir und will wegen dem fehlenden Strom belohnt sein …

Muss ein Könner noch etwas nachbearbeiten, aber der Anfang ist gemacht.




Die Sonne bringt es an den Tag: Das IPCC ist eine Werbeagentur für die globale Dekarbonisierung

Dieses Intergovernmental Panel on Climate Change (IPCC) wurde 1988 gegründet und besteht nunmehr seit fast 30 Jahren. Er hat sich mit der Einführung eines alleinigen CO2-Klimaantriebs allergrößte Verdienste um die öffentliche Verbreitung einer bevorstehenden Weltklimakatastrophe erworben und wurde dafür im Jahre 2007 mit dem Nobelpreis ausgezeichnet.

Das IPCC bezeichnet sich selbst als eine wissenschaftliche Einrichtung [1], die keinerlei eigene wissenschaftliche Arbeiten durchführt. Seine Finanzierung wird durch Beiträge von WMO, UNEP und UNFCCC getragen. Das IPCC arbeitet also eigentlich wie die Fachzeitschrift einer wissenschaftlichen Vereinigung. Bereits die Aussage, IPCC aims to reflect a range of views and expertise“, formuliert eine ausdrückliche Einschränkung für die dort ausgewählten wissenschaftlichen Beiträge zur Klimagenese unserer Erde, denn es geht in dem formulierten Auftrag an das IPCC offenbar gar nicht um das vollständige Spektrum (the [full] range) der aktuellen wissenschaftlichen Erkenntnisse. Wissenschaftliche Arbeiten, die keine Klimakatastrophe abbilden, erfahren beim IPCC deshalb auch keine gleichberechtigte Würdigung. Das IPCC reduziert sich also selbst auf eine Art übernationale Werbeagentur für einen monokausalen CO2-Klimaantrieb und erfüllt damit konsequent seinen ursprünglichen politischen Auftrag, nämlich ein klares wissenschaftliches Szenario für den verkündeten Klimawandel aufzustellen („… a clear scientific view on the current state of knowledge in climate change …“).

Nun argumentiert das IPCC beim angeblich vom Menschen verursachten Klimawandel immer wieder damit, dass der natürliche Einfluss der Sonne auf Klimaveränderung viel zu gering und damit zu vernachlässigen sei (Abbildung 1).

 

Abbildung 1: Solarstrahlung nach Makiko Sato & James Hansen. Quelle: WIKI Bildungsserver Klimawandel [2]

 

Tatsächlich betragen die 11-jährigen zyklischen Schwankungen der Solarkonstanten mit etwas mehr als einem Watt pro Quadratmeter gerade einmal knapp 1 Promille der Gesamtstrahlung. Das sagt allerdings noch gar nichts über die tatsächliche Wirksamkeit oder Unwirksamkeit dieser Schwankungen für das globale Klima aus. In Abbildung 2 ist die als Globalstrahlung gemessene tatsächliche Sonneneinstrahlung an der Station Potsdam zwischen 1937 und 2011 dargestellt. Ein deutlicher Anstieg im letzten Viertel des vergangenen Jahrhunderts mit einer Abflachung im ersten Jahrzehnt dieses Jahrhunderts ist klar zu erkennen. Der Verlauf der Globalstrahlung in Abbildung 2  zeigt damit eine recht gute Übereinstimmung mit dem Temperaturverlauf in Abbildung 1.

Abbildung 2: Gemessene Globalstrahlung an der Station Potsdam Telegrafenberg 1937-2011 [3]. Anmerkung: Die Einheit für die Globalstrahlung ist 1 Joule = 1 Watt x 1 Sekunde = 1 Ws. 1000 Joule/cm² entsprechen damit einem Wert von 2,78 kWh/m² 

Strahlungsstärke und Klimawirksamkeit sind völlig unterschiedliche Begriffe und werden von der modernen Klimawissenschaft meist synonym verwendet, um den Klimaeinfluss der Sonne zu marginalisieren. Die Globalstrahlung zeigt mit einer Variabilität von mehr als 10 Prozent aber sehr viel größere Schwankungen, als sie allein aus der Veränderung der Solarkonstanten von knapp 1 Promille über die solaren Zyklen zu erwarten wären.

Das IPCC gibt die Klimawirksamkeit von CO2 als „radiative forcing“ in den Einheiten Watt pro Quadratmeter [W/m²] an. CO2 ist aber gar nicht in der Lage, aus sich selbst heraus Energie zu erzeugen. Vielmehr berechnet das IPCC dieses „radiative forcing“ von CO2 aus der maximalen Aufnahmefähigkeit des CO2-Moleküls für infrarote Strahlung. Es wird vom IPCC bei seinen Modellrechnungen für das zukünftige Weltklima also zwingend vorausgesetzt, dass aus der Infrarot-Rückstrahlung der Erdoberfläche eine vollständige Wärmeaufnahme durch die atmosphärischen CO2-Molekühle erfolgt.

Tatsächlich hat also die Globalstrahlung einen sehr viel stärkeren Einfluss auf den angeblichen CO2-Klimaantrieb als die Solarkonstante. Schließlich soll dieser CO2-Klimaantrieb ja aus der infraroten Rückstrahlung der Erdoberfläche gespeist werden. Und diese Rückstrahlung ist zwangsläufig direkt proportional zur Schwankung dieser primären Einstrahlung, die als Globalstrahlung gemessen wird.

Wenn also die in Potsdam gemessene Globalstrahlung um mehr als 10 Prozent schwankt, dann müsste im gleichen Zeitraum auch zwingend der angebliche CO2-Klimaantrieb um eine vergleichbare Größenordnung schwanken, und zwar gleichgültig, wie groß der tatsächliche CO2-Anteil in der Atmosphäre ist. Darüber hat sich das IPCC aber niemals geäußert!

Am Ende entlarvt sich das IPCC also als eine parteiische Werbeagentur für eine fundamentalistisch-pseudowissenschaftliche CO2-Klimareligion, die eine „Dekarbonisierung“ der Welt erzwingen will.
Anstatt nämlich die tatsächliche Klimawirkung der aktiven Sonne in sein Paradigma einzufügen, wird die sehr geringe primäre Schwankungsbreite der Solarkonstanten als Totschlagargument benutzt, und die vorliegenden gegenteiligen Erkenntnisse zur Klimawirksamkeit der Sonne werden völlig ausgeblendet. Eine einzelne Institution wie das IPCC kann sich aber durch seinen politischen Auftrag, seinen eigenen Anspruch oder die Qualität und Quantität seiner Gutachter niemals in den alleinigen Besitz einer gültigen wissenschaftlichen Lehrmeinung bringen; und ein wissenschaftlicher Überprüfungsprozess durch Fachgutachter (Peer-Review) darf sich auch niemals auf ein einziges wissenschaftliches Paradigma beschränken. Die deutsche Bezeichnung „Weltklimarat“ ist daher ein sehr geschicktes öffentlichkeitswirksames Marketing, denn sie weist dem IPCC eine übergeordnete wissenschaftliche Autorität zu, die es als Hauptwerbeträger einer menschengemachten Klimakatastrophe gar nicht besitzt. Das IPCC müsste auf Deutsch eigentlich „Internationales Forum für den Klimawandel“ heißen. Schon gar nicht darf eine von der Weltgemeinschaft finanzierte wissenschaftliche Institution ihr eigenes Paradigma als das einzig gültige erklären und alle abweichenden Erkenntnisse ignorieren.

Echte Wissenschaft hätte im Gegenteil zwingend einen Bezug zwischen den Zyklen der Solarkonstanten und der tatsächlich gemessenen Globalstrahlung herstellen müssen, um deren zugrundeliegende Gesetzmäßigkeiten aufzuklären und sie seriös in die entsprechenden Klimamodelle zur Vorhersage der künftigen Temperaturentwicklung auf unserer Erde einzupflegen.

Literaturnachweise

[1] IPCC: http://www.ipcc.ch/organization/organization.shtml Letzter Zugriff am 7. Oktober 2011

[2] Abbildung 1 vom WIKI Bildungsserver Klimawandel: Solarstrahlung nach Makiko Sato & James Hansen: Updating the Climate Science. What Path is the Real World Following?Solar Irradiance; Temperatur nach Daten der National Oceanic and Atmospheric Administration: Annual global temperature
Dieses Bild ist ein Originalbild des Klimawandel-Wiki und steht unter der Creative Commons Lizenz Namensnennung-NichtKommerziell-Weitergabe unter gleichen Bedingungen 2.0 Deutschland
http://wiki.bildungsserver.de/klimawandel/index.php/Sonnenenergie   Letzter Zugriff am 3. Juli 2016

[3] Abbildung 2 (mit Änderungen) und Teile des Textes  aus „Klimahysterie ist keine Lösung“ (ISBN 978-3844806625)  http://www.bod.de/buch/uli-weber/klimahysterie-ist-keine-loesung/9783844806625.html
Daten für die Globalstrahlung: http://www.klima-potsdam.de  – letzter Zugriff am 9. Februar 2012

Zuerst erschienen auf die kalte Sonne

 




Cool Futures: Der weltweit erste Hedge-Fonds, der darauf abzielt, die Klima-Blase zum Platzen zu bringen

Eines Tages in naher Zukunft wird man sich mit dem Gedanken anfreunden, überbewertete Aktien von Erneuerbaren abzustoßen und andere Dinge zu tun, für die kühleres Wetter oder kollabierende Subventionen vorteilhaft sind – aber in welchen Fonds kann man investieren, um das zu erreichen? Es ist eine Nische, die geradezu danach schreit, gefüllt zu werden. Ich fand diesen Gedanken Klasse, als vor zwei Jahren Chris Dawson auf uns zukam. Zusammen entwickelten wir Cool Futures (und werden offensichtlich davon profitieren, falls dies zustande kommt; siehe die Klarstellung am Ende).

Cool Futures könnte das Spiel auf sehr vielen Wegen verändern. Die Vision geht über das Erzielen von Profiten weit hinaus. Es geht darum, Teilhaber zu sein, um Projektprüfung, darum, das Geld dorthin zu stecken, wo es sich rechnet und um die Überzeugung, dass es die Risiken wert ist. Anstatt an der Seite zu stehen und der Welt zu erklären, was mit dem gegenwärtigen System nicht stimmt, geht es darum, Schritte zu unternehmen, die dieser Version gerecht werden – um Fonds einer besseren Verwendung zuzuführen. Welcher Anhänger des Freien Marktes käme da nicht in Versuchung?

Ich bin keine Finanz-Planerin (siehe Erklärung am Ende). Ich werde es Chris Dawson überlassen zu erklären, was der Fonds braucht und warum man den Wunsch haben sollte, dem Team in der gleichen Weise beizutreten, wie James Delingpole es getan hat. Cool Futures hat bereits eine Website, eine legale Struktur und einen Hedgefonds der Cayman Inseln. Hinter der Bühne geschieht und geschah viel.

Wann jemals zuvor in der Historie wurde so viel fehlgeleitetes Geld in Systeme gepumpt, um Stürme abzuschwächen und die Tide zu verringern? Wann jemals zuvor wurde Energie zu niedrigen Kosten und Wohlstand den normalen Menschen vorenthalten, und warum wurden diese von den politisch Korrekten attackiert durch die selbst ernannten Eliten des Westens – nur weil sie es ,am besten wissen‘?

Big Science wird oftmals am besten außerhalb von Big Government durchgeführt. Beispiel: Craig Venter trat an, um das von der Regierung betriebene Human Genome Project nach seinen Regeln zu schlagen. Es ist lange her, seit private Industrien eingegriffen haben, um die Klimawissenschaft von dem trostlosen Weg abzubringen, auf den sie durch monopolistische Förderung geraten ist (hier).

James Delingpole im The Spectator: „Ich stecke das Geld dorthin, wo ich meinen Worten auch Taten folgen lassen kann (hier)“.

…was wäre, falls es einen Marktbereich gäbe, von dem man weiß, wie grotesk überbewertet er ist als Folge von Ignoranz, Unehrlichkeit und falschen Gefühlen? Man würde verrückt sein, wäre man nicht dagegen…“

Jo Nova

PS: For perspective and insight don’t miss Jaymez’s comment at #13. [Übersetzung siehe unten!]

Managements des Cool Futures-Fonds

Gastbeitrag von Chris Dawson

Bereiten wir uns auf eine katastrophale Erwärmung vor, wenn wir uns viel eher auf eine Abkühlung vorbereiten sollten?

Unsere Welt dreht sich um den Klimawandel und um Änderung der Klimapolitik.

Hedgefonds erzeugen Wohlstand aus Ungleichgewichten und ökonomischen Unzulänglichkeiten. Die Angstmache vor der anthropogen verursachten globalen Erwärmung verzerrt Informationsflüsse, leitet Kapital in falsche Richtungen und leistet der Korruption Vorschub – und diese Belastungen drücken westliche Ökonomien immer stärker. Der Gedanke, dass die Menschheit versuchen sollte, das Klima mittels teuren Stromes zu ändern, ist ein Luxus der einst reichen westlichen Welt. Mit dem Anziehen der Budget-Daumenschrauben wird der durch die Globale-Erwärmung-Industrie angerichtete wirtschaftliche Schaden nur den eigenen Untergang der Ökonomie befeuern.

Jedes Jahr werden etwa 1,5 Billionen Dollar in ineffiziente, von Subventionen abhängige Geschäftsbereiche gefüttert – auf Kosten der Verbraucher und der wirklich von den Märkten getriebenen Unternehmen. Dies vernichtet Wohlstand und Arbeitsplätze.

Einem Hedgefonds-Manager stehen spezielle Mittel gegen die Verschwendung zur Verfügung. Darunter sind fortschrittliche mathematische Fähigkeiten, oftmals bezeichnet als ,rocket science‘. (Die gleichen Mittel, die unser Team bzgl. der Wissenschaft vom Klimawandel angewendet hat, können auch auf die eingenommenen Stellungen und die durchgeführten Handelsaktionen angewendet werden).

Mit der sich immer weiter ausbreitenden Erkenntnis, dass ein zunehmender Kohlendioxid-Gehalt kaum Auswirkungen auf die globale Temperatur hat, können die Manager von Cool Futures die Investitionen in nützliche, vom Markt getriebene Bereiche umleiten. Und man kann damit auch Forschungen unterstützen, die zum Ziel haben, Klimafaktoren besser vorherzusagen, die zuvor ignoriert worden waren. Weil man der Forschung der Regierung und der politisch korrekten Elite damit voraus ist, werden sich für Cool Futures ganz eigene Gelegenheiten ergeben.

Wie in dem Film Big Short* warnen wir vor dem Kollaps der künstlich am Leben gehaltenen Industrie der globalen Erwärmung. Es wird auf andere Weise geschehen als im Film gezeigt, aber genau wie in dem Film planen wir, unsere Honorare einzuheimsen, weil wir recht haben, indem wir Hedgefonds-Verfahren anwenden.

*Der Film basiert auf einem wirklichen Ereignis, nämlich als einige wenige Menschen im Jahre 2007 versucht haben, jedermann vor dem Kollaps des künstlich aufgeblähten Immobilien-Marktes in den USA zu warnen.

Weil alle Mainstream-Klimamodelle eine rapide Erwärmung infolge zunehmenden CO2-Gehaltes prophezeien, werden viele Industriezweige völlig unvorbereitet sein, falls es stattdessen zu einer globalen Abkühlung kommt. Forschungen wie die Notch Delay Theory [hier] von Dr. Evans können in größerer Breite und Tiefe getestet und erkundet werden – ein besseres Verständnis des Timings und des Ausmaßes jedweder globaler Abkühlung wird Cool Futures zu einem immer besseren Ziel unserer Investitionen machen und es ermöglichen, sich besser auf Klimawandel vorzubereiten.

Erfolg bringt Erfolg hervor; die Menschen werden die Profite erkennen durch eine reale sorgfältige Wissenschaft, Ökonomie und Finanzierung von Klimawandel. Man darf hoffen, dass dies die Entwicklung der Politik beeinflussen wird und potentiell Debatten hervorbringt, die zunehmend auf Beweisen beruhen, was wiederum zu besseren politischen Maßnahmen führt.

Kann ein von menschenfreundlichen Skeptikern betriebener Hedgefonds, während er für gebildete Investoren befriedigende Renditen erzeugt, auch als Katalysator fungieren für die Wiederherstellung empirischer Wissenschaft, besserer Bildung und vernünftiger Debatten? Wir haben das Gefühl, dass er das kann.

Derzeit brauchen wir Zuwendungen, Spenden und Hilfen für unseren bevorstehenden Start. Leser können herausfinden, wie sie sich beteiligen können, durch Anklicken der crowd funding campaign oder des Logos oben.

Wir glauben, dass die Verwendung einiger der finanziellen Rückläufe aus dem Cool Futures Hedge Fund den menschenfreundlichen Bemühungen der Hedgefonds-Manager helfen werden. Die finanziellen Rückläufe aus dem Fonds wiederum werden steigen infolge der zunehmenden öffentlichen Aufmerksamkeit für die Mängel der Wissenschaft bzgl. Erwärmung und dem Wunsch nach Beschneidung der Subventionen für die Erneuerbaren-Industrie.

* Our crowd funding website *

Stakeholder and interested party update

Cool Futures Funds Management website

Am Einfachsten geht es mit diesen Tipps:

1. Es gibt drei Ebenen der Beteiligung. Und es ist die erste Ebene, auf die sich dieser Blogbeitrag primär bezieht. Die ursprüngliche Ziele sind Einnahmen von 375.000 Dollar mittels Akquisition [crowd sourcing], um angemessene Sorgfalt, Betriebsprüfung, Struktur, Markt, Angebots-Urkunden, Marktkampagnen und so weiter ordnungsgemäß durchzuführen.

2. Man behandle die Akquisitions-Phase als eine Spende. Es gibt Gegenleistungen, aber deren potentieller Wert ändert noch nichts wirklich in diesem frühen Stadium. James Delingpole drückte es so aus: „Es kostet mich 75 Dollar für einen einzelnen Anteil an seinem Management-Unternehmen, was mich m. E. nicht reich machen wird. Aber es geht mir um das Prinzip“.

3. Auf die Akquisitions-Website kommt man mit diesem Link: https://www.gofundme.com/t72gmpng. 36.000 Dollar sind bereits zusammen gekommen. Aber wie das mit vielen crowd sourcing ventures so geht – alles was man für das Geld bekommt, ist das warme Gefühl der Genugtuung, dass man etwas zu etablieren hilft, was ein effektives finanzielles Werkzeug sein kann, Vorteile aus den Standpunkten der Alarmisten zu ziehen sowie involviert und informiert zu sein, wie sich die Dinge entwickeln. Spender werden auch automatisch in den Fortschritt der Fondsentwicklung einbezogen, und es werden Informationen versandt bzgl. der Entwicklung von Investitionen in den Fonds, sowie er in der Lage ist, Anträge entgegenzunehmen.

4. Folglich wird es außer den ein oder zwei Anteilen und anderen Gegenleistungen für verschiedene Spendenniveaus keine wirklichen finanziellen Gewinne geben durch die Teilnahme am crowd funding. Es ist ausschließlich eine Geste des guten Willens, so dass man etwas Konkretes tun kann und langfristig einen guten Sitz auf einer langen und erfreulichen Reise mit gleichgesinnten Skeptikern einnehmen kann.

5. Spender von 75 Dollar oder mehr für das Crowdfunding werden einige Anteile des Management-Unternehmens erhalten. Es ist wichtig, dass man diese Anteile bekommt und dass der Beitrag eine Spende ist – wegen der Vorschriften, denen sich Investoren unterwerfen müssen. Für 75 Dollar bekommt man einen Management-Anteil. $250 gets you 1 (from the Bronze $75 level, plus 2 from the Gold level – therefore 3 shares. Platinum at $2,500 gets those 3 plus 10 = 13 Shares, and Diamond gets those 13 plus 25 shares = 38.

6. Falls man also zu einem Fonds-Anteilseigner werden will, muss man sich lediglich überlegen, etwas Geld über die Crowdfunding-Site anzulegen als eine Spende, um zu sehen, ob wir dieses Vorhaben zum Laufen kriegen. Dieses Crowdfunding-Stadium ist kritisch. Je mehr Ressourcen sich aus Spenden ergeben mittels der Crowdfunding-Kampagne, umso wahrscheinlicher ist es, dass das Projekt in absehbarer Zeit erfolgreich sein kann.

Klarstellung

Dies ist kein Informations-Memorandum oder irgendeine andere Form eines Angebots-Dokumentes.

Diese Information ist ausschließlich für die Person bestimmt, die diesen Beitrag liest und sie auf dem Laufenden hält bzgl. der Entwicklung des Cool Futures Hedge Fund.

Daher stellt diese Information in keiner Weise ein Angebot dar, da es anderenfalls der Genehmigung des Gesetzgebers bedarf.

Ende des Gastbeitrags.

———————————-

James Delingpole drückt es in einem Beitrag unter dem Titel „World’s First Anti-Global-Warming Hedge Fund Sticks It To The Greenies” so aus:

…es ist ein gutes Gefühl, das einzige Investment-Zugpferd weltweit zu stützen, dass sich explizit auf die Fahnen geschrieben hat, gegen den Bluff des Klima-Betrugs vorzugehen. Zweitens, wenn ich jetzt ein „Hedgefonds-Manager“ bin, werden mich meine Freunde nicht nur mehr respektieren, sondern ich werde fast mit Sicherheit nächstes Jahr zu der Soros-Party eingeladen, die in ihrem Privatvulkan in Davos stattfindet…“

Risiko, Schluss und Klarstellung

Jo Nova und David Evans haben einen offenkundigen Interessenkonflikt und könnten persönlich auf längere Sicht profitieren. David ist ein nicht-geschäftsführender Direktor, aber beide sind Anteilseigner. In Zukunft könnten sie gegen Bezahlung auch Berater und/oder Vertragspartner sein. Dies ist keine persönliche Aufforderung an irgendjemand zu investieren, weil Nova und Evans keine Lizenz haben oder nicht qualifiziert sind, Ratschläge bzgl. Investitionen zu erteilen. Daher lehnen sie die Verantwortung für jedwede Verluste ab, die jemanden durch Spenden oder Investitionen entstehen, jetzt oder irgendwann in der Zukunft durch irgendein Produkt in Verbindung mit Cool Futures. Man beachte alle Risiken, Offenlegungen und Klarstellungen auf der Cool Futures-Website. Alle Hedgefonds bergen Risiken.

Und hier der oben verlinkte Kommentar:

Jaymez:

Die schlecht informierten Klima-Alarmisten haben bis heute über 2,2 Millionen Dollar mittels Crowd Funding eingenommen für Solar-Straßen (hier), ein Projekt, das auch vom Verkehrsministerium Zuwendungen in Höhe von 1 Million Dollar erhalten hat. Aber der Ingenieur bei dem Ministerium Eric Weaver erklärt: „Das Projekt ist noch sehr, sehr weit davon entfernt, in trockenen Tüchern zu sein. Wir haben keine Ahnung, wie es sich bei der Belastung durch den Autoverkehr machen wird“. Prototypen sind seit Jahren getestet worden, aber Weaver sagt, dass das Verkehrsministerium nicht einmal ansatzweise in der Lage ist zu sagen, ob das in hoch belasteten Umgebungen machbar ist. – „Wir haben auch noch keine Kostenanalyse durchgeführt“, räumte Brusaw ein, der der im Werbevideo aufgestellten Behauptung direkt widersprach, der zufolge sich die Paneele von selbst rechnen, indem sie ihren eigenen Strom erzeugen“. Scott Brusaw ist Promoter und Designer. Tatsächlich weiß jedermann mit nur halbwegs funktionierendem Verstand, dass sich Solarstraßen niemals rechnen. Siehe hier, hier und hier.

Obwohl dies alles bekannt ist – oder einfach ignoriert wird – hat das Crowd Funding für Solarstraßen bis heute bereits über 2,2 Millionen Dollar zusammengebracht.

Ich erwähne dies, um dieses Projekt zu kontrastieren. Erstens wissen wir, dass Hedgefonds funktionieren und verwendet werden können, um Positionen in bestimmten Märkten oder Marktsegmenten einzunehmen. Tatsächlich hat Business Insider kürzlich einen Artikel bzgl. der 7 besten Hedgefonds veröffentlicht.

Zusammen haben diese Giganten ihren Investoren Gesamtgewinne in Höhe von 199,5 Milliarden Dollar eingebracht, seit die Fonds eingerichtet worden waren. Im vorigen Jahr stopften sie sich als Gruppe 5,1 Milliarden Dollar in die Taschen. Zwei der Top-Fondsmanager erlitten 2015 Verluste.

Zum Beispiel wurden Paulson & Co. berühmt für ihre Wette gegen zweitklassiges Wohnen [subprime housing]; es machte John Paulson und seine Investoren zu Milliardären. Sie haben eine Position in einer Marktblase eingenommen und große Rückläufe eingeheimst. Andere Fonds haben sich Positionen bei Internet-basierten Unternehmen gesichert. Es gibt Fonds bzgl. Pharmazeutika, Technologie und sogar einen, der auf Erneuerbare setzt. Die beiden Top-Fonds konzentrieren sich auf makroökonomische Faktoren, etwa Währungen und das ökonomische Wachstum von Regionen und Ländern.

Der Punkt ist, dass Hedgefonds im Gegensatz zu Solarstraßen ein bewährtes Investitions-Vehikel sind. Aber es ist teuer, sie ins Leben zu rufen und alle Vorschriften zu erfüllen sowie auf den Markt zu kommen und Investoren anzulocken. Der Grund dafür, dass bisher keine einzige finanzielle Institution oder ein Unternehmer einen Hedgefonds geschaffen hat, um all das Geld einzuheimsen, dass in den Klimabetrug fließt, ist natürlich, dass dies ihre gesamten übrigen Geschäftsaktivitäten zum Erliegen gebracht hätte. Wir haben erlebt, wie sehr skeptische Wissenschaftler bedrängt und boykottiert wurden durch linksextreme akademische Institutionen.

Das Gleiche widerfährt Gesellschaften und Individuen, falls sie es wagen, sich zu ihrem Klima-Skeptizismus zu bekennen. Wir haben erlebt, wie die Australische Regierung versucht hat, der University of WA 4 Millionen Dollar zuzuschieben, um ein Climate Policy Centre einzurichten unter der Überwachung von Björn Lomborg, und sie haben unter dem Druck der Klima-Alarmisten klein beigegeben (hier). Als die Flinders University Überlegungen bzgl. der Möglichkeit anstellte, involviert zu werden, gab es einen Aufschrei und einen von 6662 Studenten, Lehrern und Alumni unterzeichneten offenen Brief (hier), den Vorschlag zurückzuweisen.

Inzwischen hat der Druck (die Nachfrage) auf Universitäten, Finanzinstitutionen, Wohlfahrtsverbände, religiöse Gruppen und Regierungen und so weiter an Fahrt aufgenommen, Investitionen in Richtung Industrie fossiler Treibstoffe umzuleiten (hier). Und viele sind dem bereits gefolgt oder befinden sich im Prozess, dies zu tun.

Die ,Umleitungs-Bewegung‘ (hier) behauptet, dass 3,4 Billionen Dollar bereits von 531 Institutionen und 5,2 Milliarden von 50.000 Einzelpersonen umgeleitet worden sind. Sie zeigen eine Liste der entsprechenden Organisationen und Institutionen.

Inzwischen erleben wir natürlich auch, dass Regierungen Milliarden ausgeben, um Zuwendungen und Subventionen in ineffiziente und unzuverlässige Investmentprogrammen in Erneuerbare fließen zu lassen. Die Unternehmen, die von den Subventionen der Steuerzahler abhängig sind, würden ohne diese sofort kollabieren.

Für mich gilt; alles, was ich in der Umleitungs-Bewegung und den Subventionen der Steuerzahler erkenne, ist eine großartige Gelegenheit für Contrarians, das heißt Klimaskeptiker. Das von den Alarmisten errichtete Kartenhaus muss irgendwann in irgendeinem Stadium in sich zusammenfallen. Tatsächlich erleben wir derzeit den Beginn davon. Regierungen kriechen weg (hier) von Einspeisetarifen (hier) und Programmen zur Einrichtung weiterer Erneuerbarer – sie sind einfach zu teuer. Siehe auch hier, hier und hier.

Wir haben auch erlebt, dass Länder, die sich ursprünglich an vorderster Front des Kyoto-Protokolls befunden hatten, sich nicht wieder neu eingebracht haben, und in vielen Fällen ist deren Verbrauch fossiler Treibstoffe gestiegen, wie es in Deutschland, Japan und Südkorea der Fall war.

Andere Länder werden dem folgen, wenn die ökonomischen Realitäten von fossilen Treibstoffen im Gegensatz zu Erneuerbaren anfangen zu beißen und wenn immer größere Teile der Bevölkerung bemerken, was wirklich hinter den Klima-Ängsten steckt. [Die Deutschen dürften das erst ganz zuletzt bemerken, wenn überhaupt, bevor es zu spät ist. Anm. d. Übers.]. Außerdem wissen wir, dass es keine Möglichkeit gibt, Entwicklungsländern den Zugang zu billigen fossilen Treibstoffen einschließlich Kohle, Öl und Gas zu verwehren. China, Indien, Südostasien und afrikanische Länder werden alle zur steigenden Nachfrage nach fossilen Treibstoffen beitragen.

All dies sagt mir, dass es eine Gelegenheit für einen Hedgefonds geben muss, Vorteile aus den gegenwärtigen künstlichen Marktbedingungen zu ziehen. Aber er muss von einer Unternehmung eingerichtet werden, die keinen anderen Geschäftsinteressen dient, welche von der regressiven Linken zu Erpressungen genutzt werden können, z. B. in Gestalt zu Aufrufen zu Boykotten. Darum wäre es für mich zu schön, wenn dieses Projekt in die Gänge käme und 375.000 Dollar von gebildeten und sympathischen Klimaskeptikern zu erhalten, sollte kein Problem sein, wenn ein verrücktes Vorhaben wie Solarstraßen ohne bewährte Fähigkeiten über 2,2 Millionen Dollar locker machen kann.

Ich bin in das Crowd Funding auf einem relativ hohen Niveau eingestiegen. Aber ich habe seit Jahren Geld für klimaskeptische Gründe ausgegeben, einschließlich für diesen und andere Blogs. Im Vergleich nimmt also die Menge zu, und zumindest werde ich ein paar Anteile an diesem möglichen Management-Unternehmen haben, selbst falls sie nur Symbolwert haben. Ich hoffe, dass Andere genauso denken wie ich und sich hier in das Crowd Funding einbringen.

Link: http://joannenova.com.au/2016/06/big-news-investing-for-a-cool-future-and-an-answer-to-fossil-fuel-divestment/

Übersetzt von Chris Frey EIKE




Sind „Weltklima“ und „Klimakatastrophe“ etwa schwarze Schwäne?

Im Englischen wurde der „Schwarze Schwan“ zur Metapher eines zwar extrem seltenen und eher unwahrscheinlichen, aber dennoch möglichen Ereignisses. Diese Metapher griff der Börsenmakler Nassim Nicholas Taleb 2007 in seinem Buch „The Black Swan“ auf und beschreibt darin die psychische Macht höchst unwahrscheinlicher Ereignisse. Taleb subsummiert darunter wesentliche Entdeckungen, geschichtliche Ereignisse und künstlerische Errungenschaften. Für neue Entdeckungen prägte er den Kunstbegriff Serendipität. Für den Philosophen Karl Popper ist der schwarze Schwan ein Beispiel für eine deduktive Falsifizierung.

Nach Nassim Taleb gibt es eine „Dreifaltigkeit des Missverstehens“. Erstens unterliegen wir immer wieder der Illusion, die gegenwärtigen Ereignisse auch wirklich zu verstehen, sie in ihrer ganzen Kausalität erklären zu können. Zweitens tendieren wir immer dazu, historische Ereignisse retrospektiv zu verzerren. Drittens haben wir den eigentümlichen Hang, die intellektuelle Elite ständig zu überbewerten. Daher sieht es Taleb als müßig an, ‚Schwarze Schwäne’ vorhersagen zu wollen, denn sie zeichnen sich ja gerade durch ihr unerwartetes Erscheinen aus.

„Wetterextreme“ sind weiße Schwäne, sie sind prinzipiell vorhersagbar 

Ihre Zeit ist begrenzt und kostbar. Daher das Fazit vorweg: Das „Weltklima“ ist weder ein weißer oder schwarzer noch ein grauer, es ist überhaupt kein Schwan! Es ist eine Abstraktion einer Abstraktion, dem „Weltwetter“. Obgleich es überall auf der Welt das vielfältigste Wetter gibt, ein „Weltwetter“ gibt es nicht. Beim „Weltklima“ handelt es sich um ein eingebildetes intellektuelles „Gespenst“. Es existiert nicht in der Außenwelt, aber die „Klimakatastrophen-Angst“ kann in unserer dem Verstand entzogenen Innenwelt verheerende Verwirrungen auslösen und uns wehrlos gegen Schuldvorwürfe machen. 

Bis 1979 gab es „Klima“ nur im Plural, doch mit der 1. „Weltklimakonferenz“ der WMO, der „Weltorganisation für Meteorologie“ der Vereinten Nationen, wurde das „Klima“ dem Wetter übergeordnet, zu einem politischen Kampfinstrument, zu einer politischen Größe, welche die „Weltpolitik“ beherrscht, dominiert. Nach Verabschiedung der „Klimarahmenkonvention“ in Rio de Janeiro 1992 fand im Dezember 2015 in Paris die schon 21. „Weltklimakonferenz“ statt mit dem einhelligen, aber jederzeit widerrufbaren Bekenntnis aller Staaten, den weiteren Anstieg der „Weltmitteltemperatur“ zu bremsen, auf unter 2 Grad des „vorindustriellen Niveaus“. Exakte Zahlen wurden nicht genannt und so bleibt es offen, ob mit „vorindustriell“ die Zeit der „Kleinen Eiszeit“ (1350-1850) oder des „Klimaoptimums im Hochmittelalter“ (800-1300) gemeint ist. Die Wikinger haben um 980 „Grönland“ entdeckt und um 1000 das „Vinland“ Neufundland. Bisher aber noch unerreicht sind die beiden „Klimaoptima des Holozäns“ vor 8.000 und 6.000 Jahren, in denen sich die „Neolithischen Revolution“, der Übergang vom Jäger und Sammler zum Ackerbauern und Viehzüchter, vollzog. Bisher bleibt es ein Geheimnis, warum in so kurzer Zeit der über 3000 Meter dicke Eispanzer über Skandinavien dahinschmolz und den Meeresspiegel um gut 100 Meter ansteigen ließ!

Alexander von Humboldt schuf die Doppeldeutigkeit des Begriffs „Klima“

Die „Klimatologie“ wurde erst 1817 von Alexander von Humboldt begründet. Er wollte eine „physique du monde“, eine Darstellung des gesamten physisch-geographischen Wissens seiner Zeit geben. Die Klimatologie ist konzipiert als „deskriptive“ Wissenschaft im Rahmen der Geographie, der Erdbeschreibung. Das volatile, sich täglich ändernde Wetter taugt nicht zur Beschreibung mittlerer Zustände. Klimatologie war erst möglich nach der Erfindung der meteorologischen Messinstrumente wie das Thermometer, Barometer, Anemometer, Hygrometer. Die derart gewonnenen Wetterdaten wurden statistisch zu Mittelwerten verarbeitet. Der Weltreisende Alexander von Humboldt startete 1817 den Versuch, eine globale Isothermenkarte der Erde zu konstruieren. Isothermen sind Linien gleicher Temperatur, aber um eine Isothermenkarte zeichnen zu können, braucht man stationäre Messnetze. Diese gab es damals nicht. Also orientierte er sich an dem wechselnden Einstrahlungswinkel der Sonne, an der parallel mit den Breitenkreisen sich ändernden Beleuchtungsstärke der Sonne. Im ersten Entwurf zeichnete er die Isothermen parallel zu den Breitenkreisen. Das Wort „Klima“ ist dem griechischen Wort ‚klinein’ entlehnt, das ‚sich neigen’ bedeutet und in dem lateinischen Wort ‚Inklination’ enthalten ist. Neigung ist ein „leeres Wort“, wenn nicht Winkel und Richtung angegeben werden. 

Alexander von Humboldt knüpfte an die „solare“ griechische Klimaklassifikation an. Im antiken Kulturkreis, der von England bis nach Persien reichte, war die Astronomie eine hochentwickelte, rein auf langwierige Beobachtungen beruhende Wissenschaft. Sie war ganz das Gegenteil der „Astrologie“, die Johannes Kepler ablehnte, aber als lukrativen Nebenerwerb der von Fürsten gering dotierten Astronomen akzeptierte. Jedenfalls gingen die Naturphilosophen 500 Jahre vor unserer Zeitrechnung davon aus, dass die Erde eine „Kugel“ ist, die sich täglich um die eigene Achse dreht und jährlich um die Sonne mit einem Achsenwinkel von 23,5 Grad. Die Sonne pendelt ständig zwischen dem nördlichen und südlichen Wendekreis. Am winterlichen Wendekreis feierten die Römer das Fest „sol invictus“, das Fest der „unbesiegbaren Sonne“. Lange Rede kurzer Sinn: Mit der ihnen eigenen Logik teilten die Griechen beide Hemisphären in je drei „Klimazonen“. Die Zone vom Äquator bis zu den Wendekreisen in 23,5 Grad nannten sie die „tropische Klimazone“, den Bereich von den Polen bis zu den Polarkreisen in 66,5 Grad nannten sie die „polare Klimazone“. Die Zone dazwischen war die „gemäßigte Klimazone“. Das dazugehörige spezifische zonale Wetter lag noch außerhalb ihres Horizonts. Der Begriff Meteorologie wurde erst durch den Platon-Schüler Aristoteles geprägt.

Von dieser geometrischen Einteilung ging auch von Humboldt aus. In seinem ersten Entwurf einer Klimakarte waren die Isothermen breitenkreisparallel. Später baute man den „Untergrund“ mit dem „Landklima“ und „Seeklima“ kamen hinzu, die Topographie wurde eingebaut und Sonderklimata wie das „Wüstenklima“ wurden ausgewiesen. Die Weltumsegler nach Kolumbus entdeckten die „Rossbreiten“, zwei windschwache Zonen in etwa 30 Grad beiderseits des Äquators. Diese bekamen den Namen „subtropische Hochdruckzone“. Sie erklärte Coriolis 1835 aus den Newton’schen Gesetzen als Folge einer Scheinkraft, der ablenkenden Kraft der Erdrotation. Diese Grundeinteilung lag auch der ersten „globalen“ Klimakarte zugrunde, die Köppen im Jahr 1900 konstruierte. Er benutzte dazu aber keinerlei Wetterdaten, sondern orientierte sich an der Vegetation, die wiederum den Stempel des Wetters trägt und maßgeblich von den Temperaturen und Niederschlägen geprägt wird. Die Vielfalt an Vegetationsmustern führte zu einer Vermehrung der „Klimazonen“. Je differenzierter man vorgeht, desto feiner wird das Bild, desto größer deren Zahl.

Die Welt ist ein „Globus“, eine „Kugel“ mit einer ungeheuren Klimavielfalt 

Es ist für Meteorologen unerklärlich und logisch überhaupt nicht nachzuvollziehen, dass ausgerechnet die Weltorganisation für Meteorologie 1979 den Begriff „Globalklima“ prägte. Der Begriff erzeugte in Zeiten der „Globalisierung“, dem Streben nach der „Einen Welt“ keine Aufregung. Er wurde zu einem politischen Spiel- und Kampfbegriff. Das „Weltklima“ wurde zu einem politischen „Schutzobjekt“. Wer will schon mutwillig die „Klimakatastrophe“ riskieren und verantworten? Doch beides ist fiktiver Natur und real nicht existent! Dies mag der Verstand nachvollziehen, das Unterbewusstsein aber nicht. Politik argumentiert nicht mit Verstand und Logik, sie bearbeitet geschickt unsere Gefühle, unser Unterbewusstsein. Sie strebt nach Macht, nach der Herrschaft über unser Unterbewusstsein. Sie erzeugt Angst und geängstigt folgen wir blind dem, der uns zu schützen verspricht, der uns „Klimaschutz“ und ein „prima Klima“ vorgaukelt. Was wissen wir vom „Weltklima“? Bisher kennen wir nur eine „Weltmitteltemperatur“. Sie soll nach Möglichkeit „konstant“ sein und sich nicht ändern. Doch dabei ist die Vergangenheit gekennzeichnet durch ein ewiges und unregelmäßiges Auf und Ab der Temperaturen. Wir wollen mit dem Beschluss von Paris den „Klimawandel“ stoppen und den Anstieg der „Globaltemperatur“ begrenzen. Wir wollen eine statische Welt, weil wir die Dynamik der Natur, insbesondere des Wetters, nicht verstehen. 

Bisher wurde von „Klima“ als Neigung gesprochen im Sinne des ständig wechselnden Neigungswinkels der auf die Erdoberfläche auftreffenden Sonnenstrahlen. Die Sonne erwärmt mit ihrer Energie erst die Erde und dann die Luft. Beide können sich selbst aus eigener Kraft nicht erwärmen. Sie müssen von der Sonne erwärmt werden. Was die Luft betrifft, ist wichtig zu wissen, dass die Luft kaum direkt von der Sonne erwärmt wird. Zuerst wird die Erdoberfläche, der die Sonnenenergie absorbierende „Untergrund“ erwärmt. Dann erst wird von ihm die aufliegende, die durch die Schwerkraft an den Boden gepresste Luft, durch Leitung und Konvektion erwärmt. Bei Sonnenschein am Tage ist der Boden die „Heizfläche“. Die erwärmte Luft bekommt Auftrieb, steigt auf, kühlt sich ab und erzeugt kleine und große Haufenwolken mit Schauern und Gewittern. Nachts wird der Boden zur „Kühlfläche“. Er strahlt wie alle anderen Körper unentwegt Wärme ab, erhält aber keine Energie von der Sonne und kühlt sich ab. Dies kann man in jeder wolkenlosen Sternennacht messen. Dann bilden sich direkt am Boden regelmäßig „Bodeninversionen“. Es kann am Boden Frost geben, auch wenn in 2 Meter Höhe noch Plusgrade gemessen werden. Typisch ist das für die Bodenfröste zu den „Eisheiligen“. 

Die tägliche Temperaturamplitude jedenfalls ist, weil der Boden Heiz- und Kühlfläche für die aufliegende Luft zugleich ist, am Boden weitaus größer als in 2 Meter Höhe. Nirgends auf der Erde ist bisher bei windstillem Wetter und wolkenlosem Himmel des Nachts ein Temperaturanstieg gemessen worden. Die Erde ist ein „offenes System“, kein geschlossenes „Treibhaus“, in dem die Sonnenenergie eingesperrt wird, das sich sogar erwärmen kann. Dies ist physikalisch unmöglich. Man braucht nur einmal in einem nur von der Sonne beheizten Gewächshaus zu übernachten. Wenn man dieses Quartier mittags bezieht, dann ist es wohlig warm, doch mit tiefer stehender und untergehender Sonne wird es kälter und kälter. Irgendwann friert man, greift man zum Pullover und zur Wolldecke. Wo bleibt die Wärme, die vom Glasdach, an dem sich bei Frost Eisblumen bilden, zurückgestrahlt werden soll? Die „Gegenstrahlung“ entpuppt sich als theoretisches Konstrukt. Schaut man von unten auf das Glasdach, so sieht man, wie dieses beschlägt, nass wird und sogar Tropfen regnen. Warum das? Weil Glas seine Wärme in den Nachthimmel abstrahlt und ein guter Wärmeleiter ist, entzieht es dem „Treibhaus“ unentwegt Wärme. Es kühlt langsam aber sicher aus. Der Fehler der „Klimaexperten“ ist, dass sie sich nur auf die Strahlung fixieren. In Natura wirken alle drei Wärmeübertragungsprozesse -Strahlung, Leitung, Konvektion- immer gleichzeitig, sie sind unzertrennbar. Deswegen wird in der bestens isolierten Thermoskanne, auch wenn sie nicht geöffnet wird, der heißeste Kaffee kalt. Der Mensch kann die Natur nicht überlisten. Er kann bestenfalls gewisse Effekte verlangsamen, die Abkühlung wie auch die Erwärmung, wenn Eis in der Thermoskanne kühl gehalten werden soll. 

Die Natur zeigt uns, wie man sich optimal thermisch von der Umgebung abschirmt, sich isoliert. Man braucht sich nur das Gefieder der Vögel oder das Fell von Tieren im Wechsel der Jahreszeiten anzuschauen. Warum überleben ohne Behausung im Winter Schneehühner und Schneehasen? Dass diese unter freiem Himmel bei -20°C nicht erfrieren, liegt einfach daran, dass sie „wissen“, dass Luft der schlechteste Wärmeleiter in der Natur ist. Sie muss allerdings still gestellt werden und dies geschieht bei den Vögeln durch ein „Unterkleid“ aus Flaum, das sich die Vögel, wenn sie nicht Zugvögel sind, im Herbst zulegen. Sie wissen auch, dass dieses nicht nass werden darf. Eine bessere Isolierung wie ruhende Luft gibt es nicht. Deswegen sind Winterfelle von Pelzen bei sibirischem Winter so beliebt. Dieses Prinzip imitiert der Mensch bei Herstellung von Winterkleidung. Diese ist so gewebt, dass viel Luft eingeschlossen wird, um das Entweichen von Körperwärme wie das Eindringen von Kälte zu minimieren. Natürlich geht immer etwas Wärme in der Gesamtbilanz verloren, aber diesen Nachschub kann der Körper durch den Wärmegewinn beim Verbrennen von Nahrung gewährleisten.

Das CO2 ist „Gottes Element“ und unverzichtbar für alles Leben 

Nun noch ein Blick auf das politisch schlimmste aller „Treibhausgase“, auf das CO2, dass Kohlenstoffdioxid. Dessen Gehalt in der Luft wird an einem Vulkankegel in gut 3000 Meter Höhe auf Hawaii gemessen und für „ubiquitär“, für global „gleich“ deklariert. Der CO2-Gehalt in der Luft beträgt ca. 0,04 Prozent oder 400 ppm. Er sei überall auf der Erde gleichmäßig verteilt. Die „Globaltemperatur“ sei kausal mit ihm verbunden, so dass sie bei Zunahme des CO2-Gehaltes steigt, bei Abnahme sinkt. Mit dieser Annahme sind alle Supercomputer der Erde programmiert. Steigt der CO2-Gehalt, so steigt automatisch die Temperatur. Der „Weltklimarat“ hat diese Hypothese zum Dogma erhoben. Ein Kind, das sich von des „Kaiser’s neuen Kleidern“ nicht blenden lässt, würde fragen: Wenn der CO2-Gehalt überall gleich ist, warum sind die Temperaturen auf der Welt nicht gleich, sondern extrem unterschiedlich und betragen zur gleichen Zeit an einem Ort -40°C und am anderen +40°C? Wenn sie seit Urzeiten regelmäßig mit den Jahreszeiten wechseln, so kann doch nur die Sonne der steuernde Faktor sein! Was würde man mit solch einem ungehorsamen kritischen Kind machen? Man würde das Kind mit Schokolade zum Einlenken bewegen oder mit Hausarrest zum Schweigen zu bringen versuchen. Wohl die meisten Kinder würden die Schokolade nehmen. Verhalten wir uns anders als Kinder? Nehmen wir nicht auch zu gerne politische Geschenke an und lassen damit der Politik freien Lauf? Wir lassen uns zu „Klimakillern“ abstempeln. Warum wehren wir uns nicht massiv gegen diesen völlig unhaltbaren Vorwurf? 

Das CO2-Molekül ist kein Dirigent, der die Lufttemperaturen dirigiert, weder lokal noch kontinental oder global. Das CO2-Molekül hat in der Natur nur eine einzige Funktion. Es dient den grünen Pflanzen als Nahrungsmittel. Ein Blick auf die Fotosynthesegleichung zeigt dies. Die Pflanze ist eine „chemische Fabrik“, die aus organischen Stoffen wie CO2, H2O und dem Sonnenlicht unter Mithilfe des Chlorophylls Glukose oder Traubenzucker herstellt und gleichzeitig Sauerstoff (O2) abgibt. Nur Pflanzen können Sonnenenergie speichern, die wir beim Verbrennen freisetzen und in Lebensenergie umwandeln. Die ursprüngliche Wärme der Sonne dient primär dazu, den permanenten Energieverlust zu kompensieren und die Körpertemperatur von 37°C in etwa konstant zu halten. Etwa zwei Drittel der aus der Nahrung freigesetzten Energie benötigen wir, allein um den durch Strahlung und Verdunstung erlittenen Wärmeverlust auszugleichen. Dies gehört zum medizinischen Grundwissen. Von Natur aus sind alle Lebewesen mit unzähligen Temperatursensoren ausgestattet hat, die sofort signalisieren, wenn es zu kalt oder zu heiß wird. Bei Hitze fangen wir ganz automatisch an zu schwitzen und nutzen die Verdunstungskälte des Wassers zur Kühlung. Wird es zu kalt, setzt sofort ohne unseren Willen, noch bevor wir einen Pullover überziehen, Muskelzittern ein, denn Bewegung und Reibung erzeugen Wärme. 

Bei den Pflanzen ist das Wasser das ausschlaggebende Wetterelement. Ist der Boden zu trocken, geht den Pflanzen das Wasser aus, dann beginnen sie zu welken, unterbrechen die Photosynthese, stellen das Wachstum ein. Geht den Pflanzen in einem luftdicht verschlossenen „Treibhaus“ die Nahrung CO2 aus, dann sterben sie. Gewächshäuser müssen daher kontinuierlich belüftet werden. Menschen würden ebenfalls in solch einem luftdicht abgeschlossenen „Treibhaus“ sterben, aber aus Mangel an Sauerstoff, weil ohne O2 Nahrung nicht im Körper verbrannt werden kann. Atmet ein Mensch Luft ein, dann enthält die Luft 21 Prozent O2 und 0,04 Prozent CO2. Beim Ausatmen fehlen 4 Prozent O2, dafür misst man das Hundertfache an CO2, nämlich 4 Prozent. Alles höhere Leben ist existentiell auf die grünen Pflanzen angewiesen. Dies besagt am Eingang des Botanischen Gartens in Berlin der Satz: „Hab’ Ehrfurcht vor der Pflanze, alles lebt durch sie!“ Die größte Dummheit, die sich fanatische Klimapolitiker ausgedacht haben, ist die Forderung nach einer „CO2-freien Atmosphäre“.

Die „Klimakatastrophe“ erfanden die Physiker, nicht die Meteorologen

Wer hat in Deutschland die „Klimakrise“ in die Welt gesetzt, gar den „Klimakollaps“ beschworen? Es war die Deutsche Physikalische Gesellschaft e. V. (DPG), die im Januar 1986 die „Warnung vor der drohenden Klimakatastrophe“ aussprach. Anfangs nahm niemand groß Notiz davon. Es war erst das Nachrichtenmagazin „Der Spiegel“, das diese Warnung im August 1986 ins Licht der Öffentlichkeit rückte und mit einem biblischen Horrorszenario ohnegleichen archaische Ängste in uns weckte, – vor der „Sintflut“ mit dem „Meeresspiegelanstieg“ und der „Hölle“ mit dem „Treibhaus“. Diese Bilder nutzte man, um die Strafakzeptanz des sündigen Menschen zu erhöhen. Zur Pflege der Klima-Ängste wurde 1987 die Enquete-Kommission Vorsorge zum Schutz der Erdatmosphäre einberufen und ein neuer Politikzweig begründet, die „Klimapolitik“. Sie erhob den „Klimaschutz“ zum Staatsziel und verurteile uns Bürger pauschal ohne jeden Beweis zu „Klimasündern“, gar zu „Klimakillern“. Der Vorstand der Deutschen Meteorologischen Gesellschaft e. V. (DMG) schloss sich ohne interne Mitgliederbefragung im März 1987 der Warnung der DPG an und sprang noch schnell auf den von der Politik mit fürstlichen Forschungsgeldern angetriebenen „Klimaschutz-Luxuszug“. 30 Jahre ist das nun her. Es wird emsig geforscht, das Klima wird geschützt, die Treibhausgase werden reduziert. Das „Klima“ wird gebetsmühlenartig als latenter Gefahrenherd beschworen, doch alle Heilmaßnahmen haben an der Unbeständigkeit wie Unberechenbarkeit des Wetters nichts geändert. Es macht, was es will und kein Mensch kann daran etwas ändern! 

30 Jahre beträgt die Zeit, die benötigt wird, um aus Wetter „Klima“ zu „machen“. Dies haben die staatlichen Wetterdienste 1935 in der polnischen Hauptstadt Warschau beschlossen. Man definierte willkürlich im Konsens die 30 Jahre von 1901 bis 1930 als Bezugsgröße, deklarierte sie zur „Klimanormalperiode“. Man wählte diese Periode nicht, weil sie vom Wettergeschehen her „normal“ war, sondern weil man glaubte, dass alles Wetter, was an einem Ort vorkommt, in 30 Jahren hinreichend „repräsentiert“ ist. Das „Klima“ beschreibt also das „mittlere Wettergeschehen“, so die Definition. Doch kann man von einer Mitteltemperatur allein den Temperaturverlauf über die 30 Jahre hinweg beschreiben? Das ist absolut unmöglich! Muss man den Wert schützen? Nein, denn jeder „Klimawert“ ist ein historischer Wert, Vergangenheit. Der mittlere Luftdruck gibt auch keine Auskunft über die Zahl der Tiefdruckgebiete und Hochdruckgebiete, die einen Ort in 30 Jahren passiert und heimgesucht haben. 

Beschrieb man zu griechischer Zeit mit „Klima“ den Neigungswinkel der Sonnenstrahlen in Bezug auf die Erdkugel, so bekam mit der Warschauer Klimadefinition das Wort Klima eine völlig andere Bedeutung. Es wurde zu einer vom Wetter abhängigen Größe. Also nicht das „Klima“ bestimmt das Wetter, sondern umgekehrt das Wetter das „Klima“. Jedem vermeintlichen „Klimawandel“ geht ein tatsächlicher Wetterwandel voraus! Ein „Klimawert“ kann erst berechnet werden, wenn das Wetter geschehen ist und hinkt als „gleitendes Mittel“ dem Wetter hinterher, wie das 200-Tage-Mittel dem täglichen DAX-Wert an der Frankfurter Börse. Wer dem „Klimawandel“ Einhalt gebieten will, müsste zuerst dem Wetterwandel Einhalt gebieten. Er müsste das Wetter schützen. Warum betreibt die Politik keinen „Wetterschutz“? Dies wäre von der Definition her logisch. Der Schutz des Wetters ist unmöglich. Die Politik will sich nicht lächerlich machen. 

Unmöglich ist auch der politische Wunsch nach Rückkehr in „vorindustrielle Zeiten“. Dieses Pariser Ziel gleicht einer kopflosen Flucht. Die „Kleine Eiszeit“ mit ihren Missernten, Hungersnöten und Pestepidemien ist keineswegs erstrebenswert, denn damals litten die Menschen noch viel mehr unter Extremwettern als wir heute. Aber die Politik weiß längst, dass sie weder das Wetter noch das „Klima“ schützen kann. Sie schürt und nutzt die unterbewusste Angst vor der „Klimakatastrophe“, um das politische und soziale Klima in ihrem Sinne zu verändern. Sie strebt die „Große Transformation“ an, sie will eine Revolution hin in eine vor- oder postindustrielle Gesellschaft. 

Wollen wir Bürger dies auch? Wir stehen an einer globalen Wegscheide. Wir müssen uns entscheiden, denn bei konsequenter Fortsetzung und Durchführung des „Klimaziels“, der Null-Emission des fürchterlichen „Treibhausgases“ CO2, das unverzichtbar für das Wachsen grüner Pflanzen und damit für Tier und Mensch ist, droht ein totaler „globaler Genozid“. Ohne Kohlenstoffdioxid gibt es keine grünen Pflanzen, keine Nahrung für die Tiere wie den Menschen. Es gibt auch keinen Sauerstoff, um die Nahrung zu verbrennen und daraus Lebensenergie zu gewinnen. „Klimaschutz“ kann die gesamte Schöpfung vernichten. Er ist das totale Gegenteil von Schöpfungsschutz. Dies bekannte offen Hans Joachim Schellnhuber, der Chef des Potsdam-Institutes für Klimafolgenforschung, in seinem kurz vor der Klimakonferenz von Paris erschienen Buch „Selbstverbrennung“. Er bezeichnete sogar das CO2 als „Gottes Element“!

Der Beitrag erschien zuerst auf Der Wettermann dem Blog des Autors




Was ist nur mit der Sonne los?

Schon seit Wochen scheint bei uns die Sonne nur selten mal einen ganzen Tag lang. Meist zieht sich der Himmel schon nach wenigen Stunden Sonnenschein mit dunklen Wolken zu, und es folgen schwere Gewitter mit Wolkenbrüchen. Inzwischen gibt es in West- und Mitteleuropa kaum noch ein Gebiet, das im Juni 2016 nicht von Überschwemmungen, Erdrutschen und Blitzeinschlägen heimgesucht wurde. Was mit dem bloßen Auge nicht wahrnehmbar ist: Im gleichen Monat zeigte sich auf unserem wärmenden Himmelsgestirn bis in den Juli hinein gleich zweimal hintereinander jeweils für einige Tage bis Wochen kein einziger Sonnenfleck. Das weist auf eine sehr niedrige Aktivität der Sonne hin. Davor hatte sich die Sonne über zwei Jahre lang nicht gänzlich fleckenfrei gezeigt.

Ob und wie das unruhige Wetter dieses Frühsommers damit zusammenhängt, ist freilich wissenschaftlich nicht leicht zu beurteilen, zumal wir davon ausgehen müssen, dass Zustandsveränderungen der Sonne das irdische Wetter nicht unmittelbar, sondern mit einer zeitlichen Verzögerung beeinflussen. Der historische Rückblick offenbart jedoch, dass eine Folge schwacher Sonnenfleckenzyklen immer zu einer mehr oder weniger stark ausgeprägten Abkühlung der Erde führte. Bekannt ist das nach seinem Entdecker benannte Maunder-Minimum von 1645 bis 1715, als es auf der Erde so kühl wurde, dass in Amsterdam die Grachten und in London die Themse zufroren und auf dem Kontinent Hungersnöte infolge von Missernten ausbrachen. Die Zahl der Sonnenflecken schwankt normalerweise in einem durchschnittlich etwa elfjährigen Zyklus, der nach seinem Entdecker „Schwabe-Zyklus“ genannt wird. Seit dem Jahre 1749 tragen die Zyklen eine Nummer. Erst seit wenigen Jahren weiß man, dass ein neuer Zyklus beginnt, wenn zusammengehörige Flecken ihre magnetische Polarität vertauschen. Seit sieben Jahren befinden wir uns nun im 24. Zyklus. Schon der 23. Zyklus war deutlich schwächer ausgefallen als der 22., der sein Maximum im Jahr 1990 erreichte. Etliche Solarforscher erwarten nun, dass der 25. Zyklus noch schwächer ausfällt als der 24. und eine spürbare Abkühlung der Erdatmosphäre einleitet. Manche Wissenschaftler sprechen schon von einer uns bevorstehenden „Kleinen Eiszeit“. Aber es ist nicht sicher, ob es so weit kommt, denn auch in der Vergangenheit sorgte die Sonne mitunter für Überraschungen.

Warum die Zahl der Sonnenflecken das irdische Wetter beeinflussen kann, verstehen wir seit einigen Jahren relativ gut, da die erstmals in den 1990er Jahren vom dänischen Astrophysiker Henrik Svensmark formulierte Hypothese einer Modulation der Wolkenbildung durch den Sonnenwind in der Zwischenzeit durch das CLOUD-Experiment am europäischen Kernforschungszentrum CERN in Genf Schritt für Schritt erhärtet wurde. Svensmark hatte angenommen, dass aus dem Weltraum kommende galaktische Strahlung (Muonen) Luftmoleküle ionisiert, so dass diese zu Kondensationskeimen für die Bildung von Wassertröpfchen und schließlich von Wolken werden. Dicke Regenwolken wirken kühlend, weil sie das Sonnenlicht auf ihrer hellen Oberseite reflektieren. Bei hoher Sonnenaktivität kann jedoch der von der Sonne Richtung Erde geschleuderte Teilchenstrom (Sonnenwind) starke Magnetfelder induzieren, die die Erde vor der Bombardierung durch galaktische Teilchen schützen können. Steigt die Zahl der Sonnenflecken, vermindert sich auf der Erde die Bewölkung und es wird im Schnitt wärmer. Bei sinkender Sonnenaktivität ist es umgekehrt.

Offizielle Lehrmeinung des Weltklimarates IPCC war aber bislang, dass hauptsächlich Schwefeldioxid und andere von der Industrie ausgestoßene Luftschadstoffe die Rolle von Kondensationskeimen spielen und dass die leichte Erderwärmung seit dem 19. Jahrhundert auf den vermehrten Ausstoß des „Klimagases“ CO2 zurückgeht. So wollten die der globalistischen Klimapolitik zuarbeitenden Wissenschaftler die Tatsache erklären, dass die Erdtemperatur nun schon seit fast zwei Jahrzehnten stagniert und auch davor schon deutlich hinter dem von Supercomputern berechneten Trend zurückgeblieben war. Die Forscherteams um Jasper Kirkby am CERN und Joachim Curtius an der Frankfurter Goethe-Universität konnten jedoch kürzlich in einer Nebelkammer experimentell nachweisen, dass nicht Schwefeldioxid, sondern natürliche Ausdünstungen der Vegetation die Hauptrolle bei der Wolkenbildung spielen. Das Team von Federico Bianchi konnte das übrigens im Rahmen des CLOUD-Projekts durch Freiluft-Messungen am Jungfraujoch in den Berner Alpen bestätigen. Die Zunahme der Bewölkung und das Zurückbleiben der Erdtemperatur hinter den Modellrechnungen können also nicht auf industrielle Schadstoffe zurückgeführt werden. Die Klimamodelle müssen umgeschrieben werden: An Stelle des CO2 und anderer Gase müssen Sonnenfleckenzyklen darin die Hauptrolle spielen.

Die internationale Klimabürokratie nimmt von den Ergebnissen des CLOUD-Projekts aber bislang kaum Notiz. In der zweiten Mai-Hälfte trafen sich in Bonn-Bad Godesberg die Vertreter von 196 UN-Mitgliedsstaaten, um über die Umsetzung des Pariser Klima-Abkommens vom Dezember 2015 zu beraten. Danach soll die Erderwärmung durch die Reduktion des CO2-Ausstoßes auf 1,5 Grad Celsius mit Hilfe des Umstiegs auf „erneuerbare“ Energien begrenzt werden. Christiana Figueres, die scheidende Generalsekretärin des UN-Klimasekretariats, erklärte dort, der Klimawandel und seine katastrophalen Folgen seien so offensichtlich, dass nun alle zum Handeln entschlossen seien. Doch die Delegierten trennten sich, ohne auch nur einen einzigen konkreten Beschluss zu fassen. Es scheint, dass immer weniger von ihnen noch von der Gefährlichkeit des CO2 überzeugt sind.

Zuerst erschienen bei ef Magazin




IPCC und RCP 8.5 „Szenarien, aus dem Alpträume gemacht werden“

Bild rechts: Quelle

In den meisten, wenn nicht sogar in allen AGW-Katastrophe-Studien wird das RCP 8.5-Szenario (oder ein Äquivalent) als das „Business-as-Usual-Szenario“ bemüht. Ein Beispiel aus jüngerer Zeit steht hier. In der begutachteten Studie heißt es: „Die Antarktis hat das Potential, mehr als einen Meter zum Anstieg des Meeresspiegels bis zum Jahr 2100 beizutragen“. Journalisten übersetzten dies zu „Es wird erwartet, dass die Antarktischen Eisschilde den Anstieg des Meeresspiegels bis zum Jahr 2100 auf zwei Meter verdoppeln werden, falls die Kohlenstoff-Emissionen nicht reduziert werden“.

Der Unterschied zwischen „hat das Potential“ und „es wird erwartet“ ist größer als eine ganze Welt, vor allem, wenn das „Potential“ auf einem absolut unsinnigen Szenario beruht.

Das Zeug, aus dem Alpträume entstehen

Dr. Judith Curry hat auf ihrem Climate Etc. Blog sehr nachdenkliche Überlegungen angestellt über „RCP 8.5, das Zeug, aus dem Alpträume gemacht werden“:

Eine Einführung zu Szenarien bezüglich unserer Zukunft

Im AR 5 werden Szenarien zukünftiger Emissionen, Konzentrationen und Landverbrauch mit vier Representative Concentration Pathways (RCPs) beschrieben. Sie enden mit Niveaus des Strahlungsantriebs von 2,6; 4,5; 6,0 und 8,5 W/m² bis zum Jahr 2100. Tief greifende politische Maßnahmen zur Abschwächung führen zu einem niedrigen Antriebsniveau (RCP 2.6) Zwei mittlere Stabilisierungs-Szenarien führen zu dazwischen liegenden Ergebnissen: (RCP4.5, RCP6.0).

RCP 8,5 wird die größte Aufmerksamkeit zuteil. Es geht vom stärksten Bevölkerungswachstum (eine Verdoppelung der Erdbevölkerung auf 12 Milliarden), von der niedrigsten Rate technologischer Entwicklung, geringem BIP-Wachstum, einer massiven Zunahme der Armut in der Welt plus hohem Energieverbrauch und Emissionen aus. Mehr zu den RCPs steht hier: „The representative concentration pathways: an overview” by Detlef P. van Vuuren et al, Climatic Change, Nov 2011.

RCP 8.5 geht von einer alptraumhaften Welt aus, sogar noch vor Klimaauswirkungen, die sich aus substantiellen Änderungen schon lange bestehender Trends ergeben. Es rüstet den AR 5 mit einem essentiellen Worst-Case-Szenario aus, welches für die konservative Planung erforderlich ist.

Unglücklicherweise bezeichnen Wissenschaftler RCP 8.5 ungenau als das Grundlagen-Szenario – eine Zukunft ohne politische Maßnahmen: „Ein relativ konservativer ,Business-as-Usual-Fall‘ mit niedrigem Einkommen, hoher Bevölkerungszahl und hoher Energienachfrage infolge lediglich geringer Verbesserungen der Energiedichte“ aus RCP 8.5: A scenario of comparatively high greenhouse gas emissions” by Keywan Riahi et al in Climate Change, November 2011. Dies ist eine erhebliche Falschinterpretation von RCP 8.5, um schreckliche Zukunftsvisionen (hier) zu konstruieren. Nur selten wird erwähnt, wie unrealistisch die darin aufgestellten Hypothesen sind.

„Wissenschaftler zogen dann RCP 8.5 heran, um schreckliche Zukunftsvisionen zu konstruieren“. Warum sollten „Wissenschaftler“ sich überzeugt davon fühlen, „schreckliche Zukunftsvisionen zu konstruieren“? Warum außerdem sollten sie so oft diese „schrecklichen Zukunftsvisionen“ als Grundlinie beschreiben, die bei „Business-as-Usual“-Szenarien erwartet werden?

Test von RCP 8.5

Einer der Kommentatoren meines früheren Beitrages war so freundlich, mich zu der RCP-Databasis zu führen. Unter Verwendung der RCP-Daten und des Statistical Review of World Energy 2015 von BP werde ich zeigen, wie absurd RCP 8.5 daherkommt in einem besseren Vergleich von „Äpfeln mit Äpfeln“ als in meinem Beitrag zuvor. Ich werde die Kohlenstoff-Emissionen und die atmosphärischen CO2-Konzentrationen aus RCP 4.5, 6.0 und 8.5 mit den Daten aus der realen Welt vergleichen.

Zunächst zu meinem Beitrag zuvor:

Mittels BP’s Statistical Review of World Energy 2015 konstruierte ich ein „Modell“.

Abbildung 1: Cross-Plots des kumulativen Verbrauchs fossiler Treibstoffe MTOE im Vergleich zum atmosphärischen CO2-Gehalt in ppm, wie er gemessen wurde am Mauna Loa Observatorium MLO (oben) und des jährlichen Verbrauchs fossiler Treibstoffe in Abhängigkeit von der Zeit.

In diesem „Modell“ werden zwei Gleichungen abgeleitet:

1. CO2 (ppm) = 0.0002*(MTOE) + 320.87 (R² = 0.9986)

2. MTOE = 142.16*(Year) – 275,639 (R² = 0.9698)

Anmerkung: MTOE = Millionen Tonnen Öl-Äquivalent

Anmerkung für Erbsenzähler: Ja, ich weiß, die Graphiken oben und unten sowie die Gleichungen 1 und 2 sollten in umgekehrter Reihenfolge gelistet sein.

Diese zwei Gleichungen ermöglichen es mir, den Verbrauch fossiler Treibstoffe und den atmosphärischen CO2-Gehalt in ferne Zukunft zu projizieren. Unter der Annahme, dass die Mischung aus Rohöl, Erdgas und Kohle weiterhin in einem konstanten Verhältnis zueinander stehen (nämlich dem wie im Zeitraum 2005 bis 2014), komme ich auf eine atmosphärische CO2-Konzentration von 683 ppm im Jahre 2100. Das ist etwa halb so viel wie bei RCP 8.5 (Venus) und vergleichbar mit RCP 4,5 (nicht katastrophal).

Abbildung 2: GIGO is as GIGO does.

Um die Realität noch besser abzubilden, habe ich mir noch genauer das Verhältnis zwischen Rohöl, Erdgas und Kohle im Gemisch fossiler Treibstoffe angeschaut. Dabei habe ich bemerkt, dass Erdgas und Rohöl sehr robuste Trends aufweisen…

Abbildung 3: Erdgas ersetzt graduell das Öl als den obersten fossilen Treibstoff… Großer Dank an George Mitchell!

Eine Kombination meines früheren Verfahrens der Projektion des Gesamtverbrauchs fossiler Treibstoffe und deren Trends in Abbildung 3 ergab Folgendes…:

Abbildung 4: Die Rückkehr von Peak Oil.

Kein Zweifel, irgendwann um das Jahr 2060 werden die Anhänger von Peak Oil dessen Rückkehr willkommen heißen.

Mittels der Zahlen von BP zu Kohlendioxid-Emissionen:

Öl – 73,300 kg CO2 per TJ (3.07 Tonnen pro Tonne Öl-Äquivalent)
Erdgas – 56,100 kg CO2 per TJ (2.35 Tonnen pro Tonne Öl-Äquivalent)
Kohle – 94,600 kg CO2 per TJ (3.96 Tonnen pro Tonne Öl-Äquivalent)

Ich habe Szenarien bzgl. Kohlenstoff-Emissionen für zwei Fälle gebildet:

1. Konstantes Verhältnis zwischen Öl, Gas und Kohle basierend auf den Mittelwerten von 2005 bis 2014 (links)

2. Abnehmender Öl- und zunehmender Gasverbrauch sowie relativ stabiler Kohleverbrauch, basierend auf den in Abbildung 3 gezeigten Trends.

Abbildung 5: RCP 8.5 kann schon „Business-as-Usual“ sein … auf der Venus! Der Graph links hat ein konstantes Verhältnis von Öl, Gas und Kohle zur Grundlage. Bei dem Graphen rechts wird Öl durch Gas ersetzt.

Auf der Grundlage eines „Business-as-Usual“-Szenarios in der realen Welt, wobei Erdgas das Öl mit dem gegenwärtigen Tempo ersetzt und ohne Kohlenstoff-Steuer, komme ich auf einen CO2-Gehalt, der auf der Linie des RCP 6.0-Szenarios liegt, also „einem Abschwächungs-Szenario, das heißt es enthält explizite Schritte bzgl. des Kampfes gegen Treibhausgasemissionen (in diesem Falle mittels einer Kohlenstoff-Steuer)“ (hier).

Abbildung 6. QED

Dann zog ich mein „Business-as-Usual“-Szenario der realen Welt heran bei der Abschätzung der Konzentration und wandte darauf drei vernünftige Klimasensitivitäten an: 0,5; 1,5 und 2,5°C pro Verdoppelung des CO2-Gehaltes in der Atmosphäre mit einem Anfangswert von 280 ppmv (TCR 0.5, TCR 1.5 and TCR 2.5). HadCRUT4 mit Referenz zu 1850 bis 1879 folgt eindeutig sehr eng TCR 1,5…

Abbildung 7: Ein Szenario „Business-as-Usual“ aus der realen Welt (diese Welt, nicht Venus!) würde kaum das bis zum Jahr 2100 angedrohte 2°C-Limit sprengen … Geht man davon aus, dass die gesamte Erwärmung seit 1850 Treibhausgas-Antrieben geschuldet ist … was nicht der Fall ist.

Da allgemein angenommen wird, dass zumindest die Hälfte der Erwärmung seit 1850 natürlichen Ursprungs ist, müsste die tatsächliche Klimasensitivität deutlich niedriger sein als 1,5°C pro Verdoppelung. Darum sollte RCP 8.5 niemals als „Business-as-Usual“, „es wird erwartet“ oder „als Grundlinien-Fall“ beschrieben werden. Da deren Hypothesen hirnverbrannt unrealistisch sind, sollte es überhaupt in keiner seriösen Veröffentlichung auftauchen. Es ist einfach schlechte Science Fiction.

Link: https://wattsupwiththat.com/2016/04/06/rcp-8-5-part-deux-the-stuff-nightmares-are-made-from/

Übersetzt von Chris Frey EIKE




Ist billiger Strom rechtsradikal?

So langsam erkennen diese normalen Kunden, dass bestimmte  „Energiefachpersonen“ immer die gleichen Sprüche vom billigen EEG-Strom verkünden „Eine Professorin klärt den VDI auf, wie das EEG „wirklich“ funktioniert“, was im Merkeldeutschland zum unaufhaltsamen Aufstieg als EEG-Wunderheilerin führt „Claudia Kemfert wird Sachverständige“, die Wirklichkeit aber eben doch an ihn keine Vergütungen, sondern massiv Rechnungen stellt „Muttertag war EEG-Geschenktag auf Kosten der nicht privilegierten Stromkunden“ und mucken dagegen auf. 

Video der Reden im Bundestag am 8.7.16 zur Novellierung des EEG. Noch mehr Fachleute melden sich zu Wort und erklären wie alles viel, viel besser wird. Anmerkung der Redaktion: Wer sich diese Reden antut, egal von welcher Partei sie kommen, kann nur feststellen: Der Zusammenbruch der Energieversorgung im Lande ist fest programmiert. Es ist nur noch eine Frage der Zeit. Mit Dank an Spürnase Hans Meier.

Nun hat auch der große Konzernlenker Teyssen der tatkräftig hilft, teuren EEG-Strom zu erzeugen und als grandiose Neuerung, ihn dank intelligenter Netze noch teurer zu verteilen, dies bemerkt. Aber nicht etwa den teuren Strom, sondern die deshalb mögliche falsche Wahl der Wähler und stimmt damit – politikaffin wie er ist – in die herrschende politische Meinung ein, dass der Wähler für die Regierenden inzwischen zu dumm geworden ist. Was jedoch bald nicht mehr stört, da nur noch Unisono-Koalitionen geplant sind um künftig unabhängig vom Wahlausgang allen Parteien die Fleischtöpfe sicher zu stellen. Störend sind da nur noch Parteien, von denen die Gefahr droht, dieses Spiel zu stören. Folgerichtig appelliert er  an das Volk, solche Störungen der Politik bitte zu unterlassen. Seine Argumentation ist zwingend, denn wer sich in Deutschland erdreistet, Unsinn der einzig wahren Politik anzuprangern, kann nur aus der rechten Ecke stammen. 

FOCUS ONLINE: [1] Eon-Chef Johannes Teyssen hat davor gewarnt, dass Rechtspopulisten eine Kampagne gegen die Energiewende fahren könnten, wenn die Strompreise nicht sinken.

„Die AfD hat die Energiewende bereits für sich entdeckt“, sagte der Vorstandsvorsitzende des Energiekonzerns der „Westdeutschen Allgemeinen Zeitung“ (Samstag). „Wenn das Thema von Populisten besetzt wird, sollten wir sprechfähig sein und belegen können, dass wir nicht Milliarden verschwendet haben.“ Den Menschen sei immer versprochen worden, dass die Energiewende langfristig auch mit günstigeren Strompreisen einhergehe. „Wenn wir das nicht halten können, gleichzeitig aber unsere Landschaft verspargeln, wird sich das rächen“, sagte Teyssen.

Herr Übervater Teyssen hätte natürlich (theoretisch) alle Möglichkeiten, das „… sollten wir sprechfähig sein“ zu erklären. Von einem Versorger-Vorstand hätte man schließlich erwartet, dass er es ist und nicht nur sollte. Und davon, dass Führungskräfte wie er „ … belegen können, dass wir nicht Milliarden verschwendet haben“ müsste eigentlich genügend Übung  vorliegen „E.on verzeichnet vor Aufspaltung Milliardenverlust„.

Was er aber damit meint:  “Den Menschen sei immer versprochen worden, dass die Energiewende langfristig auch mit günstigeren Strompreisen einhergehe.“ ist dem Autor ein Rätsel. Ist es für einen Versorger-CEO wirklich unzumutbar, mit einem Taschenrechner die Daten des von ihm getragenen EEG zu nehmen, die Zahlen zu addieren und dann Preise zu vergleichen? Der dann folgende Satz ist zwar richtig, aber aus seinem Mund so dumm, dass er nicht mehr kommentiert wird. 

Folgerung

Dümmer gehts nimmer. Es wäre ein Traum, dies in einer Wahl auch einmal zum Ausdruck bringen zu können.

Quellen

[1]

FOCUS ONLINE, 09.07.2016, 09:27: Eon-Chef warnt vor Anti-Energiewende-Kampagne der AfD

http://www.focus.de/regional/nordrhein-westfalen/energie-eon-chef-warnt-vor-anti-energiewende-kampagne-der-afd_id_5713087.html

[2]

EIKE 06.07.2016: EON verliert Schadensersatzprozess wg. erzwungener Abschaltung seiner KKW. Gericht: EON blieb zu lange untätig!

http://www.eike-klima-energie.eu/news-cache/eon-verliert-schadensersatzprozess-wg-erzwungener-abschaltung-seiner-kkw-gericht-eon-blieb-zu-lange-untaetig/ 

[3]

EIKE 01.07.2016: Die EEG-Wunder-App, Der Energiemix bestimmt inzwischen das Wetter sagt der Energiekonzern RWE auf seiner Bildungsseite und liefert gleich eine App dazu.

http://www.eike-klima-energie.eu/news-cache/die-eeg-wunder-app/ 

[4]

EIKE 06.06.2016: Wie Politiker ihre Kuh schlachten und sich danach beklagen, dass diese keine Milch mehr gibt

Thema E.ON-Zerschlagung

http://www.eike-klima-energie.eu/news-cache/wie-politiker-ihre-kuh-schlachten-und-sich-danach-beklagen-dass-diese-keine-milch-mehr-gibt/ 

[5]

EIKE 05.06.2016: Eine Professorin klärt den VDI auf, wie das EEG „wirklich“ funktioniert

http://www.eike-klima-energie.eu/news-cache/eine-professorin-klaert-den-vdi-auf-wie-das-eeg-wirklich-funktioniert/

[6]

EIKE 04.06.2016 : Muttertag war EEG-Geschenktag auf Kosten der nicht privilegierten Stromkunden

http://www.eike-klima-energie.eu/news-cache/muttertag-war-eeg-geschenktag-auf-kosten-der-nicht-privilegierten-stromkunden/