1

Bekämpft den Jihad, schafft CO2-Steuern ab!

Bild rechts: Teile einer Raffinerie. Wenn die Preise fallen, müsste Iran seine ruchlosen Aktivitäten zurückfahren.

Diese Falken sollten ihre Position überdenken. Die Gesetzgebung zur globalen Erwärmung hat sich zur größten Einzelbedrohung der Energiesicherheit in der westlichen Welt entwickelt und zum größten Segen für die meisten der geopolitischen Feinde des Westens. Der Spielverderber ist Schieferöl. Die USA haben so viel davon, dass die USA einem jüngst veröffentlichten Bericht von Citigroup zufolge in fünf Jahren alle Ölimporte aus dem Nahen Osten und von anderen feindlichen Versorgern stornieren und insgesamt zum Exporteur von Energie werden können. Bereits jetzt haben die USA die Ölimporte seit 2006 um die Hälfte verringert.

Andere Expertengremien sind hinsichtlich der Perspektiven von Schieferöl genauso stur. Die Internationale Energie-Agentur IEA sagt voraus, dass die USA bis zum Jahr 2017 sowohl Russland als auch Saudi-Arabien überholen und zum größten Ölerzeuger der Welt werden, und dass sie bis zum Jahr 2035 in der Lage sein werden, nahezu alle Ölimporte zu eliminieren, einschließlich derer aus Kanada. PricewaterhouseCoopers (PwC) glaubt, dass die Erzeugung von Schieferöl in den USA bis zum Jahr 2035 vier Millionen Barrel pro Tag erreichen kann, mehr als drei mal so viel wie die offiziellen Schätzungen der US-Regierung. Dies ist eine über-erfolgreiche Industrie gewesen, heißt es dort, mit einer gewaltigen Wachstumsrate von 26% schon heute und geschätzten 33 Milliarden Barrel in der Erde, was eine dramatische Steigerung der Schätzung aus dem Jahr 2007 über nur 4 Milliarden Barrel darstellt.

Die globalen Perspektiven – Schätzungen abbaubarer Schieferöl-Reserven sind inzwischen bis auf 1,5 Billionen (trillions) Barrel gestiegen – verändern das Spiel erneut. PwC glaubt, dass der Ölstrom, den die Erde erleben wird, zu dramatisch niedrigeren Ölpreisen führen wird, möglicherweise bis 50 US-Dollar pro Barrel, was der Weltwirtschaft einen Schub bis zu 2,7 Billionen (trillions) US-Dollar pro Jahr bis 2035 verleihen könnte. Die größten Gewinner dieses Schieferöl-Fallouts sind Indien und Japan, deren BIP um zusätzliche 7% steigen könnte, gefolgt von den USA und der Eurozone, die ein zusätzliches Wachstum um 5% sehen könnten.

Aber es gibt auch Verlierer. Russland und die Exporteure im Nahen Osten „könnten sich mit einer signifikanten Verschlechterung ihrer Handelsbilanzen konfrontiert sehen, und zwar von 4% bis 10% ihres BIP“, sagt PwC. Citigroup zufolge könnten die Ölpreise sogar noch unter das kostendeckende Niveau fallen, das viele Länder brauchen, wenn man Schieferöl den bereits existierenden konventionellen Vorräten von Öl und Ölsanden hinzuaddiert. Russland könnte nicht mehr zu einer ausgeglichenen Handelsbilanz in der Lage sein. Das Bild für „Venezuela ist ziemlich düster“. Einige Länder laufen Gefahr, zu „gescheiterten Staaten“ zu werden.

Anders gesagt, alle Demokratien werden gewinnen, die Diktaturen und autoritären Staaten werden meistens verlieren. „Business as usual“ wird für viele der „Bad Guys“ zu Ende gehen. Iran, von dem man annimmt, dass es der Hauptgeldgeber der Terroristen ist, müsste seine ruchlosen Aktivitäten zurückfahren. Venezuela, Geldgeber für anti-amerikanische Aktivitäten in ganz Latein-Amerika, würde ähnlich gebeutelt. Saudi-Arabien könnte nicht länger in der Lage sein, die riesigen Komplexe von Moscheen und Medressen [= Universitäten] zu unterhalten – von denen man annimmt, dass sie radikalisierte Terroristen ausbilden – die sie in Pakistan und im Westen unterstützen. Das wären willkommene Einschränkungen – einer Gallup-Umfrage zufolge betrachten 96% aller Amerikaner den Schutz vor dem internationalen Terrorismus als oberstes Ziel der Außenpolitik. Mit fast gleicher Leidenschaft wünschen sich die Amerikaner Energiesicherheit.

Keiner der aus den reichlichen Energievorräten und geringen Energiekosten resultierenden Vorteile für den Westen – ob bei dem Zurückdrängen des Terrorismus, steigender Energiesicherheit oder wachsender ökonomischer Wohlstand – ist jedoch in Stein gemeißelt. Falls die Regierungen mit Regulationen bzgl. der Klimaänderung intervenieren, könnte die kommende Öl-Revolution bereits in ihren Kinderschuhen abgewürgt werden, stellt eine HSBC-Studie fest. Die US-Administration möchte die Kohlenstoff-Konzentration in der Atmosphäre auf 450 ppm begrenzen, einer Menge, die es lediglich erlauben würde, nur ein Drittel der gegenwärtigen Vorräte zu verbrennen. Zahlreiche Ölprojekte – jene, die für mehr als 50 US-Dollar pro Barrel entwickelt werden – könnten sehr gut annulliert werden. Alles in Allem, warnt HSBC, könnten die Größen Öl und Gas in einer Low-Carbon-Welt bis zu 60% ihres Marktwertes verlieren – die Reserven würden „unverbrennbar“ werden.

Weil HSBC ein Low-Carbon-Szenario als glaubhaft ansieht, rät es seinen Kunden, wachsam zu sein. „Unserer Ansicht nach sollten sich Investoren hauptsächlich auf Unternehmen mit Zukunftsprojekten zu niedrigen Kosten konzentrieren“, stellt man fest. „Kapitalintensive teure Projekte wie Schweröl und Ölsande sind unter unserem Szenario am meisten gefährdet“. PwC und Citigroup stellen weiter fest, dass ihre Projektionen durch Umweltfaktoren beeinträchtigt wären, wie es auch die OPEC in ihrem Februar-Bericht darstellt. Genauso sehen es die Umweltaktivisten, die ihr Bestes tun, um eine Low-Carbon-Welt zu erschaffen. David Hughes vom Post Carbon Institute und Autor einer in dieser Woche veröffentlichten Studie zu Schiefer und anderen Energie-Technologien, sagt: „Die Projektionen durch Kritiker und einige Regierungsagenturen, dass diese Technologien endloses Wachstum verheißen und eine Neue Ära der ‚Energieunabhängigkeit’ einläuten können, wobei die USA zu einem substantiellen Gesamt-Exporteur von Energie werden wird, sind nach Ansicht der Fundamentalisten vollständig ohne Garantie… diese überschwänglichen Vorhersagen werden sich als sehr schwierig oder unmöglich zu erreichen herausstellen“.

Bis heute werden diese Vorhersagen erreicht – ja tatsächlich sogar übertroffen. Weil sich Beschränkungen fossiler Treibstoffe und von der Regierung subventionierte Projekte erneuerbarer Energie als ruinös teuer herausgestellt haben, und weil die Projektionen der Untergangspropheten permanent nicht eintreffen – der Vorsitzende des IPCC hat diese Woche eingeräumt, dass sich die globalen Temperaturen seit 17 Jahren nicht mehr verändert haben – hat sich die allgemeine Öffentlichkeit gegen die Opferung der Wirtschaft für einige dubiose Umwelt-Vorteile gesperrt. Diese Sperre wird nur immer fester werden, wenn die Leute merken, dass Regulationen bzgl. der Klimaänderung sowohl dem Wunsch nach Energiesicherheit als auch der Abwehr terroristischer Angriffe im Wege stehen.

Financial Post

Lawrence Solomon is executive director of Energy Probe.

E-Mail: LawrenceSolomon@nextcity.com

Link: http://opinion.financialpost.com/2013/02/21/lawrence-solomon-shale-means-security/

Übersetzt von Chris Frey EIKE




Der Emissionshandel – ein System ohne jede Wirkung, nur um Geld zu schröpfen

Der Kyoto-Vertrag legte für insgesamt 190 Staaten Verpflichtungen zur Reduzierung von Treibhausgasen, vor allem CO2, fest. Die großen Emittenten fehlen aber dabei,  China und die USA sowie die sogenannten Schwellenländer Indien, Brasilien u.a.. Russland, Kanada, Japan und Neuseeland sind an der 2. Verpflichtungsperiode des Kyoto-Protokolls (von 2013 – 2020) nicht mehr beteiligt. Übrig bleiben die 27 EU-Staaten, einige weitere europäische Länder und Australien.

Weniger als 13 % der weltweiten Emissionen sind damit noch betroffen.

Mindestens hundert Milliarden Dollar pro Jahr sollen ab 2020 aus öffentlichen, privaten und sonstigen Mitteln fließen, um Entwicklungsländer bei Klimaschutz und der Bewältigung von Klimafolgen zu unterstützen. Dies wurde im Dez. 2012 in Doha auf dem letzten Klimagipfel so bekräftigt. Für die Zeit bis 2020 sollen die bisherigen Mittel aufgestockt werden. Eine konkrete Vereinbarung woher das Geld kommen soll, wurde aber nicht erreicht. Bislang haben nur einige europäische Staaten freiwillige Zusagen gegeben. Für 2013 sind dies 7 Milliarden Euro, davon allein aus Deutschland 1,8 Milliarden Euro.

Wie funktioniert der Emissionshandel ?

Wer CO2 in die Luft bläst, braucht dafür ein Zertifikat, das zum Ausstoß einer bestimmten Menge Kohlendioxyd (CO2) berechtigt. Dies wird in grotesker Verballhornung der Tatsachen von den Medien „Verschmutzungsrecht“ genannt.  Diese Zertifikate werden von einer EU-Behörde ausgegeben, anfangs kostenlos, ab 2013 jedoch vom potentiellen CO2 Erzeuger zu bezahlen. Nicht benötigte Papiere können vom Erwerber zum Marktpreis wieder verkauft werden. (z.B. hier) Wer mehr CO2 ausstößt, als er Zertifikate besitzt, muß Papiere dazu kaufen. Doch nun ist der Handel mit den „Verschmutzungsrechten“ ist wirkungslos geworden, denn der Preis dafür ist am 24. Januar 2013 auf unter 3 Euro gefallen. Grund ist vermutlich die europaweit eingetretene Wirtschaftskrise. Inzwischen ist er wieder dank der anvisierten Verknappungspolitik auf etwas über 5 € gestiegen (siehe Erläuterung am Ende)

Die Einnahmen aus diesem Emissionshandel speisen den Energie- und Klimafond (EKF) und sind durch den niedrigen Preis um mehr als 2/3 = 2,3 Milliarden Euro  zurückgegangen. Damit fehlen sie unserem Umweltminister Altmaier bei der Finanzierung der Energiewende. Die fehlenden Mittel durch den schlappen Emissionshandel werden notfalls durch Kredite ergänzt, da wird eben in einen anderen Topf gegriffen, denn es geht ja um die Verhinderung der Klimakatastrophe. Außerdem ist der Handel mit den Emissionsrechten umsatzsteuerpflichtig und bringt daher zusätzliches Geld in die Staatskasse.

Wer bezahlt nun das Ganze ?

Die Industrie und andere Verursacher von CO2 müssen für die "Verschmutzungsrechte"  bezahlen. Dies erhöht deren Produktionskosten sowie die Verkaufspreise und am Ende der Kette steht der Verbraucher. Es ist genau so wie bei dem EEG (Erneuerbare Energien Gesetz), wo alle staatlich festgelegten Vergütungen (Einspeisungsgarantien  m i t  V o r r a n g  und festgesetzten Preisen) des erzeugten Stromes aus regenerativen Quellen, zwar am Staat (bis auf die Mehrwertsteuer) vorbei, per gesetzlichem Zwang in jeder Menge und zu festgelegten überhöhten Preisen vom Netzbetreiber zu bezahlen aber komplett auf den Endverbraucher umgelegt wird.

Unser Staat hat sich damit ein doppeltes Instrumentarium mit einer gewaltigen zusätzlichen Bürokratie ausgedacht, um jeden Bürger an die Hand zu nehmen und dabei kräftig zu schröpfen. Es wird in gigantischem Maßstab Kaufkraft abgeschöpft, die allein dem Staat und wenigen Investoren zugute kommt. Damit ist das ganze System eine riesige Umverteilung von unten nach oben. Beim Emissionshandel funktioniert das jedoch nicht mehr, der Preis ist im Keller doch in Brüssel werden tausend Pläne geschmiedet, wie man doch noch an das bereits verplante Geld der Erzeuger – und damit uns allen- kommt. Zum Beispiel indem man das Angebot künstlich verknappt. () Ein Verhalten, das man sonst von gewalttätigen oft staatlichen Monopolen wie z.B. der OPEC kennt, und das zu Recht insbesondere von den Poltikern, als „unfaires“ Marktverhalten gegeißelt wird. Nun, wo man selber dem Verbraucher in die Taschen greifen will, wird es ungeniert praktiziert.

Damit ist das Ende der freien Marktwirtschaft erreicht, mit der die normalen Bürger in unserem Land  einen bescheidenen Wohlstand erreicht haben.

Heinz Hofmann EIKE

Ergänzung

Manager Magazin 

KLIMASCHUTZ BIZARR

Der total verrückte CO2-Markt

Von Arvid Kaiser

Auszüge:

Dem Bund fehlen wegen des Preisverfalls Milliardeneinnahmen für seinen Klimafonds, der allein aus der Versteigerung der Zertifikate gespeist wird. Ursprünglich sollte der Fonds in diesem Jahr 3,3 Milliarden Euro einnehmen, aktuell geplant sind zwei Milliarden, doch bei einem Zertifikatepreis von fünf Euro reicht es noch nicht einmal für eine Milliarde. Am Freitag, wie bereits einmal im Januar, platzte gar eine Auktion mangels Nachfrage…..EU-Klimakommissarin Connie Hedegaard hat durchaus Ideen, wie der Emissionshandel zu reparieren wäre. So könnten Zertifikate nicht nur zurückgehalten sondern ganz gestrichen werden. Eine andere Variante wäre, den Zertifikatepreis zentral zu Steuern – ähnlich wie die Notenbanken die Zinsen. Die systemkonformste Lösung wäre, die Nachfrage zu steigern, indem mehr Branchen und private Autofahrer oder Hausbesitzer einbezogen werden. Doch schon an den Fluglinien beißt sich die EU die Zähne aus.

Mehrere EU-Staaten haben sich bereits darauf eingestellt, dass eine Reform des Systems scheitert. Weil sie an ihren eigenen Klimaschutzzielen festhalten wollen, ergreifen sie aber eigene Schritte. Großbritannien führt ab April einen Mindestpreis für CO2-Zertifikate ein, der über die Jahre steigen soll. Ähnlich handeln Belgien und die Niederlande. Dänemark und Finnland haben den Ausstieg aus der Kohleenergie per Gesetz beschlossen. China und die USA planen jetzt CO2-Steuern, keine Kopie des europäischen Marktanreizsytems.

So kommt die Regulierung wieder auf die altmodische Art: mit Steuern und Strafen, mit Ge- und Verboten. Und gar nicht europäisch koordiniert.

oder

Die deutschen Wirtschaftsnachrichten berichten wie folgt (mit Dank an Spürnase R. Sibiller):

Handel kostete Europäer 300 Milliarden Dollar

Deutsche Wirtschafts Nachrichten  |  Veröffentlicht: 18.02.13, 17:36  |  Aktualisiert: 19.02.13, 11:28  |  43 Kommentare

Der Handel mit CO2-Emissionszertifikaten in der EU steht vor dem Aus. Das Projekt war ein milliardenschwerer Flop der EU. Wegen des extremen Preisverfalls der CO2-Zertifikate können keine Investitionen finanziert werden. Die europäischen Steuerzahler zahlen auch für dieses Debakel.

Der Handel mit CO2-Emissionszertifikaten in der EU habe die Stromkunden ohne jeden Effekt für das Klima circa 300 Milliarden Dollar gekostet, sagte UBS bereits im Jahr 2011. Doch nun steht das gesamte Projekt vor dem Aus, berichtet Euractiv. Denn da es keine Erfolge vorweisen könne, würden immer mehr EU-Mitgliedsstaaten ihre eigenen Wege gehen….

Eine Abstimmung im EU-Parlament am Dienstag über die Fortsetzung des Projekts steht auf der Kippe. Und selbst wenn das Parlament eine Fortsetzung beschlösse, würden die Preise der Emissionszertifikate in den kommenden Jahren nicht auf die nötigen 40 Euro pro Tonne steigen, um Investitionen in CO2-arme Energien finanzieren zu können (mehr hier). Derzeit liegt der Preis bei 4 Euro… Die EU-Kommission machte 2012 den Vorschlag, vorübergehend das Überangebot an CO2-Zertifikaten zu reduzieren, um die Preise wieder zu erhöhen. Doch der Vorschlag scheiterte am Widerstand Deutschlands und Polens. Vor allem das kohle-abhängige Polen war strikt gegen den erneuten Markteingriff…

Die deutsche Regierung strebt eigentlich auch höhere Preise für die Zertifikate an, um damit Investitionen finanzieren zu können. Doch Kanzlerin Angela Merkel kann erhöhte Stromkosten im Wahlkampf nicht gebrauchen. Die Wähler sind schon unzufrieden genug mit dem massiven Preisanstieg bei Kraftstoffen und beim Heizöl (mehr hier)

Erläuterung zur vorgesehenen Verknappung der Emissionsrechte Quelle CO2 Handel.de :

EU-Umweltausschuss stimmt Reform des Emissionshandels zu (19.02.2013)

Heute (19.02.2013) hat der Umweltausschuss des Europäischen Parlaments (EP) in einer wegweisenden Entscheidung mit deutlicher Mehrheit für die Reform des Emissionshandels gestimmt. In den vergangenen Wochen hatten Unternehmen, Gewerkschaften, Experten und Umweltorganisationen immer wieder auf die verheerenden Folgen einer verschleppten Reparatur des CO2-Handels aufmerksam gemacht.

In der EU wurde schon länger über eine Reform des Emissionshandels gestritten. Durch den geringen Preis der Verschmutzungsrechte kann das System seiner Funktion, Investitionen in EU-Flagge Bild: pixelio / Victor MildenbergerKlimaschutzmaßnahmen anzuregen, nicht mehr gerecht werden. Die EU-Kommission will das System nun stabilisieren, indem sie überschüssige Emissionszertifikate vorübergehend vom Markt nimmt, das sogenannte Backloading.

Insgesamt gefährde ein gewaltiger Überschuss von rund 1,9 Milliarden Emissionszertifikaten das Vertrauen in die Funktionsfähigkeit des Instruments, so die Umweltschutzorganisation WWF. Entgegen der aktuellen Diskussion sei nicht nur die kriselnde europäische Wirtschaft ab dem Jahr 2009 für diesen Überschuss verantwortlich. Falsche Rahmenbedingungen wie beispielsweise die großzügige kostenlose Zuteilung und Nutzung von flexiblen Mechanismen – außerhalb von Europa erbrachte Emissionsreduktion, die angerechnet werden dürfen – hätten die Funktionsfähigkeit des Systems von Anfang an belastet.

Marktknappheit muss wiederhergestellt werden
Der aktuelle Vorschlag der EU-Kommission nur kurzfristig 900 Mio. Zertifikate aus dem Markt zu nehmen, reiche absolut nicht aus. Aus Sicht von Germanwatch, des Verbandes kommunaler Unternehmen (VKU) und des WWF müsse der kurzfristige Eingriff durch langfristige Maßnahmen ergänzt werden. Die jetzt zur Entscheidung anstehende zeitliche Verschiebung der Auktion von Emissionszertifikaten allein hätten keine langfristigen und vor allem nachhaltigen Auswirkungen. Um Knappheit im Markt wieder herzustellen, bedürfe es dringend weiterer Maßnahmen, wie die Verschärfung des sogenannten linearen Reduktionsfaktors und die überfällige Erhöhung des EU Klimaschutzziels auf 30 Prozent bis 2020. Durch die niedrigen Zertifikatserlöse fehlen der Bundesrepublik nun auch fest eingeplante Gelder für Projekte zur Unterstützung der Energiewende. 

Deutsche Unterstützung als Rückhalt der Reform nötig
Nach dem heutigen positiven Beschluss des Umweltausschusses folgt nun bis Ende April eine Abstimmung im Europaparlament sowie im Europäischen Rat. Dafür braucht der Rat dringend Rückendeckung aus Deutschland, damit der Reform-Prozess an Fahrt gewinnt.




Bzgl. des Gesetzes zur Klimaänderung hatte ich unrecht

Am meisten bereue ich, als Abgeordneter des Parlaments im Jahre 2008 nicht gegen das Gesetz zur Klimaänderung [climate change act] gestimmt zu haben. Das war ein Fehler. Es tut mir sehr leid.

An genau diesem Tag machte die Labour-Regierung diesen törichten Versuch, die „globale Erwärmung zu stoppen“; wenn ich mich recht erinnere, hat es damals geschneit. Hätte ich gegen das Gesetz gestimmt, hätte es zwar keinen großen Unterschied gemacht, aber ich hätte es besser wissen müssen.

Es hat sich herausgestellt, dass dieses Gesetz anders als die häufig symbolische Gesetzgebung, die durch das Parlament gewunken wird, echte Konsequenzen hatte.

Der Climate Change Act hat die Energiepreise nach oben schnellen lassen, hat die Haushalte ausgepresst und die wirtschaftliche Erholung sogar noch schwerer gemacht.

Ziel des Climate Change Act war, eine Low-Carbon-Wirtschaft zu erzeugen. Ich fürchte, das Gesetz wird genau das erreichen, aber vielleicht nicht so, wie sich das dessen Initiatoren vorgestellt haben.

Der Climate Change Act verschafft uns eine Low-Carbon-Economy der Art und Weise, wie es in Britannien in der vorindustriellen Zeit der Fall war.

Die Kürzung der Kohlenstoff-Emissionen um 26% bis zum Jahr 2020 – den das Gesetz verlangt – bedeutet im Endeffekt, dass die Energiekosten so stark steigen, dass einige sich das nicht mehr leisten können. Wie kann man so etwas Fortschritt nennen?

Das Gesetz sorgt für steigende Preise. Anstatt dass die Energieerzeuger im Wettbewerb stehen, um Haushalte und Industrie mit einem Produkt zu versorgen, das sie bezahlen können, führt die Gesetzgebung ein System der starren Preise ein. Die Versorger schwenken um auf „erneuerbare“ Energiequellen, und der Endverbraucher zahlt.

Eine unverantwortliche QUANGO [=quasi-autonomous non-governmental organisation], das Committee on Climate Change – ist drauf und dran, die Energiepolitik genauso zu bestimmen wie es die Zentralbankiers jetzt mit der Geldpolitik machen.

Das Vorbild ist kein Gutes. Adair Turner, oberster Boss bei der Financial Service Authority, war deren Vorsitzender.

Die Tragödie dabei ist, dass es nicht so sein muss. Technische Innovationen zeigen neue Wege der Erschließung riesiger Mengen fossilen Öls. Mit unserem zunehmenden Verständnis scheint der Gedanke, dass menschliche Aktivitäten allein für den Klimawandel verantwortlich sind, viel weniger gewiss als früher. Außerdem hat sich herausgestellt, dass Windturbinen erneuerbar sind in der Hinsicht, dass sie alle 25 Jahre ausgetauscht werden müssen – oder sogar alle 15 Jahre.

Viel zu oft wird die öffentliche Politik in Whitehall von rückständigen Gedanken und Vermutungen beeinflusst – die sich als falsch herausstellen.

Nirgends ist das in stärkerem Maße der Fall wie in der Energiepolitik. Es ist an der Zeit für ein grundlegendes Überdenken der Energiepolitik – am Besten mit dem Eingeständnis, dass das Gesetz aus dem Jahr 2008 der völlig falsche Weg war.

Douglas Carswell

Link: http://www.talkcarswell.com/home/i-was-wrong-about-the-climate-change-act/2607

Übersetzt und mit einer Einführung versehen von Chris Frey EIKE




EIKE ist wieder online! Hackerangriff erfolgreich abgewehrt!




Eisenbahningenieur Pachauri vom IPCC räumt ein: ‚keine globale Erwärmung seit 17 Jahren‘

Die Aufzeichnungen des Hadley Centre/CRU zeigen keine Erwärmung seit 18 Jahren (v.3) oder 19 Jahren (v.4), und der Datensatz des RSS-Satelliten zeigt seit 23 Jahren keine Erwärmung (Dank an Werner Brozek für die Bestimmung dieser Werte).

Christopher Monckton of Brenchley auf der UNEP Sitzung in DOHA Dezember 2012

Ingenieur Pachauri sagte, dass die Erwärmung „30 oder 40 Jahre mindestens“ pausieren müsse, um den langzeitlichen Erwärmungstrend zu unterbrechen. Allerdings haben die führenden Klimamodellierer der Welt im State of the Climate-Bericht der NOAA im Jahr 2008 geschrieben, dass 15 oder mehr Jahre ohne Erwärmung eine Diskrepanz zwischen den Modellen und der beobachteten Realität darstellen würden.

The Australian berichtet: Dr. Pachauri… sagte, dass eine offene Diskussion über kontroverse Wissenschaft und politisch inkorrekte Ansichten ein wesentlicher Bestandteil waren, gegen die Klimaänderung vorzugehen.

„In einem breit angelegten Interview über Themen, unter denen auch die Rekord-Eiszunahme dieser Saison in der Arktis, die Schiefergas-Revolution in den USA, der Kollaps der Subventionen für erneuerbare Energien in ganz Europa und der in sich zusammenfallende Kohlenstoffmarkt waren, sagte Dr. Pachauri, dass kein Thema in der öffentlichen Diskussion außen vor gelassen bleiben sollte.

Während eines 24-Stunden-Besuchs für eine Vorlesung an der Deakin University in Melbourne sagte Dr. Pachauri, dass die Leute das Recht hätten, die Wissenschaft zu hinterfragen, unabhängig von ihren Gründen.

‚Die Leute müssen diese Dinge in Frage stellen, und Wissenschaft entwickelt sich nur auf der Basis von Fragen‘, sagte Dr. Pachauri.

Er sagte, dass es ‚keinen Zweifel darüber gebe’, dass es für kontroverse Themen gut ist, wenn ‚sie hinaus in die öffentliche Arena geworfen würden‘.

Die Ansichten Dr. Pachauris kontrastieren mit Aussagen in Australien, denen zufolge über Ansichten, die außerhalb der orthodoxen Position der anerkannten Wissenschaftler stehen, nicht berichtet werden sollte.

Anders als in UK gab es in Australien nur wenig Publicity zu jüngsten Äußerungen von Spitzengremien der Klimawissenschaft in UK und den USA, dass es eine 17 Jahre lange Pause bei der globalen Erwärmung gegeben habe. Das Met. Office in UK hat seine eigene Vorhersage eines globalen Temperaturanstiegs nach unten korrigiert und sagte keine weitere Zunahme bis zum Jahr 2017 vorher. Dies würde die Pause auf 21 Jahre verlängern“.

Quelle: http://www.theaustralian.com.au/news/nothing-off-limits-in-climate-debate/story-e6frg6n6-1226583112134

Angesichts der Tatsache, dass das IPCC sich sehr viel mehr Gedanken darüber macht, die Propaganda-Mühle ordentlich zu drehen, als über die Durchführung von Klimawissenschaft sollte man den Ansichten von Ingenieur Pachauri mit gesundem Misstrauen begegnen.

Immerhin haben sich die Bürokraten entschlossen, nicht länger so zu tun, als ob meine Aussage bzgl. der 16-jährigen Pause falsch sei. Das kann man nicht mehr in die Flasche zurück drücken. Also haben sie beschlossen, sich auf n Jahre ohne Erwärmung zu stürzen, so dass sie, wenn ein kleiner Knick nach oben die Periode ohne Erwärmung zu einem Ende bringt, geschickt die Tatsache übergehen können, was wirklich bei der zunehmenden und jetzt akut empörenden Diskrepanz zwischen vorhergesagten und beobachteten langzeitlichen Erwärmungstrends eine Rolle spielt.

Irgendwann – wahrscheinlich ziemlich bald – wird es zu einem El Niño kommen, und die globale Temperatur wird wieder steigen. Daher wären wir gut beraten, uns nicht nur auf das Fehlen einer Erwärmung für n Jahre zu konzentrieren, sondern auch auf die wachsende Diskrepanz zwischen der längerzeitlichen, vom IPCC vorhergesagten Erwärmung und der tatsächlichen Rate der letzten 60 Jahre oder so.

Seit dem Jahr 1950 hat sich die Erde mit einer Rate äquivalent zu etwas mehr als 1°C pro Jahrhundert erwärmt. Und doch liegt die zentrale Projektion des IPCC bei einem drei mal so hohen Wert für dieses Jahrhundert. Wir sollten unser Augenmerk auf diese fundamentale und andauernde Diskrepanz richten, die eine vorübergehende Unterbrechung der langen Zeit ohne globale Erwärmung überdauern wird, die die Main Stream-Medien einst so lange zu verbergen versuchten.

Dies bedeutet, dass die Versuche der UN, mich von künftigen jährlichen Klima-Plauderstündchen fernzuhalten, um den Delegierten zu sagen, es hat seit 16 Jahren keine Erwärmung gegeben, scheitern werden, weil es schon bald keine jährlichen Klima-Plauderstündchen mehr geben wird, von denen man mich fernhalten müsste.

Link: http://wattsupwiththat.com/2013/02/22/ipcc-railroad-engineer-pachauri-acknowledges-no-warming-for-17-years/

Übersetzt von Chris Frey EIKE




Sind Ressourcen endlich? Eine Zeitreise in die Welt der Rohstoffe

Nachhaltigkeit ist ein sehr populäres Schlagwort.

Wir müssen nachhaltig wirtschaften, nicht mehr verbrauchen, als nachwächst und wenn nichts nachwächst, müssen wir sparen. Wirklich? Waren Mammutjäger nachhaltig? Naturverbunden, ernteten sie einen ‘nachhaltigen’ Rohstoff, eben Mammuts. Wenn sie nicht mehr verbrauchten als nachwuchs, waren sie, wie zum Beispiel Wölfe, noch Teil der Natur und kein verschlingender Parasit – so ähnlich mag es sich ein romantischer Geist zusammen reimen. Leider starben aber die Mammuts aus. Also doch kein nachhaltiges Wirtschaften? Oder Schicksal? Wohl beides. Der natürliche Klimawandel änderte die Fauna sicherlich in der frühen Steinzeit erheblich. Aber auch die Menschen trugen ihren Teil bei.

Tatsächlich verschwanden mit dem Auftauchen des Menschen auffallend viele Großsäuger für immer. Sie wurden ausgerottet. Aber es gab immer noch Menschen und weil sie ihre Nahrungsquellen wechselten, überlebten sie ‘Peak Mammut’ problemlos.

Ein nachwachsender Rohstoff

He that shall live this day, and see old age,
Will yearly on the vigil feast his neighbours,
And say ‘To-morrow is Saint Crispian.’
Then will he strip his sleeve and show his scars,
And say ‘These wounds I had on Crispian’s day.’
(Shakespeare, Henry V.)

 

Am St. Crispinstag (25. Oktober) des Jahres 1415 starben die stolzen Ritter des französischen Adels in der Schlacht von Agincourt im Pfeilhagel der englischen Langbogenschützen. Die Bögen, die bis zu 400 Meter weit schiessen konnten und deren Pfeile Rüstungen durchbohrten, waren aus Eibenholz.

Schon ‘Ötzi’ trug einen solchen Bogen. In unseren Breiten liefert kein anderer Baum ein besseres Material für das Verschiessen von Pfeilen. Da sowohl die Jagd als auch der Kampf überlebenswichtig war, hatten Eiben einen hohen Wert. Der Baum wächst sehr langsam, Raubbau hätte fatale Folgen gehabt. Deshalb gab es schon sehr früh Schutzgesetze. Sie waren, der Zeit entsprechend, radikal: Auf Eibenfrevel stand manches mal der Tod!

Wer im Mittelalter einen Eibenwald besaß, war ein reicher Mann; solch ein Wald war genau so wertvoll wie später eine Kanonengießerei. Die Bäume durfte ein einfacher Holzhauer gar nicht fällen; dafür wurden spezielle Eibenhauer ausgebildet.

Da Eiben sehr langsam wachsen, sie haben eine Umtriebszeit von 250 Jahren, war so ein Wald auch eine besonders markante Zukunftsvorsorge für nachfolgende Generationen. Also geradezu der Traum eines jeden Ökologisten, wenn man einmal davon absieht, dass in diesen Wäldern Waffen heranwuchsen. Ganz sicherlich konnte sich auch niemand, der einen Eibensetzling pflanzte, vorstellen, dass seine Vorsorge in 250 Jahren vielleicht gar nicht mehr gebraucht würde.

Wir wissen das natürlich besser.

Die Feuerwaffen waren dem Langbogen überlegen, eine neue Technologie machte die Eibe überflüssig. Ein Setzling, der im Jahr der Schlacht von Agincourt gepflanzt wurde, war im Jahr seiner Reife, 1665, bereits ein Anachronismus.

 

Nicht so ganz auf der Hand liegt, dass dieser Rohstoff, obwohl nachwachsend, eine Sackgasse darstellte. Das begrenzte Rohstoffpotential führte nicht zu einer entspannten und sorgenlosen Lage, wie er von den Verfechtern der Selbstgenügsamkeit gewissermaßen als Lohn versprochen wird, sondern zu einem stetem Empfinden des Mangels. Die Abhängigkeit von einer begrenzten Rohstoffquelle wurde als Hindernis empfunden, weil Gesellschaften niemals statisch sind; es ist geradezu ein Naturgesetz, dass sie nach dynamischer Expansion verlangen. Gesellschaften handeln nicht anders als eine Schimmelpilzkolonie, sie wollen den gesamten verfügbaren Lebensraum so rasch und effizient wie möglich besetzen und ausnützen und stehen dabei in Konkurrenz mit anderen Gesellschaften. Sie können nicht ‘zufrieden’ sein! Jeder limitierende Faktor wird als Hindernis betrachtet und es werden Wege gesucht, dieses Hindernis entweder zu umgehen oder zu überspringen.

Daraus erwächst ‘Fortschritt’

Zum zweiten führte der Mangel an dem begehrten Rohstoff zu restriktiven Gesetzen und damit zu einer Einschränkung der persönlichen Freiheit. Anders als gewöhnliche Bäume war die Eibe etwas, das man nicht einmal mit Geld so ohne weiteres erwerben konnte, weil ‘höhere’ Interessen der Herrschenden hinein regierten.

Knappheit ist freiheitsfeindlich und tatsächlich ist es geradezu ein typisches Merkmal autoritärer und totalitärer Gesellschaftsordnungen dass sie Knappheit sogar bewusst erzeugen, um durch die Kontrolle über die Zuteilung ihre Untertanen zu belohnen oder zu bestrafen und damit zu beherrschen. Die Parallele zur künstlichen Verknappung und Verteuerung von Elektrizität in unseren Tagen liegt auf der Hand.

Typisch für eine Mangelverwaltungsgesellschaft waren auch die vielfältigen Privilegien und Zuteilungen in den ‘sozialistischen’ Staaten; vom Telefon bis zur Urlaubsreise wurden die natürlichen Wünsche der Untertanen als Disziplinierungsinstrument eingesetzt.

Doch halten wir fest: Nachwachsende Rohstoffe sind keineswegs eine Lösung für Probleme und vor allem keine Zukunftsversicherung für anhaltenden Wohlstand oder auch nur Zufriedenheit. Ganz im Gegenteil ist eine auf solche Art selbstgenügsame Gesellschaft letztendlich zum Untergang verurteilt, weil fortschrittlichere Konkurrenten früher oder später die Oberhand gewinnen und die gesellschaftliche Basis entwerten. Grund dafür ist die Dynamik der menschlichen Entwicklung oder ganz einfach gesagt der ‘Fortschritt’.

Ein begrenzter Rohstoff

Nur sehr selten kommt es vor, dass sich aus der reichlich im Boden liegenden Kohle auf natürlichem Weg Graphit bildet. Im 18, Jahrhundert war in Europa nur eine einzige Lagerstätte für hochwertigen Grafit bekannt: Die Minen von Borrowdale in England. Diese Minen wurden – wenn man die ökologistische Weltsicht zugrunde legt – in geradezu vorbildlicher Weise verwaltet.

 

Es stellte sich nämlich heraus, dass der Graphit von größter, sogar staatswichtiger Bedeutung war. Man fand, dass dieser Stoff ein eminent nützliches Hilfsmittel für den Eisenguss darstellte, denn Gießformen, die mit Grafit bestäubt wurden, lieferten glattere und fehlerfreiere Abgüsse. Dazu wird Graphit übrigens heute noch verwendet. Besonders wichtig war diese Eigenschaft beim Guß von Kanonenkugeln, die selbstverständlich möglichst glatt, rund und fehlerfrei sein müssen. Wachmannschaften sicherten die Minen und nur zu bestimmten Zeiten wurden streng kontrollierte Mengen entnommen und auf den Markt gebracht (Allerdings hatte das vorwiegend ökonomische Gründe). Hier wurde also ‘Nachhaltig’ gedacht und gehandelt.

Wieder ist aus unserer heutigen Sicht eines sofort offensichtlich: Was gestern noch knapp war, muss nicht knapp bleiben; Graphit ist heutzutage ein billiger, im Überfluss verfügbarer Stoff den man künstlich in viel besserer Qualität herstellen kann als die Erde ihn natürlich liefert und die Royal Navy braucht keine eisernen Kanonenkugel mehr, sie schießt längst mit ganz anderen Geschossen. Die Sparsamkeit, so naheliegend sie auch scheinbar war, erwies sich also aus sogar zweierlei Gründen als gänzlich unnötig.

Man kann dies als Beispiel nehmen, dass der ökologistische Katechismus, der äusserste Sparsamkeit mit begrenzten Rohstoffen befiehlt, um auch den kommenden Generationen noch etwas zu hinterlassen, völlig an der historischen Realität vorbei geht, weil die kommenden Generationen den Rohstoff aus anderen Quellen viel besser decken können und/oder für den vorgesehenen Zweck überhaupt nicht mehr brauchen.

Diese historische Lektion lädt aber zu einer ganz grundsätzlichen Überlegung ein, die das ‘Vorsorgeprinzip’ völlig ad absurdum führt.

Ein begrenzter Rohstoff muss selbst bei sparsamsten Verbrauch unweigerlich einmal erschöpft sein. Sparsamkeit ist also langfristig auf jeden Fall nutzlos und ganz bestimmt keine ‘nachhaltige’ Lösung sondern bestenfalls nur ein hinauszögern des unvermeidlichen Endes. ‘Nachhaltig’ wäre allein der VOLLSTÄNDIGE Verzicht, denn nur dann würden auch in fernerer Zukunft noch Vorräte da sein. Da diese Pflicht zum vollständigen Verzicht aber gewissermaßen vererbt werden müsste, hätte letztendlich KEINE Generation einen Nutzen davon!

Man kann sich das anschaulich machen, wenn man sich einen Menschen mit einem begrenzten Nahrungsmittelvorrat ansieht: Ganz egal wie sparsam er ist, muss er doch letztendlich verhungern. Da kann er die Rationierung auch gleich lassen, sie nützt ihm gar nichts. Die einzige echte Vorsorge ist die Suche nach neuen Nahrungsquellen und wenn er zu dem Zweck reichlich ißt, um bei vollen Kräften Ausschau zu halten, ist das eine gute und tatsächlich die einzig richtige Investition.

Halten wir fest: Es hat sich nicht nur in der Praxis erwiesen, sondern es ist sogar mathematisch beweisbar, dass es unsinnig ist mit irgend einem Rohstoff sparsam umzugehen; Obwohl dieses Verhalten naheliegend zu sein scheint, ist es völlig unlogisch und sogar kontraproduktiv.

Abfall?

Wat den einen sin Uhl is den andern sin Nachtigal

 

In Deutschlands öffentlicher Meinung geistert ein Popanz: Das ominöse ‘Endlager für Kernbrennstäbe’, das angeblich fehlt und gar nicht möglich sei. Man könne schon aus dem Grund nicht für Kernkraft sein, weil es unmöglich ist, grosse Mengen hochaktiver und höchst gefährlicher radioaktiver Abfälle über -zigtausende von Jahren sicher zu lagern. Niemand hinterfragt, ob das denn wirklich Abfall ist. Dabei wäre das höchst naheliegend.

Das Erzgebirge (nomen est omen) war einmal von grösster Bedeutung für die Gewinnung des wertvollen Metalls Zinn, das insbesonders zur Bronzeherstellung unentbehrlich und daher sehr wertvoll war.

Die damaligen Bergleute waren verständlichweise gar nicht glücklich darüber, dass das Zinnerz häufig mit einem Mineral verunreinigt war, das die Verhüttung sehr erschwerte. ‘Wie ein Wolf’ fraß es ihre wertvolle Ausbeute. ‘Wolfert’ nannten sie es daher und warfen es weg, auf die Abraumhalden, denn es war zu nichts nutzbar. Es dauerte sehr lange, bis man erkannte, was in diesem Mineral steckte. Am Ende des 18. Jahrhunderts wurde das Wolfram in ihm entdeckt, der Name ging vom Mineral auf das chemische Element über.

Wolfram ist ein einzigartiges Metall, extrem schwer (fast dreimal so dicht wie Eisen) und mit dem höchsten Schmelzpunkt aller Metalle, fast unvorstellbare 3420 °C (Eisen schmilzt schon bei 1600°C)! Dazu ist es in Legierungen auch noch äusserst hart.

Diese Eigenschaft überträgt es auf seine Legierungen und dadurch gelang es, Stähle mit einzigartigen Fähigkeiten zu schaffen. Normalerweise wird Stahl schon bei mehreren hundert Grad merklich weicher. Wolframstähle aber behalten ihre ohnehin ausserordentlich hohe Härte sogar noch wenn sie bereits glühen, sie sind ‘warmfest’.
Zusammen mit anderen Legierungselementen, die die Zähigkeit und Schnitthaltigkeit verbessern, entstanden damit die ‘Hochleistungs Schnell Stähle’ oder HSS-Stähle. Zur Bearbeitung extrem harter Stoffe wurde eine weitere Klasse von Werkstoffen entwickelt, die WIDIA (‘Wie Diamant’) ‘Stähle’, die eigentlich ein Verbundwerkstoff sind: Ultrahartes Wolframcarbid wird in eine Matrix aus Kobalt eingesintert. Sie sind tatsächlich sogar dem Diamant überlegen, obwohl sie nicht ganz so hart sind, denn sie sind elastischer und können daher eine höhere Arbeitsgeschwindigkeit als selbst Diamanten erreichen, ohne zu brechen.

 

Trotz der massiven Kühlung erreichen die Schneiden so einer Fräse Betriebstemperaturen von 600 °C. Gewöhnlicher Hartstahl würde dadurch seine Härte verlieren und sehr rasch verschleißen.

Das hat eine enorme Bedeutung bei der spanenden Bearbeitung von Stahl, z. B. auf einer Drehbank. Das Spanen erzeugt Wärme, sehr viel Wärme sogar. Arbeitet man mit hohem Tempo, werden die Werkzeuge glühend heiß. Normaler Stahl hält das nicht aus, er wird weich und man muss langsamer arbeiten um das zu vermeiden.

Nun sind Werkzeugmaschinen aber sehr teuer. Wenn man die Arbeitsgeschwindigkeit erhöht, wird das Werkstück billiger. Wolfram-Werkzeuge können die Geschwindigkeit auf das Dreifache erhöhen! Deshalb ist die moderne Industrie ohne Wolfram kaum denkbar: Wolfram ist ein ‘strategisches’ Metall das für die Überlebensfähigkeit von Nationen heute eine mindestens so große Rolle spielt wie einst das Zinn als unersetzliche Zutat zur Bronze, aus der Geschütze, die ‘ultima ratio regum’* gegossen wurden. Noch in den letzten Kriegsmonaten des II Weltkriegs fuhren deshalb deutsche U-Boote um die halbe Welt bis nach Japan, um wenigstens einige Tonnen dieses Metalls durch die Blockade zu bringen.

Aus Abfall wird Rohstoff

Aber die ersten industriellen Quellen für das Wolfram waren die Abraumhalden der mittelalterlichen Zinnbergwerke, auf die die Bergleute einst das schädliche Wolframit als Abfall warfen. Wolfram zeigt wie kaum ein anderer Stoff, wie wandelbar die Begriffe ‘Abfall’ und ‘Rohstoff’ sind. Man darf nichts als gegeben annehmen weil es heute so ist. Es war in der Vergangenheit anders und es wird in der Zukunft anders sein, unsere Technologie ist NICHT das ende. Aller Voraussicht nach stehen wir immer noch erst am Anfang der Technologischen Revolution, die mit der Einführung der Dampfmaschine begann. Unsere Nachkommen in hundert Jahren werden unsere Welt als genau so primitiv, unwissend und rückständig ansehen, wie wir die Zeit zu Beginn des 20. Jahrhunderts, als Pferde noch das Hauptverkehrsmittel waren, als Zeppeline und winzige Flugzeuge die ersten zaghaften Versuche zur Eroberung der Luft machten, als Telegramme, die mit Morsezeichen übermittelt wurden, als Wunder der Technik galten und die Kernspaltung reine Utopie war.

Mit Sicherheit können wir jedoch heute schon sagen, dass ein ‘Abfall’ unserer Welt sich zu einem wertvollen Rohstoff wandeln wird, denn dieser Prozess ist bereits im Gang: Abgebrannte Brennelemente aus unseren Leichtwasser-Reaktoren werden ein wertvoller Brennstoff für Kernreaktoren der nächsten Generation werden. Der Streit um ein ‘Endlager’ ist absurd, da überhaupt kein Endlager benötigt wird. Reaktoren, die auf dem Prinzip der ‘schnellen Neutronen’ beruhen, hinterlassen keinen Abfall, der lange strahlt, sie verbrennen in nuklearen Kettenreaktionen alle Elemente der Gruppe der Actiniden, insbesonders Plutonium und Americium und nur diese Actiniden sind problematisch, da sie die sogenannte mittelaktive Fraktion bilden: Hohe Radioaktivität kombiniert mit langer Lebensdauer. Was dann doch noch als ‘Abfall’ übrig bleibt, ist schon nach 200 Jahren so weit abgeklungen, dass es keinerlei Gefahr mehr darstellt.

Die Legende vom ‘Atommüll’

 

In diesem Lager in Paducah, Ky. liegen tausende Tonnen abgereichertes Uran (Depleted Uranium DU). Es ist viel zu wertvoll, um daraus panzerbrechende Munition zu machen

Zu den Actiniden gehört auch das Uran selbst. Da Leichtwassser-Reaktoren auf das Isotop 235U angewiesen sind, das aber im natürlichen Uran nur zu 0,72% enthalten ist, muss das Uran angereichert werden. Als ‘Abfall’ entstanden riesige Mengen 238U, das für die Spaltung nicht geeignet ist. In den ‘schnellen’ Reaktoren verbrennt es aber sehr wohl!

Diese ‘Abfälle’ enthalten so viel Energie, dass die USA mit ihren gelagerten Mengen 3000 Jahre lang ihren gesamten Elektrizitätsbedarf decken könnten.

Reaktoren dieser Bauart sind in China bereits keine Zukunftsmusik mehr. Nach Angaben der World Nuclear Association ist geplant:

Etwa um 2040 sollen Leichtwasser-Reaktoren [Das sind die, die wir auch in Deutschland haben] bei einem Erzeugungslevel von 200 GWe stagnieren [Das entspricht etwa 150 deutschen KKW] und ‘schnelle’ Reaktoren [Gemeint ist die Bauart IFR Integral Fast Reactor] sollen ab 2020 mit wachsenden Zubauraten auf eine Leistung von 200 GWe bis 2050 und 1400 GWe bis 2100 ausgebaut werden.

Zum Vergleich: Die gesamte Stromleistung Deutschlands liegt bei 80 GWe

Fazit

Niemals in der Geschichte der Menschheit wurde ein Rohstoff wirklich dauerhaft knapp. Als die Eiben, trotz aller Vorsorge, immer weniger wurden, wurden sie gar nicht mehr gebraucht. Weil Grafit knapp war, wurden synthetischen Verfahren erfunden die ihn zu einem billigen Massenprodukt machten.

Auch das wichtigste Metall der modernen Industrie, Wolfram, wird niemals knapp, weil Ersatz bereits vorhanden ist: Hochfeste und ultraharte Keramiken (Bornitrid und synthetischer Sinterdiamant sind bereits in der Praxis eingesetzt) können seinen Platz einnehmen. Momentan sind sie noch zu spröde um HSS zu verdrängen; sie verlangen deshalb auch steifere und präzisere und damit teurere Maschinen, aber das ist nur eine Zeitfrage und je knapper Wolfram wird, desto mehr wird sich die Entwicklung beschleunigen. Die Keramiken, die Wolfram ersetzen, werden uns aber auch Turbinen und Verbrennungsmotoren mit heute fantastischen Wirkungsgraden bescheren, weil sie weitaus höhere Betriebstemperaturen bei weniger Gewicht und daher auch noch höheren Drehzahlen versprechen.

Knappheit hat stets ‘Ersatz’ hervorgebracht, der aber nicht minderwertiger oder teurer, sondern im Gegenteil auch stets ein Fortschritt in jeder Hinsicht war. Nur deshalb geht es jetzt 7000 Millionen Menschen auf der Welt besser als 700 Millionen vor 300 Jahren. Wir müssen uns stets vor Augen halten, dass der Istzustand der Technologie im stetigen Fluß ist und morgen sich von heute genau so unterscheiden wird wie gestern von heute. Das wir völlig außerstande sind, weiter als höchstes etwa 50 Jahre zu planen, ist sehr leicht zu zeigen:

Welche ‘Vorsorgen’ hätte denn ein Mensch im Jahr 1913 für uns treffen können und welche hätte er wohl gewählt?

Alles, was ihm kostbar und knapp erschienen sein mag, ist für uns Tinnef, wertloser Plunder.

Hätte er Energie sparen sollen?

Damals war Kohle die unangefochtene Nummer eins und die wurde im Ruhrgebiet gefördert. Wir haben aber keine Knappheit an Ruhrkohle, wir versuchen im Gegenteil die Schächte möglichst schnell zu schliessen, obwohl da noch genug liegt. Wir brauchen das Zeug einfach nicht! Aussserdem verbrauchen wir rund 10 x mehr Energie als er. Wenn er sich unter grössten Opfern 50% seines Bedarfs abgespart hätte, wäre das für uns nur ein Tropfen auf dem heissen Stein.

Hätte er die Stadtplanung schon mal ‘vorsorglich’ gestalten sollen?

Damals gab es allen ernstes die Besorgnis, weiter wachsende Städte würden unweigerlich im Pferdemist der vielen Fuhrwerke ersticken, die zur Versorgung notwendig seien. Vorgeschlagen wurden daher große Kanäle, um den Mist wieder auszuschwemmen. Auch ein ziemlicher Flop….

Dann gab es damals den Glauben, nur Völker mit Kolonialbesitz hätten eine Zukunft. Deshalb wurde ‘vorgesorgt’, in Gestalt einer Kriegsflotte die den ‘Platz an der Sonne’ sichern sollte, aber schon im Folgejahr 1914 Mitauslöser des Weltkriegs wurde ohne dass sie je ihren Zweck auch nur annähernd erfüllen konnte. Aber machen wir es kurz:

Niemals in der Geschichte der Menschheit hat eine längerfristige ‘Vorsorge’ irgendwelche positiven Früchte getragen. Oder kennen SIE ein Beispiel, das dies widerlegt?

Tatsächlich waren immer die Gesellschaften im Vorteil die pragmatisch die Gegenwartsprobleme anpackten und sich mit grösstmöglicher Flexibilität dem Tagesgeschäft widmeten und ansonsten eigentlich nur ein Prinzip gelten liessen: Freiheit.

Denn Freiheit heisst Pluralität und ist das Gegenteil von Lenken. Lenken geht von der falschen Prämisse aus, dass Zukunft vorhersehbar sei. Lenker handeln wie Kapitäne, die den Kurs der Eisberge ‘wissenschaftlich’ vorausberechnen und dann ohne Ausguck mit Volldampf in den Nebel fahren; Bei Beginn der Reise mag das noch einigermassen funktionieren, doch je länger sie dauert, desto sicherer wird es zu einer Kollision kommen. Klüger ist der Kapitän, der nicht versucht, mittels einer Glaskugel über den Horizont zu sehen, sondern auf den Ausguck hört und schnell den Kurs ändert, wenn ein Eisberg in Sicht kommt. Das kann manches mal knapp zugehen und es gibt auch mal Schrammen, aber genau so haben wir das Schiff bisher erfolgreich gelenkt seit wir von den Bäumen gestiegen sind.

Das Verführerische an den ‘Lenkern’ ist, dass die Koordinierung und Gleichschaltung tatsächlich für kurze Zeit einen klaren Vorteil bringen kann und diese scheinbaren Erfolge blenden**. Doch Prognose und Realität driften unweigerlich immer mehr auseinander und unweigerlich werden die Kosten der Fehlentscheidungen immer höher und der Gewinn immer kleiner.

Sehr praktisch lässt sich das auch aus der Evolutionstheorie ableiten: Es sind nicht die hocheffizienten Spezialisten, die auf Dauer überleben, sondern die Universalisten, die zwar nichts richtig gut können, aber von allem ein bisschen und die daher hochflexibel alle möglichen Nischen und Gelegenheiten ausbeuten können. Dazu muss aber bei Gemeinschaften die grösstmögliche Freiheit für den einzelnen gegeben sein. Und das ist dann auch die einzige Zukunfts-Vorsorge, die wirklich Sinn macht.

*’Letztes Wort der Könige’. Diesen Wahlspruch liess Friedrich II von Preußen auf seine Kanonen prägen.

** Weit öfter allerdings sind es Erfolge ‘auf Pump’, wie zum Beispiel Hitlers Rüstungsboom, der auf Wechselreiterei (‘MEFO-Wechsel’) beruhte.

 Nachtrag:

Ein früherer Kommentar von FK9 Pilot beschreibt in gleicher Weise die Wandlung des Rohstoffs ‘Salz’. Er ist so treffend, dass er hier mit dazu gehört:

Im Mittelalter war Salz ein knappes und teures Gut, die Nachfrage konnte damals kaum durch das Angebot dieses lebenswichtigen Minerals befriedigt werden. Ganze Städte und Infrastrukturen verdanken dem Salz ihre Existenz. Für Salz wurde gemordet und es wurden Kriege geführt. Die damals erschließbaren Salzressourcen waren durch die kaum vorhandenen Gewinnungstechnologien beschränkt. Die Nachfrage stieg durch die zunehmende Bevölkerung sowie die beginnende Urbanisierung.

Mit der Industrialisierung nahm die Bevölkerung exponentiell zu, als linear-denkend, beschränkter Mensch müsste man eigentlich gen Roma gezogen und dort einen Club gegründet haben, weil ja proportional zur Weltbevölkerung auch der Salzbedarf exponentiell hätte steigen müssen. Hilfe, wir müssen gegensteuern, Salz sparen sonst versalzt die Erde und die Reserven reichen — na — wie immer nur noch für 40 Jahre.

Dennoch kam es nie zu “Peak Salt”. Warum nicht? Nun ganz einfach: Schon Anfang des 17. Jahrhunderts entwickelte man erste Technologien zur industriellen Erzeugung von Salz, indem man Sole über Pumpsysteme transportieren lies und erste industrielle Herstellungsformen entwickelte. Die industiellen Abbau von Salzstöcken in größerer Tiefe, der Salz zum Pennystock machte konnte man sich damals allerdings noch kaum vorstellen, genau so wenig, wie Wilhelm II sich vortellen konnte, Elektrizität nicht aus Kohle, sondern aus der Spaltung von Atomen gewinnen zu können.

Und: Hätte es damals schon Nachhaltigkeitsapologen gegeben, die mit geschürter Angst vor Bodenversalzung (50-50% Chance) gefordert hätten, das Salz im Meer bzw. im Boden für zukünftige Generationen zu belassen, hätte es zwar Millionen Tote wegen Lebensmittelvergiftungen bzw. Nahrungsmittelknappheit gegeben, man hätte zukünftigen Generationen (Uns) aber nicht genützt, da diese (Wir, damals kaum vorstellbare) Kühltechniken entwickelt haben, die Pökelfleisch allenfalls noch zur exotischen Delikatesse, aber nicht zur Kerntechnologie der Haltbarkeitsmachung degradierten — und das alles, weil wir inzwischen genügend Energie haben (hatten).

“Peak Irgendwas” ist immer vor allem “Peak Brain” eines Teiles einer Generation, also die fehlende Vorstellungsgabe, dass zukünftige Generationen völlig andere Lösungswege beschreiten werden, in unserem eigentlichen Kontext also völlig auf Erdöl oder Gas verzichten können werden, dieser Ressourcen also gar nicht bedürfen, diese also gar keine Ressourcen mehr darstellen.

Autor: Tritium; zuerst erschienen auf Science Sceptical am 23.2.13

ÄHNLICHE BEITRÄGE (AUTOMATISCH GENERIERT):

•    Wasser: Eine unendliche Ressource (von Christian Strunden)

•    Die Ressourcen und das Primat der Technologie

Und wieder wird eine neue Sau durchs Dorf getrieben – Der Dioxinskandal




Es ist die Sonne, Dummkopf – die geringe Bedeutung des CO2

…basieren auf dem einfachen Gedanken, der im AR 4 des IPCC festgeschrieben worden ist:

„Wir folgern, dass die globale mittlere Gleichgewichts-Erwärmung bei Verdoppelung des CO2-Gehaltes – oder die ‚Gleichgewichts-Klimasensitivität’ wahrscheinlich bei 2°C bis 4,5°C liegt mit einem wahrscheinlichsten Wert bei 3°C. Die Gleichgewichts-Klimasensitivität ist sehr wahrscheinlich größer als 1,5°C“

Diese Werte können nur durch die Übernahme von zwei vollständig unbegründeten und tatsächlich unlogischen Hypothesen und Prozeduren erreicht werden:

1. CO2 wird einfach als der Hauptklimatreiber betrachtet. Dies ist ganz klar unlogisch, weil in allen Zeitbereichen Änderungen des CO2-Gehaltes Änderungen der Temperatur hinterher laufen.

2. Positive Rückkopplungen der anderen Treibhausgase – vor allem Wasserdampf und Methan – werden dann den Auswirkungen des CO2 hinzuaddiert und diesem zugeordnet. Offensichtlich sind die CO2- und Feuchtigkeits-Zunahme in der Natur an steigende Temperaturen gekoppelt. Es ist auch möglich, eine insgesamt positive Rückkopplung zu haben, weil Systeme mit einer totalen positiven Rückkopplung nicht stabil sind und sich einfach immer weiter verstärken bis hin zur Katastrophe. Wir wären nicht hier, wenn das stimmen würde.

Seit seiner Gründung war es die Aufgabe des IPCC, die anthropogene Klimaänderung zu messen, und tatsächlich wurde die Klimaänderung als anthropogen definiert bis zum SREX-Bericht aus dem Jahr 2011, wonach die Definition verändert worden ist. Die Gemeinschaft der Klimawissenschaftler richteten ihre Modelle einfach so aus, dass die politischen Anforderungen der Geldgeber erfüllt wurden. – Es war unwahrscheinlich, dass Veröffentlichungen, akademische Positionen, gutachterliche Bestätigungen, Vorankommen in den jeweiligen Instituten und Zuwendungen ohne pflichtgemäße und geeignete Vorhersagen einer katastrophalen Erwärmung darin Beachtung und Förderung erfahren würden. Die Klimamodelle stecken voller ungeheuerlicher struktureller Fehler, und – schlimmer noch – in ihren Abschätzungen der Unsicherheiten hat das IPCC in seinen Berichten für politische Entscheidungsträger diese strukturelle Unsicherheit einfach ignoriert und der allgemeinen Öffentlichkeit ein völlig falsches Bild hinsichtlich der Genauigkeit ihrer Temperaturvorhersagen vermittelt. Es ist dieser Aspekt bei AGW, der besonders skrupellos ist.

Die Unzulänglichkeit, um nicht zu sagen Hirnverbranntheit der Klimamodelle kann man einfach durch Betrachten der folgenden Abbildung 2-20 aus dem AR 4- Bericht (WG 1) ablesen:

Bild_1: aus dem AR 4 des IPCC

Der einzige natürliche Treiber ist die TSI, alles andere ist anthropogen. Dabei sollten beispielsweise unter den natürlichen Treibern auch Dinge wie Milankovitch-Zyklen, mondbezogene Gezeiteneffekte auf die Meeresströme, die Stärke des Erdmagnetfeldes und sämtliche Daten der Sonnenaktivität sein – z. B. die Stärke des solaren Magnetfeldes, TSI, SSNs, GCRs (Auswirkungen auf Aerosole, Wolken und Albedo), CHs, MCEs, EUV-Variationen und damit assoziierte Ozon-Variationen sowie Forbush-Ereignisse. Solange Bandbreite und Gründe der natürlichen Variationen innerhalb vernünftiger Grenzen nicht bekannt sind, ist es einfach nicht möglich, die Auswirkungen des anthropogenen CO2 auf das Klima zu berechnen.

Die Folgen dieses fundamentalen Fehlers der wissenschaftlichen Beurteilung werden deutlich in der zunehmenden Diskrepanz zwischen den globalen Temperaturtrends und den Modellprojektionen. Die Wassertemperaturen der NOAA zeigen, dass es trotz eines Anstiegs des CO2-Gehaltes um 8% seit 1997 keine Gesamterwärmung mehr gegeben hat, der Erwärmungstrend im Jahr 2003 seinen Höhepunkt erreicht und seitdem ein Abkühlungstrend eingesetzt hat.

ftp://ftp.ncdc.noaa.gov/pub/data/anomalies/annual.ocean.90S.90N.df_1901-2000mean.dat

Die Lücke zwischen Projektionen und Beobachtungen sieht man hier:

Abbildung 2 ( Von Prof. Jan-Erik Solheim (Oslo) )

2 Die wirklichen Klimatreiber

Das Klima der Erde ist das Ergebnis einer Vielzahl verschiedener quasi-zyklischer Prozesse mit verschiedenen Wellenlängen. Die langwellige Milankovitch-Exzentrizität, Neigungs- und Präzessionszyklen werden moduliert durch Zyklen der Sonnen-„Aktivität“ im Zeitscale von Jahrtausenden, Jahrhunderten und Jahrzehnten. Diese wiederum stehen in Wechselwirkungen mit Mondzyklen und endogenen Änderungen der Erde hinsichtlich der Stärke des geomagnetischen Feldes, Vulkanausbrüchen und wirklich langzeitlichen tektonischen Plattenverschiebungen. Die Kombination all dieser Treiber wird durch die großen Meeresströme und atmosphärische Druckgebilde modifiziert, die das Klima der Erde ausmachen.

Als Hilfsmittel bei der Vorhersage dekadischer und jährlicher Änderungen können wir beispielsweise ENSO, PDO, AMO und NAO-Indizes heranziehen und basierend auf deren Verhalten in der Vergangenheit vernünftige Vorhersagen zukünftiger Perioden vornehmen. Gegenwärtig legt die PDO nahe, dass wir in unmittelbarer Zukunft 20 bis 30 Jahre lang Abkühlung erwarten können. Ähnlich müssen wir für multidekadische, Jahrhunderte und Jahrtausende lange Vorhersagen wissen, wo wir relativ zu den Sonnenzyklen stehen. Die besten Proxies für die Sonnen-„Aktivität“ sind gegenwärtig der Ap-Index und die von GCR erzeugte Neutronenzahl. [?] Die solaren Indizes sind im Einzelnen wichtig, weil deren Verlauf in der Vergangenheit aus den 10 Be-Daten abgeleitet werden kann.

In einem früheren Beitrag auf http://climatesense-norpag.blogspot.com vom 22.1.2013 mit dem Titel Global Cooling – Timing and Amount.(NH) habe ich auf eine mögliche zukünftige globale Abkühlung hingewiesen, die auf einer Wiederholung Jahrtausende langer solarer Zyklen basiert. Hier weise ich für die Modellierer auf den Wert der Verwendung des Ap-Index’ hin als Proxy der Sonnenaktivität. Man vergleiche die HADSST3-Temperaturanomalie seit 1910 mit dem Ap-Index seit 1900. Wegen der thermischen Trägheit und langsamen Änderungen in der Enthalpie der Ozeane gibt es eine Zeitverzögerung von 10 bis 12 Jahren zwischen dem Treiber-Proxy und der Temperatur.

Abbildung 3 – Vom Hadley Center

Abbildung 4:  Von  http://www.leif.org/research/Ap-1844-now.png

Da gibt es einige gute Korrelationen. Die Tiefstwerte des Ap-Index’ der Jahre 1900 und 1965 korrespondieren jeweils mit den Temperaturminima der NH der Jahre 1910 und 1975. Der Spitzenwert des Ap-Index’ (Sonnenzyklus 22) im Jahr 1992 korrespondiert mit der Temperaturspitze des Jahres 2003 und der Trendumkehr – und wie ich in dem o. g. erwähnten früheren Beitrag gezeigt habe, könnte er auch gut den Trendübergang der Jahrtausend-Sonnenzyklen repräsentieren, der zu den Mittelalterlichen bzw. Römischen Wärmespitzen geführt hat. Die NH wird betrachtet, weil sie sensibler auf Änderungen der Antriebe reagiert, und die größere Variabilität macht die Korrelationen deutlicher.

Als einfaches konzeptuelles Modell kann man sich den Ap-Index al seine einfache Proxy für die Anzahl der Sonnenstunden vorstellen, vor allem, wenn man ihn im Geiste über einen Zeitraum von 10 bis 12 Jahren integriert. Siehe Wang et al.
http://www.atmos-chem-phys.net/12/9581/2012/acp-12-9581-2012.pdf

Soweit es die Zukunft betrifft, liegt das Ap-Minimum des Sonnenzyklus’ 23/24 Ende 2009 genauso niedrig wie das Minimum im Jahr 1900. Das würde sowohl eine säkulare Änderung der Sonnenaktivität etwa im Jahr 2006 als auch ein bevorstehendes Temperaturminimum in den Jahren 2019/20 bedeuten. Diese Änderung wurde auch für die TSI dokumentiert, und zwar von Abdussamatov 2012 http://www.ccsenet.org/journal/index.php/apr/article/view/14754:

Abbildung 5.

Als ein letztes Beispiel in diesem Beitrag möchte ich die folgende Graphik von Steinhilber et al zeigen (hier). Sie zeigt die enge Korrelation zwischen den aufeinander folgenden Minima der Kleinen Eiszeit mit der Intensität der kosmischen Strahlen:

Abbildung 6

Schlussfolgerungen:    

Es ist jetzt klar, dass die Ap/GCR/10 Be-Daten im Zeitscale von Jahrtausenden, Jahrhunderten und Jahrzehnten die besten Proxy-Messungen der Temperaturtreiber auf der Erde sind. Der beste Weg, zukünftige Verhältnisse vorherzusagen ist die Vorhersage der Sonnenzyklen über diese Wellenlängen unter Berücksichtigung der Feldstärke des irdischen Magnetfeldes und Unregelmäßigkeiten in den Trends während längerer Zeitperioden.

3 Die Antwort der Modellierer, des IPCC und der politischen Alarmisten

Sowohl die Zunft der Modellierer als auch das IPCC haben erkannt, dass sie ein Problem haben. Zum Beispiel haben sowohl Hansen als auch Trenberth nach der fehlenden Wärme Ausschau gehalten und epizyklisch-artige [?] Theorien erstellt, um ihre Modelle zu retten. Hansen glaubt, dass es etwas mit den Aerosolen zu tun hat, und Trenberth wollte die Wärme zunächst im schwarzen Loch der Tiefsee versteckt haben. Hansen ist hinsichtlich objektiver Wissenschaft ein hoffnungsloser Fall, aber Trenberth war immer ein mehr objektiver und urteilsfähigerer Wissenschaftler, der kürzlich exzellente Fortschritte mit der Entdeckung einer echten negativen Rückkopplung im System gemacht hat. Siehe http://www.cpc.ncep.noaa.gov/products/outreach/proceedings/cdw31_proceedings/S6_05_Kevin_Trenberth_NCAR.ppt.

Er sagt:

Dies ist ein ermutigender Beginn, und deren Einfügung würde die Modelle signifikant verbessern. Klarerweise würde sie sehr substantiell die derzeit vom IPCC berechnete Klimasensitivität des CO2 reduzieren. Er fühlt sich gedrängt, den Modellen den Iris-Effekt [?] der GCR-Modulation des einfallenden Strahlungsflusses via Wolken, möglicherweise in Zusammenhang mit natürlichen Aerosolen, und daraus resultierende Änderungen der Albedo hinzuzufügen. Hat man dies getan, wird die Sensitivität bei Verdoppelung des CO2-Gehaltes 1 Grad oder weniger betragen, ähnlich separaten Rechnungen von Lindzen, Spencer und Bjornbom: http://hockeyschtick.blogspot.com/2013/01/new-paper-confirms-findings-of-lindzen.html

Die Antwort des IPCC auf die fehlende Erwärmung steht im SREX-Bericht 2011. Dort heißt es:

„Die Unsicherheit hinsichtlich projizierter Änderungen der Klimaextreme während der nächsten zwei bis drei Dekaden ist relativ groß, weil die Signale der Klimaänderung relativ klein sein dürften im Vergleich zur natürlichen Klimavariabilität“.

Mit anderen Worten, sie haben erkannt, dass sie auf der Basis des Trends nicht länger Angst erzeugen können, und so haben sie sich entschlossen, sich im bevor stehenden AR 5 auf „Extrem“-Ereignisse zu konzentrieren, um ihre Angst erzeugende Anti-CO2-Agenda voranzutreiben, während sie ihre Berechnungen zur Klimasensitivität unverändert lassen. Die zentralen Alarmisten Hansen, Mann, McKibben und Romm und ihre Main Stream-Medien sowie ihre politischen Erfüllungsgehilfen einschließlich Obama folgen einfach dem IPCC-Skript mit ihren sogar noch schlimmeren hysterischen Vorhersagen zukünftiger extremer Katastrophen, obwohl die Erde sich gegenwärtig weigert, sich weiter zu erwärmen.

Die Summary for Policy Makers des AR 5 liegt gegenwärtig im Entwurf vor. Trenberth und die mit ihm verbundenen Modellierer können die Modelle nicht zeitnah restrukturieren, um den wissenschaftlichen Abschnitt noch zu ändern, aber vielleicht können sie zumindest darauf bestehen, dass der endgültige Bericht auf die strukturellen Unsicherheiten der Modellergebnisse hinweist.

Schlussfolgerung:

Trenberths jüngste Arbeit impliziert, dass die ganze CAGW-Panik kollabieren wird, wenn man all das in die Modelle integrieren würde.

Die einzige Auswirkung des zunehmenden CO2-Gehaltes wird dann sein, den bevor stehenden Abkühlungstrend ein wenig abzumildern, und dass er der weltweiten Produktion von Nahrungsmitteln helfen wird, weil er auf die Ernten wie Dünger wirkt.

Link: http://wattsupwiththat.com/2013/02/20/its-the-sun-stupid-the-minor-significance-of-co2/

Dr. Norman Page

Übersetzt von Chris Frey EIKE




Deutschland und Spanien treten grüne Energie in die Tonne

Bild rechts: Shutterstock

Aus Furcht vor einem Denkzettel der Verbraucher über die einseitige Finanzierung grüner Energie hat Merkels Regierung am Donnerstag vorgeschlagen, diesen zusätzlichen Betrag bis Ende 2014 zu deckeln und danach einen Anstieg nicht größer als 2,5% pro Jahr zuzulassen. Die Regierung plant auch, Ausnahmeregelungen zurückzufahren, was mehr Unternehmen zum Zahlen verpflichtet, sowie einen Schnitt bei den grünen Subventionen in Höhe von 1,8 Milliarden Euro zu erreichen. Der Plan ist Regierungsvertretern zufolge eine schnell umsetzbare Reform [quick fix pending comprehensive reform] nach der Wahl.

Merkel hofft, mit diesen Maßnahmen zur Deckelung von Subventionen für grüne Energie Stimmen zu gewinnen. Inzwischen folgt ihr Spanien auf dem Fuße, kürzt man doch dort Subventionen für erneuerbare Energien in einem Versuch, die Energiekosten zu senken. Die Logik ist klar:

Die Erzeuger erneuerbarer Energien „werden geringere Einnahmen erzielen, aber die Maßnahmen sind besser für die Verbraucher“, sagte der spanische Energieminister José Manuel Soria.

Die Erfahrung, die beide Länder gerade machen, ist der Schaden des Versuchs, eine Industrie zu subventionieren, die bei Weitem nicht der Hauptstromerzeuger ist. Sollte erneuerbare Energie eventuell überlebensfähig sein, braucht sie keine Subventionen; Kapitaleigentümer, die damit Geld verdienen können, werden sicherstellen, dass sie auch verbraucht wird. Aber bis dahin sind diese Versuche, eine strauchelnde Industrie aufzupäppeln, eine Dummheit und schädlich für die Verbraucher.

[Image: Shutterstock]

Link: http://blogs.the-american-interest.com/wrm/2013/02/17/germany-and-spain-throw-green-energy-under-the-bus/

Übersetzt von Chris Frey EIKE




Energiewende wirkt: Operation gelungen-Patient (fast) tot!

Nachdem im letzten Jahr die Meldung von 800.000 Haushalten die Runde machte, die wegen der hohen Stromkosten ihr Stromrechnung ganz oder teilweise nicht mehr bezahlen können, und deswegen im Dunkeln und im Kalten sitzen, verdichtet sich nun der Verdacht zur Gewissheit,  dass nicht nur die großen Versorger in die Verlustzone geraten und massenhaft Elektrizitätswerke schließen, Leute entlassen und in die Verlustzone fahren, sondern auch div, Stadtwerke.

So beschreibt die WiWo in ihrer Onlineausgabe vom 21.2.13 die Situation so:

Stromkonzerne: Politik der Energiewende macht große Versorger kaputt

Die vier großen Versorger sind ein Schatten ihrer selbst. Die Politik der Energiewende hat den Unternehmenswert, die Finanzkraft und die Substanz dezimiert. Den Chefs bleibt vorläufig nur, sich durchzuwurschteln – Ziel und Ausgang offen…

und weiter liest man dort:

Es sieht düster aus für die großen vier der deutschen Energiebranche, speziell auch für die Nummer drei EnBW. 13.400 Megawatt Strom kann der Energiekonzern derzeit erzeugen, genügend, um zwölf Städte der Größe Stuttgarts mit Energie zu versorgen. Aber Geld verdient der Riese im Eigentum des grün-rot regierten Baden-Württembergs und mehrerer oberschwäbischer Kommunen keines…Hohe Rohstoffpreise und der Vorrang der erneuerbaren Energien bei der Stromeinspeisung ins Netz machen die Gas- und Kohlekraftwerke zum Minusgeschäft. Seitdem EnBW vor fast zwei Jahren zwei seiner vier Atomkraftwerke abschalten musste, drehten die Zahlen ins Minus. Nach einem Verlust von 867 Millionen Euro 2011 dürfte auch die Bilanz 2012, die Mastiaux im März vorlegen will, nicht rosig ausfallen.

Ob EnBW oder RWE, Branchenprimus E.On oder die Nummer vier hierzulande, Vattenfall: Der mittelfristige Ausstieg aus der Atomkraft, obwohl erst für 2022 terminiert, hat zusammen mit dem rasanten, hoch subventionierten Ausbau der Solar- und Windenergie die Geschäftsmodelle zerbröselt und die Konzerne geschwächt.

…Schuld an dem Ausverkauf ist die Politik, die ohne Rücksicht auf die Unternehmen gleich eine doppelte Wende durchpeitschte und ihnen damit beträchtlichen Teil der Geschäftsgrundlage entzog….Überflüssige Puffer

Auf der anderen Seite zehrt der beschleunigte Ausbau der erneuerbaren Energien an den Verdienstmöglichkeiten…Zusammen mit dem staatlich verordneten Vorrang für Grünstrom bei der Einspeisung ins Netz führt das dazu, dass konventionelle Kraftwerke immer weniger Stunden gebraucht werden, wenn Sonne und Wind nicht genügend Strom liefern. Die Stilllegung solcher unrentablen Anlagen hatte die Bundesnetzagentur im vergangenen Winter sogar verboten. Künftig wollen sich die Kraftwerksbetreiber das nicht bieten lassen….

Das damit neben den zigtausenden von wertschöpfenden Arbeitspätzen auch die Versorgungssicherheit auf der Strecke bleibt, war jedem Experten sofort klar, unabhängig von theoretisierenden Gefälligkeits- Studien von Lobby Verbänden wie dem Forschungs-Verbund Erneuerbare Energien (FVEE) mit seinen Visionen für ein 100% erneuerbares Energiesystem. So berichten die Netzbetreiber übereinstimmend von ca. 1000 Netzeingriffen, die sie zur Aufrechterhaltung der Stabilität allein im Jahr 2012 vornehmern mussten, ausgelöst durch die unkontrollierte, nicht planbare aber  vorrangig einzuspeisende NIE (Neue Instabile Energien). In den Jahren zuvor, als die NIE noch keine große Rolle spielten, lagen diese Eingriffe hingegen im unteren einstelligen Bereich pro Jahr.

„Die Energiewende“ – von der Politik so gewollt- kostet die Verbraucher, den normalen Steuerzahler, die Wirtschaft Billionen Euro. Die sind aber nicht sofort verloren, sie werden erst mal in großem Stil umverteilt.

Unter der Überschrift :

Die große Verteile

beschreibt WiWo Chefredakteur Roland Tichy in der Online Ausgabe vom 23.2.13 was ist.

Die Energiewende könnte bis zu 1000 Milliarden kosten, gesteht jetzt der Umweltminister ein. Aber wer kriegt die Kohle, wer zahlt?

Die größte Umverteilung findet nicht mehr durch Steuern statt – sondern durch die Energiewende. Dabei geht es nicht um den Atomausstieg. Es sind die Effekte des Erneuerbaren-Energien-Gesetzes (EEG) der rot-grünen Koalition aus dem Jahr 2000. Das funktioniert so: Wer Strom aus Sonne oder Wind erzeugt oder Getreide vergast, erhält einen Strompreis, der weit über den Stromkosten aus Atom, Kohle oder Gas liegt. Und: Dieser grüne Strom hat Vorfahrt. Egal, wie teuer er ist – er verdrängt jeden billigen Strom aus den Netzen. Klar, dass die großen Stromkonzerne die Verlierer sind. Sie müssen Dutzende moderner Kohle- und Gaskraftwerke verschrotten. Das trifft auch viele Stadtwerke. Sie müssen, wie die Stadtwerke München, ihre Anteile an Atomkraftwerken, aber mehr noch an vielen fossilen Kraftwerken abschreiben. Damit sind sie das Großrisiko ihrer kommunalen Eigner. Die Energiewende kostet so Aktionäre und Kommunen einen dreistelligen Abschreibungsbetrag, der in Peter Altmaiers 1000 Milliarden Euro noch nicht enthalten ist – die größte Kapitalvernichtung seit Kriegsende….Auch die Umwelt kennt Sieger – und Verlierer. Energiepflanzen ruinieren Land und Boden. Nur eine Alt-Energie hält sich noch gegen Solar und Wind: Braunkohle. Ihr Abbau aber verschlingt Dörfer und Landschaften. Sie ist auch dafür verantwortlich, dass erstmals seit Jahren der CO₂-Ausstoß wieder steigt. Dumm gelaufen. Im grünen Gewand kommt eine soziale und industrielle Revolution daher. Jetzt frisst sie ihre Kinder.

Den ganzen Text finden Sie hier

Die Redaktion,

mit Dank an div. Leser, die uns auf diese Texte aufmerksam machten.




Videovorträge (Teil III) der 5. IKEK in München. Schwerpunkte Energie & Politik

Hingegen deutet alles auf eine Energieschwemme aus fossilen Ressourcen hin, die die energiepolitische Landkarte dramatisch verändern wird.  Ironischerweise ist dies ein weiterer Sargnagel für die „Energiewende“

Dr. Utz Tillmann, Hauptgeschäftsführer des Verbandes der Chemischen Industrie (VCI) ,

stellt fest, dass die Energiewende die Chemie und andere stromintensive Industriezweige vor wachsende Probleme stellt. Jedoch stellte er Merkels Energiepolitik nicht grundsätzlich in Frage, zumal auch Mitgliedsunternehmen seines Verbandes von der „Energiewende“ profitieren. Er bot der Politik sogar Unterstützung in Form eines fachlich kompetenten Projektmanagements an.

Prof. Lüdecke EIKE

Im vergangenen Jahr (2011) erreichte die reale Gesamtleistung aller deutschen Windräder, wie EIKE-Pressesprecher Prof. Horst Lüdecke nur 16 Prozent der installierten Nennleistung. Von den im Jahre 2011 von allen EEG-Anlagen erzeugten 124 Terawattstunden Strom stand nur etwa ein Zehntel einigermaßen zuverlässig zur Verfügung. Die langen Stillstandszeiten mussten durch Kohle- und Gaskraftwerke überbrückt werden. Deshalb konnten die EEG-Anlagen kaum CO2 einsparen. Doch für diese klägliche Leistung kassierten die Betreiber von Ökostrom-Anlagen im vergangenen Jahr bereits über 17 Milliarden Euro Subventionen. Das sind 375 Euro je Durchschnittshaushalt.

<

Der Doktorand Jacob Nordångaard

aus Schweden erläutert unter dem Titel „The History of Biofuels in the European“ Union den erschreckend spannenden Inhalt seiner Doktorarbeit, über die Vernetzung immer derselben Leute aus immer denselben Verbänden, Vereinen, Lobbygruppen und EU-Kreisen, die verbissen am „EU-Klimaschutzprogramm“ und EU-Biosprit Desaster mitgewirkt haben, bzw. immer noch mitwirken.

Dr. Thomas Teluk

erläutert in seinem Vortrag den Spannungsbogen für Polen einerseits die EU-Vorgaben für den „Klimaschutz“ erfüllen zu müssen und dabei die eigenen Energieinteressen einer aufstrebenden Wirtschaftsmacht nicht aus den Augen zu verlieren. Eine Spannungsfeld was nur zu Gunsten der konventionellen Energieversorgung aufgelöst werden kann.

Prof. Dr. Alt

„Tatsache hierzu ist für den Energiesektor, dass mit jeder weiteren Windenergie und mit jeder weiteren Photovoltaikanlage sowie mit jeder neuen Transportleitung oder zusätzlichen Verteilungsleitung die Strompreise nur deutlich ansteigen müssen – die Stromversorgung nicht sicherer, mit dem Wegfall der Kernkraftwerke auch nicht CO2-ärmer, sondern CO2-reicher wird.“
Die Verfügbarkeitsproblematik von Wind- und PV-Strom lässt sich an den Leistungsganglinien leicht ablesen. Egal wie hoch die in diesem Bereich installierte Leistung ist, es muss immer die zusätzliche gleiche Leistung an Gas-, Kohle- oder Kernkraftwerken vorhanden sein, wenn man 24 Stunden am Tag Strom zur Verfügung stellen will. Der Irrsinn scheint hier keine Grenzen mehr zu kennen.

Dr. Michael Goetz,

Assoc. Director CFACT Europe, gibt einen Einblick in die „neue Klima- und Energiepolitik nach der US.Wahl. Die US-Bürger machen sich eher Sorgen um reines Wasser als um „global warming“. Es gibt drei politische Gruppen: Republicans, Democrats and Independents. Selbst bei Al Gore ist Klima in USA kein „primary issue“. Im Wahlkampf spielte das Klima überhaupt keine Rolle. Klimaverträge benötigen im Senat 2/3-Mehrheit. Die Mehrheit der Republikaner werden dagegen stimmen.

Die Reihe der Vorträge zur 5. IKEK ist hiermit beendet!

Danksagung:

Das EIKE Präsidium dankt allen Beteiligten, die bei der Erstellung dieser Videomitschnitte beteiligt waren, von ganzem Herzen. Wir wissen deren – fast immer ehrenamtliches Engagement- sehr, sehr zu schätzen. Ohne sie und viele andere wäre unsere Arbeit nicht möglich, da Exxon und alle anderen virtuellen Geldgeber wie die „Kohlelobby“ – so wie es uns eine bestimmte Medienmeute und deren Nachbeter immer wieder andichtet- stets vergessen, die Schecks  abzuschicken.

Die Redaktion




Der Konsens zur globalen Erwärmung sieht mehr wie ein Mythos aus

Bild rechts: Image Credit – Wood For Trees and Werner Brozek

Aus dem Business Daily von Investor:

Ja, viele Klimawissenschaftler glauben, dass die Emission von Treibhausgasen die Erde erwärmt. Natürlich gibt es auch welche, die das nicht glauben.

Aber wenn man diese Frage Geowissenschaftlern und Ingenieuren vorlegt, stellt sich heraus, dass nur 36% von ihnen glauben, dass menschliche Aktivitäten den Planeten erwärmen.

Dies ist das Ergebnis der begutachteten Studie „Science or Science Fiction? Professionals’ Discursive Construction of Climate Change” [etwa: Science oder Science Fiction? Die weitschweifige Konstruktion der Klimaänderung”], und die Gruppe wird charakterisiert als die „sich Kyoto unterwerfende“ Kohorte.

Nicht unerwartet geben Mitglieder dieser Gruppe „ihrem starken Glauben Ausdruck, dass die Klimaänderung im Gange ist, dass es kein natürlicher Zyklus ist und dass die Menschen der Haupt- oder zentrale Grund dafür sind“.

Die Akademikerinnen Lianne M. Lefsrud an der University von Alberta und Renate E. Meyer an der Vienna University of Economics and Business und der Copenhagen Business School, kamen auf diese Zahl bei einer Umfrage unter 1077 professionellen Ingenieuren und Geowissenschaftlern. Read More At IBD

Die Studie von Lianne M. Lefsrud und Renate E. Meyer findet man hier.

Darin finden sich ein paar interessante Passagen:

Drittens, wir zeigen, dass der Konsens der Experten beim IPCC von einer viel größeren und heterogener zusammengesetzten skeptischen Gruppe von Experten in relevanten Industrien und Organisationen (zumindest in Alberta) als allgemein angenommen nicht geteilt wird. Wir finden, dass sich Skeptizismus in der Klimawissenschaft nicht auf wissenschaftlich ungebildete Personen beschränkt (Hoffman 2011a), sondern sich auch irgendwo innerhalb dieser Gruppe professioneller Experten mit wissenschaftlichem Hintergrund versteckt – die als Leiter oder Berater des Managements in der Regierung, in Nichtregierungs- und angeschlossenen Organisationen arbeiten.

Die große Mehrheit dieser professionellen Experten glaubt, dass sich das Klima ändert. Es sind die Gründe hierfür, der Ernst und die Dringlichkeit des Problems sowie die Notwendigkeit für Maßnahmen, vor allem der Effizienz von Regulationen, um die es hier geht.

Im Artikel von Business Daily heißt es weiter:

Sollten die Alarmisten wirklich nur begrenzte Unterstützung seitens der Menschheit bekommen, bekommen sie sogar noch weniger von der Natur selbst. Das arktische Meereis, welches die Grünhemden mit seinem neuen Minusrekord im Jahr 2012 in helle Aufregung versetzt hatte, hat „mit noch einigen Wochen zu erwartendem Eiszuwachs … den bisherigen Rekord des Eiszuwachses in diesem Winter weit übertroffen“.

Dies ist schon der dritte Winter in der Historie, in dem sich mehr als 10 Millionen km² neues Eis in der Arktis gebildet haben, berichtete Real Science unter Verwendung von Daten der Arctic Climate Research an der University of Illinois.

Gleichzeitig nähert sich der skeptischen Website Watts Up With That zufolge die Antarktis „450 Tagen mit ununterbrochener Eisausdehnung über dem Mittelwert“. Ebenfalls unter Verwendung der Daten der University of Illinois Arctic Climate Research wird dort angemerkt, dass das letzte Mal, als die Eisausdehnung dort unter dem Mittelwert gelegen hatte, der 22. November 2011 war. Read More At IBD

Link. http://wattsupwiththat.com/2013/02/17/global-warming-consensus-looking-more-like-a-myth/

Übersetzt von Chris Frey EIKE




Das Leben nach der Energie: Was wäre, wenn die fossilen Treibstoffe morgen verschwinden würden?

Anthony Watts

Dieses Programm ist mir beim Zappen oft begegnet, und mein Eindruck war immer, dass es die ultimativ utopische Vision von radikalen Umweltaktivisten repräsentiert, die die Menschen als eine Plage auf diesem Planeten sehen (hier), als eine Art Angst und Selbsthass in Las Vegas, angewendet auf Gaia.

Ich erhielt einen Hinweis auf einen Essay von Dr. David Deming, Geologe an der University of Oklahoma, worin er fragt, was passieren würde, wenn die auf fossilen Treibstoffen basierende Energie morgen verschwinden würde. Deming stellt diese einfache Frage: Was würde geschehen, wenn wir den Umweltaktivisten alles geben, was sie haben wollen?

Es ist ein Augenöffner für jene, die nicht wirklich viel darüber nachdenken, wo die Energie herkommt, die sie täglich verbrauchen. Der Artikel folgt hier auszugsweise, und danach habe ich noch einige eigene Überlegungen auf Lager.

[Im Original folgen hier diese Ausschnitte. Jedoch ist inzwischen der gesamte Essay von Deming in der hervorragenden Übersetzung von Herrn Helmut Jäger bei EIKE hier erschienen. Daher schließe ich hier gleich das an, was Watts im Anschluss schreibt. Inwieweit diese Überlegungen auch schon bei Deming angesprochen wurden, habe ich aus Zeitgründen nicht untersucht. A. d. Übers.]

Hier folgen also nun einige Überlegungen von mir selbst darüber, was passieren würde, wenn fossile Treibstoffe morgen verschwinden würden:

● Nachdem höher gelegene Trinkwasser-Tanks kommunaler Wassersysteme nach einigen Tagen geleert wären, gäbe es keine Wasserversorgung mehr. Dies würde die Menschen zwingen, nach alternativen Quellen zu suchen, und wir sind zurück in einem Zeitalter, als die Aufbereitung von Wasser unbekannt war. Krankheiten und Tod würden folgen, verbreitet durch unsauberes Wasser. Leute mit einem Brunnen müssten ihre elektrischen Pumpen durch handbetriebene Pumpen oder Windmühlen ersetzen, um an Wasser zu kommen.

● Im Zusammenhang mit dem ersten Punkt: Toiletten wären ohne Wasser zur Spülung nutzlos. Die Entsorgung von Abwässern wird zum Thema, wenn durch Schwerkraft funktionierende Abwassersysteme eventuell verstopfen würden, und eventuell werden die Abwässer [ungeklärt] in Flüssen enden, wo sie zur Ausbreitung von Krankheiten beitragen, sehr ähnlich dem Great Stink im alten London.

● Die Müllabfuhr wird zu einem Ding der Vergangenheit. Der Müll wird sich hoch in den Straßen stapeln.

● Menschen mit Solaranlagen auf den Dach würde es nicht besser gehen als ihren Nachbarn, weil die Gleichstrom-Wechselstrom-Konverter einen Wechselstrom-Impuls brauchen (hier). Anderenfalls werden sie aus Sicherheitsgründen abgeschaltet. Einige Elektriker mögen in der Lage sein, sie neu zu verkabeln, aber sie hätten nur tagsüber Strom.

● Private Betreiber von Solaranlagen könnten zur Zielscheibe derer werden, die so etwas nicht haben. Sie werden sich wünschen, dem Zweiten Amendment zum Schutz ihrer privaten Energiequelle mehr Aufmerksamkeit geschenkt zu haben. Personen, die immer noch Benzin in ihren Autotanks haben, um aus den Städten zu flüchten, könnten sich als Opfer eines Mobs wiederfinden, wenn die kein Benzin Habenden nach den letzten paar Energiereserven suchen. Eine Mad-Max-World würde die Folge sein.

● Windparks, (die ebenfalls Strom aus dem Netz zum Betrieb brauchen), werden als Symbole der Torheit stehen, unbrauchbar und verflucht von der breiten Masse, weil man sie nicht benutzen kann. Eventuell sehen sie alle so aus wie diese Windparks oder sie fallen um.

● Radikale Klimatologen wie Mike Mann und James Hansen werden nicht länger in der Lage sein, ihre apokalyptischen Visionen unserer Zukunft zu verbreiten, weil es kein Internet und keine Radio-/Fernsehnatzwerke oder Zeitungen mehr gibt.

● Aus den gleichen Gründen werden wir Gott sei Dank niemals eine weitere Episode von Here Comes Honey Boo-Boo sehen.

● Klimamodellierer wie Kevin Trenberth werden nie mehr in der Lage sein, auch nur ein einziges weiteres Computermodell laufen zu lassen, das uns sagt, wie heiß unsere zukünftige Apokalypse werden wird, da sein NCAR-Computer mit Kohle aus Wyoming läuft (hier). Genauso wird sich der Gaea-Supercomputer der NOAA abschalten, da er nicht mit recykeltem Pflanzenfett betrieben werden kann.

● Al Gore wird nicht länger in der Lage sein, um die Welt zu jetten, um uns zu sagen, wie es bald mit der Welt zu Ende geht, wenn wir nicht seinem neuen Buch über die Zukunft Aufmerksamkeit schenken (hier). Er wird dazu verdammt sein, in einer seiner vielen Eigentumshäuser zu lungern und zu hoffen, dass nicht irgendwelche Mad-Maxer kommen, um sich seine Solarpaneele zu schnappen.

● Der Kongress wäre dazu verdammt, seine Sitzungen in heißen, schwitzigen Räumen ohne Air Condition abzuhalten, genau wie die Begründer unserer Nation das auf ihrem ersten Continental Congress getan haben – und auch im Sommer 1988, als Dr. James Hansen und sein Sponsor, Senator Tim Wirth, die Air Condition im Anhörungsraum abgeschaltet haben (hier), während sie den Senatoren ihre Gedanken über die globale Erwärmung verkauft haben.

● Ohne Air Condition würden Stadtbewohner wahrhaftig den Städtischen Wärmeinsel-Effekt (UHI) im Sommer verspüren, und zwar wenn sie nicht Nahrung und Wasser schnorren und sich der Mad-Max-Banden erwehren müssten, die ihnen alles wegnehmen würden, was sie kriegen können, einschließlich ihres Lebens.

● Die Verbrennung von Holz, um es im Winter warm zu haben, wird ebenfalls wieder zum Fluch werden. Verschmutzungen durch Rauch kehren in die Städte zurück, vor allem im Winter.

● Wirkliche Klimaflüchtlinge fangen an, aus hohen Breiten nach Süden zu strömen, wenn der Treibstoff zu Ende geht. Viele Städte in Alaska und Sibirien würden aufgegeben, hängen diese doch von regelmäßigen Lieferungen von Heizöl und Benzin ab.

● Globale Erwärmung, Umweltaktivismus, Politik – alles wäre ein Ding der Vergangenheit, da das Überleben an vorderster Stelle steht.

Paul Ehrlich wandert durch die Straßen nahe Stanford, gekleidet in Lumpen und den Leuten zurufend: „Ich hatte recht! Ich hatte recht!“

Ich könnte weiter und immer weiter machen, aber Sie haben verstanden, was ich meine.

Welches ist also die schlimmere Zukunft, eine etwas wärmere Zukunft mit fossilen Treibstoffen oder eine Zukunft ohne sie?

Link: http://wattsupwiththat.com/2013/02/07/life-after-energy-what-if-fossil-fuels-disappeared-tommorrow/#more-79091

Übersetzt von Chris Frey EIKE




Paradigmenwechsel: Klima als Emergenzsystem betrachtet

Langsame Verschiebungen in thermoregulierten Emergenzsystemen

Willis Eschenbach

In meinem letzten Beitrag über “Emergente Klima-Phänomene“ habe ich ein neues Paradigma für das Klima benutzt. Nach dem aktuellen Paradigma ist „Klima“ ein System, in dem die Temperatur sklavisch den Änderungen der „Inputs“ folgt. In meinem Paradigma dagegen lassen natürliche temperaturgeregelte Systeme die Temperatur innerhalb enger Grenzen schwanken. Im letzen Jahrhundert schwankte die Temperatur beispielsweise nur um etwa ± 0.3°C, eine Temperaturvariation von nur einem Zehntel eines Prozents.
Ich meine, dass diese erstaunliche Stabilität in einem System, dessen Temperatur von so etwas veränderlichem und launischem wie Wolken und Wind gesteuert wird, ein klares Anzeichen dafür ist, dass hier ein starker thermostatischer Mechanismus wirkt. Genauer: ein Bündel von ineinandergreifenden thermostatischen Mechanismen im Zusammenwirken beim Regeln der Temperatur. 

Abbildung oben rechts.: Das Verhalten von Vogel- oder von Fischschwärmen ist ein Emergenz-Phänomen. [Definition am Schluss; zu Emergenzsystemen mehr hier]

So erhebt sich also eine Frage: Obwohl die Temperaturänderung recht klein ist – mit Verschiebungen von nur einigen wenigen Zehnteln eines Prozentes pro Jahrhundert – also weniger als einem Grad – steigt zuweilen die durchschnittliche Globaltemperatur, manchmal aber fällt sie.

Was also könnte diese langsamen, Jahrhunderte oder Jahrtausende andauernden Temperaturverschiebungen verursachen? Sind es Veränderungen der Sonne?
Die Erklärung sollte nicht bei der Sonne gesucht werden, sondern nach meiner Auffassung hier:

Das oben erwähnte und von der Temperatur geregelte System beruht auf dem Beginnzeitpunkt und der Dauer von emergenten Temperatur-Phänomenen. Es beruht nicht auf der Stärke von Antrieben (einfallende Sonnen- oder Treibhaus-Strahlung).

Ich meine also, dass das Regelungssystem anspringt, wenn die lokale Temperatur über die kritische Grenze für die Wolkenbildung ansteigt. Im Ergebnis bleibt die globale Durchschnittstemperatur der Erde eigentlich relativ unbeeinflusst von den Veränderungen der Stärke der Antriebe, ob sie nun von der Sonne kommen, vom CO2, von Vulkanen oder sonstwoher. Weil das so ist, verläuft die Temperatur weiter wie bisher, trotz der Vulkanausbrüche oder den Meteoren. Man bedenke, dass das System bei der gegenwärtigen Temperatur ständig variierend etwa ein Viertel der einfallenden Sonnenenergie über die Wolkenreflexion zurückwirft. Es könnte viel wärmer sein, als es tatsächlich ist, das ist aber nicht der Fall.

Das System regelt also die Menge der einfallenden Sonnenenergie so ab, dass die Temperatur innerhalb gewisser Grenzen gehalten wird. Dem Regelungssystem macht es nichts aus, dass der Sonnenantrieb ständig aus vielerlei Gründen schwankt: wegen des Staubs, wegen der Vulkane, wegen der 11- oder 22-jährigen Solarzyklen. Das Thermoregulationssystem beruht nicht darauf, wieviel Energie von der Sonne oder vom CO2 kommt. Die Temperatur beruht nicht auf den tatsächlichen Antrieben: wir wissen, dass es mehr als genug Antriebe gibt, die uns braten könnten. Die Temperatur wird stattdessen von den ewigen Gesetzen der Physik des Windes, der Wellen, des Drucks geregelt, und vor allem durch die Wolkenbildung. Wenn die Sonne hochsteigt, steigen die Wolken mit hoch, die Balance wird gehalten.

Und hier ist meine Erklärung, warum es so schwer ist, ein starkes und klares solares Signal in den Temperaturganglinien zu finden.  Ja, ja, man kann Anzeichen finden, kleine Fetzchen, schwache Korrelationen hie und da, doch insgesamt sind kaum Sonne-Klima-Korrelationen zu finden, die dem gegenwärtigen Paradigma zufolge sichtbare Wirkungen zeigen müssten. Ich halte dies für den Beweis, dass ingesamt die globale Durchschnittstemperatur keine Funktion des Antriebs ist. Die Sonne wird schwächer und stärker, Vulkane sind seit Jahrhunderten ausgebrochen, Meteore haben die Erde getroffen … die Wolken passen sich ganz einfach an und bescheren uns eine gleichbleibende Wärme. Diese schwache Abhängigkeit des Outputs vom Input ist genau das, was man in jedem sehr komplexen System zu erwarten hat.

Wenn die Sonne nicht die Ursache des über Jahrhunderte andauernden langsamen Anstiegs oder Absinkens der globalen Durchschnittstemperatur an der Erdoberfläche ist, welche möglichen anderen Beschuldigten können wir dann vor Gericht zitieren?

Die üblichen Verdächtigen würden im Bereich von Faktoren zu finden sein, welche mit dem Anfang und der Dauer der Wolkenbildung und deren Beständigkeit zu tun hat, oder auch mit ihrer Albedo (Färbung). Unglücklicherweise ist die Wolkenbildung ein komplexer und noch kaum verstandener Vorgang. Wassertröpfchen in Wolken bilden sich um einen “Nukleus”, eine Art von Partikel. Das kann Meersalz sein, Staub, organisches Material, Aerosole, verschiedene Typen und Arten von Mikro-Organismen, schwarzer Ruß; es gibt eine ganze Menge von bekannten Faktoren, aber keine klaren Beweise, wie oder warum es so oder anders ist, oder wie die Faktoren wirken, wenn sie sich verändern. Hier ist ein Zitat aus dem Abstract eines wissenschaftlichen Papiers von 2013. (Hervorhebung vom Autor):

Die Zusammensetzung und das Vorkommen von Mikroorganismen in der mittleren bis oberen Troposphäre (8–15 km Höhe) und deren Rolle bei der Interaktion zwischen dem Aerosol-Wolken-Niederschlag stellt wichtige und ungelöste Fragen an die Biologie und die Atmosphärenwissenschaft. Insbesondere kennen wir die Mikroorganismen in der Luft über den Meeren nicht, da bis jetzt die meiste Arbeit auf Proben beschränkt ist, die nahe der Erdoberfläche genommen worden sind. (Quelle)

Noch ein Beispiel:

Cumulus-Wolken bilden sich durch den Aufstieg feuchter Luftpakete. Eine  ungelöste Frage der Wolkenphysik ist, warum beobachtete Tröpfchenspektren aus Cumuluswolken, sogar aus deren Mitte, breiter sind, als die Spektren, die aus der Tröpfchen-Nukleation und der Kondensationszunahme in adiabatisch aufsteigenden Luftpaketen zu erwarten sind. (Pruppacher and Klett, 1997). (Quelle)

Cumulus-Wolken sind eine der am weitesten verbreiteten Arten und noch nicht einmal deren Wolken-Nukleation haben wir verstanden. Das Problem liegt darin, dass so viele Faktoren Einfluss auf die Entstehung und Dauer der Wolkenbildung und des Niederschlags haben: Größe und Zusammensetzung der atmosphärischen Aerosole, die komplexe Interaktion zwischen den Aerosolen und den verschiedenen organischen und anorganischen atmosphärischen Chemikalien, Ionen, freien Radikalen, natürlichen und menschengemachten Partikeln, dazu die verschiedenen Typen und Mengen von Mikrobenpopulationen in der Atmosphäre, dazu die Fähigkeit einer Chemikalie, sich mit einer anderen zu verbinden und dadurch die Oberflächeneigenschaften einer anderen Substanz völlig zu verändern. Das alles hat das Potential, die Entstehung und Dauer des Niederschlags und der Wolkenbildung zu beeinflussen, dazu noch deren optische Eigenschaften. Weil das so ist, mischen sie alle kräftig mit, wenn es um Temperaturverschiebungen im Jahrhundert-Maßstab geht (vielleicht auch über kürzere Zeiträume).

Eine weitere Ursache für die langsame Verschiebung könnte in einem vermuteten Zusammenhang mit der kosmischen Strahlung liegen, in der Kette

solares Magnetfeld –> Veränderung der kosmischen Strahlung –> Änderungen in der Wolken-Nukleationsrate.

Ich sehe keinen theoretischen Grund, warum das nach den bestehenden Gesetzen der Physik unmöglich sein sollte.
Als Kind habe ich eine “Nebelkammer” gebastelt, um die aus einer Armbanduhr kommende Radioaktivität zu sehen. Ein Problem bei der Frage nach der kosmischen Strahlung besteht aber darin, dass keine starken Korrelationen zwischen der Sonne und dem Klima gefunden worden sind, trotz des ausgiebigen Durchkämmens der Temperatur-Ganglinien auf Hinweise für eine Sonne/Klima-Verbindung. Es gibt schwache Korrelationen, aber nichts Auffälliges. Das heißt nicht, dass es sie nicht gäbe, es könnten aber Anzeichen für deren Schwäche sein … oder auch Anzeichen für unsere Unkenntnis …

Ein weiterer Grund könnte in den Auswirkung der allmählichen Veränderung im Erdmagnetfeld auf die Gewitter liegen. Gewitter haben ein riesiges und ein noch kaum verstandenes elektromagnetisches Komplement (man denke nur an die Blitzschläge). Sie bewirken einen unglaublich komplexen elektromagnetischen Austausch, der die Atmosphäre mit der Erdoberfläche verbindet. Das elektromagnetische Komplement verbindet sie elektromagnetisch von den „Kobolden“ [Näheres hier], die sich in den Gewittertürmen hoch über der umgebenden Tropopause bilden, bis hinunter auf die Erde, wo über flüchtige mattleuchtende Kanäle elektromagnetische Ströme auf und nieder laufen.

Gewitter sind zudem unabhängige natürliche elektrische Van-de-Graaf-Maschinen, sie strippen Elektronen in einem Bereich des Gewitters, transportieren sie meilenweit weg und fügen sie wieder in einem elektrischen Donnerbogen an. Wir wissen überhaupt nicht, welche Erscheinungen welche Wirkungen wie lange auf Gewitter ausüben, wie z. B. die langsame Veränderung der Magnetpole wirkt, wie die Veränderungen der Magnetosphäre oder des Sonnenwindes. Wir müssen also die langsamen Veränderungen der globalen magnetischen und elektrischen Felder in unsere Liste der Wirkmöglichkeiten aufnehmen, allein schon deshalb, weil wir so wenig darüber wissen.

Die nächste Möglichkeit für langsame Veränderungen hat mit der Idee der Scheidepunkte zu tun (bifurcation points). Nehmen wir als Beispiel den Wechsel zwischen den zwei Zuständen der Pazifischen Dekadischen Oszillation (PDO). In jedem Zustand der PDO gibt es eine quasi-stabile (jahrzehntelange) Konfiguration der Meeresströmungen. Zu gewissen Zeitpunkten – wir wissen nicht, warum – ändert sich diese Konfiguration der Meeresströmungen und sie wird ersetzt durch einen völlig neuen und anderen quasi-stabilen (jahrzehntelangen) Zustand. Anders gesagt: da gibt es irgendwo drin einen Scheidepunkt im jährlichen Anschwellen und Abnehmen der Strömungen und irgendwann nehmen die Strömungen einen anderen Verlauf als bislang. Schließlich wechselt der gesamte Nordpazifik in einen anderen Zustand.

Allein schon theoretisch muss einer dieser beiden Zustände wirksamer als der andere sein in der großen Wärmemaschine, die wir “Klima” nennen. Mit viel  Arbeit wird Energie vom Äquator zu den Polen bewegt. Und es gibt tatsächlich einen deutlichen Unterschied. Einer der beiden Zustände heißt „warm“, der andere „kalt“.

Auf den ersten Blick müsste man denken:

FALLS die Pazifische Dekadische Oszillation ständig im gleichen Zustand verbliebe – aus welchen Gründen auch immer – würde die Welt insgesamt wärmer oder kälter sein.

Aber nun möchte ich erklären, warum meiner Meinung nach PDO oder El Nino/La Nina, oder die Nordatlantischen Oszillationen nichts mit den langsamen Temperaturverschiebungen im Temperaturregelsystem zu tun haben.

Der Grund ist, dass hier überall Emergenzsystem-Phänomene vorliegen, wie bei den Gewittern. Nehmen wir die PDO als Beispiel: In Bezug auf den Pazifik würden wir niemals sagen: “Ich wette, dass der Nordpazifik für viele Jahrzehnte warm bleibt, dann kommt es eine große Wende, das gesamte Leben im Meer wird anders, die Winde verändern sich, auch alle Strömungen, und dann wird es viele Jahrzehnte lang kalt sein.“
Eine derartige Vermutung ist überhaupt nicht zulässig. Es liegt nämlich Emergenz vor.

Und ich meine, was für Emergenzsysteme gilt, gilt auch für Bestandteile des verbundenen interkontinentalen Temperaturregelsystems sind. Es enthält meines Erachtens kurzlebige Emergenzsysteme (tägliche Gewitter), mittelfristige (mehrmonatige Madden-Julian-Oszillationen), längerfristige (Wolken, im Sommer kühlend, im Winter wärmend), langfristige (3 bis 5-jährige El Nino/La Nina-Phasen), und sehr langfristige (multidekadische PDO, AMO). Es sind Emergenzsysteme unterschiedlicher Arten, die bei der Aufrechterhaltung einer konstanten Temperatur zusammenwirken. Es gibt davon noch viel mehr, die hier nicht aufgeführt sind.

Schließlich meine ich, dass keines dieser Emergenzsysteme ursächlich für eine langsame Verschiebung ist. Ganz im Gegenteil, ich meine, sie wirken anders herum gegen die langsame Verschiebung und verhindern eine Überhitzung.

Setzen wir hier an, so finden wir direkt Möglichkeiten für menschlich verursachte Veränderungen – Öl auf den Weltmeeren. Es braucht nur eine ganz dünne, fast mono-molekulare Ölschicht auf dem Wasser – und davon haben wir eine Menge erzeugt -, um die Oberflächenspannung zu verändern. Dadurch wird die Verdampfung auf zweierlei Weise reduziert: Einmal direkt durch die Wassermenge, die in unmittelbarem Kontakt zur Luft steht, und zum Anderen durch das Unterbinden der Bildung von Brechern, Versprühungen und Gischt.

Versprühung jedweder Art erhöht die für die Verdampfung zur Verfügung stehende Wasseroberfläche erheblich, je nach Windgeschwindigkeit. Erinnert sei daran, dass die Verdampfung durch den Wind die Ursache für die Selbsterhaltung der Gewitter ist. Wenn also die Ausdehnung der Verdampfungsfläche wegen des Fehlens von Versprühungen um zehn oder zwanzig Prozent vermindert wird, wird gleichermaßen die Verdampfung vermindert und so Entstehungszeitpunkt und Dauer der Gewitter beeinflußt.

Das möchte ich Ihnen nicht vorenthalten: Gerade hatte ich beim Schreiben des letzten Absatzes gedacht  “Man braucht Zeit für mehr Forschung”, da stoße ich auf das hier:

Seeleute, die traditionell Fässer voller Öl auf das Meer gossen, um stürmische Wasser zu glätten, waren damit ganz einfallsreich, wie eine neue Studie meint. Einem neuen mathematischen „Sandwich-Modell“ zufolge vermindert dieses altbekannte Vorgehen die Windgeschwindigkeit in tropischen Wirbelstürmen, indem es die Gischt unterdrückt.

Wenn die Hurrikan-Winde die Meereswogen aufpeitschen, geraten große Wassertropfen in die Luft und verbleiben dort. Diese Gischtwolke kann mathematisch wie eine dritte Flüssigkeitsschicht zwischen der Luft und dem Meer behandelt werden. “Unsere Rechnungen beweisen, dass die Tropfen in der Gischt die Turbulenz und Reibung vermindern und dadurch höhere Windgeschwindigkeiten erlauben – zuweilen bis zu achtmal,“ meint der Forscher Alexandre Chorin von der University of California in Berkeley, US.

Er glaubt, dass diese Erkenntnis ein altes Meeresritual erklärt. „Die alten Seebären gossen Öl auf die tobenden Wogen, um sie zu glätten – daher die Redensart – aber man wusste nie so genau, warum das so war,” sagt Chorin. Er meint, weil Öl die Tropfenbildung verhindert, verstärkt es die Reibung in der Luft und vermindert daher die Stärke der Böen. (Quelle)

Hmmm …  Gute Wissenschaftler, weniger gute Seeleute!
Ich glaube, sie haben als Wissenschaftler nur einen Teil der Erklärung. Sie sollten mal ausrechnen, wie sich die Verdampfungsfläche in der Gischt durch das Versprühen erhöht und dann daran denken, dass ein Hurrikan aus der Verdampfung seine Kraft bezieht. Deswegen sterben Hurrikane über Land: es fehlt die Feuchtigkeit.
Verhinderung der Gischt durch auf die Wogen gegossenes Öl stoppt die Verdampfung! Die Kraft des Sturms ist gebrochen. So wie es einem heißer und schwitziger wird, wenn ein feuchter Tag die Verdampfung verhindert, so ergeht es auch dem Meer. Wenn man die Verdampfung abstellt, wird es wärmer.

Das Gegenargument gegen die Hypothese vom „Öl-auf-die-Wogen verhindert die Verdampfung und erwärmt das Meer“ kommt aus dem 2. Weltkrieg. Während des Krieges wurde mehr Öl ins Meer gegossen als je zuvor und nachher, aber während des Krieges war es generell recht kühl …
Verflixt nochmal! die Tatsachen stehen doch immer im Weg!

Also, ich kenne mich auf der hohen See aus und ich kann Ihnen versichern, dass die Autoren jener Studie keine Seeleute sind. Seeleute kippen nicht Öl ins Meer, um die Windgeschwindigkeit zu vermindern, das gehört ins Reich der Phantasie der Landratten. Sie tun es, weil es die Wogen am Brechen hindert und die Tropfen und Gischtbildung unterbindet. Auf diese Weise hilft es in rauher See.
Man braucht nicht viel dazu, Sie würden sich über die Wirkung wundern: Tränken Sie einen Lumpen in Motoröl und ziehen Sie ihn ein Stück hinter dem Boot her, wenn Sie vor dem Wind treiben. Wenn die Küstenwache Sie dabei erwischt, kriegen Sie mit Recht einen Strafzettel wegen Ihres Ölfilms auf dem Wasser, aber wenn es Ihr Lebensretter ist, ist es das wert. Pech, wenn Sie in einem dicken ablandigen Sturm sitzen. Aber wenn es einen Beruhigungseffekt hat und Ihren persönlichen Angstfaktor reduziert, ist es trotzdem den Versuch wert … Aber ich schweife ab.

Eins allerdings muss klar sein. Das Klima ist in einer langsamen Auf- und Abwärtsverschiebung: warm zur Römerzeit, kalt im Dunklen Mittelalter, warm im Hohen Mittelalter, kalt während der Kleinen Eiszeit, jetzt wieder warm …
Die Menschen könnten tatsächlich eine Rolle während der Verschiebung in den Nach-1940ern spielen (erst runter, dann hoch, heute geradeaus). Wahrscheinlich spielt es keine große Rolle, sonst hätten wir es sicher bemerkt. Falls wir aber trotzdem etwas damit zu tun haben, wissen wir immer noch nicht, wie und warum.

Ich schließe mit dem Hinweis auf die Suggestivwirkung des Paradigmas. Wenn das Paradigma sagt, dass Treibhausgase die wahrscheinliche Ursache für die langsame Klimaverschiebung sind, weil man behauptet (kurioserweise und zudem falsch), dass die Temperatur dem Antrieb sklavisch folgt, dann wird man auch nach allen Veränderungen suchen, die Auswirkungen auf die Treibhausgase haben.

Wenn sich das Paradigma aber wandeln würde und wir das Klima als eine Zusammensetzung von interagierenden aktiven temperaturgeregelten Mechanismen begriffen, würden wir eine ganze Reihe von völlig anderen und glaubwürdigeren Kandidaten für die langsame Verschiebung finden, die noch nicht beachtet wurden und unerforscht sind. Es kann etwas sein, wie oben beschrieben, oder auch etwas, was ich überhaupt nicht bedacht habe, wie z. B. die Einwirkung des Planktons auf die Veränderung der Wolken, oder so ähnlich.

Deshalb klingt die Behauptung so hohl, wir hätten die “großen Antriebe” erkannt, also CO2 und Methangase. Dies sind nur die hauptsächlichen Spieler im aktuell gültigen Paradigma. Das Problem dabei ist, dass Paradigmen kein System erklären können, das in engen Grenzen so thermoreguliert ist, dass während des vergangenen Jahrhunderts die globale Durchschnittstemperatur an der Erdoberfläche nur um etwa ± ein Zehntel Prozent geschwankt hat …
Die Ingenieure mögen mich bitte korrigieren, wenn ich falsch liege, aber angesichts der Vulkane und Aerosole und alle dem Übrigen ist das ein Ergebnis, worüber ein Ingenieur von Steuerungssystemen stolz wäre. Und das Ergebnis wird mit so flüchtigen Dingen wie den Wolken erzeugt. Für mich stellt diese Tatsache allein den Beweis dar, dass die Erde einen Thermostaten hat, und der ist verdammt genau für diesen Zweck. Wir haben wirklich eine Welt voller Wunder.

In Freundschaft und angesichts der oben beschriebenen Wunder

w.[illis]

##########################

Übersetzung: Helmut Jäger, EIKE

Original hier

Hier sind weitere Artikel von Willis Eschenbach.

#############

Beispiel für eine Definition von „Emergenz“

Ein wesentliches Kennzeichen komplexer Systeme ist … Emergenz, worunter man sich vorstellt, „[…] daß in einem weitgehend kausalen Ablauf durch das Zusammentreten von Bauteilen völlig neue, und zwar unvorhersehbar neue, nie dagewesene Eigenschaften zutage kommen“. (RIEDL 2000, 11)

zit. n. Koch, Andreas:
Modellierung und Simulation komplexer geographischer Systeme.
Eine systemtheoretische Betrachtung zur Komplexität sozialer und räumlicher Systeme.
Aus: Salzburger Geographische Arbeiten, Band 43, S. 9 – 31. Salzburg 2008

##########################

Siehe auch hier in WIKIPEDIA




Die Klimamodelle versagen! Heinz Hug bezweifelt die Bedeutung von CO2 für den Klimawandel.

„Nach unseren Berechnungen müsste es in den kommenden Jah­ren sprunghaft wärmer werden. Aber wir trauen dieser Prognose nicht über den Weg. Denn die Si­mulationen hatten auch den gegenwärtigen Stillstand beim Tem­peraturanstieg vorhersagen müs­sen – was nicht gelang“.

So der Kli­maforscher Jochen Marotzke vom MPI-M in Hamburg im Spiegel 9/2012. Die Gründe, weshalb Klimamodelle versagen, liegen auf der Hand.

Hervorzuheben ist, dass es beim atmosphärischen Treibhauseffekt nicht um die Absorption durch IR­-aktive Spurengase (C02, CH4, H20 u. a.) geht, sondern um deren Emission, die als „Rückstrahlung“ die Erdoberflache erwärmt. (1) Tat­sächlich präsentieren Satelliten­spektren um 667 cm-1 einen beein­druckenden „Trichter innerhalb der terrestrischen Planck-Kurve“, der auf Behinderung der Wärmeab­strahlung des Erdkörpers durch die ν2-Bande des CO2 beruht.(2)

Weil für die Rotationsquanten­zahl J = 0,1,2,3 … ∞ gilt, gibt es aus quantenmechanischen Gründen ­auf dem Papier gerechnet – keine „Sättigung“ des CO2-Treibhausef­fekts. Betrachtet man aber das Zen­trum der ν2-Bande, beträgt die Transmission innerhalb der Troposphäre lediglich τ= 10-210. Das IPCC schreibt hierzu:(3)

„At the cen­tre of the 15 µm band, the increase in CO2 concentration has almost no effect“

und ergänzt, dass aber an den Rändern immer ungesättigte Bereiche vorhanden sind, die zur Steigerung des Treibhauseffekts führen. Dem widerspreche ich nicht. Nur sind die Rotations-­Schwingungsbanden beispielsweise ab J > 20 (τ Troposhäre ≤ 10-3) sehr schwach besetzt. Der Nobelpreis­träger Paul J. Crutzen bringt dies auf den Punkt: „Es gibt bereits so viel CO2 in der Atmosphäre, dass in vielen Spektralbereichen die Auf­nahme durch CO2 schon fast voll­ständig ist, und zusätzliches CO2 spielt keine Rolle mehr“.(4)

Um welchen Betrag geht es?

Be­rücksichtigt man die Albedo und die Erdgeometrie, beträgt die globa­le Durchschnittstemperatur ohne IR-aktive Spurengase TE = 255 K. Nach einer – gewillkürten – Kon­vention aus dem Jahr 1957 gilt der Zeitraum von 1901 bis 1930 als Kli­manormalperiode mit TE  = 288 K.(5) Die Differenz von 288 K bis 255 K, also 33 K, schreibt man den Treib­hausgasen zu. Die Emission der Erdoberflache beträgt bei dieser Temperatur 390,0 W m-2.(6)

Bei 100 Prozent (!) mehr CO2 erhöht sich der Treibhauseffekt( 6) um 1,2 Pro­zent, nämlich um 3,7 W m-2. Gemäß dem Energieerhaltungssatz steigt ME auf 393,7 W m-2. Setzt man letzteren Wert in die Stefan-­Boltzmann-Gleichung ein, resultiert als mittlere Oberflächentemperatur:

Dies entspricht einer Tempera­turerhöhung um 0,7 K. Wieso wer­den aber weit höhere Werte ge­nannt? Computermodelle mit be­liebig variierbaren Parametern gehen davon aus, dass durch diese geringfügige Temperaturerhöhung mehr vom Treibhausgas Wasser­dampf gebildet wird (Wasserdampf­rückkopplung gemaß der Clausius­Clapeyronschen-Gleichung). Diese wichtigste Grundlage aller Model­lierung lässt sich falsifizieren. Nach einer Veröffentlichung von Her­mann Flohn schwankte die Ver­dunstungsmenge über dem Atlan­tik zwischen 1950 und 1973 um 25 Prozent um einen Mittelwert wild hin und her, wahrend gleichzeitig das atmosphärische CO2 kontinu­ierlich um 10 Prozent steigt.(5)

Ganz evident gibt es keine Kor­relation zwischen atmosphäri­schem CO2-Gehalt und Wasserver­dunstung. Letztere richtet sich nicht nach dem CO2, sondern nach der Wassertemperatur. Diese aber hängt in erster Linie von der Ab­schirmung durch Wolken ab, die ihrerseits von der einfallenden kos­mischen Strahlung abhängt, die im Rhythmus des solaren Magnetfelds schwankt.(7) Dies erklärt auch, wes­halb es ohne Zutun IR-aktiver Spu­rengase ein römisches und ein mit­telalterliches Klimaoptimum gab.(8)

Heinz Hug

1)    http://www.eike-klima-energie.eu/news-cache/der-anthropogene-treibhauseffekt-eine-spektroskopische-geringfuegigkeit/

2)    R.A. Hanel et al. J. Geophys. Res. 1972, 77, 2629.

3)   IPCC, Climate Change 1994. S.167.

4) T. E. Graedel Paul J. CrutzenChemie der Atmosphäre“, Spektrum Akademischer Verlag 1994, S. 414

5)    H. Flohn, B. d. Wissenschaft 1978. 12, 132

6)    J. T.  Kiehl, K. E. Trendberth. Bull. Amer.

Meteor. Soc.1997, 78, 197

7)    N. J. Shaviv, J. Veizer, GSA Today 2003, 13, 4

8)   C. Schönwiese, Klimaänderungen, Springer, 1995, S. 79

Heinz Hug, Jahrgang 1944, studierte nach einer Chemielaborantenlehre Chemie in Mainz und pro­movierte 1975. Danach unterrichtete er an der Paul-Ehrlich-Schule in Frankfurt. Er ist Autor von Lehrbüchern für Physikalische Chemie und instru­mentelle Analytik sowie von kritischen Sachbü­chern (u. a. „Die Angsttrompeter“, 2006).

www.gdch.de/nachrichten

Und hier die Entgegnung von Ehrhard Raschke.

 

* Wie uns Prof. Paul Herausgeber der Nachrichten aus der Chemie bat mitzuteilen kannten beide Autoren die Stellungnahme des jeweils anderen zuvor nicht.




Regierung stürzt über steigende Strompreise – bald auch in Berlin?

SPON meldet:

Sofia – Lange hatte sich die bulgarische Regierung gegen einen Rücktritt gesträubt, doch jetzt hat sie sich dem Druck der Demonstranten gebeugt: Ministerpräsident Bojko Borissow erklärte am Mittwoch seinen Rückzug und den seines ganzen Kabinetts. „Wir haben Würde und Ehre. Es ist das Volk, das uns an die Macht brachte, und wir geben sie ihm heute zurück“, erklärte er vor dem Parlament in Sofia.

Und die Deutschen Wirtschaftsnachrichten melden

Offizielle Inflation: Energiepreise und Lebensmittel explodieren

Deutsche Wirtschafts Nachrichten  |  Veröffentlicht: 20.02.13, 10:58  |  Aktualisiert: 20.02.13, 11:00  |  4 Kommentare

Im Januar sind die Preise für Energie und Lebensmittel drastisch gestiegen. Offiziell ist die Inflations-Rate für den gesamten Warenkorb jedoch mit 1,7 Prozent so niedrig wie schon lange nicht. Damit erhält die EZB eine weitere Lizenz zum Gelddrucken.

Und die Berliner Umschau präzisiert:

Energiepreise – Haushalte müssen immer mehr einsparen

Die Verbraucherpreise für Haushaltsenergie (Wärmerzeugung und Strom) haben sich im Januar 2013 im Vergleich zum Vorjahresmonat um 5,8 Prozent erhöht. Das hat das Statistische Bundesamt (Destatis) heute im Rahmen seiner Veröffentlichung des Verbraucherpreisindexes mitgeteilt. Auf diese Verteuerung reagieren die Bundesbürger zunehmend, indem sie Energie im Haushalt einsparen. Neben den Kraftstoffen entfällt der größte Posten der privaten Energierechnung auf das Heizen. Hier lohnt es sich, statt fossiler Ressourcen Erneuerbare Energien für die Wärmeversorgung einzusetzen.

Da passt zusammen, was zusammen gehört,

denn die FAZ meldet heute:

Umweltminister Altmaier„Energiewende könnte bis zu einer Billion Euro kosten“

19.02.2013 ·  Erstmals spricht Umweltminister Peter Altmaier öffentlich über die Gesamtkosten der Energiewende: 1000 Milliarden Euro. Grund genug für den CDU-Politiker, die „Strompreisbremse“ zu ziehen…

Mit Dank an Benny Peiser von ACHGUT