1

Erwärmung der Ozeane: nicht sehr stark und zur falschen Zeit

Aus Datensätzen der Wassertemperatur und der Temperatur auf dem Festland wird klar, dass die Temperatur auf der Erdoberfläche seit dem Beginn der Ära instrumenteller Messungen (nach 1860) zugenommen hat. Allerdings gab es dabei ein Problem mit den Messungen der Ozeantemperaturen, weil diese schwieriger zu messen und zu quantifizieren sind und außerdem nicht so weit zurück reichen wie Messungen an Land. In einem Versuch zur Lösung dieses Problems vergleichen Viktor Gouretski und Kollegen an der Universität Hamburg Zeitreihen historischer globaler Temperaturdaten für die oberen 20 Meter des Ozeans basierend auf der letzten Aktualisierung eines historischen Datensatzes des hydrographischen Profils.

Abbildung 1 zeigt, dass die Daten der Wassertemperatur seit 1900 insgesamt eine Erwärmung zeigen, was auch zu erwarten war. Es gibt einen Anstieg der Temperatur zwischen 1910 und 1940 – genauso steil wie irgendwo in den Daten –, der eine lange Zeit ohne wesentliche Änderung folgt bis Mitte der achtziger Jahre, dann wieder einen Anstieg und nach 2000 einen Stillstand.

Die Periode ohne wesentliche Änderung zwischen 1940 und 1980 ist sehr interessant. Wenn dieses Phänomen nur an Land betrachtet oder bei kombinierten Daten an Land und zu Wasser betrachtet wird, wird es oft der Verschmutzung durch Aerosole zugeschrieben, die die Sonnenstrahlung ins All reflektieren und den Planeten abkühlen (obwohl es problematisch ist, wie genau ein solches Szenario eine in etwa konstante Temperatur zur Folge hat angesichts des Antriebs durch Treibhausgase). Da die Verschmutzung mit Aerosolen häufig ein regionales Phänomen ist, erscheint es eigenartig, den Stillstand der globalen Wassertemperatur damit zu erklären.

Unter der Oberfläche

Die Forscher haben auch Aufzeichnungen der Temperaturänderung in den oberen 400 m der Ozeane bis zurück zum Jahr 1900 ausgeweitet – also auf einen Zeitpunkt etwa fünfzig Jahre früher als bei zuvor durchgeführten Analysen. Alles in allem kommen sie zu der Schlussfolgerung, dass die Temperaturänderung der oberen 400 m durch zwei Perioden der Temperaturzunahme charakterisiert wird, nämlich zwischen 1900 und 1940-45 sowie zwischen 1970 und 2003, jeweils unterbrochen durch eine Periode ohne wesentliche Änderung. Dies ähnelt bemerkenswert den Daten an der Oberfläche.

Schaut man auf ihre Daten der oberen 400 m, wird offensichtlich, dass das meiste der Erwärmung in dieser Region vor 1940 stattgefunden hat, und zwar mit dem größten Gradienten in dem Datensatz. Zwischen 1940 und 1990 gibt es eigentlich kaum Beweise für irgendeine Änderung, dann eine Zunahme und nach 2000 einen Stillstand. Nur während zehn der letzten sechzig Jahre zeigte die Temperatur der oberen 400 m eine Zunahme!

Interessanterweise schließen die Autoren daraus: „Diese Karten zeigen, dass die erste Dekade des 21. Jahrhunderts (2001 bis 2010) nicht einheitlich wärmer war als frühere Dekaden. Etwa vor 1920 war der globale Ozean fast überall kälter als in der Referenzdekade 2001 bis 2010. Nach 1920 war es in vielen Regionen der globalen Ozeane wärmer als in der Referenzdekade.

Dekadische mittlere Wassertemperaturen (SST) und Anomalien der oberen 20 m, berechnet relativ zur Referenzdekade 2001 bis 2010 beweisen die allgemeine Erwärmung der globalen Ozeane seit 1900. Weite Gebiete des Ozeans haben sich jedoch seit den neunziger Jahren abgekühlt. Während die Abkühlung im tropischen Ostpazifik mit häufigen La Nina-Ereignissen zusammenhängt, ist der Grund der Abkühlung in den südlichen Ozeanen weiterhin unbekannt.“.

Die meiste Erwärmung unterhalb der Wasseroberfläche fand vor 1940 statt. Die erste Dekade des 21. Jahrhunderts war nicht einheitlich wärmer als frühere Dekaden. Dies sind interessante Fakten und sollten bei der Diskussion über die Art und Weise, wie sich unsere Ozeane erwärmen, eine Rolle spielen.

Feedback: david.whitehouse@thegwpf.org

Link: http://www.thegwpf.org/ocean-warms-vey-wrong-time/

Übersetzt von Chris Frey EIKE




Zwangsbewirtschaftungen und die Energiewende

Aus der Kriegswirtschaft zur Zeit des Ersten und Zweiten Weltkrieges kennt man einige Verfahren, die zur Herstellung von Gütern oder Rohstoffen verwendet wurden, weil auf Grund der besonderen Situation im Krieg nicht genügend für alle vorhanden war. Man versuchte Ersatz, Substitute, zu schaffen. Und wo das nicht ging, musste man eben verzichten, vor allem im zivilen Leben; die Bedürfnisse des militärischen Sektors hatte Vorrang. Ressourcen wurden alloziert, zugewiesen, verteilt. Man spricht in diesem Zusammenhang auch von Ressourcenallokation, die nicht nur in Zeiten der Krise oder des Krieges notwendig ist, sondern allgegenwärtig.⁽¹⁾

Im Normalfall sorgen Marktmechanismen für die Verteilung. Eine Ressourcenproblematik entsteht erst durch politische oder militärische Konflikte, da unter diesen Umständen davon ausgegangen wird, dass die Marktwirtschaft versagt. Konflikte oder Krisen erzeugen Knappheiten, die im Zuge der Knappheitsbewältigung wieder neue Konflikte hervorrufen. In einem Tagungsbericht vom 49. Historikertag in Mainz heißt es dazu:⁽²⁾

In der Folge lassen ihre Lösungsversuche wiederum neue Konfliktfelder entstehen, und zwar sowohl dort, wo sie (scheinbar) erfolgreich waren als auch dort, wo das Versprechen einer Aufhebung der Ressourcenproblematik uneingelöst blieb.

Es zeigte sich, dass Wirtschaft und Gesellschaft unterschiedlich auf die Kriege vorbereitet wurden. Im ersten Weltkrieg hat es praktisch keine Strategie gegeben um knappe Güter und Ressourcen durch andere ersetzen zu können. Die technikwissenschaftliche Forschung sei erst nach Kriegsbeginn zur Entwicklung von Ersatzstoffen mobilisiert worden, für eine Umsetzung in die Praxis fehlte die Zeit und die Ressourcen um praktikable Lösungen zu entwickeln. Im zweiten Weltkrieg gelang die Umstellung ein wenig besser, da schon vor Kriegsbeginn im Rahmen eines Vierjahresplanes mit der gezielten Forschung von Ersatzstoffen begonnen wurde und es dadurch eine Reihe von Produkten gab die es bis zur Alltagstauglichkeit schafften. Als die kriegsbedingte Zwangsbewirtschaftung beendet wurde, konnten sich aber nur die wenigsten dieser Innovationen behaupten. In der Friedenswirtschaft erwiesen sie sich als unpraktikabel.

Am Beispiel der Siemens-Schuckertwerke führte Luxbacher aus, das nur zehn Prozent der Ersatzstoffprojekte auch als in der Friedenswirtschaft verwendungsfähig eingestuft worden seien. Ein ganz ähnliches Bild zeige die Ersatzstoffwirtschaft des Zweiten Weltkrieges, auch wenn die Materialforschung zu diesem Zeitpunkt bereits weiter entwickelt gewesen und die Umstellung in der Bewirtschaftung mit größerem Vorlauf erfolgt sei.

Heute haben wir zwar keinen Krieg, doch eine Krise rund um Ressourcen schon. Nehmen wir als Beispiel die fossilen Brennstoffe, die zwar nicht knapp sind, es in absehbarer Zeit auch nicht werden, aber dennoch alloziert werden sollen. Als Grund wird die angenommene Aufnahmefähigkeitgrenze der Ressource Atmosphäre genannt. Mit den Mitteln der Zwangsbewitschaftung sollen die Voraussetzungen geschaffen werden diese angenommene Knappheit überwinden zu können. Ob diese Knappheit eine reelle ist, oder nur eine angenommene, spielt bei dieser Betrachtung hier keine Rolle.

Zwangsbewirtschaftung kennen wir natürlich auch in Friedenszeiten, vor allem aus der sozialistischen Plan- oder Zentralwirtschaft, bei der der Preismechanismus als Knappheitsindikator außer Kraft gesetzt wurde, was sich aber nur sehr bedingt innerhalb des Systems durchsetzten ließ, und nur dort. Auf weltwirtschaftlicher Ebene mussten sich diese aus diesem System hervorgehenden Produkte dem marktwirtschaftlichen Preismechanismus stellen. In diesem Wettstreit wurde klar, was wir auch an Hand der Kriegsbewirtschaftung sehen, dass nur ein sehr geringer Anteil der entwickelten Lösungen marktfähig waren und nach Zusammenbruch des Systems kaum noch eine Rolle spielten.⁽³⁾ Wahrscheinlich war der Anteil der verwertungsfähigen Produkte und Innovationen auch nur so um die zehn Prozent, wie oben angeführt.

Zwangsbewirtschaftung, das zeigen die Erfahrungen aus der Vergangenheit, führen also nicht in nennenswertem Umfang zu Innovationen, Produkten oder Substituten welche sich am Markt behaupten können. Nur in abgeschotteten Wirtschaftsbereichen, wie sie im Krieg oder in der Planwirtschaft entstehen, können sie sich behaupten und tragen nur sehr selten zur Lösung von Problemen bei. Vielmehr entstehen bei diesen Problemlösungsversuchen neue Probleme welche die Wettbewerbsfähigkeit der gesamten Volkswirtschaft in Mitleidenschaft ziehen. Vor allem am Beispiel »Zweiter Weltkrieg« wird aber ein Aspekt deutlich, dessen positive Auswirkungen oftmals fehl gedeutet werden. Zum Ende des Krieges hatte „die durch die von NS-Deutschland forcierte Ersatzstoffforschung zur Folge, dass die deutsche Metallforschung eine internationale Spitzenstellung inne hatte.“⁽⁴⁾ Diesen positiven Wissensvorsprung konnte man aber erst nutzen, als die Zwangsbewirtschaftung nicht mehr wirksam war.⁽⁵⁾

Kommen wir nun zur Energiewende, welche ihrem Wesen nach ebenfalls eine Zwangsbewirtschaftung darstellt. Grundannahme ist, dass die Ressource Atmosphäre an die Grenzen ihrer Aufnahmefähigkeit gekommen ist, oder demnächst kommt. Ob diese Annahme stimmt oder nicht ist erst mal egal, wie weiter oben schon angeführt ist. Die Frage ist, was will man mit dem Konzept der Energiewende erreichen. Klimaschutz ist nur im globalen Maßstab möglich, also muss es andere Gründe geben, die aber bislang eher wenig in der Öffentlichkeit angesprochen wurden. Der gewichtigste ist, dass Techniken zur Marktreife gebracht werden sollen und von denen erhofft wird, dass diese ein großer Exporterfolg werden. So berichtet Peter Heller im Science-Skeptical-Blog von einem Vortrag Klaus Töpfers am 17. Oktober 2012:⁽⁶⁾

Man habe sich schlicht eine Welt vor Augen geführt, in der bald neun Milliarden Menschen leben. Neun Milliarden mit einem wachsenden Energiehunger. Dann habe man sich gefragt, welche Technologien denn Deutschland exportieren könne, um diesen Bedarf zu stillen. Und die Kernenergie habe man eben ausgeschlossen. Sie sei für ein Entwicklungsland schlicht zu teuer und zu kompliziert.
[…
Nein, die Energiewende ist eigentlich ein Auftrag an die deutsche Industrie, die Technologien zu entwickeln, an deren zukünftiges weltweites Wachstum die Politik glaubt.

Öffentlich wird oft einer gewünschten Vorreiterrolle Deutschlands gesprochen, nur die Deutschen könnten zeigen wie es geht. Oder: „Wenn es Deutschland nicht schafft, dann schafft es niemand.“ Was auch heißen könnte: „Wenn wir es schaffen haben wir einen erheblichen Vorteil und Vorsprung auf den Weltmärkten.“ Ins gleich Horn blies auch Umweltminister Altmaier in einer Rede bei der Jungen Union Waldhessen, die gemeinsam mit der Fima Kirchner Solar Group (!), eingeladen hatte.⁽⁷⁾ Auch er geht wie Töpfer davon aus, dass der Energiehunger der Weltbevölkerung steigt und man in Zukunft nicht mehr in der Lage sein wird, diesen mit fossilen Energien zu stillen und da die Kernkraft zu unsicher sei, müsse man diese Bedürfnisse der aufstrebenden Nationen mit sogenannten Erneuerbaren Energien stillen. „Wenn wir es klug anstellen,“ so meint Altmaier, „wird die dafür notwendige Technik in Deutschland produziert und exportiert werden. Und weiter:

„Wir haben uns aus Eigeninteresse dafür entschieden die Kernkraftwerke nicht durch konventionelle Kraftwerke zu ersetzen“

Wenn wir das unterschiedliche Publikum berücksichtigen, vor dem diese Reden gehalten wurden, dann sind die Gemeinsamkeiten in den Argumentation schon verblüffend. Klimaschutz, Ressourcenproblematik – alles kalter Kaffee. In Wirklichkeit geht es darum sich bestmöglich im internationalem Wettbewerb zu positionieren, von dem man glaubt zu wissen, wie er denn in de Zukunft aussieht. Das ist einer der Hauptfehler bei diesem Denkansatz. Ein weiterer ist, vorzugaukeln, der Staat wüsste welche Technologien und Möglichkeiten in Zukunft vorhanden sind.

Ich bin nach der Rede Altmaiers ein wenig irritiert, weil mir nicht klar ist, was er eigentlich so richtig meint. Innerhalb weniger Minuten bringt er gleich zwei Beispiele, die sich aber in ihrer Logik widersprechen. Er sagt zum einen, man müse vorsichtig mit Masterplänen sein, man könne nicht alles im voraus regeln. Als Beispiel beschrieb er die Handys etwa um 1993 als: „Groß wie Brikett, schwer wie ein Brikett und dumm wie ein Brikett.“ Wenn man damals einen Masterplan entwickelt hätte, wie denn Handys für Jahr 2012 auszusehen hätten, nämlich: „Halb so groß wie ein Brikett, halb so schwer wie ein Brikett und halb so dumm wie Brikett,“ dann hätten wir heute nicht das was diese kleinen Dinger zu leisten im Stande sind. Mit diesem Beispiel hat er sehr Recht, um aber umgekehrt zu argumentieren, dass es auch für eine alte Frau es sich lohnen würde, ihr kleines Häuschen energetisch zu sanieren, statt ihr Geld zu vererben. Die Erben würden ja von der Investition profitieren und so auch Geld sparen.

Die alte Frau handelt klug wenn sie sagt, dass so wie es jetzt ist, für sie in Ordnung ist. Und dafür lieber das Geld vererbt, als ein energetisch saniertes Häuschen. Einfach weil sie nicht weiß welche Bedürfnisse unsere Nachkommen haben, und vor allem nicht, welche Möglichkeiten. Altmaier bevormundet mit seinem Vorschlag sowohl die gegenwärtige Generation, als auch die künftige. Die Entwicklung des Handy konnte ja auch nicht vorhergesehen werden, wie er anschaulich verdeutlichte. Aber heute weiß man natürlich was richtig ist. Welch eine Anmaßung.

Dieses beanspruchte Zukunftswissen ist auch solch ein Aspekt, der immer wieder in den Argumentationen der Neue Ineffiziente Energien (NIE)-Befürworter vorkommt. Weshalb auch so allergisch reagiert wird, wenn von einem Komplettumbau oder Abschaffung des EEG die Rede ist. Mit besonderen Argwohn wird nun Richtung Brüssel geschaut, denn die EU will Leitlinien für die NIE-Förderung einführen lassen.⁽⁸⁾ Wirtschaftsminister Philipp Rösler (FDP) kommentierte dies so:

„Ein funktionierender Energiebinnenmarkt ist von entscheidender Bedeutung für eine zukunftsfähige Energieversorgung in Europa. Deshalb müssen Wettbewerbsverzerrungen durch konsequente Anwendung der Binnenmarktregeln und Wettbewerbsvorschriften abgebaut werden. Dabei begrüße ich, dass sich die Kommission mit den Themen Versorgungssicherheit und Erneuerbare Energien befassen will, da wir für ein wirtschaftlich starkes Europa auch in diesen Bereichen ein markt- und wettbewerbsorientiertes Umfeld brauchen. ….“

Dies würde aber ein Ende der Zwangsbewirtschaftung nach derzeitigen Stil bedeuten. Wenn die NIE sich dem offenen Wettbewerb stellen müssen sind sie tot. Alles was im Rahmen dieses EEG geschehen ist, war nur unter dieser Zwangsbewirtschaftung möglich. So wie das im Krieg oder im Einflussbereich der ehemaligen Sowjetunion üblich war. Was von diesen Produkten und Technologien übrig blieb, nachdem die Rahmenbedingungen sich änderten, sieht man heute. Vielleicht 10%, so jedenfalls auf dem Historikertag in Mainz genannt. Es wird höchste Zeit zu erkennen, dass Zwangsbewirtschaftung nicht nur kaum etwas zur weiteren Entwicklung von Technologie, Produkten oder zur besseren Ressourcennutzung beiträgt, sondern auch noch dabei die Wirtschaftsbereiche schädigt, die nicht direkt von dieser Zwangsbewirtschaftung betroffen sind.

Autor Quentin Quencher; zuerst erschienen auf Glitzerwasser und Science Sceptical

Verweise / Erläuterungen:

(1) Ressourcenallokation ist die Zuordnung und Verteilung knapper Ressourcen wie Arbeit, Kapital, Boden und Rohstoffen zur Produktion von Gütern. Von der Frage der Allokation zu unterscheiden ist die Frage der Verteilung (Distribution) der produzierten Güter auf Individuen oder gesellschaftliche Gruppen.
[Wikipedia: Ressourcenallokation]

(2)Deutlich wurde aber, dass die Lösung von Ressourcenkonflikten nicht nur historische, sondern aktuelle Dimensionen besitzt, die zukünftige interdisziplinäre Forschungen als attraktiv erscheinen lassen.
[HT 2012: Ersatzstoffwirtschaft als innovative Lösungen für Ressourcenkonflikte im Ersten und Zweiten Weltkrieg?]

(3) Wenn heute der Marktanteil der »Ostprodukte« betrachtet wird, so täuscht dieser Anteil darüber hinweg, dass viele dieser Produkte nur noch den Markennahmen haben, aber im Prinzip nichts mehr gemeinsam mit dem ursprünlichen Produkt haben.
[Die Zeit: Ost-Produkte verlieren den DDR-Bonus]
[absatzwirtschaft.de: Marktforschung / Die neuen Bundeslaender / Ein Jahr danach]
[Welt.de: Diese Ostmarken haben sich im Westen behauptet]

(4)So unternahm HELMUT MAIER (Bochum) einen Vergleich der Ersatzstoffentwicklung der beiden Weltkriege am Beispiel von Zink. Als Ersatz für knappen Kupfer habe Zink in beiden Weltkriegen eine Verlängerung der Rohstoffdecke ermöglicht. Anfängliche Schwierigkeiten in der Anwendung hätten durch die technikwissenschaftliche Forschung gelöst werden können. …
[HT 2012: Ersatzstoffwirtschaft als innovative Lösungen für Ressourcenkonflikte im Ersten und Zweiten Weltkrieg?]

(5) In der Bundesrepublik Deutschland generierte in den 1950er Jahren der Wiederaufbau das „Wirtschaftswunder“. Namentlich hinterließ es einen tiefen und bleibenden positiven Eindruck, dass ab dem Montag nach der Währungsreform die Zwangsbewirtschaftung, ein Überbleibsel aus dem Zweiten Weltkrieg, praktisch aufgehoben wurde und Industrie und Einzelhandel sich vorbereitet hatten: Die Läden waren auf einmal voll.
[Wikipedia: Nachkriegszeit]

(6) Das ist, was Klaus Töpfer unter der Energiewende versteht. Nachhaltigkeitsideologie? Klimaschutz? Atomangst? Alles irgendwie dabei, aber eben nicht so wichtig. Nein, die Energiewende ist eigentlich ein Auftrag an die deutsche Industrie, die Technologien zu entwickeln, an deren zukünftiges weltweites Wachstum die Politik glaubt. Diese Töpfer-Wende bestimmte den Hauptteil seines Vortrages.
[Peter Heller: Die Töpfer-Wende]

(7) Am 13.11.2012 besuchte Peter Altmaier die Kirchner Solar Group in Alheim-Heinebach. Thema: Chancen und Herausforderungen der Energiewende in Deutschland. Die Rede wurde per Videostream im Netz übertragen und nun bei Youtube zu sehen.
[Youtube: Bundesumweltminister Peter Altmaier zu Besuch in Waldhessen]

(8) Er soll auf europäischer und nationaler Ebene den Verbrauchern die Nutzung der Vorteile, die aus der Energiemarktliberalisierung resultieren, weiter erleichtern. Zudem soll der Ausbau der Energieinfrastruktur beschleunigt und die Versorgungssicherheit durch europäische Regelungen gewährleistet werden. Die Kommission kündigte für 2013 an, Leitlinien zu einer Reform von Fördermechanismen und zur Förderung Erneuerbarer Energien vorzulegen.
[iwr.de: EU will 2013 Leitlinien für Reform bei EE-Förderung vorlegen]

Beitrag ebenfalls erschienen in Glitzerwasser

ÄHNLICHE BEITRÄGE (AUTOMATISCH GENERIERT):

§  Ranga und die letzten Wünsche

§  EEG vor dem Aus?

§  Altmaier beerdigt die Energiewende




Die falschen Klimathesen des Professors Mojib Latif

Wenn man schon nach einem Leugner des Klimawandels suchen sollte, dann findet man diesen bei den AGW-Vertretern. Für einige hundert Jahre hat Michael Mann mit seiner berühmt-berüchtigten gleich mehrfach manipulierten Hockeyschlägerkurve[1] ein nahezu konstantes Klima erfunden.

Von 1000 bis 1900 ändert sich die Temperaturanomalie um knappe 0.2°C. Hierzu mussten aber durch statistische Tricks die kleine Eiszeit und das mittelalterliche Temperaturoptimum abhanden kommen.

These 1: Der Mensch ist unschuldig. Klimaschwankungen gab es immer schon.

Falsch. Es gab zwar immer schon natürliche Klimaschwankungen. Aber wenn wir so weitermachen wie bisher, bekommen wir eine Klimaerwärmung, die es in der Geschichte der Menschheit noch nicht gegeben hat.

Da es nicht eindeutig ist, was Prof. Latif (PL) meint, schauen wir uns sowohl die absolute Temperatur und die Temperaturanomalie an.

1. Absolute Temperatur

Der IPCC nimmt hierfür 288K oder 15°C an. Dieser Wert  ist aus zwei Gründen von geringer Aussage, da man mittels der Thermodynamik zeigen kann, dass es keinen Mittelwert geben kann und weil er (trotzdem) vom IPCC mittels des Stefan-Boltzmann-Gesetzes, , mit ε = 1, als ob die Erde ein schwarzer Körper sei, berechnet wird.

Um einen Vergleich zu ermöglichen, nehmen wir temporär trotzdem an, dass eine mittlere Temperatur gemessen werden kann. Die folgende Graphik zeigt die CO2-Konzentration und die Temperatur im Verlauf der Erdgeschichte.

Man erkennt drei wichtige Fakten. Erstens war es schon des Öfteren viel wärmer als heute und es gab durchaus Zeiten, wo die Temperatur stieg, aber die CO2-Konzentration abnahm. Und drittens, wir leben in einer Zeit der minimalen CO2-Konzentration und Konzentrationen die 3- bis 5mal so hoch waren wie derzeit führten zu keinem Klimakollaps. Die absolute Temperatur kann PL also nicht gemeint haben.

2. Der Temperaturanstieg

Im 20. Jahrhundert stieg die mittlere Temperatur um 0.7-0.8°C an. Dass es selbst daran beträchtliche Zweifel gibt wegen der permanenten Manipulationen der Messreihen, sei einmal übersehen (Details dazu im Bericht „Das Temperaturdilemma“). Die nächste Graphik zeigt die Dansgaard-Oeschger-Oszillationen.  Eine detaillierte Inspektion offenbart Schwankungen von mehr als Grad 10°C innerhalb weniger Jahrzehnte. Also war der Anstieg mindestens zehnmal stärker als der so dramatisierte im letzten Jahrhundert.

Man könnte noch spitzfindig bemerken, dass von der Geschichte der Menschheit gesprochen wurde. Wenn es aber erstens dramatischere Änderungen ohne von den Menschen erzeugtes CO2 gab, warum soll er für einen sehr moderaten Wandel in der Neuzeit „schuldig“ sein. Zweitens lebten und überlebten unsere Vorfahren während der extremen Dansgaard-Oeschger-Oszillationen. Oder zählen sie nicht mehr zur Menschheit?

These 2: Die Erwärmung wird nur von der Sonne bewirkt.

Falsch. Drei Viertel der Erwärmung ist vom Menschen gemacht, nur ein Viertel geht auf natürliche Ursachen zurück, insbesondere die Sonne. Aber der Sonneneinfluss passierte in der ersten Hälfte des 20. Jahrhunderts.

Die These suggeriert die Antwort, aber diesmal ist der Fragesteller in die eigene Falle getappt, denn die Antwort lautet ganz klar Ja. Die Sonne ist nun einmal die einzige uns zur Verfügung stehende Energiequelle, wenn man von dem vernachlässigbaren Beitrag der Erdwärme absieht.

Die Verteilung der eingestrahlten und abgestrahlten Energie auf der Erde und die dadurch bewirkten lokalen Temperaturen hängen auch von anderen Größen ab.

Nehmen wir an, dass dies in der These gemeint sei.

Die Behauptung „drei Viertel der Erwärmung ist vom Menschen gemacht“ erscheint nach der Diskussion der ersten These schon etwas abstrus, denn wie konnten unsere zahlenmäßig geringen Vorfahren solch drastische Temperaturänderungen produzieren, da sie ja nicht einmal Autos hatten.

Die nächste Graphik vergleicht die Temperaturanomalie mit der Länge des Sonnenzyklus und der Änderung der CO2-Konzentration.

 

Wenn es nach PL eine Korrelation zwischen der Sonnenaktivität und der Temperaturanomalie  vor 1950 gab, dann ist es anhand der Graphik schwer verständlich, warum dies danach nicht mehr gelten soll. Richtig würde PL liegen, wenn er die Korrelation zwischen der Temperaturanomalie und der CO2-Konzentration in Frage stellen würde, denn die ist erbärmlich. Der Standardeinwand lautet hier, dass die Schwankung der solaren Einstrahlung zu gering ist. Dies mag für den integralen Wert richtig sein, aber im UV-Bereich liegt die Variation z. B. im Bereich von 10%. Des Weiteren hat das Cloud-Experiment in CERN eindeutig gezeigt, dass eine Verstärkung der kosmischen Strahlung die Wolkenbildung fördert, wie Svensmark[2] zuerst postuliert hat. Die Intensität der in die Atmosphäre eintretenden kosmischen Strahlung ist aber von der magnetischen Aktivität der Sonne abhängig. Ein Maß für diese Aktivität ist der ap-Index und für die kosmische Strahlung sind dies die gemessene Anzahl der Neutronen auf der Oberfläche der Erde. Umso mehr Neutronen gemessen werden umso stärker ist die kosmische Strahlung und umso geringer das solare Magnetfeld.

Dieser Zusammenhang wird durch die nächste Graphik, die die Variation des ap-Indexes mit der invertierten Änderung des Neutronenflusses vergleicht, eindrucksvoll belegt.

  Die folgende Graphik zeigt zweifelsfrei, dass es eine enge Korrelation zwischen der kosmischen Strahlung und der Wolkenbildung gibt. Mehr Wolken bedeuten geringere Einstrahlung und sinkende Temperaturen und vice versa.

Fazit: Die Behauptung, dass der Einfluss der Sonne nur für die erste Hälfte des Jahrhunderts verantwortlich ist, steht auf sehr tönernen Füßen.

Aber lassen wir doch PL selbst zu Worte kommen. Am 16.11.09 stand in der „Bild“:

Jetzt macht der Klimawandel Pause. Ausgerechnet vor dem Klimagipfel der Vereinten Nationen in Kopenhagen, bei dem Forschung und Wirtschaft im Dezember über milliardenschwere Programme zum Schutz unserer Erde beraten wollen. Wie passt das zusammen?

Meteorologe Mojib Latif vom Kieler Leibniz-Institut für Meereswissenschaften: „Derzeit hat die Erdwärmung Pause.“

WAS SIND DIE GRÜNDE?

Unklar! Der Klimawandel stellt die Wissenschaftler mal wieder vor ein Rätsel. Jedoch nennen sie im „Spiegel“ zwei mögliche Gründe.

• Die Sonne schwächelt. (Endete nicht der Einfluss der Sonne 1950?) Weltraum-Forschern der Nasa fiel die geringe Zahl der Sonnenflecken auf, ein Zeichen für geringe Strahlungsaktivität. Das gab es so ausgeprägt seit Hunderten Jahren nicht.

• Im Pazifik steigt am Äquator kaltes Tiefenwasser nach oben („Pazifische Dekaden-Oszillation“). Mojib Latif meint, dass die Erdatmosphäre dadurch abgekühlt werde.

Beides sind Phänomene, die nur einige Jahre andauern. Danach gehe der Klimawandel weiter, sagt Latif: „Tatsächlich sind Phasen der Stagnation oder gar Abkühlung normal.“

Richtig Herr Prof. Latif ist, dass sich das Klima immer änderte und ändern wird. Erklären müssten Sie uns aber, warum eine Stagnation und eine Abkühlung normal sind, aber eine Erwärmung ungewöhnlich und menschengemacht ist.

These 3: CO2 hat keinen Anteil an der Erderwärmung, Wasserdampf  ist schuld.

Falsch. Wer das behauptet, verwechselt den natürlichen mit dem vom Menschen gemachten Treibhauseffekt. Wasserdampf hat einen Anteil von gut 60 Prozent am natürlichen Treibhauseffekt, der unsere Erdoberfläche warm (15 Grad) hält. Hätten wir ihn nicht, wäre unser Planet eine Eiswüste mit minus 18 Grad. Wir pusten gigantische Mengen CO2 in die Luft, das verstärkt den Treibhauseffekt.

Richtig ist dass der Wasserdampf den überwiegenden Beitrag liefert. Der vom CO2 kann aus der folgenden Graphik abgelesen werden inklusive des Effektes einer Steigerung des CO2-Gehaltes in der Atmosphäre.

 

Prof. R S Lindzen[3] vom MIT hat abgeschätzt, dass die Temperatur um 0.3-0.5°C steigt bei einer Verdopplung des CO2-Gehaltes. Dies ist die relevante Zahl! Die vom IPCC und von PL prognostizierten Anstiege von einigen Grad implizieren eine positive Rückkopplung des Temperaturanstieges mit dem ausgehenden Strahlungsfluss. Dies ist ein charakteristisches Merkmal aller Klimamodelle. Satellitenmessungen zeigen aber exakt das Gegenteil. Es gibt eine negative Rückkopplung. Alarmistische Meldungen beruhen demnach auf falschen Prämissen.

Wenn also der gigantische Effekt des CO2 mickrige 0.3-0.5°C Temperaturanstieg, bei einer nach Prof. T V Segalstadt (Geologe) aus Mangel an fossilen Rohstoffen nicht möglichen Verdopplung des CO2-Gehaltes, bedeutet, dann braucht sich niemand darüber zu sorgen. Im Gegenteil, es wäre sogar gut so, da diese sehr moderate Änderung zusammen mit einem höheren CO2-Gehalt die Produktion der Biomasse deutlich erhöhen würde.

These 4: Zusätzliches CO2 in der Atmosphäre hat keinen Einfluss aufs Klima.

Falsch. Die Skeptiker verstehen nicht, warum CO2 überhaupt klimawirksam ist. Die Atmosphäre ist wie ein riesiges Treibhaus, wobei das CO2 die Rolle des Glases übernimmt – es lässt die Wärme nicht entweichen. Je mehr CO2, desto dichter oder dicker das Glas und umso größer die Erwärmung.

Den Skeptikern Unverständnis zu unterstellen und dabei selbst solch physikalischen Unsinn zu erzählen ist die schiere Unverschämtheit. Die Atmosphäre, ein System mit freier Teilchenkonvektion, mit einem Treibhaus, bei dem gerade diese Konvektion durch das Glas unterbrochen wird, zu vergleichen, zeugt von nicht verstandener Physik. Schon vor mehr als hundert Jahren hat Prof. R W Wood experimentell gezeigt, dass die Temperatur in einem Treibhaus steigt, weil die Luftzirkulation unterbunden und nicht weil die IR-Strahlung von dem Glas absorbiert wird. Das Experiment wurde kürzlich von E Loock (2008) und N S Nahle (2011) verifiziert. Selbst jeder Laie kennt diesen Effekt von dem Auto in der Sonne. Obwohl viel weniger Strahlung in das Auto eintritt als die Umgebung erhält, ist es im Wagen viel wärmer, weil die Konvektion sowohl durch die steigende Temperatur als auch durch das beschränkte Luftvolumen unterdrückt wird. Die Situation wird sofort verbessert, wenn man die Fenster einen Spalt weit öffnet, obwohl dies fast nichts am Strahlungsaustausch ändert.

Noch eine Frage an PL und die AGW-Sympathisanten: Die Marsatmosphäre besteht zu 95% aus CO2. Warum gibt es trotzdem auf dem Mars keinen Treibhauseffekt?

Übrigens ist auf dem Mars in den letzten Dekaden des 20. Jahrhundert die Temperatur gestiegen[4]. Dies geschah gerade in dem Zeitraum in dem die Sonne nach PL keinen Einfluss auf den Temperaturanstieg auf der Erde hatte. Also auf der Erde bewirkte die Sonnenaktivität nichts, während sie gleichzeitig die Temperatur auf dem Mars steigen ließ.

These 5: Das CO2 produzieren nicht wir Menschen, sondern die Weltmeere.

Falsch. Das von uns Menschen produzierte CO2 hat ganz bestimmte Merkmale, die sich vom natürlichen CO2 eindeutig unterscheiden. Dieses kann man messen.

Unsinn, die Ozeane produzieren kein CO2. Sie binden es und zwar mehr mit abnehmender Temperatur.  

Richtig ist, dass es Kohlenstoff als 12C und 13C gibt. Das Mischungsverhältnis ist fix in CaCO3 (Referenzsystem), wogegen durch die Photosynthese in organischen Materialien 13C verringert wird. Das Isotopenverhältnis bestimmt man mit der folgenden Formel

 

Es ist bekannt, dass dieser Wert für fossile Brennstoffe und biologisches Material

δ13C = -26‰ beträgt. Der natürliche Gehalt in der Atmosphäre ist δ13C =-7‰. Gemäß dem IPCC wurden 27% des CO2 (350ppm 1990) durch die Menschheit hinzugefügt. Demnach muss das Isotopenverhältnis δ13C =-12‰ betragen (-[27·26 + 73·7]/100).

Keeling et al.[5] haben 1978 für das Verhältnis -7.489‰ gemessen und 1988 -7.801‰, was weit entfernt von dem vom IPCC und dessen Jüngern angegeben Wert von -12‰ ist.

These 6: Die Klimamodelle der Forscher stimmen nicht.

Falsch. Die Erwärmung entwickelt sich genau wie vorhergesagt. Die Modelle wurden auch an vergangenen Klimaänderungen getestet. Es gibt keinen Grund, den Modellen zu misstrauen.

Falsch, es gibt keinen Grund den Modellen zu trauen. Ausführlich wurde dies in dem Bericht „Klimamodelle – wie verlässlich sind sie?“ untersucht.

Wer dies trotzdem anhand der folgenden Graphik behauptet leidet entweder unter Realitätsverlust oder betrachtet die Menschen als beschränkt.

 

Nun noch ein paar Aussagen von namhaften Wissenschaftlern:

Prof. Freeman Dyson–one of the world’s most eminent physicists says the models used to justify global warming alarmism are "full of fudge factors" and "do not begin to describe the real world."

Prof. Antonino Zichichi–one of the world’s foremost physicists, former president of the European Physical Society, who discovered nuclear antimatter–calls global warming models "incoherent and invalid."

Prof. Richard Lindzen–Professor of Meteorology at M.I.T., member of the National Research  Council Board on Atmospheric Sciences and Climate, says

”It isn’t just that the alarmists are trumpeting model results that we know must be wrong. It is that they are trumpeting catastrophes that couldn’t happen even if models were right.”

Dr. Kanya Kusano is Program Director and Group Leader for the Earth Simulator at the Japan Agency for Marine-Earth Science & Technology (JAMSTEC)

Climate science is ‘ancient astrology’.

Zum Schluss noch ein erstaunliches Zitat vom “Godfather” der AGW-Jünger, James Hansen:

„In my opinion, the IPCC calculations, epitomized by the Wild et al. result, omit the most important physics, especially the nonlinear effects of meltwater and secondarily the effects of black carbon”

Was bewegte Hansen alles in Grund und Boden zu stampfen?

Nun Wild et al. hatten mit einem „ausgeklügelten“ Klimamodell berechnet, dass das Eis von Grönland und der Antarktis bei Verdoppelung des CO2 wächst.

Solcher Frevel verdient natürlich die Schelte des Herrn.

Fassen wir zusammen:

These 1: Klimaerwärmung, die es in der Geschichte der Menschheit noch nicht gegeben hat.

Im letzten Jahrhundert betrug die Temperaturanomalie 0.7-0.8°C. Bei den Dansgaard-Oeschger-Oszillationen gab es Sprünge von mehr als 10°C in weniger als 100 Jahre.  

These 2: Der Sonneneinfluss passierte in der ersten Hälfte des 20. Jahrhunderts.

Das Ende der Erwärmung im 21. Jahrhundert wird von NASA-Forschern durch das Schwächeln der Sonne erklärt. Die Überaktivität der Sonne im 20. Jahrhundert hatte dagegen keinen Einfluss. Was für eine Logik!

These 3: Wir pusten gigantische Mengen CO2 in die Luft, das verstärkt den Treibhauseffekt.

Einer theoretischen Verdopplung des CO2 steht ein möglicher Anstieg von 0.3-0.5°C gegenüber. Höhere Werte stammen von unglaubwürdigen Klimamodellen (siehe letzte These).

These 4: Die Atmosphäre ist wie ein riesiges Treibhaus, wobei das CO2 die Rolle des Glases übernimmt.

Purer Unsinn.

These 5: Das von uns Menschen produzierte CO2 hat ganz bestimmte Merkmal, die man messen kann.

Richtig, das Ergebnis der Messung verschweigt aber PL aus gutem Grund.

These 6: Es gibt keinen Grund, den Modellen zu misstrauen.

Im Gegenteil es gibt keinen Grund ihnen und den Aussagen von Prof. Latif zu trauen.

Dr. B. Hüttner für EIKE


[1] Dies ist detailliert dargelegt und bewiesen von A W Montford in “The Hockey Stick Illusion”

[2] H Svensmark – PHYSICAL REVIEW LETTERS 81 (1998) 5027

[3] Lindzen – Proc. Natl. Acad. Sci. USA 94 (1997)

[4] Fenton et al. – NATURE online April (2007)

[5] In: Peterson, D.H. (Ed.): Aspects of climate variability in the Pacific and the Western Americas. American Geophysical Union, Geophysical Monograph 55, 165-236




USA überdenken ihre Sicherheit bzgl. zurückgehender Ölimporte aus dem Nahen Osten

Bild rechts: Eine US-Marinepatroullie streift über eine verkohlte Öl-Landschaft nahe einem brennenden Bohrloch bei Kuwait City im März 1991. Sorgen um die Ölversorgung standen bei der Intervention der USA und ihrer Alliierten während der irakischen Invasion in Kuwait Pate. Aber die amerikanische Politik ändert sich derzeit angesichts der zurück gehenden Importe von Öl aus dem Nahen Osten in die USA. Quelle: Credit John Gaps III / AP

Seit über 40 Jahren wurzelte die Präsenz der USA in der Region in einer einzigen Tatsache: Von dort kommt unser Öl. Die Notwendigkeit, das Öl am Fließen zu halten bedeutete, dass die US-Regierungen den engen Schulterschluss mit Saudi-Arabien gesucht haben. Es bedeutete, dass das US-Militär Flugzeugträger rund um den Golf stationiert hat. Und es bedeutete, dass die USA auch den Willen zum Krieg hatten, um die Öl-Schifffahrtsrouten offen zu halten, eine Position, die erstmals von Präsident Carter deutlich ausgesprochen worden ist:

„Der Versuch irgendeiner auswärtigen Macht, Kontrolle über das Gebiet des Persischen Golfes zu erlangen, wird als ein Angriff auf die vitalen Interessen der USA aufgefasst“, verkündete Carter in seinem Bericht zur Lage der Nation (State of the Union address) 1980. „Ein solcher Versuch“, sagte Carter, „wird mit allen notwendigen Mitteln abgewehrt werden, einschließlich militärischer Operationen“.

Seitdem war die Carter-Doktrin Grundlage der US-Politik.

Als der Irak im Jahre 1990 in Kuwait einmarschiert war und die Ölversorgung aus der Golfregion bedroht hatte, haben die USA und seine Alliierten interveniert. Das öffentlich verkündete Ziel war, Kuwait zu helfen, seine Souveränität zurück zu erhalten, aber das ist nicht die ganze Wahrheit.

„Es gab eine Masse Implikationen bzgl. Öl hinter der ganzen Episode und unserer Reaktion darauf“, sagt Roger Altman, stellvertretender Schatzminister in der Clinton-Administration. „Ich sage nicht, dass wir Kuwait ohne die Öl-Perspektive nicht geholfen hätten, aber das Öl musste eine große Rolle spielen“.

Eine andere Energiegleichung

Die Angelegenheit Öl hat sich jedoch seitdem erheblich verändert. Der aus dem Golf stammende Anteil der Ölimporte in die USA ist um ein Drittel zurückgegangen. Viel von diesem Öl geht stattdessen nach China, Japan und Korea.

„Die asiatischen Länder sind tatsächlich die größten Verbraucher von Öl aus dem Nahen Osten”, sagt Mikkal Herberg, Direktor des Energiesicherheitsprogramms im National Bureau of Asian Research. „Wir bekommen nur noch sehr wenig Öl aus dem Golf. In Zukunft werden wir überhaupt keine nennenswerten Mengen von Öl mehr aus dem Persischen Golf brauchen“.

Die USA erzeugen jetzt mehr ihr eigenes Öl. Außerdem steigen die Importe aus Kanada, Mexiko und Brasilien.

Ein neuer Bericht der EIA beleuchtet die Verschiebung im Handel mit Öl aus dem Nahen Osten. Die in Paris ansässige Organisation projiziert, dass bis zum Jahr 2035 fast 90 Prozent der Ölexporte vom Persischen Golf nach Asien gehen und die USA nur noch einen vernachlässigbaren Anteil erhalten.

„Die Beziehungen zwischen den USA und Brasilien werden ziemlich wichtig sein”, sagt Altman, inzwischen Vorsitzender der Evercore Partners, einer Investmentbank. „Die Beziehungen mit Mexiko werden ziemlich wichtig sein. Aus energiepolitischer Sicht werden sie wichtiger sein als Beziehungen mit Irak oder Libyen oder potentiell Iran“.

Der drastische Rückgang der Abhängigkeit von Öl aus dem Persischen Golf wirft Fragen darüber auf, ob die Carter-Doktrin immer noch gelten soll.

„Die USA waren der Garant der Seewege und der Produzenten am Golf, weil wir fühlten, wie vital das für die Energie- und Sicherheitsinteressen der USA war“, sagt Herberg vom National Bureau of Asian Research. „Da wir quasi energieunabhängig werden, wird man sich wahrscheinlich hier in den USA fragen, ‚müssen wir uns diese Last wirklich aufbürden?’“.

Sicherheit der wichtigsten Schifffahrtswege

Wenn es künftig nicht mehr so wichtig ist, die Ölversorgung aus dem Persischen Golf sicherzustellen, würde das einen Rückgang der US-Präsenz im Nahen Osten rechtfertigen?

Öl aus dem Persischen Golf wird wichtig bleiben, und irgendjemand muss die Sicherheit der Seewege im Golf sicherstellen. China, das zur Nummer 1 des Aufkaufens von Öl aus dem Golf aufsteigen wird, profitiert derzeit von der gewaltigen US-Präsenz in der Region. Vielleicht könnten die USA die Verantwortung für die Sicherheit im Persischen Golf an China übertragen.

„Strategisch ist das etwas, das wir nicht wirklich wollen”, sagt Herberg. „Aber hinsichtlich Öl profitieren sie am meisten hiervon. Sie sind Trittbrettfahrer auf diesen freien Seewegen, die die USA offen halten. Wie also geht man mit diesem Konflikt um?“

Die IEA, die die Regierungen hinsichtlich Energiepolitik berät, wies in dem 2012 veröffentlichten Bericht zur Weltenergie darauf hin, dass die Verschiebung im Ölhandel neue militärische Bündnisse schmieden könnte. Angesichts des angespannten Verteidigungshaushalts hallt dieses Argument nach.

Der Energietycoon T. Boone Pickens wird im Magazin Parade mit den Worten zitiert: „Es ist hirnrissig, dass die 5. Flotte der US-Marine dort fest stationiert ist, um Öl zu schützen, dass nach China und Europa geht“.

Der neuen Verteidigungsstrategie des Pentagon zufolge, festgelegt im Januar, sollten die USA [ihr Verhältnis] zur Region Asien – Pazifik neu „austarieren“. Aber sie spricht sich nicht dafür aus, die Rolle der USA im Nahen Osten herabzustufen.

Die Frage des globalen Ölmarktes

Nur wenige Funktionäre der US-Verteidigung würden sich mit dem Gedanken anfreunden können, dass die chinesische Marine die der USA im Persischen Golf ersetzt. Aber es könnte auch einen Grund hinsichtlich des Öls geben, die US-Präsenz am Golf aufrecht zu erhalten.

Öl wird auf einem globalen Markt gehandelt. Vielleicht brauchen die USA nicht mehr so viel Öl aus dem Persischen Golf wie bisher, aber sie müssen ein Interesse daran haben, dass das Öl weiterhin fließt. Eine Unterbrechung des Ölhandels vom Golf hätte steigende Ölpreise für jedermann zur Folge.

„In gewisser Weise steht die US-Marine vor einem neuen Dilemma”, sagt Herberg. „Der Zugang der USA zu Öl wird in der westlichen Hemisphäre immer sicherer. Am Golf  ist er viel weniger zuverlässig. Aber hinsichtlich des Ölpreises, der globalen Ölmärkte und des Einflusses auf die globale und die US-Wirtschaft bleibt der Ölfluss aus dem Golf von vitalem Interesse.“

Sollte der Ölpreis wegen Schwierigkeiten am Persischen Golf in die Höhe schießen, würde dies ein größeres Handelsdefizit im Energiebereich bedeuten. Damit würde ein größerer Anteil des nationalen Einkommens der USA das Land verlassen.

Carl Pope, der ehemalige Vorsitzende des Sierra-Clubs, sagt, dass man die Realität im Auge behalten muss. „Es geht nicht so sehr darum, wie viele Barrel Öl wir importieren”, sagt Pope. „Es geht um die hunderte von Milliarden Dollar, die wir exportieren, die unsere Sicherheit bedrohen“.

Die US-Flugzeugträger im Persischen Golf könnten noch eine ganze Weile gebraucht werden.

Tom Gjelten

Copyright 2012 National Public Radio. To see more, visit http://www.npr.org/ .

Link: http://www.kawc.org/post/us-rethinks-security-mideast-oil-imports-drop

Übersetzt von Chris Frey EIKE




Offener Brief eines CDU Ratsherren an seinen Stadtkämmerer!

Über viele Jahre haben alle politischen Parteien in Deutschland die Parolen zur angeblich durch anthropogenes CO2 bedingten "Klima-Katastrophe" einfach nachgeplappert. Kaum ein Politiker hat sich die Mühe gemacht, selber einmal anhand auch einer umfangreich vorhandenen Skeptiker-Literatur diese Behauptungen zu überprüfen. Dieses blinde Vertrauen in eine vollkommen politisierte staatliche Klima-Auftrags-Forschung und zugleich in die freiwillig gleich-geschaltete Berichterstattung der deutschen(!) Medien scheint seit einiger Zeit zu schwinden. Anfänge waren z.B. die Anhörung von Professor Fred Singer 2010 durch eine Parlamentarier-Gruppe um Frau Marie-Luise Dött  (CDU) , dann zwei Kongresse der FDP in Sachsen (am 30.6.12 zum Klimathema und am 1.12.12 zum Energiethema unter dem bezeichenden Titel: "Zurück in die Steinzeit – Wie viel Energiewende verträgt Deutschland?") , sowie nun ganz aktuell ein "offener Brief" des CDU-Ratsherren Kurt Fischer, der auch langjähriger Ortsverbandsvorsitzender war.  Er nimmt eine unschöne Attacke des Dr. Hansmann auf Herrn Fischer zum Anlass, die dieser nicht auf sich beruhen lassen will. 

von Kurt Fischer Ratsherr CDU der Landeshauptstadt Hannover

An Herrn

 

Dr. Marc Hansmann

Kämmerer der Landeshauptstadt Hannover

Datum: 14.11.2012

Sehr geehrter Herr Dr. Hansmann,


mit der Äußerung, der Hurrikan Sandy sei eine Folge des Klimawandels,  reflektieren Sie lediglich die vorherrschende Medien-Darstellung. Demgegenüber – einer wissenschaftlichen Nachprüfung hält diese Behauptung nicht stand:

1.  Die Messdaten der IPCC-nahen Institute belegen, daß seit 14 Jahren keine Erderwärmung mehr gemessen wird:


Quelle: http://www.metoffice.gov.uk/hadobs/3/diagnostics/global/nh+sh ; Textfenster und Trendpfeil ergänzt.

D a z u   sagt der Direktor des Englischen Instituts UEA/CRU, wo die o.a. Graphik erstellt und aktualisiert wird, Prof. Phil JONES im Interview:   

"Professor Jones also conceded the possibility that the world was warmer in medieval times than now – suggesting global warming may not be a man-made phenomenon. And he said that for the past 15 years there has been no statistically significant warming."

http://www.dailymail.co.uk/news/article-1250872/Climategate-U-turn-Astonishment-scientist-centre-global-warming-email-row-admits-data-organised.html# ; Interview in Daily Mail, 15.02.2010;

Man muß folglich nicht die sogenannten "Skeptiker" bemühen, um – über die o.a. Graphik hinaus  – das zu belegen, denn selbst in der überwiegend alarmistisch geprägten deutschen Klima-Forschung bestätigen einige der seriösen Wissenschaftler genau das Gleiche, z.B. :

Prof. Dr. Jochem MAROTZKE (Direktor Max-Planck-Inst. Hamburg):

"Nach unseren ersten Berechnungen müsste es in den kommenden Jahren sprunghaft wärmer werden. Aber wir trauen dieser Prognose nicht über den Weg. Denn die Simulation hätte auch den derzeit herrschenden Stillstand beim Temperaturanstieg vorhersagen müssen – was nicht gelang."    DER SPIEGEL, 27.02.2012, S. 113

"Mit der gegenwärtig beobachteten Klima-Entwicklung sind die Modelle also nicht konsistent", gesteht Jochem Marotzke, Direktor des Hamburger Max-Planck-Institutes für Meteorologie.   FOCUS-ol. : (http://www.focus.de/wissen/weltraum/odenwalds_universum/tid-25498/neuer-bericht-sorgt-fuer-kontroverseerderwaermung-eine-frage-deransicht_aid_737040.html ; 16.04.2012)

2.  Sandy ist in den Hurrikan-Statistiken der Wetterdienste bezüglich seiner Wind-Stärke allenfalls Durchschnitt :

http://www.climatedepot.com/a/18238/Scientists-reject-SandyClimate-Link–Warmists-Go-Full-Tabloid-Climatology–Claim-Sandy-Speaks–Round-Up-of-Hurricane-Sandy-Reactions

Meteorologisch etwas ungewöhnlich, aber keinesfalls außergewöhnlich war es, daß ein Hurrikan die US-amerikanische Ostküste erreicht. Nur dadurch entstanden die extremen Schäden. Das lag an einer besonderen Wetterlage, die mit "Klimawandel" nicht das Geringste zu tun hat:

http://www.eike-klima-energie.eu/news-cache/hurrikan-sandy-fanal-der-klima-alarmisten 

3.  Einen Trend zu mehr Extremwetter findet auch das IPCC (Weltklimarat) nicht:

“Recent analyses in changes in severe local weather (tornados, thunder days, lightning and hail) in a few selected regions provide not compelling evidence for widespread systematic long-term changes“.

“Neue Analysen der Änderungen bei lokalen Unwettern (Tornados, Gewittertage, Blitze und Hagel) in einigen ausgewählten Regionen liefern keinen zwingenden Beweis für weitverbreitete systematische langfristige Änderungen“.     (Quelle: IPCC, 2001, TAR-02-2, Chapt. 2.7.4., Summary, S.163-164).

Auch ein IPCC-Sonderbericht vor der Klima-Konferenz in Durban (2011) kam zu keinem anderen Ergebnis:
Quelle: http://www.eike-klima-energie.eu/news-cache/presseschau-zum-ipcc-extremwetterbericht-mehr-extremwetter-fehlanzeige

Weltweite Statistiken der Wetterdienste  zeigen ebenfalls keine Extremwetter-Trends:

Quelle: http://www.eike-klima-energie.eu/news-cache/aktuell-zur-durban-un-klimakonferenz-neuer-ipcc-bericht-zunahme-von-extremwetterlagen/

Auch die wiederholten Behauptungen von Versicherungen, es gäbe mehr Schäden,  w e i l  es mehr Extrem-Wetter gäbe, halten einer Nachprüfung nicht stand:

Quelle: http://www.eike-klima-energie.eu/news-cache/extrem-wetter-hysterie-und-kein-ende-oder-neues-aus-der-anstalt/
u n d
http://www.kaltesonne.de/?p=4285
u n d
http://www.eike-klima-energie.eu/climategate-anzeige/bei-medien-und-der-muenchner-rueck-nehmen-naturkatastrophen-deutlich-zu-in-der-wirklichkeit-ist-das-anders/

Sehr geehrter Herr Dr. Hansmann, erstaunt stelle ich fest, dass selbst kluge Leute immer wieder Medien-Verlautbarungen  nachsprechen, die auf „eingefärbten Behauptungen“ von Profiteueren und Ideologen der "Klima-Welt-Rettung“ beruhen, aber auf naturwissenschaft-lich unsicherer Basis stehen. Ich fände es sehr schön, wenn sich mehr „kluge Leute“ der Mühe unterzögen, selbst zu denken und selbst nachzuprüfen!!

Insbesondere müssen wir uns vor den Politikern hüten, die – wie vorstehend ausgeführt – auf fragwürdiger und unabgesicherter naturwissenschaftlicher Grundlage sehr teuere so genannte "Klima-Schutz-Maßnahmen" verantworten, denn man könnte uns eines Tages auch daran  messen.

Dazu sagt z.B. der Vizepräsident des Alfred-Wegener-Instituts, Prof. Dr. Heinrich Miller, im Interview zum "Klimaschutz":

Wer von Klimaschutz redet, weckt Illusionen“. Miller mahnt zu Bescheidenheit: „Klima lässt sich nicht schützen und auf einer Wunschtemperatur stabilisieren. Es hat sich auch ohne Einwirkungen des Menschen oft drastisch verändert.“ DIE ZEIT, Bohrer im Eis, 06.06.2007 , S.40

Mit freundlichen Grüßen

Kurt Fischer
Mitglied im Rat der Landeshauptstadt Hannover
Mitglied im Umweltausschuss seit mehr als 10 Jahren




Energiewende- Irrwege nach Utopia

Historisch hat sich dabei eine Versorgungsstruktur ergeben die aus vier grossen Teilbereichen besteht die von den vier Netzbetreibern wirtschaftlich geführt wird. Diese Teilbereiche sind verpflichtet den in ihrem Bereich gebrauchten Strom auch innerhalb ihres Versorgungsgebietes zu produzieren und auch die Netzspannung und Frequenz einzuhalten.

Zur Erhöhung der Versorgungssicherheit sind die vier Gebiete über Kupplungen miteinander verbunden und können so auf Störungen wie Teilnetzausfall oder Erzeugerausfall besser reagieren. Zusätzlich gibt es Kupplungen zum Ausland die den Im/Export von Strom erlauben, aber auch die Frequenzhaltung auf fast ganz Europa ausdehnen. Zusätzlich gibt es in allen Versorgungsgebieten industrielle Kraftwerke und von Stadtwerken betriebene Kraftwerke, deren Inselnetz wiederum über Kupplungen an das Verbundnetz gekoppelt sind.

Die Kuppelstellen sind der Messort an dem der Leistungsaustausch gemessen und an die Netzleitstellen der Versorger übermittelt wird, die dann die Erzeugerleistung in ihrem Gebiet so beeinflussen, dass an den Kuppelstellen alles den geschlossenen Verträgen entspricht.

Bild 1 nebenstehend: Aufteilung Deutschlands auf die Netzbetreiber

Bis in die siebzieger Jahre hatten alle grossen Stromerzeuger am Netz nur einen mechanischen Drehzahlregler mit proportionaler Charakteristik. Die Kraftwerker sagen Statik dazu. Sie beträgt ca.5%. Das bedeutet, dass die Stellventile der Turbinen, über die den Turbinen das energietragende Arbeitsmittel zugeführt wird, bei einer Abweichung von 2,5Hz, das sind 5% von 50Hz, vom Sollwert ihren gesamten Stellbereich proportional durchfahren. Bei Überdrehzahl schliessen die Ventile weiter , bei Unterdrehzahl öffnen die Ventile weiter. Überdrehzahl tritt ein wenn zu viel Strom erzeugt wird. Dies kann durch den Ausfall eines Teilnetzes eintreten. Unterdrehzahl tritt ein wenn zuwenig Strom erzeugt wird. Das kann durch den Ausfall eines Kraftwerks eintreten. Volle Öffnung der Ventile ist bei 50 Hz Netzfrequenz gegeben wenn der Sollwert auf 52,5Hz steht.Den Störungen der Netzfrequenz tritt die Drehzahlregelung aller im europäischen Verbundnetz laufenden Maschinen innerhalb von Millisekunden entgegen, führt aber die Netzfrequenz nicht wieder genau auf die Ausgangsfrequenz zurück. Das vermitteln dann die Netzleitstellen durch Anweisung an die Regelleistungserzeuger.

Fliehkraftdrehzahlregler

In den siebziger Jahren kam zu den mechanischen Drehzahlreglern mit Ihren hydraulischen Regelventilen und Sicherheitseinrichtungen die elektronische Turbinenregelung mit der man über einen elektrohydraulischen Wandler Einfluss auf die Regelventilstellung der Turbinen nehmen kann. Jetzt wurden die Sollwerte der hydraulischen Regler auf >52,5Hz gestellt, das bedeutet das der mechanische Regler die Ventile bei 50 Hz ganz öffnen will, die Führung der Maschine übernimmt aber je nach gewählter Struktur die elektronische Turbinenregelung. Der hydraulische Regler ist weiterhin in Betrieb, schützt aber die Maschine nur vor Überdrehzahl. Jetzt konnten kleinere Erzeuger wie Industriekraftwerke oder Stadtwerke den Frequenzeinfluss abschalten, leistungsgeregelt fahren und die Netzsicherheit den anderen vertragsbedingt überlassen.

Man erkennt das sich durch Technik ein weiter geteilter Markt aufgetan hat:

1.     Grundlasterzeugung ( Braunkohle, Nuclear, Wasser)

2.     Mittellasterzeugung ( Steinkohle, Gas )

3.     Spitzenlasterzeugung( Gas, Pumpspeicher, Luftspeicher)

4.     Regellasterzeugung

Bis jetzt haben die Versorger Deutschland mit billigem Strom versorgt und damit einen riesigen Erfolg der deutschen Wirtschaft ermöglicht, was ja für alle Wohlstand gebracht hat. Das alles wird jetzt zerstört durch die Phantasien ökologischer Spinner mit Unterstützung der EU und der Bundesregierung. Die vier grossen Versorger wurden gezwungen ihre Netze zu verkaufen. Die neuen Eigentümer sind durch dass EEG gezwungen Strom aus unwirtschaftlichster Erzeugung, die in der Regel nicht frequenzregelungsfähig ist, vorrangig ins Netz aufzunehmen und zu einem Preis der das vielfache des vorherigen ist, zu vergüten:

1.Photovoltaik (  Tag und Nachtwechsel, Witterungseinfluss )

2.Windkraft ( Zufallserzeugung je nach Wetterlage, Landschaftszerstörung, Zerstörung der fliegenden Tierpopulationen, usw.  )

3.Biomasse ( Umwidmung von Ackerflächen, Umwidmung von Forsten, Zerstörung der biologischen Grundlagen des Waldes durch Entnahme von Biomasse, Zerstörung der Biotope)

4.Erdwärme ( für Deutschland unsinnig )

5.Blockheizkraftwerke (nur in Verbindung mit Wärmenutzung)

6.Wasserkraft(grösste Umweltschädigungen durch Absperrung der Fischzüge)

Mit der Begründung das CO2 durch Verschmutzung das Weltklima schädigt, dafür gibt es es keinen wissenschaftlichen Beweis ausser in den Köpfen dieser Ökospinner, will ein Staat wie Deutschland seine Stromversorgung auf sogenannte regenerative Stromerzeugung umbauen. Alles was auf  CO2-Ausstoss hinausläuft soll verschwinden. Diese Ökospinner berufen sich auf einen Konsens in der Wissenschaft. Den kann es aber schon prinzipiell nicht geben da in der Wissenschaft nur Belege zählen und nicht Mehrheitsmeinung. Wo das anders ist kann man von Pseudowissenschaft ausgehen. Die wird aber in den Medien gefeiert. Pisa lässt grüssen.

Alle angegeben Methoden der regenerativen Stromerzeugung  haben mindestens eine Eigenschaft die sie für die alleinige Versorgung eines Gebietes auschliessen :

1.     Photovoltaik ist durch den täglichen Wechsel des Tageslichtes, die Abhängigkeit von der Bewölkung, die Schnee-/Eisbedeckung im Winter sowie dem Sonnenstand nicht in der Lage eine gleichbleibende Leistung an das Netz abzugeben. Die vielfach beschworene Forschung zur Erhöhung des Wirkungsgrades der Zellen ist weggeworfenes Geld.Es kommt nur auf den Preis pro installiertes Kilowatt an. Aber es geht dabei um Steuergeld zur Förderung dieser Arbeiten. Die eingesetzten Umrichter, die den Zellenstrom ins Netz einspeisen, können nicht die Netzspannung und Netzfrequenz beeinflussen, sondern sie werden vom bestehenden Netz geführt. Eine Photovoltaikanlage kann kein Inselnetz aufbauen und betreiben. Es muss immer eine sichere Verbindung zum Verbundnetz bestehen. Eine Anpassung der Leistung an die Netzfrequenz ist nur in Form einer Abschaltung bei Überfrequenz vorgesehen. Die Anpassung der Leistung an die Frequenz nach unten wäre möglich, ist aber wegen der sich daraus ergebenden Ertragsverluste für die Eigner nicht realisiert. Die Umrichter sind auf die maximale Ausbeute der Zellen ausgelegt (Maximum-Power-Point-Tracker ). Damit wird die Auskoppelleistung auf dem für die Beleuchtungsverhältnisse grössten Wert gehalten. Wichtig für den Eigentümer. Der Nutzungsgrad der Installation liegt bei 10%. Die maximal mögliche Leistung ist die Nennleistung der Installation, die Minimalleistung ist Null. Die Ausstattung dieser Anlagen mit Speicherbatterien bringt sie wirtschaftlich in eine völlig hoffnungslose Situation. Eine autarke Versorgung kleiner Ortschaften ist so niemals möglich.

2.     Windkraft ist wegen der Eingriffe in unsere Lebensumwelt kritisch zu sehen. Windkraft ist wegen des zufälligen Auftretens von Wind nicht zur Versorgung geeignet.Windkraftanlagen sind in der Leistung und der Frequenz nicht regelbar. Die in den technischen Daten angegebenen Leistungsregler dienen nur zur Begrenzung der Maximalleistung der Generatoren zu deren eigenen Schutz. Die Windgeschwindigkeit geht im Kubik in die Leistungsentwicklung der Windturbine ein. Bei halber Windgeschwindigkeit hat eine Windkraftanlage nur noch ein Achtel der Nennleistung. Die Turbine erzeugt bei Nennwindgeschwindigkeit die Nennleistung. Das liegt etwa bei 12-13m/sec. Bei ca. 25-30m/sec werden die Windkraftanlagen zur eigenen Sicherheit abgeschaltet. Eine Windkraftanlage kann kein Inselnetz aufbauen und betreiben. Es muss immer eine sichere Verbindung zum Verbundnetz bestehen. Die Leistung einer solchen Maschine ist nur vom zufälligen Wind abhängig. Eine Grundlastfähigkeit ist trotz aller beschworenen Forschungen niemals möglich. Es geht dabei um Steuergeld zur Förderung dieser Arbeiten. Eine Frequenzregelung ist mit diesen Maschinen nicht möglich. Der Nutzungsgrad dieser Anlagen liegt an Land bei 17%, auf See bei 35%. Die maximal mögliche Leistung ist die Nennleistung der Installation, die Minimalleistung ist Null. Die Ausstattung dieser Anlagen mit Speichern bringt sie wirtschaftlich in eine völlig hoffnungslose Situation. Eine autarke Versorgung kleiner Ortschaften ist so niemals möglich. Inselbetrieb ist nur in Verbindung mit einem Haupterzeuger der frequenzregelbar ist möglich. Mit diesem kann man ein Inselnetz aufbauen und dann darauf eine WKA schalten. Sollte der Haupterzeuger ausfallen so muss die WKA sofort eine Notabschaltung einleiten, sonst verliert sie ihre Flügel. Man kann also mit der WKA nur einen Teil des eingesetzten Treibstoffs des Haupterzeugers sparen. Treibt eine Windböe die WKA-Leistung so hoch das der Haupterzeuger auf Null-Leistung geht um die Frequenz zu halten, tritt der Schwarzfall ein.

3.     Biomasse ist wegen der Eingriffe in unsere Lebensumwelt kritisch zu sehen. Dieser Bericht befasst sich nur mit der Technik. Trotzdem ist anzumerken, das von diesen Anlagen Gefahren ausgehen, die schon ein vielfaches der Menschenleben, die man der westlichen Kernenergie zuschreibt, gefordert hat. Bei dieser Technik wird Biomasse durch biologische Prozesse in Methan und begleitende Gase umgesetzt. Dies ist ein kontinuierlicher Prozess der von der Beschickung der Apparate mit Biomasse und deren Eigenschaften abhängt. Das entstehende Methan wird mit einen Gasmotor verbrannt und in Strom umgesetzt. Gasmotore werden in der Regel an ihrem Bestpunkt betrieben um maximalen Ertrag für den Eigner zu erzielen. Das bedeutet aber auch das die Maschinen nicht in der Leistung regelbar sind. Das entstehende Methan wird nicht kontinuierlich verbrannt sondern Quantumsweise. Wenn der Methandruck den Einschaltgrenzwert überschreitet wird der Motor gestartet und der Generator ans Netz gebracht. Dann fährt der Motor auf Bestleistung und bleibt da bis der Methandruck die Abschaltgrenze unterschreitet. Die am Motor anfallende Abwärme kann entweder als Prozesswärme oder Heizwärme genutzt werden. Sonst muss die Wärme an die Umgebungsluft abgegeben werden (Sommerbetrieb). Der anfallende Strom kann als  Betriebsstrom selbst verbraucht oder ins Netz eigespeist werden. Auch hier gilt wieder: Die Anlage kann nur betrieben werden wenn eine sichere Verbindung zum Verbundnetz besteht. Der Wirkungsgrad der Anlagen liegt für die Stromerzeugung bei ca.30%. Bei Nutzung der Motorabwärme steigt der Nutzungsgrad der Anlage auf bis zu ca.90%. Die maximal mögliche elektrische Leistung ist die Bestleistung der Installation, die Minimalleistung ist Null. Eine autarke Versorgung kleiner Ortschaften ist so niemals möglich.

4.     Erdwärme ist für Deutschland wegen der geringen erzielbaren Wassertemperaturen Unsinn. Forschungen in diesem Bereich sind nur für den Export von Anlagen interessant.

5.     Blockheizwerke sind nur dann wirtschaftlich zu betreiben wenn man einen grossen Wärmeabnehmer zur Verfügung hat der viel Wärme ganzjährig abnimmt. Heizungsbetrieb im Wohnbereich ist ungeeignet. Man kann dann mit den geringen Betriebsstunden nicht in den wirtschaftlichen Betrieb kommen da die Investitionskosten immens sind. Ich möchte in diesem Zusammenhang an meinen Beitrag „Die-Funktion-eines-Blockheizwerkes“ vom 3.8.2011 erinnern.( http://tinyurl.com/8ubpytd). Die maximal mögliche elektrische Leistung ist die Nennleistung der Installation, die Minimalleistung ist Null. Eine autarke Versorgung kleiner Ortschaften ist so niemals möglich.

6.     Wasserkraft erzeugt 95% des Stroms dieser Kategorie in Grossanlagen. 5% des Stroms    dieser Kategorie  wird in den 95% Kleinanlagen erzeugt. Diese Kleinanlagen haben nur den Sinn Geld abzugreifen. Der Umweltschaden, der da angerichtet wird, ist diesen Leuten egal. Wasserkraft mit Grossanlagen ist in Deutschland so gut wie nicht mehr ausbaubar.

Wenn Bürgermeister im Fernsehen davon berichten, das ihre Gemeinden mehr Strom erzeugen als sie verbrauchen, dann gilt das nur für das Saldo der Zählerstände. Wenn man denen die Verbindung zum Verbundnetz abschaltet dann ist dauerhaft dunkel bei denen im Ort. Diese Leute betreiben das Geschäft nach den Regeln der Rechtschreibung:

Strom ist Strom.

Ob er zeitgerecht erzeugt wird ist uns egal.

Unter den unter 1 bis 6 angeführten Anlagen können nur die Photovoltaik und die Windkraft nennenswerte Beiträge zur Stromversorgung leisten, wobei man aber erkennen muss das diese Techniken völlig unwirtschaftlich sind. Anlagen, deren Leistung in Abhängigkeit von zufälligen Naturumständen Null  ist, können nur im Zusammenspiel mit Stromspeichern, die die abgegebene Leistung glätten, eingesetzt werden. Für diese Stromspeicherung ist nur die Technik der Pumpspeicherkraftwerke bekannt und in der Lage die erforderlichen Leistungen bereitzustellen. Pumpspeicherkraftwerke haben einen Wirkungsgrad von ca. 75%. Andere vorgeschlagene Techniken wie zB.Wasserstofftechnik, Methanerzeugung oder Luftspeichertechnik sind völlig unwirtschaftlich oder in der Leistungsgrösse viel zu klein. Andere gemachte Vorschläge, wie Ringwallspeicher, lassen oft am Geisteszustand der vorschlagenden Personen zweifeln. Klar ist aber, das man Speicher haben müsste um die Utopie der regenerativen Stromversorgung zu erreichen. Technisch ist das machbar. Praktisch ist die Sache so, das man nirgends in Deutschland oder Europa die entsprechende Anzahl von Standorten finden kann um diese Anlagen zu bauen.. Wieviele müssten wir denn bauen? Gehen wir mal von einem kalten Winter aus. Die Netzlast liegt bei 70.000 MW. Wir haben eine Wetterlage ohne Wind und die Photovoltaik ist mit Eis und Schnee bedeckt. Dann müssten wir  70 Pumpspeicherwerke der Grössenordnung Goldisthal mit ca. 1000MW haben. Die könnten dann für 8 Stunden Deutschland versorgen. Dann ist das Oberbecken leer. Für einen Tag müssten es schon 210 Werke sein. Man braucht nicht weiter daran zu denken. Das ist völlig unmöglich. Jedes dieser Werke würde ca. 800 Millionen Euro kosten. Wer soll das bezahlen ? Und wie soll man das Arbeitswasser wieder nach oben bringen ? Mit Windmühlen etwa ? Ausgeschlossen !

Die wirtschaftliche Seite der Sache ist so: Der Offshorewindmüller bekommt ca. 15Cent/kWh vom Netzbetreiber. Der Netzbetreiber hat Kosten für den Netzetrieb, Gewinn und den Kapitaldienst. Diese Kosten stellt er dem Pumpspeicherbetreiber in Rechnung. Der verliert Systembedingt 25% des Stroms durch den Wirkungsgrad seiner Anlage. Die Kosten für Anlagenbetrieb, Gewinn und Kapitaldienst des Pumpspeicherwerks stellt er dem Netzbetreiber bei  Lieferung in Rechnung. Der Netzbetreiber muss dann den Strom an seine Kunden weiterleiten. Dabei entstehen Kosten für Netzbetrieb, Gewinn und Kapitaldienst die dann dem Stromhandel in Rechnung gestellt werden. Wenn man mal die Ausgangskosten von 15 Cent/kWh vergleicht mit 2,4Cent/kWh für Braunkohlestrom dann schwinden einem ja die Sinne. Dazu kommen noch die Probleme mit den Betriebsstunden dieser Anlagen.Am besten wäre ja wenn sie garnicht laufen müssten. Aber wie finanziert man sie dann? Diese Lösung des Problems ist nicht machbar.

Ein zweites Problem tut sich auf beim Anschluss der Offshoreanlagen an das Festland und die Weiterleitung in die Verbrauchszentren. Die Bundesregierung möchte 10000 MW Windkraft bis 2020 in der Nordsee aufbauen lassen. Bei 15 Cent/kWh finden sich auch Investoren. Der Netzbetreiber muss diese Anlagen mit Seekabeln ans Festland bringen und dann weiter an Einspeisepunkte des Verbundnetzes. Der Nutzungsgrad der Kabel liegt bei 35%. Das bedeutet das die Kabel im Mittel zu 35%, also mit 3500 MW ausgelastet sind. Ausgelegt werden müssen sie aber auf eine Leistung von 10000 MW. Die dadurch entstehenden Kosten sind ein wirtschaftliches Risiko das mit erhöhten Netzgebüren abgegolten werden muss. Dazu kommt ein technisches Risiko. Noch nie sind Energiekabel in dieser Grössenordnung auf See verlegt worden. Technische Schäden sind daher kaum abschätzbar. Wie repariert man Kabelschäden in  grosser Wassertiefe? Ist das Risiko versicherbar ? Wer trägt die Entschädigungskosten für die WKA-Betreiber die ja im Schadensfall nicht liefern können ? Alle diese Kosten werden auf den Endverbraucher abgewälzt. Wer glaubt das die Netzbetreiber die Kosten selber tragen sollen hat ja wohl den kapitalistischen Wirtschaftkreislauf nicht verstanden. Dem Netzbetreiber werden Investitionen zugemutet die sein Eigenkapital um das 20fache übersteigen ohne sicher sein zu können das die geplanten Windparks auch kommen.

Die gleiche Problematik tritt bei Onshore-Windkraftanlagen im Süden auf. Hier liegt die mittlere Auslastung der Kabel bei 17%.

Zurück zu den Speichern ! Wie man sieht ist der Bau von Speichern nicht möglich. Das scheitert an den Kosten, den Standorten  und am Bürgerprotest. Die folgende Grafik zeigt den Verlauf der Windkrafterzeugung im Februar 2012. Die gesamte installierte Leistung betrug 29.185 MW bei 22.664 Anlagen. Die Grafik ist der Internetseite von Prof.Helmut Alt entnommen und modifiziert.

Das hat ganz Schlaue dazu gebracht sich eine neue Utopie auszudenken : Smartgrid. Das bedeutet den Verbrauch an die Erzeugung anzupassen. Das bedeutet die Verlegung des Verbrauchs in die grünen Bereiche über der roten Linie. Man scheut sich ja schon nicht mehr solch hirnverbrannten Unsinn in Zeitungen zu veröffentlichen. Die Wirtschaft eines Industriestaates soll sich der wetterbedingten Stromerzeugung anpassen, ganz zu schweigen vom privaten Leben der Menschen. Dann kam die Idee die Batterien von Elektroautos als Speicher zu benutzen. Hirnverbrannter Blödsinn. Dann sollten bis 2020 eine Millionen Autos mit Elektroantrieb auf der Strasse fahren. Daran kann man schon erkennen wie es um den Geisteszustand mancher Politiker bestellt ist. Die Umstellung des Strassenverkehrs auf Elektro scheitert schon an der Materialbeschaffung für die Batterien und deren Kosten. Deren Kapazität ist auch nach 100 Jahren Forschung nicht ausreichend um ein normales Automobil zu betreiben. Wenn man nur noch Elektrofahrzeuge produzieren würde müsste man die deutschen Motor- und Getriebewerke schliessen. Das wäre das Ende der Automobilindustrie. Dann kam die Idee mit diesem Strom Nachtspeicherheizungen aufzuladen. Klasse Idee, für den Sommerbetrieb ungeeignet. Wie sich EON der größte deutsche Energiekonzern ein deutscher Energiekonzern das alles vorstellt ist hier zu sehen

Es ist eine Seite der industriellen Traumtänzer. Die liegen auf den Brustwarzen vor der Pfarrerstochter. Hätte ich nicht gedacht, dass so etwas möglich ist.

Alle diese Ideen haben den Zweck den Strom aus zufälliger Erzeugung der über die mittlere Leistung hinausgeht irgendwie zu verbraten. In der obigen Grafik ist der Strom oberhalb der roten Linie gemeint. Wer will aber Strom für irgendetwas einsetzen wenn der Geld kostet. So ist das Problem nicht zu lösen. Dann kam man auf die Idee Gasturbinenkraftwerke zu bauen, die dann liefern wenn bei den regenerativen mal Pause ist. Dieser Strom ist durch die gelben Flächen in obiger Grafik markiert. Wer will aber Gasturbinenanlagen bauen von denen er nicht weiss welche Betriebsstunden und Erzeugung er erwarten kann und die lange Stillstandszeiten haben in denen sie nur Geld kosten. Dafür hat die Politik schon eine Antwort.  Zu den Strommarktsegmenten 1 bis 4 kommt der Kapazitätsmarkt. Darauf darf sich der Verbraucher schon freuen, denn die Kosten dieses Investitionsanreizes werden voll auf den Verbraucher abgewälzt. Man bezahlt damit Anlagen die nicht laufen aber im Angebot sind. Wie man das Abrechnen will steht in den Sternen. Das hilft aber nicht gegen die auftretenden Erzeugungsspitzen durch Sonnenschein und Wetter. Dagegen hilft nur Abschalten der Anlagen. Die betroffenen Anlagenbetreiber sind dann zu entschädigen, bekommen also Geld für nicht gelieferten Strom. So will es das EEG. Will man das vermeiden, so kann man den Strom noch ins Ausland leiten indem man die Frequenz steigen lässt. Die ausländischen Kraftwerke werden dann zur Frequenzstützung ihre Leistung herunterfahren. Damit wird aber deren wirtschaftlicher Nerv getroffen und man muss ihnen Geld für jede abgenommene kWh zahlen die sie dann nicht mehr selbst in eigenen Anlagen produzieren, sonst werden sie die Kupplungen nach Deutschland abschalten.

Ein ähnliches Problem gibt es zur Zeit mit Polen. Dort wird im Norden deutscher Windstrom ins polnische Netz eingespeist und im Süden wieder nach Deuschland zurückgeholt. Diese Nutzung des polnischen Netzes bringt die dortigen Versorger in techniche Schwierikeiten so das sie jetzt die Netzkupplungen mit Phasenschiebertransformatoren ausstatten. Diese verhindern zuverlässig  die parasitäre Nutzung ihres Netzes.

Seltsames tut sich auch auf der Baustelle der Firma Bard. Man errichtet einen Windpark in der Nordsee „Bard Offshore 1“ mit 80 WKA je 5MW. Der Generator ist eine doppeltgespeiste Asynchronmaschine. Diese Maschinen haben Schleifringe und Kohlebürsten die regelmässig auf Verschleiss geprüft werden müssen. Da die WKA manchmal wochenlang nicht erreicht werden können, wegen Wind und Seegang, bauen andere Hersteller nur permanenterregte Synchrongeneratoren ein. Man muss sich mal den Aufwand vorstellen 80 WKA regelmässig zu begehen nur wegen der Schleifringe.

Dasselbe ist in der Ostsee zu sehen. Baltic 1 (21 Anlagen, 2,3MW)  und Baltic 2 (80 Anlagen, 3,6MW) werden mit doppeltgespeisten Asynchronmaschinen bestückt. Dazu noch mit so geringer Maschinenleistung. Man kann sich nur noch wundern.

Wenn wir in Deutschland dann 2050 soweit sind das wir nur noch  Wind und Sonne brauchen, wieviel Gaskraftwerke müssten dann in Deutschland stehen um auch mal ohne Wind und Sonne klar zu kommen. Das grösste von Siemens lieferbare GuD-Kraftwerk hat eine Leistung von 570MW. Bei einer Netzlast von 70000MW an einem Wintertag müssten wir 123 dieser Anlagen in Betrieb haben. Jede wird ca 600 Mio. Euro kosten. Das macht dann 74 Milliarden Euro die auf den Stromkunden umgelegt werden. Die Betriebsstunden dieser Anlagen sind nicht gerade üppig. Dafür wird der kWh-Preis etwas höher als man denkt. Das ist ja für Deutschland kein Problem. Das erforderliche Gas kommt aus Russland. Hoffentlich haben wir dann noch Geld für den Strom. Bei dieser Leistung für das Klima sollte die Welt etwas von Deutschland lernen können. Vielleicht stehen aber auch aliierte Truppen in Berlin und verteilen Care-Pakete.

Und noch eine  Frage :

Wer sorgt dann in Deutschland für ein stabiles Netz mit Nennfrequenz und Nennspannung ? Natürlich Gaskraftwerke mit CO2 Ausstoss, wer denn sonst.

Allen die bis hierhin durchgehalten haben empfehle ich folgenden Link :

Das sind 30 Minuten Lachen, wenn es nicht zum weinen wäre.

Henryk. M. Broder und Hamed Abdel Samad haben für die ARD einen schönen Film gemacht :  Guck mal, wer die Erde rettet.

Da sitzen die Teilnehmer eines Nachhaltigkeitskongresses wie die Kinder bei Klampfenmusik vor dem Kasperltheater und die Kanzlerin spricht Blödsinn und dann wird der George Clooney der deutschen Nachhaltigkeitsszene in Gestalt von  Dr. Norbert Röttgen angekündigt. Man kann Teilnehmer erkennen und über deren Geisteszustand nachdenken.

Keiner der befragten Leute konnte Nachhaltigkeit erklären, auch nicht das Paar BWL-Studenten mit sozialistischem Anstrich. Bei denen muss sowieso noch lackiert werden.

Nur Claudia Roth hatte ein Beispiel parat :

Den kompostierbaren Anzug. Ja, der rettet die Welt !

Bei dem Besuch in der Firma, die den Anzug herstellt, traf das ARD-Team auf Claudia Roth. Die hatte ihre Regionalkometen dabei und die freuten sich über dieses nachhaltige Unternehmen. Ich frage aber : „ Wer in aller Welt will einen Anzug tragen der zu rotten anfängt wenn er mal feucht wird und der für Erdbestattungen vorgesehen ist ?“. Bringt man den Anzug in die Reinigung kriegt man doch nur die Knöpfe und das Steppgarn zurück. Da sieht man mal was das für seltsame Grüne sind. Einer ihrer Regionalsternschnuppen sprach auch davon das er sich in der letzten Zeit viel mit der „Grossen Transformation nach Schellnhuber“ beschäftigt. Wir als Normalbürger müssen uns dann von diesen Spinnern gängeln lassen. Ist doch weggeschmissene Zeit sich damit zu beschäftigen.

Claudia Roth sagte auch „ Nachhaltigkeit ist, wenn man sich erinnert in die Zukunft “ ? Was meint sie damit ? Ich glaube sie meint die Wiederverwendung mittelalterlicher Technik wie Wind- und Wassermühlen. Die wird aber dann als hightech aufpolierte deutsche Spitzentechnik dargestellt und nicht warheitsgemäss als ineffizienter untauglicher Unsinn.

Die einfachen Leute glauben das und sind begeistert.

Zugegeben, der Film von Broder ist polemisch. Aber wenn man genau hinschaut kann man sehen, dass er zeigt wie alle Register der Propaganda gezogen werden. Ein Nachhaltigkeitskongress wird abgehalten. Dass der Bundestag so ein Gremium unterhält, kann sich doch kaum einer vorstellen. Aber es ist so. Man sehe hier.

Claudias Waschtag

Der wöchentliche Waschtag beginnt damit, dass kein Feuerholz da ist. Jetzt muss Jürgen ran und zum Förster, Holz kaufen. Das liegt aber noch im Wald. Er leiht sich dann beim Nachbarn dessen Öko-Handwagen und zieht damit die 6km in den Wald. Hier liegt jede Menge Holz, muss aber noch geborgen und auf Länge für den Öko-Handwagen geschnitten werden. Die Öko-Kettensägen haben 2050 ein langes Blatt und an den Enden hölzerne Griffe für den ökologischen Handbetrieb. Für den zweiten Griff ist Renate mitgegangen. Die macht aber bald schlapp und als Ersatz muss Cem ran. Die bergen und sägen jetzt 6 Stunden, laden dann auf und sind abends zurück. Völlig kaputt fallen sie ins Ökofederbett.

Am nächsten Tag  heisst es Abladen, dann Sägebock aufstellen und das Holz auf Ofenlänge schneiden. Jürgen und Cem sind damit gegen Abend fertig und selber auch.

Am nächsten Tag heisst es Holz spalten und stapeln. Das machen die beiden wieder bis abends und sind dann damit fertig. Das waren jetzt schon 3 Tage ohne Parteisitzung.

Am nächsten Tag ist die Stunde der Waschfrau gekommen. Claudia im geblümten Küchenkittel, Kopftuch und Holzpantinen betritt die Waschküche. Sie heizt den Waschkessel an. Zum Anmachen nimmt sie noch ein paar alte Parteiprogramme, die eine schöne neue Welt versprachen. Bis das Wasser kocht wird die Wäsche in einem anderen Zuber eingeweicht. Rein ökologisch ! Dann kommt die Kochwäsche in den Waschkessel und muss gestampft werden. Es dauert nicht lange, dann ist die Waschküche voller Dampf. Claudia ist völlig durchnässt, aber die andere Wäsche muss noch mit dem Waschbrett gewaschen werden.

Sakra !! Da ist noch ein Fleck auf der Tischdecke. Das Fleckensalz ist im Keller. Also hurtig hinab in den dunklen Keller. Sakra !! Die Glühlampe ist kaputt. Macht nichts. Claudia hat sich ja frühzeitig mit Ersatzglühlampen eingedeckt. Wenn Stromsperre ist muss sie aber die Öko-Öllampe nehmen. Dann wird alles zum Trocknen auf den Dachboden geschleppt und aufgehängt. 6 grosse Körbe sind hochzuschleppen. Gegen Abend ist Claudia  soweit fertig mit dem Waschen und den Kräften. Jetzt aber noch das Abendbrot richten für Jürgen und Cem. Die waren politisch tätig. Dann kommt noch der Abwasch. Die Geschirrspülmaschine heisst Claudia. Warmes Wasser kommt aus dem holzbefeuerten Herd. Gegen 22 Uhr kann sie dann erschöpft aber dankbar ins Bett fallen.

Am nächsten morgen um 6 Uhr aufstehen und Feuer im Herd anmachen.. Cem und Jürgen warten auf ihr Frühstück. Die haben Parteisitzung. Dann geht’s los. Wäsche von der Leine nehmen. Sechs grosse Körbe sind von Dachboden runterzuschleppen. Die Wäsche muss jetzt gebügelt und zusammengelegt werden. Geht aber nur, wenn auch Strom da ist. Das holzkohlebefeuerte Bügeleisen nimmt Claudia schon lange nicht mehr. Mit der Bettwäsche muss Sie zur nächsten Heissmangel. Mit dem geliehenen Handwagen sind das 2 km. Die Heissmangel hat aber gerade Pause wegen Stromsperre. Trotz grosser Windkraftanlagendichte, bei der unser Deutschland mit 120.000 WKA führend auf der Welt ist, reicht der Strom bei Flaute nicht. Dann muss sie eben nochmal hinlaufen. Hausputz, Abwasch, Rasenmähen mit dem Handmäher von Brill, Unkraut zupfen, Hecke schneiden mit der Hechenschere die 2 grosse Holzgriffe hat und einen Kuchen backen für Jürgen und Cem. Das Feuer im Herd nicht ausgehen lassen. Dann Abendbrot für Jürgen und Cem richten. Die haben noch Parteiarbeit im Wirtshaus und kommen erst spät zurück. Claudia liegt dann schon völlig erschöpft im Bett. Ach ja , sie ist dankbar für die schöne neue Welt.

Gastautor Michael Treml; Bremen




Ein amerikanischer Ölfund, der mehr Öl als die gesamte OPEC enthält

Bild rechts: Eine Anfangserkundung 40 Meilen [ca. 64 km] nordwestlich der Stadt Rifle in Colorado von der American Shale Oil LLC. Sie befindet sich über der Green-River-Schieferformation, die Schätzungen zufolge 3 Billionen Barrel Öl enthalten soll.

Ein vor Kurzem erschienener Bericht des Government Accountability Office (GAO) in den USA schätzte, dass wenn auch nur die Hälfte des gefundenen Öls abgebaut werden könnte, dies „äquivalent mit den nachgewiesenen Ölreserven der ganzen Welt“ wäre.

Sowohl das GAO als auch die Privatindustrie schätzen die förderbare Menge auf 3 Billionen Barrel.

„Während der letzten 100 Jahre haben wir 1 Billion Barrel Öl verbraucht. Hier liegt viele Male diese Menge“, sagt Roger Day, Vizepräsident der für Operationen zuständigen Abteilung bei der American Shale Oil (AMSO).

Die Bohrung in Green River erfolgt, während der Schieferbergbau in den USA boomt, und in einem Bericht sagt die International Energy Agency IEA voraus, dass die USA bis zum Jahr 2020 zum größten Ölerzeuger der Welt werden würden. Diese Ölschwemme kann massive Auswirkungen sowohl für die US-Wirtschaft als auch für die auf der zunehmenden Verknappung von Öl basierende Außenpolitik haben.

Der IEA-Bericht nennt keine Details, woher das amerikanische Öl kommen soll, aber die größte Lagerstätte ist die Green-River-Formation, die in irgendeiner signifikanten Weise ausgebeutet werden muss.

Diese äußerst verlockende Bonanza verbleibt jedoch zumindest derzeit noch außer Reichweite. Die Kosten der Förderung des Öls von Green River wären momentan noch höher als der erzielbare Verkaufserlös. Außerdem gibt es wichtige umweltliche Hindernisse.

Die Operation könnte einen so hohen Wasserverbrauch erfordern, dass es mit Denver und landwirtschaftlichen Belangen in Konkurrenz stehen würde. Außerdem könnten Warnungen der GAO zufolge unterirdische Wasserströme verschmutzt werden mit Auswirkungen auf die Fisch- und andere Wildbestände. Und es könnte so viel Schmutz aufgewirbelt werden, dass es nationale Monumente hinter einer Staubwolke verschwinden lassen könnte.

Nichtsdestotrotz hat die Bundesregierung [der USA] sechs Lizenzen für experimentelle Bohrungen auf öffentlichem Land genehmigt, um einen Weg zu finden, an die Reichtümer der Green-River-Formation doch noch heranzukommen.

Die American Shale von Day besitzt eine Lizenz über 160 Acres [ca. 64 ha] etwa 40 Meilen [ca. 64 km] nordwestlich von Rifle, Colorado. Es hat bereits in einem Pilotprojekt Öl erzeugt und steht jetzt in den Startlöchern, sobald die notwendigen Genehmigungen der Regierung kommen, um in größerem Maßstab zu produzieren.

Die Ölförderung aus dem Green-River-Schiefer ist etwas Anderes als die Öl- und Gasförderung aus anderen Lagerstätten. Sie muss hier mit der kontrovers gesehenen „Fracking“-Methode erfolgen, mit der der Fels im Untergrund mit unter hohem Druck stehendem und mit ein paar Chemikalien versetztem Wasser gebrochen wird.

Die Kohlenwasserstoffe im Green-River-Schiefer sind viel stärker mit dem Fels verbunden, so dass man sie mit Fracking nicht einfach freisetzen kann. Der Schiefer muss auf 5000 Grad Fahrenheit [ca. 800°C] erhitzt werden, bevor er sein Öl freigibt.

Die Erzeuger haben versucht, dies auf zweierlei Weise zu bewerkstelligen: Entweder man fördert den Schiefer zutage und erhitzt es, oder man versenkt eine tiefe Röhre und packt einen Ofen auf den Grund. Dieser Prozess wird in-situ genannt. Bei AMSO hat man in-situ mit unterschiedlichem Erfolg getestet.

„Wir haben einen 600-Kilowatt-Ofen 2100 Fuß [ca. 640 m] unter der Erdoberfläche installiert“, sagte Day. „Der Gedanke dahinter war, dass dies den Schiefer erhitzen und das wiederum zur Verflüssigung der festen Kohlenwasserstoffe in flüssiges Öl und Gas führen würde. Dieses könnte dann nach oben befördert werden“.

Es ging nicht so ganz glatt [1000 feet = ca. 300 m].

„Wir haben ihn Anfang Januar installiert”, erklärt Day hinsichtlich des Ofens, „aber er brannte aus wie Ihr Toaster, nur dass die Reparatur dieses Toasters viele Millionen Dollar kostet. Gerade im vorigen Monat haben wir herausgefunden, was da schief gegangen ist. Wir erwarten, den Ofen im Dezember erneut installieren zu können. Wenn wir Glück haben, können wir den Untergrund noch vor Ende dieses Jahres wieder erhitzen“.

Wenn alles glatt läuft und AMSO von der Regierung grünes Licht bekommt, könnte das halbe Dutzend Bohrlöcher der Firma von Anfang an etwa 1000 Barrel pro Tag fördern. Später, auf dem Höhepunkt der Förderung, schätzt Day, dass es „30 Jahre lang etwa 100 000 Barrel pro Tag sein könnten“.

Enefit, ein Ölproduzent mit Hauptquartier in Estland, hat in Europa der Direktorin des Tochterunternehmens Enefit Amarican Oil zufolge bereits seit mehr als 30 Jahren Öl aus Schiefer gefördert. Rikki Hrenko erläutert, dass Enefit den Schiefer zutage fördert und ihn dann in Retorten erhitzt.

„Es ist arbeitsintensiver, den Schiefer abzubauen“, sagte Hrenko. „Aber wirtschaftlich ist das Verfahren sehr brauchbar“. Sie taxiert den Erzeugerpreis auf etwa 65 Dollar pro Barrel. Die Kosten der Erzeugung in Utah werden ihrer Meinung nach nur wenig höher liegen als in Estland.

Enefit least seine Tochter in Utah nicht von der US-Regierung, sondern sie gehört ihr. „Wir haben sie im März 2011 gekauft“, sagte Hrenko. Ziel der Firma ist es, alle erforderlichen Genehmigungen bis Ende 2016 zu haben. Danach wolle man mit dem Bau beginnen. Die kommerzielle Ölförderung soll dann bis zum Jahr 2020 mit 25 000 Barrel pro Tag in Gang kommen.

Unter den Hindernissen, denen sich die Möchtegern-Produzenten von Green River gegenüber sehen, befinden sich dem GAO-Bericht zufolge Umweltkosten, an erster Stelle der Wasserverbrauch. Gegenwärtige Schätzungen, wie viel Wasser man brauchen würde, um das Potential von Green River zu erschließen, „variieren erheblich“, wird in dem Bericht eingeräumt. Aber Wasser ist im ariden Westen ohnehin schon knapp, und Landwirte sowie Umweltaktivisten beäugen aufmerksam den potentiellen Durst der Ölindustrie.

Ölvorräte von Green River sind größer als die der OPEC

Wasser bräuchte man nicht nur für das Fracking, sondern auch als Gleitmittel beim Bohren. Frank Rusco, GAO-Direktor für Energie und Wissenschaft, erklärte ABC News, dass das Wasser auch als Dampf benutzt würde, „um den Ölfluss zu stimulieren“. Wasser braucht man auch an jeder Bohrstelle zur Neutralisierung von Staub und zum Kühlen.

Day erwartet, dass die in-situ-Bohrungen der AMSO wasserneutral sein werden. Bisherige Experimente zeigen, dass die Firma pro extrahiertem Barrel Öl ein Barrel Wasser aus dem Fels erhalten könne. AMSO plant, zur Kühlung nicht Wasser, sondern Radiatoren zu verwenden.

Rusco bezweifelt, dass schon bald substantielle Mengen Öl aus Green River gefördert werden können, weil die Produktion noch nicht ökonomisch ist. Die Erzeugung eines Barrels Öl kostet mehr als der Preis beim Verkauf auf dem Weltmarkt einbringt. In dem GAO-Bericht heißt es, dass die kommerzielle Ölförderung „mindestens noch 15 bis 20 Jahre in der Zukunft liegt“.

Glenn Vawter, geschäftsführender Direktor der National Oil Shale Association in Glenwood Springs, ist sich da nicht so sicher. Derzeit kostet es ihre Mitglieder irgendetwas zwischen 40 und 80 Dollar, ein Barrel Öl aus Schiefer zu erzeugen, je nachdem, welche Technologie sie verwenden. Der Ölpreis, der gegenwärtig bei 86 Dollar pro Barrel liegt, war schon einmal über 100 Dollar gestiegen und wird weiterhin fluktuieren. Auch weist er darauf hin, dass sich die Technologie weiter entwickelt.

Ein kanadischer Ölproduzent hat mit Radiowellen experimentiert, um den Fels zu erhitzen.

„Das Ökonomische bleibt erst einmal noch etwas spekulativ”, sagte Vawter, aber er glaubt, dass die „Big Production“ höchstens noch 10 Jahre auf sich warten lassen wird.

Es ist keine Frage, sagt Rusco, dass sich da unten tatsächlich das Öl befindet, alle 3 Billionen davon.

„Die Technologie zum Erreichen der Ölreserven ist ziemlich gut“, sagte Rusco, „ich sage nicht, dass es nicht große Fehlergrenzen gibt, aber man kann sicher sein, dass dort unten eine sehr, sehr große Menge Öl gebunden ist, das gefördert werden kann. Bislang jedoch kann es lediglich noch nicht profitabel gefördert werden“.

Alan Farnham, ABC News

see also: 3 Trillion Barrels of Oil Equivalent from Green River Kerogens: What Does It Mean?

Link: http://www.thegwpf.org/american-oil-find-holds-opec/

Übersetzt von Chris Frey EIKE




Zweihundertjährige Abnahme der Solarstrahlung führt zu einem Ungleichgewicht des thermischen Budgets der Erde und zu einer Kleinen Eiszeit

Seit Anfang der neunziger Jahre beobachtet man eine zweihundertjährige Abnahme sowohl der Solarstrahlung als auch ihres von der Erde absorbierten Anteils. Die Erde als Planet wird also von jetzt an eine negative Strahlungshaushalts-Bilanz aufweisen, was etwa ab dem Jahr 2014 zu einem Temperaturabfall führen wird. Wegen der Zunahme der Albedo und der Abnahme der atmosphärischen Konzentration von Treibhausgasen wird der absorbierte Anteil der Sonnenenergie zusammen mit dem Einfluss von Treibhausgasen gemeinsam abnehmen. Der Einfluss der aufeinanderfolgenden Kette von Rückkopplungseffekten, der zu einem zusätzlichen Temperaturrückgang führen kann, wird den Einfluss der Abnahme der Solarstrahlung übertreffen. Der Beginn eines großen zweihundertjährigen Minimums der Solarstrahlung wird im Jahr 2042 ± 11, der der 19. Kleinen Eiszeit während der letzten 7500 Jahre im Jahr 2055 ± 11 erwartet.

1. Introduction

William Herschel (1801) fiel als Erstem eine Korrelation zwischen der Sonnenflecken-Aktivität und dem Klima auf, nachdem er eine umgekehrte Korrelation zwischen dem Preis für Weizen und dem Niveau zyklischer Variationen der Sonnenaktivität vor und während des Dalton Minimums gefunden hatte. Wenn die Sonnenoberfläche mit Sonnenflecken übersät war, gingen die Weizenpreise nach unten. Ging die Zahl der Sonnenflecken zurück, wurde er teurer. Er nahm an, dass die Variationen des Weizenpreises die Folge korrespondierender Klimaänderungen waren. Allerdings konnte er die physikalische Natur dieses Phänomens nicht erklären. Erst später war es Eddy (1976), der eine Wechselwirkung zwischen klar bestimmten Perioden mit signifikanten Änderungen der Sonnenflecken-Aktivität während des vergangenen Milleniums und korrespondierenden tiefgreifenden klimatischen Änderungen sowohl in Phase als auch in Amplitude entdeckt hat. Während jedem der 18 großen Minima der Sonnenaktivität (vom Maunder-Typ) mit einem während der voran gegangenen 7,5 Millenien gefundenen zweihundertjährigen Zyklus wurde eine tiefgreifende Abkühlung beobachtet, wohingegen während Perioden hoher Maxima eine globale Erwärmung aufgetreten war (Borisenkov 1988). Jüngere Studien (Bal et al. 2011; McPhaden et al. 2011) bestätigten unsere Ergebnisse (Abdussamatov 2009a) hinsichtlich eines Zusammenwirkens elf- und zweihundertjähriger zyklischer Variationen der Gesamt-Solarstrahlung (TSI) mit einer gewissen zeitlichen Verzögerung. Erkennbar wird dies an der Änderung des Zustands der Oberfläche und tieferer Schichten (bis zu einer Tiefe von mehreren hundert Metern) im tropischen Pazifik im Zusammenhang mit dem Auftauchen von warmem oder kaltem Wasser (die Zyklen von El Niño und La Niña), die das Klima ebenfalls beeinflussen. Beobachtete Charakteristika von El Niño während der letzten 31 Jahre haben sich in die entgegen gesetzte Richtung verändert hinsichtlich der Vorhersagen der Klimamodelle, die einen vorherrschenden Einfluss der Treibhausgase annehmen.

Zweihundertjährige Abnahme der TSI führt zu der Kleinen Eiszeit

Seit Anfang der neunziger Jahre nehmen sowohl die elf- als auch die zweihundertjährigen Komponenten der TSI-Variationen ab, und zwar mit einer sich gegenwärtig beschleunigenden Rate (Abbildung 2). Folglich nimmt auch der von der Erde absorbierte Anteil der TSI mit praktisch der gleichen Rate ab (z. B. Fröhlich 2011; Abdussamatov 2007b, 2009a, b). Der mittlere TSI-Wert lag im 23. Zyklus um 0,17 W/m² unter dem Wert des 22. Zyklus’. Die geglätteten Werte der TSI im Minimum zwischen den Zyklen 23/24 (1365.24 ± 0.02 W/m²) lagen um 0,26 W/m² und um 0,33 W/m² tiefer als während der Minima zwischen den Zyklen 22/23 und 21/22. Allerdings wurde das langzeitliche TSI-Defizit seit Anfang der neunziger Jahre (Abbildung 2) bislang nicht durch eine Abnahme der Abstrahlung thermischer Energie von der Erde kompensiert, die praktisch infolge der thermischen Einwirkung der Ozeane auf dem Niveau der letzten 14 ± 6 Jahre verharrt hat. Da die Sonne jetzt in eine zweihundertjährige Phase geringer Helligkeit geht (z. B. Abdussamatov 2004, 2005, 2007b; Penn and Livingston 2010; American Astronomical Society 2011), wird dieses Ungleichgewicht (E<0) noch während der nächsten paar Sonnenzyklen bestehen bleiben. Als Folge wird die Erde als Planet von jetzt an ein negatives Gleichgewicht bzgl. des Energiehaushalts (E<0) aufweisen. Dieser graduelle Verbrauch von Sonnenenergie, der in den Ozeanen während des gesamten 20. Jahrhunderts akkumuliert, wird zu einer Abnahme der globalen Temperatur nach 14 ± 6 Jahren führen, und zwar wegen eines negativen Gleichgewichts im Strahlungshaushalt der Erde. Dies wiederum wird zu einer Erhöhung der irdischen Albedo führen sowie zu einer Abnahme der atmosphärischen Konzentration des wichtigsten Treibhausgases Wasserdampf sowie zu einer Abnahme von Kohlendioxid und anderer Gase. Wasserdampf absorbiert etwa 68% der gesamten langwelligen Wärmeabstrahlung der Erde; das Kohlendioxid dagegen nur etwa 12%. Als Folge wird ein Teil der von der Erde absorbierten Sonnenenergie graduell abnehmen zusammen mit den Manifestationen des Treibhauseffektes infolge sekundärer Rückkopplungen. Der Einfluss der wachsenden zusammenhängenden Kette solcher Änderungen wird zu einem zusätzlichen Rückgang der Temperatur führen, der den Effekt der zweihundertjährigen TSI-Abnahme noch übertrifft.

Da die Sonne sich derzeit der Phase der zweihundertjährigen Abnahme der Helligkeit nähert, basierend auf dem beobachteten beschleunigten Rückgang sowohl der elf- als auch der zweihundertjährigen TSI-Komponenten seit Anfang der neunziger Jahre, können wir die weitere Abnahme vorhersagen hin zu einem sog. Maunder-Minimum von 1363,4 ± 0,8 W/m², 1361,0 ± 1,6 W/m² und zu einem Tiefststand von 1359,5 ± 2,3 W/m² in den Minima zwischen den Zyklen 24/25, 25/26 und 26/27 (Abbildung 3).

Folglich können wir den Beginn eines tiefen zweihundertjährigen TSI-Minimums etwa im Jahr 2042 ± 11 und des 19. tiefen Minimums der globalen Temperatur während der letzten 7500 Jahre 2055 ± 11 erwarten (Abbildung 4). In nächster Zukunft werden wir in der Periode des Übergangs von globaler Erwärmung zu globaler Abkühlung instabile Klimaänderungen erleben, wobei die Temperatur um die von 1998 bis 2005 erreichten maximalen Werte fluktuieren wird. Nach dem Maximum des Zyklus’ 24, also etwa vom Jahr 2014 an, können wir den Beginn des nächsten zweihundertjährigen Zyklus’ einer tiefen Abkühlung erwarten bis hin zu einer Kleinen Eiszeit im Jahr 2055 ± 11. Folglich sind Variationen der TSI (unter Berücksichtigung ihres direkten und sekundären, auf Rückkopplungseffekten beruhenden Einflusses) der wesentliche fundamentale Grund für Klimaänderungen, seit Variationen des Erdklimas hauptsächlich durch ein langzeitliches Ungleichgewicht zwischen der Sonnenenergie, die auf die obere Atmosphäre der Erde trifft und der Gesamtenergie, die von der Erde ins Weltall abgestrahlt wird.

Habibullo I. Abdussamatov

Pulkovo Observatory of the RAS

Pulkovskoye shosse 65, St. Petersburg, 196140, Russia

Email: abduss@gao.spb.ru

Link. http://nextgrandminimum.files.wordpress.com/2012/11/abduss_apr.pdf

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Bei diesem sehr wissenschaftlichen Text sind Übersetzungsfehler infolge mangelnden inhaltlichen Verständnisses wahrscheinlich. Ich bitte um Korrektur, aber sachlich und konstruktiv!

C. F.

ABBILDUNGEN:




Energiewende im November! Nur 7 % der installierten EEG Leistung wurde eingespeist.

Doch schauen Sie mal in den beigefügten Grafiken nach, wie oft das vor kommt und wie oft wir aus dem Ausland Energie (Strom) importieren (s. Export z.B. 5.10., 12.00 Uhr!  in Entsoe_EEX_Okt_2012)!

Genau so lächerlich ist die Einspeisung von Solar und Wind z.B. vom 09.11.bis 15.11.2012 (s. Grafik unten und oben rechts): Bei einer inst. Leistung von Wind + Solar von immerhin 64.000 MW wird lediglich in der genannten Zeit ca. < 5.000 MW eingespeist, das entspricht ca. 7% der installierten Leistung!

Diese Tatsachen sollte man mal unserem Herrn Umweltminister Altmaier zur Kenntnis bringen, falls er als Jurist damit was anfangen kann?

Aber Frau Merkel könnte es ihm ja vielleicht erklären!!

Viele Grüße und vielen Dank an Rolf Schuster für die wichtigen Informationen

Winfried Klein
Vors. IG-LAHN e.V.
August-Gerhardt-Str. 2
65594 Runkel
Tel.: 06482 4994




„Weltklimarat“ IPCC nicht auf der DOHA UNEP Klimakonferenz: Chairman Pachauri- Wir sind nicht eingeladen worden!

Die Gulf Times schreibt:

Das IPCC ist das führende internationale Gremium für die Beurteilung des Klimawandels dem derzeit 195 Ländern angehören. Es teilte sich 2007 den Friedensnobelpreis mit Al Gore, dem ehemaligen Vizepräsidenten der USA und Umweltaktivist,

Dr. Pachauri deutete dies über seine „vorweggenommene Abwesenheit“ zur  COP18, während einer Rede anlässlich der Eröffnungssitzung der International Conference on Food Security in Dry Lands (FSDL) am Mittwoch an der Universität Katar.

Später erzählte er der Gulf Times, er wisse nicht, warum die IPCC nicht zur  COP18 eingeladen wurde,das sei etwas, das noch nie zuvor passiert ist.

„Ich weiß nicht, was es ist. Der Exekutivsekretär des Klimawandels Sekretariat hat zu entscheiden.

entnommen der Gulf Times mit Dank an Spürnase Benny Peiser auf ACHGUT




Großbritannien: Energiekosten verhindern Wachstum

Die Ergebnisse wurden vor einer Veröffentlichung der Energierechnung der Regierung bekannt gemacht. Damit soll eine legislative Agenda geschaffen werden, die darauf abzielt, Investitionen während der kommenden Jahre in den UK-Energiemarkt zu unterstützen.

Unerwartete Steigerungen der Energiekosten wurden von den Mitgliedern auch als eine der wesentlichen Schwierigkeiten benannt, die die Unternehmen mit den Energieversorgern haben.

Schlüsselergebnisse der Energieumfrage vom NECC:

● 35 Prozent der Unternehmen glaubten, dass steigende Kosten das Wachstum bremsen

● 64 Prozent der Antwortenden haben angegeben, dass die Transportkosten signifikant gestiegen sind.

● 23 Prozent registrierten eine unerwartete Zunahme während der letzten drei Jahre.

● 76 Prozent haben gewisse Pläne parat, um ihren Energieverbrauch zu managen.

● 44% wissen um den Grünen Deal der Regierung

●55 Prozent haben während der letzten drei Jahre eine Unterbrechung ihrer Energieversorgung erlebt

● 90 Prozent glauben, dass UK einen weit gefächerten Energiemix haben sollte.

Der politische Berater der NECC Mark Stephenson sagte: „Schleppendes Wachstum steht bei David Cameron derzeit an erster Stelle. Es ist nur recht und billig, das alles, was das Wachstum fördern könnte, angesprochen werden muss.

Zentrale Energiekosten haben während der letzten drei Jahre für alle Industriezweige zugenommen. Genauso besorglich sind die Auswirkungen des steigenden Umfangs und der zunehmenden Komplexität der Regulationen für Industrien, die große Mengen Strom erzeugen oder darauf angewiesen sind. Dies beeinträchtigt die Wettbewerbsfähigkeit im Nordosten und UK.

Was außerdem noch mehr zählt: man muss sich daran erinnern, dass die Transportkosten und Treibstoffpreise den Nordosten besonders hart treffen, weil wir viel weiter fahren müssen, um die Schlüsselmärkte in UK und Übersee zu erreichen.

Der Nordosten ist eine energieintensive Region, weil sich hier gut laufende produzierende Betriebe und Ingenieurs-Sektoren befinden. Die gegenwärtige Politik bestraft uns im Endeffekt, was keinen Sinn macht, wenn wir wirklich versuchen, uns von einer überstarken Abhängigkeit vom Service-Sektor zu lösen.

Die Regierung muss danach trachten sicherzustellen, dass die Energiepolitik das Wachstum unterstützt anstatt es zu bestrafen. Wichtig ist auch, dass die Regierung erkennt, dass ihr Flaggschiff des Grünen Deals beängstigend niedrig liegt. Es muss mehr getan werden, um die Betriebe zu unterstützen, nach niedrigeren Energiekosten und tatsächlich ihrem Kohlenstoff-Fußabdruck zu trachten“.

Andy Richardson

Link: http://www.thenorthernecho.co.uk/business/news/10038633.Energy_costs_are_barrier_to_growth/

Übersetzt von Chris Frey für EIKE




Wir müssen uns auf Extremwetterereignisse vorbereiten und nicht vergeblich versuchen, sie zu verhindern

Tatsächlich hat es viele sehr viel stärkere Stürme gegeben als SANDY, welcher bereits beim Auftreffen auf das Festland kaum noch ein Hurrikan der Kategorie 1 war. Das Mitglied im Beratungsgremium bei der ICSC Dr. Tim Ball, Umweltberater und früherer Professor für Klimatologie an der University of Winnipeg, erklärt, dass die Aufwertung von SANDY selbst auf dieses unterste Niveau das Ergebnis einer einzelnen Messung eines Hurrikan-Flugzeugs gewesen ist, die zur Oberfläche hinunter extrapoliert worden ist, und keine direkte Messung der Windgeschwindigkeit an der Erdoberfläche.

Dies hat die Main Stream Medien, die immer ängstlich auf der Suche nach Extremwetterereignissen sind, um diese als Vorboten der Klimakatastrophe zu stilisieren, nicht daran gehindert, den Sturm als einen Hurrikan noch nie da gewesenen Ausmaßes zu bezeichnen. In vielen Fällen wurden einfach die begeisterten Behauptungen der Klimakampagnen-Leute nachgeplappert wie Bill McKibben bei 350.org, der SANDY als „wirklich etwas, das wir nie zuvor gesehen haben“ beschrieben hat. Wie Terry Corcoran in der National Post (Kanada) geschrieben hat: „Frankenstorm [eine Anspielung auf Frankenstein, nicht auf die bayerische Region Franken. A. d. Übers.] sagt er (McKibben), ‚ist wirklich die richtige Bezeichnung dafür’, als er den Hurrikan mit der vom Menschen verursachten globalen Erwärmung, mit Mitt Romney und mit der ‚mächtigsten und reichsten Industrie der Erde’ in Verbindung brachte. Big Oil verursachte den Big Storm“.

Das ist blanker Unsinn. Dr. Ball erklärt, dass viele Faktoren zu der ungewöhnlichen Überschwemmung und den anderen Schäden durch SANDY geführt haben:

1) Der sehr niedrige Luftdruck im Zentrum von SANDY, allgemein ein Indikator für die Stärke des Sturms, setzte neue Rekorde für tiefen Luftdruck in vielen Städten (Atlantic City – bisheriger Rekord im Jahr 1932, Philadelphia – 1993, Harrisburg, PA – 1913, Scranton, PA – 1965, Trenton, NJ – 1993, und Baltimore – 1932). Dies führte zu einem signifikanten Anstieg des Meeresspiegels im Zentrum des Sturms. Der Meeresspiegel kann infolge außerordentlich tiefen Luftdrucks bis zu zwei Meter über das Niveau des Ozeans steigen, was sehr effektiv auch den Meeresspiegel in der engeren Umgebung „anhebt“. Man beachte, dass die neuen Rekorde tiefen Luftdrucks nicht in vielen, von dem Sturm betroffenen Städten verzeichnet worden waren. Hier die weiter bestehenden Rekorde: Newark, NJ – 1993, New York, NY – 1914, Washington D.C. – 1993, Lynchburg, VA – 1932, Elkins, WV – 1965.

2) Starke auflandige Winde an der Nordseite des Zyklons.

3) Die Tatsache, dass der Sturm ausgerechnet während der Zeit des Flut-Scheitelpunktes auf viele küstennahe Landstriche getroffen war.

4) Die Tatsache, dass der Sturm auf seinem Weg nördlich an Kap Hatteras vorbei auf North Carolina gestoßen ist und dass er dabei über Gebiete mit einem weit hinaus reichenden Kontinentalsockel gezogen ist (siehe folgende Abbildung), wo der Ozean schon weit vor der Küste flacher ist als weiter südlich. Dadurch wurde das Aufsteilen der Wellen begünstigt, was über tieferem Wassert nicht in diesem Ausmaß der Fall gewesen wäre.

5) Vielleicht am Wichtigsten: der nördliche polare Jetstream und damit ein ausgedehnter Kaltluftkörper hatte sich bis in die südlichen USA vorgearbeitet, in den SANDY direkt hinein gelaufen ist, was sein Verbleiben an der Ostküste verlängert hat und die Zugbahn mehr als in anderen Fällen ins Land gesteuert hat. Ein Klick auf das Bild unten zeigt eine Animation dieses Phänomens (gewählte Länge der Animation = 5 Tage; Intervall zwischen den Bildern: 6 Stunden). Dies wurde noch verstärkt durch eine Hochdruckzone über Grönland, welches SANDY ebenfalls länger vor Ort gehalten hatte als es sonst der Fall gewesen wäre. Vieles hiervon steht mit globaler Abkühlung im Zusammenhang, nicht Erwärmung.

Die Tatsache, dass der Scheitelpunkt der Flut gerade auch mit einer Springflut zusammenfiel (Erde, Mond und Sonne standen in einer Linie), hat zu einer weiteren leichten Erhöhung des Meeresspiegelniveaus in dem Sturm geführt.

Ein anderes Mitglied des Beratergremiums bei der ICSC, Dr. Madhav L. Khandekar, ein „Expertenbegutachter“ des AR 4 des IPCC (2007), teilte dem Autor in einem Telefoninterview mit, dass Behauptungen wie die von McKibben „absoluter Quatsch“ sind. Man höre sein Interview bei Radio CFRA in Ottawa am Abend des 30. Oktober; dazu hier klicken. Dr. Khandekar erklärt, wie tropische Zyklone (im Nordatlantik Hurrikane genannt) weltweit nicht zunehmen. Die folgende Graphik illustriert dies:

Selbst das IPCC sagt jetzt, dass die Wissenschaft Behauptungen, dass die vom Menschen verursachte Klimaänderung Ursache für die gegenwärtigen Extremwetterereignisse sei, kaum oder gar nicht stütze. Dr. Roger Pielke Jr., ein Professor am Center for Science and Technology an der University of Colorado stimmt dem zu und erklärt, dass solche Zusammenhänge nicht auf Wissenschaft basieren. Wie Corcoran in der National Post erklärt, stellt Prof. Pielke auch fest, dass es keine Zeichen für einen Trend bzgl. der Aktivität von Hurrikanen in irgendeine Richtung gibt. „Wir haben langfristige Trends hinsichtlich der Hurrikan-Schäden in den USA betrachtet, und man kann ziemlich sicher sagen, dass es egal, was SANDY noch anrichtet, eine ein Jahrhundert lange Zeitreihe gibt ohne jeden Trend – das gilt hinsichtlich der Schäden, der Anzahl der Übertritte auf das Festland oder die Intensität der Stürme beim Übertritt auf das Festland.“

Für diejenigen, die die wissenschaftliche Debatte verfolgt haben, sollte nichts hiervon eine Überraschung sein. Im Bericht des Nongovernmental International Panel on Climate Change (NIPCC – see www.nipccreport.com) vom 29. August 2011 heißt es dazu: „…die Daten zeigen, das es keinerlei signifikante, durch Erwärmung induzierte Zunahmen hinsichtlich der Extremwetterereignisse gegeben hat“. Der Bericht zeigte, dass dies allgemein gilt, egal ob es sich um Niederschlag, Überschwemmungen, Dürren, Stürme, Hurrikane, Feuer oder andere mit dem Wetter im Zusammenhang stehende Ereignisse handelt. Dr. Khandekar, ein Autor beim NIPCC, zeigte, dass Extremwetterereignisse heute mit der gleichen Häufigkeit auftreten wie während der Abkühlungsphase von 1945 bis 1977.

Anstatt vergeblich zu versuchen, Extremwetterereignisse wie den Tropischen Sturm SANDY zu unterbinden, besteht für uns die Notwendigkeit, unsere Gesellschaften auf diese unvermeidbaren Ereignisse vorzubereiten, indem man Überlangkabel unter der Erde verlegt, Gebäude und andere Infrastrukturen verstärkt und für sichere Energiequellen sorgt, so dass wir genug Strom haben, unsere Wohnungen je nach Bedarf zu heizen oder zu kühlen.

In der Zwischenzeit gibt es für die meisten Stromausfälle keine Entschuldigung. Jahrein, jahraus erleben wir, wie Teile der Elektrizitäts-Infrastruktur in Stürmen ausfallen, von denen uns die Meteorologen sagen, dass sie hin und wieder unvermeidlich sind. Die Stromindustrie sollte einfach präventiven Maßnahmen mehr Aufmerksamkeit schenken und unsere Stromversorgung sicherer machen, indem mehr Stromkabel unter die Erde verlegt werden.

In Ordnung, die Klimaänderung sollte bei der US-Wahl ein Thema sein. Aber wir sollten nicht über die Reduktion von Treibhausgasen reden in einem aussichtslosen Versuch, das Klima daran zu hindern, sich zu ändern, oder Extremwetterereignisse daran zu hindern stattzufinden. Stattdessen sollten wir darüber reden, wie man unsere wachsenden Gesellschaften besser auf Extremwetterereignisse wie SANDY vorbereiten kann, die es auch weiterhin geben wird, egal was wir tun.

Tom Harris

_____________

Tom Harris is Executive Director of the International Climate Science Coalition – http://www.climatescienceinternational.org/ and an advisor to the Frontier Centre for Public Policy in Winnipeg, Manitoba, Canada.

Link: http://www.fcpp.org/blog/we-must-prepare-for-extreme-weather-events-not-vainly-try-to-stop-them/

Übersetzt von Chris Frey EIKE




Und ewig steigt das CO2 -aber die Global-Temperatur macht nicht mit.

Deshalb hat die australische Ministerpräsidentin Julia Guillard die CO2 Steuer eingeführt und heizt ihre Banker an, beim großen Geschäft mitzumachen**. In einem Vortrag schwärmte sie von den vielen Milliarden, die weltweit abgegriffen werden können und forderte ihre Banker auf, sich ihren Teil davon zu holen. Und es wird viel zu holen sein, denn die CO2 Emissionen steigen weiter ungebremst. Die Welttemperatur jedoch nicht. Und das seit mehr als 15 Jahren! Welt Reporter Ulli Kulke hat sich dazu einige Gedanken gemacht. Wir stimmen in allen Punkten mit ihm überein, mit Ausnahme der Idee auf fossile wie Kernenergie zu Gunsten von "NIE (Neue Instabile Energien) zu verzichten.  

CO2-Emissionen steigen weiter deutlich – im Rest der Welt

von Ulli Kulke; zu erst erschienen auf seinem Blog Donner & Doria

Sie ging durch die Agenturen gestern. Aber da es in der Presse so gut wie niemand interessierte, hier die nicht ganz unwichtige Aufstellung zur Beurteilung dessen, um was es bei der Klimagipfelkonferenz gehen wird, die ja in eineinhalb Wochen in Doha starten wird. Wer die neuesten Zahlen darüber, welches Land im vergangenen Jahr wieviel Kohlendioxid ausgestoßen hat, erkennt auf den ersten Blick, wie wenig Sinn es macht, dass nach Ansicht der Umweltverbände und auch der Grünen ausgerechnet die Bundesregierung ihre Minderungsziele gefälligst noch anspruchsvoller zu formulieren habe.

804 Millionen Tonnen kamen 2011 aus Deutschlands Schloten und Auspuffrohren. Das war 22 Prozent weniger als 1990. China erhöhte seinen Ausstoß in der selben Zeit um 262 Prozent auf jetzt 8,876 Milliarden Tonnen. Wenige Jahre ist es erst her, dass das Land die USA

überholte, und schon emittiert es eineinhalb mal so viel wie die Nordamerikaner, die im Vergleich zu 1990 ein zehnprozentiges Wachstum hinlegten (gegenüber 2010 verringerten die USA ihre Emissionen sogar ein wenig – aufgrund ihrer Wirtschaftskrise). An dritter Stelle steht übrigens Indien mit 1,787 Milliarden Tonnen, ein Zuwachs von 185 Prozent gegenüber 1990. Nr. 4: Russland (1,674 Mrd. Tonnen, gegenüber 1990 sind dies 18 Prozent Minderung gegenüber der Zeit, als die Schlote noch rauchten für den Sozialismus). Nr. 5: Japan mit 1,311 Milliarden Tonnen (plus 11 Prozent). Danach kommt Deutschland.

Die Tendenz steht in China, Indien und den nachrückenden Schwellenländern auf rasantes Wachstum, auch wenn in China jetzt ein paar Solarpanelen installiert werden. Fast jeden Tag geht dort ein neues Kohlekraftwerk ans Netz. Der Zeitpunkt, an dem man auch pro Kopf den höchsten Verbrauch schafft, scheint nicht mehr allzu fern zu sein. Auch in den USA, wo man sich gerade über neue Reserven freut, dürfte es wieder aufwärts gehen.

Hierzulande aber ist es hochoffizielle Sichtweise, die letzten freien Flächen mit 200 Meter hohen Windparks vollzustellen, zur Not auch in Naturschutzgebieten, um der übrigen Welt mal richtig zu zeigen, wo es langzugehen hat. Dass durch das Erneuerbare-Energien-Gesetz der Strompreis ins Unermessliche steigt, gilt – anders als noch vor der Energiewende – inzwischen als hinzunehmender Kollateralschaden.

Niemand hat etwas dagegen, von Öl und Kohle herunterzukommen, auch in Deutschland, aus Umweltgründen, auch aus politischen und wirtschaftlichen Gründen. Alles sehr vernünftig. Aber wer auch nur ein wenig Augenmaß anmahnt, dem wird gleich vorgeworfen, dass ihm das Schicksal aller nachfolgenden Generationen gleichgültig sei.

Ganz nebenbei sei übrigens auch noch darauf hingewiesen, dass die CO2-Emissionen seit 1990 weltweit um 50 Prozent angestiegen sind, allein im vergangenen Jahr um 834 Millionen Tonnen. Die Frage, warum die weltweiten Temperaturen in den letzten zwei Dritteln dieses Zeitraumes nicht mehr mehr angestiegen sind, gehört nach Ansicht der Klimaforscher zu den dümmsten überhaupt. Also lassen wir es lieber.

Ulli Kulke

* Siehe "Vorwärts in eine nachhaltige Gesellschaft" in Energiedespesche 4-2011 (als pdf im Anhang)

** Aus der Rede von Julia Guillard zum Business Council of Australia Dinner am 16.11.2012 (Die Rede kann im Anhang als pdf herunter geladen werden)

In total around sixty per cent of the world’s GDP is either subject to a carbon price today, or has one legislated or planned for implementation in the two or three years ahead.

International carbon markets will cover billions of consumers this decade. Ask the bankers at your table whether they want Australia to clip that ticket. We’re going to help them get their share.

So that’s the work of coming years, that’s what preoccupies my thoughts as I think through the agenda for this country. Big opportunities for the future-makers – complacency the greatest risk of all.

Related Files




Grüne Grabstätten in den USA: 19 vom Steuerzahler finanzierte Fehlschläge

Dieser Beitrag ist Teil der Serie “Green Graveyard” [„grüne Grabstätten“], in der jede der 19 inzwischen bankrotten Firmen beschrieben wird sowie detailliert alle Arten der angebotenen Hilfen seitens der Regierung. Diese Firmen waren alle Teil von Präsident Obamas Versuch, die Wirtschaft durch Entwicklung und Ausweitung der „grünen“ Energieindustrie zu stimulieren.

Das Problem dabei ist, dass diese vom Steuerzahler finanzierten Hilfen nie das anvisierte Ziel erreicht haben. Vielmehr haben sie künstlich politisch bevorzugte Kompanien und Industrien gestützt, wie die grüne Energie, während in anderen Bereichen der Industrie Arbeitsplätze und Ressourcen anderswohin verlagert worden sind.

Wie die folgenden Beispiele zeigen, ist die Vorliebe der Politik, der grünen Industrie finanzielle Hilfe und Impulse anzubieten, eine schlechte Politik, die Washington schon lange vor dem Amtsantritt von Präsident Obama geplagt hat.

Nachrichten über öffentlich gestützte bankrotte Energieunternehmen sind äußerst ärgerlich, aber gescheiterte Firmen sind nicht das einzige Problem. Das fundamentale Problem besteht darin, dass die Regierung [überhaupt] Gelder des Steuerzahlers aufs Spiel setzt, um auf Industrien zu setzen. Unabhängig von deren Schicksal sollte die Regierung nicht in Privatindustrien „investieren“, vor allem wenn es sich um eine Industrie handelt, in der es schon jetzt reichlich Nachfrage und diverse Angebote gibt.

Tatsache ist, dass wir uns über die erfolgreichen Firmen genauso ärgern sollten. Es gibt Firmen, die gute Produkte anbieten und die Unterstützung des Steuerzahlers nicht brauchen. Es gibt einen Ausdruck für die Subvention erfolgreicher Unternehmen: kollektives Wohlergehen [corporate welfare]. Wie Nick Loris von Heritage schon viele Male zuvor erklärt hat: „Zwei Arten von Unternehmen streben nach Subvention: Ökonomisch nicht wettbewerbsfähige Unternehmen, die die Subventionen zum Überlegen brauchen, und potentiell wettbewerbsfähige Unternehmen, die die Subventionen dazu benutzen, ihre Rücklagen aufzufüllen. Weder das eine noch das andere kann gerechtfertigt werden“.

Nichtsdestotrotz ist die Bekanntgabe gescheiterter Unternehmen wichtig, weil sie die Verzerrungen enthüllt, durch die die Politiker gehen, um private Unternehmen zu unterstützen, wenn ihr politisches Verhalten auf dem Spiel steht. Während die Interventionen in die Privatwirtschaft nicht mit Präsident Obama angefangen haben und auch nicht mit ihm aufhören werden, zeigt die wachsende Liste gescheiterter Unternehmen die Sinnlosigkeit der Planwirtschaft.

Bevor wir uns näher die individuell bankrotten Unternehmen ansehen nebst der finanziellen Unterstützung und den Impulsen, die die Regierung ihnen zur Verfügung gestellt hat, hier ein paar Vorbehalte. Diese Zahlen spiegeln nicht die Höhe der Zahlungen seitens der Regierung, die sie empfangen und verbraucht haben – sondern die Zahlen, die die Regierung bereit war aufs Spiel zu setzen. Diese Zahlen zeigen Schätzungen der Hilfen, die von lokalen, [US-bundes]staatlichen oder der zentralen Regierungen zur Verfügung gestellt worden sind. Diese Assistenz kann den Unternehmen in vielfältiger Weise versprochen worden sein, einschließlich Steuernachlässe, Kredite oder Bürgschaften, Zuwendungen und andere Formen finanzieller Impulse und Unterstützung. Die Zahlen unten sind angesichts der unvollständigen, manchmal sogar inkonsistenten Informationen seitens der Regierung und anderer Quellen die bestmöglichen Berechnungen.

Außerdem können diese Unternehmen im Zuge der Insolvenz sehr gut von einem anderen Unternehmen aufgekauft und zu neuem Leben erweckt worden sein. Allerdings wird ihr Grabstein in der grünen Grabstätte als Erinnerung an die dunkleren Tage bestehen bleiben.

Gesamtsumme der schlechten Wetten [Bad Bets] der Regierung: etwa 2,6 Milliarden

1. Abound Solar

Government’s Bad Bet: $ 790.3 million

2. Solyndra

Government’s Bad Bet: $570 million

3. A123 Systems

Government’s Bad Bet: $377.1 million

4. Ener1 (EnerDel, subsidiary)

Government’s Bad Bet: $182.8 million

5. Range Fuels

Government’s Bad Bet: $162.3 million

6. Azure Dynamics

Government’s Bad Bet: $119.1 million

7. Energy Conversion Devices (subsidiary, United Solar Ovanic)

Government’s Bad Bet: $110.3 million

8. Evergreen Solar, Inc.

Government’s Bad Bet: $84.9 million

9. Beacon Power

Government’s Bad Bet: $77.4 million

10. Raser Technologies

Government’s Bad Bet: $33 million

11. Nordic Windpower

Government’s Bad Bet: $24.6 million

12. SpectraWatt

Government’s Bad Bet: $20.5 million

13. Konarka Technologies

Government’s Bad Bet: $13.6 million (Heritage’s calculations), $20 million according to Konarka’s website

14. Satcon Technology Corporation

Government’s Bad Bet: $17 million

15. Olsen’s Crop Service and Olsen’s Mills Acquisition Co.

Government’s Bad Bet: $10.8 million

16. Stirling Energy Systems, Inc.

Government’s Bad Bet: $10.5 million

17. Thompson River Power, LLC

Government’s Bad Bet: $6.5 million

18. Cardinal Fasteners and Specialty Co., Inc.

Government’s Bad Bet: $480,000

19. Mountain Plaza, Inc. 

Government’s Bad Bet: $424,000

Die Fortsetzung unserer Serie zu grünen Grabstätten wird im Detail jedes einzelne dieser Unternehmen beleuchtet und detailliert die Förderquellen, Zeitpläne und mehr geschildert.

Posted in Energy and Environment, Featured

Rachael Slobodien

Tags: A123, Abound Solar, bankruptcy, beacon power, corporate welfare, ener1, enerdel, grants, green energy,

Link: http://blog.heritage.org/2012/11/05/green-graveyard-19-taxpayer-funded-failures/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Schade, dass es eine solche Zusammenstellung nicht auch aus Deutschland und/oder Europa gibt! Oder?




Die gute alte Braunkohle

Jede vierte in Deutschland verbrauchte Kilowattstunde Strom basiert auf dem Verbrennen der heimischen Braunkohle. Dieser fossile Rohstoff ist der einzige heimische Energieträger, der in großen Mengen langfristig subventionsfrei und wettbewerbsfähig zur Verfügung steht. Durch den Verbund von Tagebau und thermischen Kraftwerk bietet die Stromerzeugung mit Braunkohle ein Höchstmaß an Versorgungssicherheit. Auch bestehen keine Transportrisiken.1) Dieser Strom ist zudem der kostengünstigste. Aber Strom mittels Wind, Sonne und pflanzlichen Stoffen soll den Strom aus fossilen Brennstoffen ablösen. So will es die Bundesregierung, so wollen es die öko- und bio-trunkenen Parteien, so wollen es die subventionsverwöhnten Energiewende-Profiteure. Dass damit der Strom für alle Bürger viel teurer und für viele Bürger unbezahlbar wird, rührt sie nicht; es ist, wenn auch unausgesprochen, sogar beabsichtigt.

Wie der „Ökostrom“ 19mal so teuer wird wie Strom aus Braunkohle

Die Ausbaupläne der Bundesregierung sehen für Wind- und Solaranlagen eine installierte Leistung von etwa 240 Gigawatt (GW) vor. Aber Sonne und Wind sind launisch. Daher würde die mittlere tatsächliche Jahresleistung dieser Anlagen weniger als 60 GW betragen. Als Netzleistung durchschnittlich notwendig sind 60 GW. Aber bei Starkwind und viel Sonnenschein würden diese Anlagen viermal mehr Strom liefern als benötigt. Dann müssten drei Viertel dieser Anlagen abgeschaltet werden, um das Netz nicht zu überlasten. Das bedeutet: Für jede erzeugte Kilowattstunde (kWh) Strom muss auf die mögliche Erzeugung von weiteren 3 kWh verzichtet werden. Dieser daher nicht erzeugte Strom ist jedoch nach dem Erneuerbaren-Energien-Gesetz (EEG) trotzdem zu vergüten. Da nun aber für den erzeugten und zwangsweise mit Vorrang abzunehmenden Strom die durchschnittliche EEG-Vergütung 12 Cent/kWh beträgt, muss man diesem Zwangsabnahmepreis noch die (durchschnittliche) Ausfallvergütung für die nicht erzeugten 3 kWh hinzurechnen, also drei mal 12 gleich 36 Cent. Folglich kostet die Kilowattstunde dann horrende (12 plus 36 =) 48 Cent. Folglich ist dieser „Ökostrom“ dann also 19mal so teuer wie der aus Braunkohle.

Andere Kosten kommen noch obendrauf

Außerdem sind dies nur die Kosten der Erzeugung, also ohne die Mehrwertsteuer, ohne die (steigenden) Netzkosten und ohne die (steigenden) Übertragungsverluste. Hinzukommen die Kosten für die „Schattenkraftwerke“. Das sind die, die Strom aus Kohle, Erdgas und Erdöl herstellen und die stets bereitstehen müssen, wenn Wind und Sonne ausfallen. Deren Kosten werden mit dem Ausbau der Wind- und Solaranlagen gleichfalls kräftig weitersteigen. Wenn nämlich Wind und Sonne Strom genug liefern, müssen sie ausgeschaltet werden. Das macht sie unrentabel. Daher wollen immer mehr Betreiber sie stilllegen. Dann aber ist bei Flaute und nächtlich weggetauchter Sonne ein Stromausfall garantiert. Um dies zu vermeiden, sollen deren Betreiber gesetzlich gezwungen werden, die Anlagen betriebsbereit zu halten. Das ist zu bezahlen, und das Entgelt dafür sind Zusatzkosten, die dem Strompreis ebenfalls noch aufgeladen werden. Sollten also die Ausbaupläne der Bundesregierung tatsächlich in voller Schrecklichkeit verwirklicht werden, dann ist nicht mehr abwegig, was der Wirtschaftswissenschaftler und Umweltökonom Prof. Dr. Alfred Endres befürchtet, dass nämlich der Strom auf mehr als 100 Cent je kWh klettert.

Ab-und-zu-Strom taugt für den ständigen Grundbedarf nicht

Es sollte sich herumgesprochen haben, dass Wind und Sonne Strom nur ab und zu liefern, jedenfalls immer wieder nicht dann, wenn er gebraucht wird. Den ständig nötigen Grundbedarf an Stromleistung von rund 40 Gigawatt (GW) kann man mit solchem unzuverlässigen Ab-und-zu-Strom nicht decken, also die sogenannte Grundlast nicht sicherstellen; dafür taugen diese Anlagen nicht, dafür braucht man Kohle- und Kernkraftwerke. Nur diese thermischen Kraftwerke sind in der Lage, für einen stabilen Netzbetrieb zu sorgen. Sie nämlich geben ihre installierte Leistung Tag für Tag ganzjährig ab und exakt in der benötigten Menge. Wind dagegen liefert Strom nur, wenn er (angemessen) weht, Sonne nur dann, wenn sie (hinreichend) scheint; Nennleistung und tatsächliche Leistung klaffen hier weit auseinander. Liefern sie jedoch mehr als gerade benötigt, wird’s im Stromnetz prekär.

Die diffamierte Braunkohle als Gewinner der „Energiewende“

Aber ein Industriestaat und eine Wohlstandsgesellschaft brauchen nicht nur ab und zu Strom, sondern ständig, ohne Unterbrechung, ohne Netzzusammenbruch. Daher bleiben thermische Kraftwerke selbst dann unentbehrlich, wenn immer noch mehr Ökostromanlagen installiert werden. Diese Kraftwerke können den Strom am kostengünstigsten aus Uran oder Braunkohle erzeugen (2,5 Cent/kWh). Da aber die CO2-freien Kernkraftwerke in Deutschland verschwinden sollen, müssen nun vor allem die Braunkohle-Kraftwerke ran. So wird ausgerechnet die als „Dreckschleuder“ und „Klimakiller“ diffamierte Braunkohle zum wichtigsten Stromlieferanten und gleichsam zum Gewinner der „Energiewende“.2) Ein paradoxes Ergebnis. In den vier Abbauregionen der Braunkohle, so las man schon, herrsche Goldgräberstimmung. 3)

Ökostrom sicher? Ökostrom bezahlbar? Der SVR hat’s behauptet

So preisgünstig und sicher wie Strom aus Braunkohle wäre auch der aus Uran. Doch wurde in Deutschland entschieden, sich daraus zu verabschieden, die Kernkraftwerke stillzulegen und den Strom nur noch mittels Wind, Sonne und pflanzlichen Stoffen („Bio-Gas“ aus „Biomasse“) herzustellen. Dafür hatte sich auch der Sachverständigenrat für Umweltfragen (SVR) in seinem Gutachten von 2010 eingesetzt. Dessen Überschrift lautet: „100% erneuerbare Stromversorgung bis 2050: klimaverträglich, sicher, bezahlbar“. Diese Behauptung hat der Aachener Energieexperte Helmut Alt damals sachkundig und ausführlich zerpflückt.4) In seinem Resümee schreibt er:

Wenn Kohle und Kernkraft fort sind, geht es nur mit Gaskraftwerken

„100% erneuerbare Stromversorgung bis 2050 mag klimaverträglich sein, sicher kann sie nur – bei Abwesenheit von Kohle- und Kernkraftwerken – durch Installation von 100 % Ersatzleistung in Form von Gaskraftwerken sein, deren Erdgas aus Russland mit hohen Preisrisiken bezogen werden muss. Ob die Stromversorgung dann noch von allen als bezahlbar angesehen werden kann, und die zusätzliche CO2 Emissionen aus den Gaskraftwerken (immerhin 1/3 soviel wie aus Kohlestromerzeugung) den Nimbus der Klimaverträglichkeit verdient, sei dahingestellt. Bei Strom aus Kernkraftwerken wären die Kosten der Primärenergiebeschaffung relativ stabil kalkulierbar und weit günstiger und es würde kein CO2 emittiert, allerdings wäre eine weitergehende allgemeine Akzeptanz und Vertrauen vonnöten.“

Ein Irrweg, der am Prellbock enden wird

Für Alt ist es eindeutig, „dass der Weg unserer politisch verordneten Energiewende zu 80 % oder gar 100% aus regenerativer Energie – dominierend als Wind- oder Sonnenstrom – ein Irrweg ist, der an einem Prellbock enden wird.“ So steht es in einer Äußerung Alts über die „Vision und Wirklichkeit der Energiewende“ gegenüber einer Reihe von Fachkollegen am 26. Dezember 2011.

Aufklärung für die nicht sachkundige Öffentlichkeit überfällig

Weiter heißt es in Alts Mitteilung: „Auch beliebig viele Wind- und Sonnenenergieanlagen sind weder notwendig noch hinreichend, eine sichere und bezahlbare Stromversorgung zu gewährleisten, würden allerdings das Stromerzeugungssystem in Deutschland zu dem teuersten und ineffizientesten der Welt machen. … Mir scheint es überfällig, dass alle Verantwortlichen für unsere Energieversorgung und allen voran die Wissenschaft, aber auch die der Wahrheit sich verpflichtet fühlenden Medien mit klaren Worten auf die Zuverlässigkeitsdefizite und den damit verbundenen Irrweg unbezahlbaren Ausmaßes – auch für die nicht sachkundige Öffentlichkeit verständlich – hinweisen sollten. Nach wie vor gilt, dass es ‚absurd wäre, ein Gegner der Stromerzeugung aus Wind- und Sonnenenergie zu sein, wenn diese bezahlbar wäre’. Zu teuer und aufgrund der Dargebotsabhängigkeit zu unsicher gilt leider nicht nur heute, sondern wird nach allem, was man abschätzen kann, auch 2050 und darüber hinaus noch gelten. Wenn man das so festgestellt und bewiesen hat, ist man kein grundsätzlicher Gegner dieser Technik, sondern Realist hinsichtlich der Nutzbarkeit und Anwendungsbreite.“ 5)

Politiker machen Energie zum Luxusgut

Führen schon die Euro-Schuldenkrise und unsägliche Euro-Rettungspolitik Deutschland in den Ruin, dann geschieht das zusätzlich auch noch mit dieser ebenfalls verantwortungslosen Energiepolitik. In einem Leserbrief vor einem Jahr schrieb Helmut Alt: „Es ist nicht zu fassen, mit welcher bodenlosen Gleichgültigkeit sachunkundige Politiker die Basis unseres Wohlstandes aufs Spiel setzen und die Energie einfach zum Luxusgut erklären.“ 6)

von Gastautor Dr. Klaus Peter Krause; zuerst erschienen auf seinem Blog hier 

Ergänzende Links: Strom wird für Millionen Kunden drastisch teurer

Die Kosten für Strom und Wärme werden zum Jahreswechsel kräftig steigen. Jetzt dreht auch Vattenfall so stark an der Preisschraube wie noch nie zuvor. Und das ist erst der Anfang. Verantwortlich für die Verteuerung ist in erster Linie die staatliche Förderung erneuerbarer Energie wie Sonne, Wind und Biomasse. Bereits vor einem Monat hatten die vier großen Stromnetzbetreiber – 50Hertz, Amprion, Tennet und TransnetBW – angekündigt, dass die Umlage nach dem Erneuerbaren Energien Gesetz (EEG) um fast 50 Prozent steigen wird. Diese Erhöhung geben die Stromversorger nun an die Verbraucher weiter.

Referenzen zum Artikel von. K.P. Krause:

1  Bundesverband Braunkohle, siehe http://www.braunkohle.de     

2  Financial Times Deutschland (FTD) vom 30. Oktober 2012    

3  FTD vom 21. März 2012    

4  Stellungnahme von Prof. Dr. Ing. Helmut Alt vom 10. September 2010.    

5 Zitiert aus einer Antwort-Mail von Professor Alt an mich vom 28. Dezember 2011.      6 FAZ vom  16. September 2011, Nr. 216, Seite 6