1

„Ein hochrangiger deutscher Politiker aus einer großen Volkspartei….„… und wenn es die Klimakatastrophe nicht gäbe, dann müsste man sie erfinden, um die Menschen dazu zu bringen, Dinge zu tun, die wir für richtig halten.“

(Die Grundidee dieses Satzes soll von Voltaire stammen: Wenn es keinen Gott gäbe, so müsste man ihn erfinden“; allerdings soll Voltaire auch gesagt haben: „Ja weniger Aberglaube, desto weniger Fanatismus, desto weniger Unheil“. Ich hoffe nur, dass unser Politiker dies auch wusste)

Meine Frau und ich haben in dreißig Ehejahren eine sehr nützliche Übereinkunft getroffen: Wenn wir Gefahr laufen, wegen Sachen, die wir uns unbedacht sagen, aneinander zu geraden, dann muss der, der gerade was Blödes vom Stapel gelassen hat, den Satz noch dreimal laut sagen – in aller Regel erkennen wir dann, was gerade schief läuft, müssen meist drüber lachen. Und alles ist gut.

Ich bat diesen Politiker, das auch zu tun – aber er verstand nicht, was ich damit wollte.

Meine Damen und Herren, das ist genau der Punkt.

Diese Aussage unseres Politikers ist so absolut zynisch, so demagogisch und offenbart – selbst wenn man sie nur einmal hört – einen höchst alarmierenden Sinn hinter all dem Gedöns von Erderwärmung, CO2 und anderen Katastrophen: arrogante Machtpolitik.

Eine zweite Sache hat mich dann aber völlig aus dem Häuschen gebracht. Nicht nur, dass ich eine Reihe bezeichnender Zitate von Journalisten aller Couleur, aus Presse, Fernsehen, Internet usw. vorzeigen könnte, die von „einer CO2-freien Welt“ (wortwörtlich!) als erstrebenswertes Ziel aller Anstrengungen schwätzen, nein, dieser gefährliche Unsinn wird per politisch sanktioniertem Lehrplan in den staatlichen Schulen auch unseren Kindern übergeholfen.

Ich habe mir die einschlägigen Unterrichtsmaterialen des sächsischen Kultusministeriums für Lehrer besorgt. Mit diesen verbindlichen Vorgaben sollen den Schülern in einer poppig aufgemachten Art und Weise die Gefährlichkeit des Giftgases CO2-vorgeführt werden. Die Zukunft unserer Erde und auch die der unmittelbaren Heimat wird in den düstersten Farben gemalt (Dürren, Seuchen, Hungersnöte, Naturkatastrophen, Kriege usw.) und es wird nützliche Handreichung gegeben, wie und mit welchen Argumenten gegen feindliche „Klimaskeptiker / Klimaleugner“ vorzugehen sei.

Doch, meine Damen und Herren,

was wissen wir tatsächlich?

Was müssen wir tatsächlich tun?

Nun, zunächst sollten wir uns immer vor Augen führen, dass das „Teufelsgas“ CO2 einerseits ein Spurengas ist (also wie schon der Name sagt, nur in geringen Spuren vorkommt) und andererseits ein für uns äußerst wichtiges Gas darstellt: Die Existenz der gesamten Pflanzen- und Tierwelt – auch die des Menschen – hängt nämlich vom Vorhandensein dieses „Killergases“ ab. Es ist  (in den vorkommenden Spuren-Konzentrationen) also weder gefährlich noch giftig. Eine CO2-freie Atmosphäre würde uns töten. Eine „CO2-freie Zukunft“ müssen wir unbedingt verhindern!

Die Frage ist, wie groß muss und darf der Anteil dieses Gasen in der Atmosphäre sein und was ist „normal“?

Die beschämende Antwort auf diese Frage ist: Wir wissen es nicht.

Gehen wir dem weiter nach, so sehen wir, dass Messungen, die nicht in die eine oder anderer Richtung „zurechtgebogen“ sind, ganz unterschiedliche Konzentrationen in der Vergangenheit und heute belegen. Grundsätzlich muss natürlich beim Vergleich von Daten geklärt werden: wie man misst und wie vergleichbar die Messmethoden und wie groß ihre Fehlerbandbereiten sind.

Dennoch, aus seriösen Recherchen erkennt man leicht: in der Atmosphäre (also in „Freier Umgebung“ – hier drinnen werden wir sicher schon bei 4000 ppm sein…) scheinen Konzentrationen von 250 bis über 1400 ppm in der erdgeschichtlichen Vergangenheit, in historischer, vorindustrieller Zeit und auch heute keine ungewöhnlichen Zahlen zu sein. Selbst in den letzten 200 Jahren schwankten die gemessenen Werte zwischen 450 und 290 ppm.

Man misst heute im Observatorium auf dem Vulkan Mauna Loa rund 380 ppm (die berühmte, seit Mitte der 50-iger Jahre ansteigernde Kurve).

Die nächste und wie mir scheint, die grundlegendste Frage ist, beeinflusst diese im ppm (Part per Million) Bereich liegende CO2-Konzentration die Temperatur der Erdatmosphäre? Auch hier zeigen verschiedene direkte Messungen …

(ach übrigens, wer weiß, seit wann es überhaupt Thermometer und eine richtige Grad-Skala gibt?  –  seit Fahrenheit 1715) 

… und indirekte Temperaturermittlungen, dass es z.B. vor 3600 Jahren rund 1 grad wärmer war, als heute, dafür 200 Jahre später (vor 3400) 1,5 grad kälter. Was immerhin einen Temperatursturz von 2,5 grad in 200 Jahren bedeutete – und zu dieser Zeit gab´s nur ganz wenige Menschen und keine Autos und vor allem keine Klima-Rettungsaktion.

Um solche Temperatur-Schwankungen zu erklären, wird gewöhnlich mit dem sogenannten Treibhauseffekt argumentiert und wenn man die damit zusammenhängenden Veröffentlichungen auf der „Klimaschützer“-Seite durchforstet, scheint alles völlig klar zu sein.

Die tatsächliche Antwort auf diese Frage ist aber ebenso überraschend und beschämend, wenn man die ganze Literatur durchkämmt, wie die zur Normal-Konzentration von CO2: wir wissen es nicht.

Wir wissen nicht genau, wie CO2 als „Klimagas“ im komplexen System der Atmosphäre insgesamt wirkt. Und es existiert kein wissenschaftlich verifizierbarer und falsifizierbarer Zusammenhang zwischen CO2-Gehalt und Temperatur. Das, was wir aufstellen sind Korrelationsvermutungen – und die können auch z.B. so gedeutet werden, dass die CO2-Konzentration in der Atmosphäre der Temperatur folgt und nicht umgekehrt.

Mich als gelernter Experimentalphysiker verwundert dabei besonders, dass mir trotz intensiver Recherche und Anfragen an ein paar meiner Physiker-Kollegen bislang kein ernstzunehmendes Experiment zur Wirkung des CO2 als „Treibhausgas“ bekannt geworden ist.

Aber verdammt, viele Leute scheinen doch ganz genau zu wissen, dass das Klima über kurz oder lang kollabieren wird, wenn wir nichts dagegen tun: sprich das weitere „Einblasen“ von CO2 in die Atmosphäre, koste es, was es wolle, unterbinden. Wozu denn sonst die gewaltigen Ausgaben für Klimaforschung, die großen und teuren Klimakonferenzen, die heiß umkämpften politischen Vereinbarungen, die dringenden Appelle usw.

Woher kommt die Mär von den 2 grad, die wir dem Klima noch zubilligen und die sich z.B. auch unsere Diplomphysikerin Merkel als Grenzziel setzt?

Tja,

auch das beruht nicht auf gesichertem Wissen. Es ist allenfalls eine Annahme.

Allerdings wissen wir genau, wer sie verbreitet und wer sie als politisches Programm aufgenommen hat und wer nun seine Volkswirtschaft und seine Steuerzahler dafür bluten lässt und wer damit schon jetzt steinreich geworden ist. 

Alle, aber auch wirklich alle diese „Vorhersehungen“, oh, Verzeihung,  „Vorhersagen“ sind Ergebnisse von Computer-Modellen, basierend auf komplexen, chaotischen Systemen, basierend auf dem nicht genauen Wissen über Treibhauseffekte und auf immer noch nicht genau bekannten CO2- und anderen Gas-Kreisläufen (Wasserdampf) im Boden, im Ozean und in der Atmosphäre.

Allerdings ist völlig klar: Wetter (lokales, globales und damit auch Klima – im strengen statistischen Sinne) unterliegt einer ständigen Veränderung. Und diese Veränderung findet mal schnell und mal langsam statt. Das kann man ohne großartige Messungen und Computerprogramme in und an der Natur (Pflanzenwelt, Tierwelt, Landwirtschaft, Seefahrt, Handelstraßen usw.) sehen, erleben, und nachvollziehen. Eigentlich wäre es sogar äußerst merkwürdig, wenn das nicht geschähe. Das Problem ist nur: aus unerfindlichen Gründen sind die heute lebenden Menschen auf „Statik“ getrimmt und jede (natürliche) Veränderung wird deshalb als Bedrohung aufgefasst. Früher freuten sich die Leute, wenn es wärmer wurde – heute haben sie davor panische Angst.

Liebe Freunde,

Nichtwissen, kann durch Wissen ersetzt werden, indem man misst, forscht, nachdenkt und rechnet.

Das ist Sinn der exakten Naturwissenschaften.

Aber leider gibt es auch eine bittere Erkenntnis, die im Lauf der langen Geschichte menschlicher Kultur immer wieder gewonnen werden musste:

Nichtwissen wird durch Halbwissen, durch „Konsens“ von Laien und letztlich durch Glauben ersetzt, was dazu führt, dass nur noch das gemessen wird, was die Priester voraussagen. Die „treuen“ Forscher beforschen eifrig die Wahrheit der reinen Lehre ihrer Religion und das damit nicht konforme Denken wird erst ausgegrenzt, dann verpönt und schließlich unter Strafe gestellt und geahndet – Ungläubige werden identifiziert, zu Ketzern erklärt. Im Mittelalter wurde so was in Europa unter dem Jubel der Masse auf Scheiterhaufen verbrannt.

Ich habe den merkwürdigen Eindruck, dass wir ohne auf diese Lehre aus unserer Vergangenheit zu achten, heutzutage feste dabei sind, diesen alten Holzweg neu zu beschreiten. Und Alle machen mit. Oder zumindest fast Alle.

Ja es ist ganz lustig, da machen sogar die mit, die es eigentlich aus eigenem Verständnis nicht tun sollten.

Da stellen sich z.B. bedeutende Wirtschaftsunternehmen, deren aktenkundiger Geschäftszweck die profitable Produktion und der steigende Absatz von Energie ist, an die Spitze von Energie-Einsparungsaktionen.

Da ist ungefähr so, als ob Volkswagen anstelle einer Abwrackprämie eine „Auto-Vermeidungsprämie“ fordern würde.

OK, das war nicht fair. Also Spaß beiseite, kommen wir auf unseren Politiker vom Anfang zurück.

Ich fragte ihn weiter, was denn das Richtige sei, was „unseren Menschen“ beigebracht werden müsse, was sie aus Unkenntnis denn nicht verstünden?

Nun, er rückte mit der Forderung nach Umweltschutz raus. Und letztlich warf er das Menetekel der Erschöpfung aller fossilen Energieträger, Gas, Kohle, Erdöl in die Wagschale seiner Argumente, beklagte das mangelnde Bewusstsein der „Verbraucher“ was den Einsatz von Energie betrifft und die mangelnde Energieeffizienz der heutigen Technik.

Hm. Dagegen kann man ja nun wahrlich nichts sagen!

Umweltschutz ist immer gut, Energieeffizienz auch. 

Doch fangen wir nochmals von Vorne an.

Die Erde ist ein relativ offenes System und gleichzeitig auch ein relativ geschlossenes.

Offen, was die energetische Wechselwirkung mit dem Kosmos, insbesondere mit unserer Sonne betrifft, geschlossen, was den Kreislauf von mit Masse behafteten Stoffen betrifft.

Insofern werden wir unentwegt mit einer (im Vergleich zu unserem Verbrauch) riesiger Menge an Energie „bombardiert“, die auch praktisch gleichzeitig unseren Planeten fast wieder vollständig verlässt. Das, was zeitweilig als Rest hier bleibt, heizt einerseits den Planeten und dessen Atmosphäre auf das uns heute bekannt Maß als Gleichgewichtszustand auf. Andererseits speichern Gesteine, Wasser, Luft, Pflanzen und Tiere die ankommende Sonnenenergie in ganz verschiedenen Formen und Zeiträumen.

So weiß man, dass Kohle gespeicherte Sonnenenergie in Form verrotteter Pflanzen ist. Bei Erdöl und Gas weiß man es – und das ist auch wiederum ganz verblüffend – nicht so ganz genau. Ja natürlich, in der Schule lernt man, dass dies auch nur Produkte aus Pflanzen- und Tierresten sind. Aber auch hier werden durchaus ernste Zweifel angemeldet. Und mir ist bekann, dass Ölfirmen in Tiefen bohren, in denen die „biologische“ Entstehungstheorie große Mühe hat, die gefundenen Vorkommen zu begründen. 

Auch der heute meist verwendete Brennstoff für unsere Atomkraftwerke ist nichts anderes als ein Energiespeicher – allerdings stammt dessen Energiegehalt aus ganz frühen Anfängen des Sonnensystems, bzw. des uns bekannten Kosmos.

Egal. Dem vernünftigen Menschen leuchtet ein: Wenn der Tagebau leer ist, ist er leer und neue Kohle kommt da nicht wieder rein – jedenfalls nicht zu unseren Lebzeiten. Kurz die Endlichkeit fossiler Energieträger ist zumindest ein richtiger Denkansatz, wenngleich die Zeiträume bis zur Erschöpfung nicht kurz sein werden, wie immer mal wieder panisch gewarnt – aber das ist prinzipiell unwichtig.

Das Problem, vor dem wir hier stehen ist, dass die Stoffkreisläufe (der Kohlenstoff-Kreislauf), die zur Bildung von Kohlenstoff-Reserven in Form fossiler Träger führen, in riesigen Zeiträumen stattfinden, angetrieben durch die Sonnenenergie. Wir aber greifen mit unserer Energiegewinnung und den damit verbundenen Stoff- und Energiewandelungsprozessen nur in einem klitzekleinen Zeit-Ausschnitt massiv ein. Wir erzeugen damit diskontinuierlich Prozess-Produkte in Spitzenkonzentrationen, die uns in den kurzen Zeitspannen ihrer Freisetzung, gemessen am langen Zeitraum ihrer Entstehung eben Probleme bereiten. 

Kurz: Wenn wir davon ausgehen, dass die wirkliche Herausforderung nicht das sich völlig unabhängig von der Tätigkeit des Menschen ständig durch kosmische Kräfte verändernde Wetter (hier als statistische Größe Klima genannt) ist, sondern die umweltschonende Bereitstellung von Energie für die zivilisatorische und kulturelle Entwicklung der gesamten Menschheit auf der Erde, dann sind wir wieder völlig beieinander.

Wir können das Klima nicht schützen und das Wetter (Temperatur, Luftdruck, Luftfeuchte, Wolken, Niederschlag usw.) wahrscheinlich global auch nicht beeinflussen, ganz sicher aber die Umwelt. Und Beides sind völlig verschiedene Sachen.

Ein Freund sagte mir vor kurzem mit Blick auf diese unsägliche CO2-Hysterie: wir haben kein CO2-, sondern ein C-Problem: Wir verfeuern derzeit kostbare und vielleicht tatsächlich endliche, sehr billige und gut verfügbare C-Träger, die wir viel besser für Chemieindustrie und Pharmaherstellung verwenden könnten. Das ist – bei dieser Gelegenheit gesagt, auch wahr und ein bisschen beschämend, wenn uns außer Verbrennung nichts Besseres für diesen Schatz einfällt.

Also dreht sich alles um eine zukunftsfähige, die Umwelt nicht negativ beeinflussende, weltweite, unsere Kohlenstofflager schonende, ausreichend große Energieproduktion.

Energie, die wir dringend benötigen.

Energie, deren Verbrauch nicht deswegen steigen wird, weil die „armen Länder“ auch eben nur mal so viel konsumieren wollen wie wir, sondern weil sich das Kulturniveau aller Menschen anheben und auf hohem Niveau über die ganze Erde hinweg ausgleichen wird.

Es ist gerade die Energieproduktion, die wir nicht mehr „abstellen“ können, weil sie der Antrieb und die Grundlage für unsere zivilisatorische Entwicklung geworden ist. Energie sinnvoll einzusetzen ist die eine Seite, d.h. alle Entwicklungen, die energieeffizientere Technologien (Produktion, Verkehr, Logistik und Verbrauch) zum Ziel haben, sind richtig im ethischen Sinn und dies ist sicher auch eine große Chance für viele mittelständische Unternehmen.

Aber es geht auch um alternative Energieproduktion, um Energietransport und Speicherung, um den zukünftigen Energiehunger der Weltbevölkerung zu stillen. Und dieser „Hunger“ darf nicht als negative Forderung verstanden werden, sondern als Herausforderung an Wissenschaft und Technik.

Denn dieser „Energie-Hunger“ ist der messbare Ausdruck unserer kulturellen Fortentwicklung. So, wie der Hunger eines menschlichen Individuums nach energiereicher Nahrung Ausdruck des Energieverbrauchs seines Körpers und insbesondere seines Gehirns ist.

Kommen wir noch kurz auf die scheinbare Lösung des Energieproblems durch Kernfusion.

Wahrscheinlich werden wir in wenigen Jahren in der Lage sein, ein solches Kraftwerk zu bauen und in Betrieb zu nehmen. Es würde eine riesengroße Menge an Elektroenergie produzieren. Aber es löst zwei Probleme nicht: den verlustreichen Transport von Elektroenergie über große Entfernungen und die Aufheizung der Erde – nicht durch atmosphärische Spurengase – sondern durch tatsächliche Aufheizung des Mantels infolge einer Energieproduktion zusätzlich zur (gespeicherten oder ständig einfallenden) Sonnenenergie, mit der unsere Erde im Gleichgewicht steht, auch wenn wir sie in Energie-Umwandlungsprozesse einbeziehen und Arbeit verrichten lassen. Außerdem würden nur wenige Kraftwerke an zentralen Stellen nötig und finanziell möglich sein.

Wer garantiert dann bei der heutigen politischen Weltlage die Durchleitung und den sicheren Betrieb?

Also vergessen Sie die Kernfusion. Lassen Sie sich von der Sonne „erleuchten“.

Hier hat die Natur nur leider ein großes Problem für uns parat: die Energiedichte ist sehr klein – zu klein für die heutige Technologie der Sonnenenergiegewinnung. Und zu allem Verdruss gibt es sowohl Tag und Nacht und Wolken, Sturm und Windstille. Da Wind und fließendes Wasser, aber auch Pflanzen ja auch nichts Anderes als Energie-Träger der Sonnenenergie sind, ist bei allen diesen Sachen die Herausforderung gleich und mit heutigen technischen Mitteln ist nur die Wasserkraft sinnvoll im Sinne von Aufwand und Nutzen und kontinuierlicher Verfügbarkeit im Vergleich zu Kohle, Erdöl, Gas und Uran.

Anstatt also Milliarden und aber Milliarden zu verschwenden, um 100-Watt-Glühlampen zu verbieten und CO2-Abgase in Bergbaustollen zu verstecken, anstatt teure Silizium-Platten auf Scheunendächern zu entsorgen und Landschaften mit hässlichen Windmühlen zu verschandeln, deren Existenz allein von der gewaltigen Subventionierung durch den Steuerzahler abhängt, muss es eine Rückkehr zur wissenschaftlichen und ingenieurtechnischen sowie zur wirtschaftlichen und letztlich politischen Vernunft geben.

Es muss tatsächlich alles daran getan werden, die auf die Erde einfallende Sonnenenergie als praktisch unerschöpfliche und riesige Energiequelle „anzuzapfen“. Aber leider scheinen eben die heute eingesetzten Technologien dafür nur bedingt geeignet zu sein.

In diesem Zusammenhang muss auch Alles auf den Prüfstand, was mit dem heutigen Energie-System in Verbindung steht und was Ideen für die Zukunft liefern könnte. Zum Beispiel halte ich es für sehr angebracht darüber nachzudenken, ob es nicht besser wäre, statt der kontinuierlichen, zentralen Energieerzeugung eine verbrauchsabhängige, also variable, dezentrale Erzeugung „vor Ort“ zu bevorzugen.

Dies würde ganz andere Denkansätze und Technologien bei Erzeugung, Transport und Speicherung ermöglichen. Also werden wir auch die Frage stellen: ja, muss es denn Strom sein, den wir zentral erzeugen und über Drähte transportieren, ohne ihn wirklich sinnvoll speichern zu können, oder könnte man mit dem Energieträger Gas (Wasserstoff) nicht viel besser auskommen und umgehen?

Aber alle diese Fragen können nur beantwortet werden, wenn wir nicht mit Demagogie, nicht mit einem machtpolitisch motivierten Schwindel, nicht mit einer wissenschaftlichen Fälschung argumentieren. Und wir sollten uns auch volkswirtschaftlich nicht in die Tasche lügen.

Denn eines ist sicher: es wird herauskommen!

Es wird herauskommen – und der Verdacht des Betruges keimt bereits -, dass die natürlichen und permanenten Veränderungen des Klimas nicht wesentlich von unserem CO2-Eintrag abhängig sind und dass alle darauf bauenden Argumente und Folgerungen falsch sind.

Dies wird die Glaubwürdigkeit der Naturwissenschaft und der Politik dermaßen massiv untergraben, dass notwendige und richtige Ansätze zur Revolution der Energiesysteme nicht mehr ernst genommen werden. Und dann, meine Freunde, dann haben wir ein richtiges Problem!

Im Gegensatz zu meinem Politiker, der mir die Stichworte für diesen Vortrag geliefert hat, glaube ich nämlich fest daran, dass nur mit der Wahrheit und nur mit ihr und nur, wenn wir uns als vernünftige Wesen auch vernünftig über die großen Fragen streiten und einigen, nachhaltig die Existenz und Entwicklung unserer Zivilisation geschützt werden kann. 

Insofern freue ich mich auf die durch hocheffiziente Photosynthese-Werke gestützte, flexible Wasserstoff-Energiewirtschaft der Zukunft, die das Wort „Knappheit“ nicht mehr kennt.

Prof. Dr. Knut Löschke Leipzig

Der Vortrag erschien in leicht gekürzter Form zuerst bei der Partei der Vernunft




Angeblich immer heißere Sommer!

Im Text zu dieser Grafik – wurde beim Leser der Glauben erweckt, als wäre die Temperaturerwärmung nach 2003 weiter gegangen, genauso wie die Klimawissenschaftler dies damals vor sieben Jahren falsch vorhergesagt haben.

Doch tatsächlich kam es anders. Die Temperaturen sind in den letzten 9 Jahren nicht mehr weiter gestiegen, sondern gefallen. Laut Deutschem Wetterdienst sind die Jahresmittelwerte um 0,7 Grad Celsius zwischen dem Jahr 2000 und 2009 zurückgegangen.

Ich habe nun die Grafik eigenhändig um 6 Jahre erweitert und dabei versucht, die einzelnen Jahre einzutragen. Auch der Laie erkennt nun den starken Temperaturrückgang in diesem letzten Jahrzehnt. In Wirklichkeit ist der Temperaturrückgang noch stärker, weil der Wärmeinseleffekt der Klimastationen der Abkühlung entgegenwirkt.

Nun weiß jeder, weshalb die Temperaturgrafik im Jahre 2003 aufhört.

Josef Kowatsch, Hüttlingen




Cui Bono:Die finanziellen Interessen hinter der These vom Klimawandel!

Insofern sind die Ergebnisse aus /1/ und /2/ bedeutend.

Wie war es möglich,  trotz der Unlogik des von der offiziellen Klimaforschung behaupteten Mechanismus’ der  Öffentlichkeit das Märchen von der Klimakatastrophe ( und kürzlich von „tipping points“ ) durch CO2 einzureden?

Dies bewirkten im Verein mit dem geringen Verständnis der Öffentlichkeit für wissenschaftliche Fragen massive wirtschaftliche Interessen.

Es begann wohl in den 80er Jahren. Frau Thatcher hatte Probleme mit der nuklearen Wiederaufarbeitungsanlage Sellafield. Die Bevölkerung wollte sich darüber nicht beruhigen lassen. Da kam die Idee auf, die Vermutung von Arrhenius und Fourier aus dem 19. Jahrhundert wieder aufzuwärmen, CO2 könne auf Grund seiner Infrarotabsorption die Atmosphärentemperatur erhöhen. So sollte die Kernenergie als „das kleinere Übel“ der Öffentlichkeit schmackhaft gemacht werden.       

Der Einfluss von CO2 wurde übrigens bereits kurz nach seiner  Vermutung als äußerst gering erkannt, und 100 Jahre lang gab es dann in der wissenschaftlichen Literatur keine Erwähnung eines Einflusses von CO2 auf das Erdklima .

Fourier und Arrhenius schätzten die erwartete Erwärmung übrigens als eine der großen Wohltaten der Industrialisierung ein. Sie nahmen eine Erderwärmung im Hinblick auf den historischen Befund, dass in Warmzeiten sich die Menschheit immer kräftig zum Positiven entwickelt hatte, als eine „Annäherung an das Paradies“. Auch die Erhöhung der landwirtschaftlichen Erträge bei Zunahme von atmosphärischem CO2 war bereits bekannt.

Die Idee einer „gefährlichen“ Erderwärmung durch CO2  wurde in den 80er Jahren natürlich  von den Nuklearindustrien aller Länder aufgegriffen und verbreitet. Sofort eröffnete sich allen Regierungen die Vision von Steuern in riesiger Höhe, gegen welche die Betroffenen nicht protestieren würden können, da sie ja zur Weltrettung nötig sind. Umweltverbände sahen natürlich die Möglichkeit zu mehr Einfluss, Macht und Geldmitteln. Während der 20 Jahre der Existenz der CO2-These fanden sich ungezählte weitere Möglichkeiten, diese zu Lasten der Bevölkerungen zu nutzen: Entwickelte Staaten sahen hierin einen Hebel, die wachsende wirtschaftliche Konkurrenz der sich entwickelnden Länder zu kontrollieren. Wer CO2 kontrolliert, kontrolliert die Energie, und damit die Industrien ( was China, Indien und diverse andere Staaten durchschauten und es zum Eklat von Kopenhagen 2009 kommen ließen ).

Das „Bonbon“, das diesen Staaten angeboten wurde, hieß „Technologietransfer zur Bewältigung der Klimakrise“ (Lieferung auf Kosten der  Steuerzahler der entwickelten Länder). Ein verlockendes Arrangement für die Lieferfirmen. So stieg denn auch in wenigen Tagen vor der Klimakonferenz in Kopenhagen 2009 die dafür geforderte Summe von zunächst 6 Mrd. auf 100 Mrd. am nächsten Tag, und 1000 Mrd. (!) am übernächsten Tag. Hauptmotivation wurde aber in letzter Zeit der CO2-Emissionhandel.  Weltweit fallen jedes Jahr 30 Gigatonnen CO2 an. Bei der derzeitigen Belastung von 10 Euro/Tonne ( 30 Euro/ Tonne sind im Gespräch ) ergäbe das Einkünfte von 300 Mrd./ Jahr ( 900Mrd./Jahr ), in 10 Jahren also 3 bzw. 9 Billionen ( von den Verbrauchern/Steuerzahlern aufzubringen ) und ein entsprechendes Handelsvolumen. Wenige Prozent Handelsprovisionen ergeben daher Gewinne von riesigen Milliardensummen. Deshalb war ENRON  ( der größte Energiehändler der Welt  und einer der größten Konzerne Amerikas, bevor er in einem Feuerwerk von Korruption implodierte ) einer der heftigsten Verfechter des Kyoto Protokolls ( an welches sich NICHT halten zu müssen, die USA zur Bedingung der Installierung des UN-Klimarates gemacht hatten. Andererseits behielten sie sich dabei ausdrücklich vor, an den Geschäften  welche sich  mittels Propaganda des  Klimarates ergeben würden, teilzunehmen ).

Zitat von ENRON: „We intend to make this into a gigantic and long-lasting business“

Alle großen Bankhäuser, wie die inzwischen in Konkurs gegangenen Lehman Brothers, und Goldmann-Sachs bereiteten sich auf dies Riesengeschäft vor. Die „Chikago Carbon Exchange“ hat bereits Filialen in diversen anderen Ländern. Ihr Geschäftsführer gibt das Geschäftspotential sogar mit 10 Billionen ( in Worten: Zehntausend Milliarden ) pro Jahr an. Aktiv in diesem Geschäft ist Pachauri, der Vorsitzende des UN-Klimarates.

Ablasshandel: diverse Firmen verkaufen  existierende Aufforstungen und Anpflanzungen als Klimaschutz. Dabei tritt der Ablasshändler an den Anpflanzer heran und bietet ihm einen Teil des Geldes, das er vom Ablasssuchenden kassiert hat, wenn der Anpflanzer seine Anpflanzung nachträglich als Klimaschutz erklärt. Einer der Hauptakteure in diesem Geschäft ist der Klimaschützer  Albert ( Al ) Gore. Dessen Firma erwarb außerdem angesichts des enormen Profitpotentials bereits,  wie Goldmann-Sachs, 10% an der „Exchange“.

Der extrateure„grüne Strom“ kommt meist aus Wasserkraftwerken, welche schon viele Jahrzehnte lang Strom lieferten. Wenn die Elektrizitätsproduktion aus Wind und Sonne wegen mangelnder Sonne oder Wind ausfällt, muss Elektrizität  bis zu 50% aus dem Ausland zugekauft werden. D.h. überwiegend aus Kernkraftwerken. „Ökostrom“ also aus Kernkraftwerken. Die Betrugsmöglichkeiten sind unbegrenzt.

Nicht zuletzt profitieren die „Gefälligkeitsforscher“ für ihre Zuarbeit. Für die mühsame Kleinarbeit der Temperaturdaten-„Homogenisierung“ und für die Ausarbeitung von Klimamodellen, deren Falschansätze international durch Konferenzdiskussionen und Veröffentlichungen in streng zensierten Zeitschriften,  für den vielzitierten „Konsens der Forscher“,abgeglichen werden, sind bisher immerhin über 60 Mrd. geflossen. Wohlgemerkt, zur „Erforschung“ einer Frage welche bereits seit  100 Jahren geklärt ist.

Gewinne auf Kosten des Steuerzahlers machen die Hersteller von Anlagen zur Erzeugung von Strom aus Wind und Sonne. Jeder Arbeitsplatz in dieser Industrie in Deutschland muss vom Steuer- oder Gebührenzahler mit 150tausend Euro jährlich finanziert werden.

Zur „Erforschung“ von „Endlagerung“ von angeblich klimaschädlichem CO2 unter der Erde erhielt Vattenfall dies Jahr 200 Mio Euro aus Steuergeldern. Eine Technik die mit Sicherheit tausende von Erstickungsopfern fordern würde, und zu einer gigantischen Land- und Immobilienentwertung führen würde, womit die nächste Bankenkrise begänne.

Enorme Gewinne sieht auch die Agri-Industrie.  Archer Daniels Midland der größte amerikanische Landwirtschaftskonzern, lobbyierte  erfolgreich für eine zwangsweise Beimischung von Bioethanol zum Benzin. Nicht nur ergab das eine höhere Absatzmenge, sondern durch die gleichzeitige Verknappung des Nahrungsmittelangebotes generell steigende Preise für Agrarerzeugnisse. Wie wir es  2008/2009 erlebten.

  Die gigantischen  Profite, aufzubringen vom Steuerzahler und Verbraucher, würden sich verflüchtigen, sobald die Öffentlichkeit das Märchen durchschauen würde. Das erklärt die strikte Zensur der Medien, besonders der deutschen. Der aufmerksame Leser entnimmt zwar ab und an einer Formulierung, dass der Journalist mehr weiß als er schreibt, aber auch die Medien brauchen ihre Katastrophenthemen ( Waldsterben, Computerkatastrophen zur Jahrtausendwende, Eiszeit in den 70er Jahren etc.) so dass die Zensur umfassend ist. Zwar finden sich da und dort Andeutungen über die Wirklichkeit in den Internetausgaben  einiger Zeitungen ( Welt online, FAZ online, Spiegel online), die aber von der gutgläubigen Mehrheit nicht gelesen werden.

Bei diesen Profiten kann man erwarten, dass das CO2-Märchen mit Klauen und Zähnen verteidigt werden wird. Immer häufiger wird verlangt, nicht-linientreue Äußerungen und Forschungsergebnisse strafrechtlich zu verfolgen. Die Gesetzgebung versucht eilig, die Gesetze, welche den Profit zulasten der Steuerzahler/Verbraucher absichern, noch bevor die Blase platzt, unter Dach und Fach zu bringen.

Die Klimafront bröckelt jedoch. Die USA haben sich in Kopenhagen den asiatischen Ländern angeschlossen und ihre Klimagesetzgebung auf Eis gelegt.  Die Bundesregierung strebt nach ihrer Düpierung in Kopenhagen kein internationales CO2-Abkommen mehr an. Beim jetzigen G20-Gipfel wurde das Thema von der Tagesordnung genommen. Kanada hat sich aus den Klimaverträgen verabschiedet. Australien und Neuseeland haben  in einer spektakulären Kehrtwendung „klimarealistische“ Experten berufen, zur Neuformulierung ihrer Klimagesetzgebung. Der französische Wissenschaftsminister bezeichnete kürzlich den UN-Klimarat als „ganz gewöhnliche Mafia“. Die Royal Society in England hat prominente „Klimakritiker“ in wichtige Positionen berufen.

Hinter den Kulissen bereitet man sich daher schon vorsichtig vorausschauend auf den GAU vor.  Z.B. durch Namenänderung von Forschungsinstituten („Klimaforschung“ ersetzt „Klimawandel“ ). Zwecks Absicherung des Geldflusses auch nach dem Platzen der Blase.

Durchaus auch spektakulär  die Anmerkung des obersten deutschen Klimakatastrophenpropheten, Schellnhuber, er  setze seine Hoffnungen weniger auf die Politik sondern auf die Möglichkeit „dass sich die Klimaforschung kollektiv geirrt habe und irgendeinen Mechanismus, der das Klima stabilisiert, übersehen habe“

Um die Klimadiskussion in Perspektive zu setzen genügt ein Blick in die Geschichte. Die Ausbeutung der Angst der Bevölkerung vor Klimaänderungen war immer  eine beliebte Technik. Im Mittelalter forderten die Kirchen stetig wachsende ( finanzielle ) Opfer von der Bevölkerung um das existenzbedrohende  Anwachsen der Alpengletscher zu „ stoppen“.

Die atztekische Bevölkerung wurde von ihrer Priesterschaft so sehr mit finanziellen Opfern ( und Menschenopfern ) zwecks „Klimakontrolle“ belastet, dass sich ein großer Teil der Bevölkerung schließlich auf die Seite der spanischen Eroberer schlug.  Die atztekische „Klimakatastrophe“ ging also für ihre Betreiber nach hinten los.

Gesellschaftspolitisch  ist die Entwicklung nicht unplausibel. Die Kirchen sind ihres „Erklärungsmonopols“ verlustig gegangen. Die „Deutungshoheit“ ist im öffentlichen Bewusstsein auf  „die Wissenschaft“ übergegangen. Wenig Wunder also, dass dies Machtvakuum besetzt wurde.  Das Fischen im Trüben wird jetzt eben nicht mehr durch die Kirche gerechtfertigt, sondern mittels eines Eindrucks von, Wissenschaftlichkeit“ den Bilder von „ Klimarechenzentren“ hervorrufen sollen.

 Prof. Dr. Carl Otto Weiss für EIKE

Quellen:

  /1/ http://watssupwiththat.com/2009/07/23/new-paper-from-lindzen/

  /2/ http://wattsupwiiththat.com/2010/06/27/spencer-on-pinatubo-and-climate-sensitivity/

 /3/ http://jennifermarohasy.com/blog/2009/05/the-climatically-saturated-greenhouse-effect/

      auch:  G.W. Paltridge; Journal of the Royal Meteorological Society, Vol.127 ( 2001) 305




Greenpeace ist ein Konzern wie jeder andere!

Ökowatch: Sie haben in Ihren Beiträgen unter anderem die Umweltschutzorganisation Greenpeace angegriffen. Was stört Sie an Greenpeace?

David Harnasch: Überhaupt nichts. Greenpeace ist ein Konzern wie jeder andere, er verkauft nur statt Autos oder Lebensmitteln eine Weltsicht und eine Meinung. Mich stört an den werten Kollegen von der Presse, dass sie nur sehr selten hinterfragen, was ihnen von diesem Laden serviert wird, denn Greenpeace ist bekanntlich „unabhängig“. Was selbstverständlich Quatsch ist, denn die Gehälter für über 1.000 Festangestellte fallen nicht vom Himmel. Also muss Angst und Empörung geschaffen und bewirtschaftet werden. Das ist völlig legitim, aber das Geschäftsprinzip ist eher das der Bildzeitung als das von BMW.

    Ökowatch: Sie kritisieren unter anderem, dass Greenpeace die falschen Prioritäten setzen würde. Aber wie soll man entscheiden, was die richtigen Prioritäten sind und wer soll das tun?

David Harnasch: Die Prioritäten von Greenpeace sind aus dem Eigeninteresse der Organisation heraus absolut richtig: Wenn man mit der Angst vor gentechnisch optimierter Nahrung mehr Geld verdient als mit der Empörung über Gift im chinesischen Fluss Dongjing, dann wäre man schlecht beraten, den Fokus hierauf zu legen. Nur ist das eine ein Non-Problem, das andere hingegen eine Katastrophe, die mal eben 200.000 Menschen von der Trinkwasserversorgung abschnitt. Es wäre Aufgabe der Medien und der Verbraucher – im Falle Greenpeace also der zahlenden Mitglieder und Spender – hier die Perspektive geradezurücken.

    Ökowatch: Nicht nur mit Greenpeace, auch mit der Tierschutzorganisation PETA gehen Sie hart ins Gericht. Was ist der Kern Ihrer Kritik an PETA?

David Harnasch: Während viele NGOs sehr konkrete Ziele verfolgen, ist PETA praktisch eine NGO 2.0: Politische Kampagnen dienen dazu, Geld reinzuholen, von dem dann wiederum politische Kampagnen veranstaltet werden. Daher bleibt leider kein Geld für Tierheime oder Tiervermittlung übrig. Statt dem einzelnen leidenden Lebewesen konkrete Hilfe angedeihen zu lassen, wird ein großes – und im Kern menschenfeindliches – Ziel verfolgt: Rechte für Tiere. Auch hier richtet sich meine Kritik gegen Medien und die Promis, die sich massenhaft für diesen Laden zur Verfügung stellen: PETA istkeine Tierschutzorganisation, sondern eine Tierrechtsorganisation. Wie krude das hier gepflegte Gedankengut ist, lässt sich in fünf Minuten ergooglen. Von flachwurzelnden Schauspielschlauscheln darf man diese intellektuelle Leistung nicht erwarten, von Journalisten hingegen muss man sie einfordern.

    Ökowatch: Sind Umweltschutz und freie Marktwirtschaft in Ihren Augen Gegensätze oder Verbündete?

David Harnasch: Umweltschutz und freie Marktwirtschaft sind nur dann automatisch Verbündete, wenn eine freie Gesellschaft hinzukommt. Ohne freie Presse, NGOs und Politiker, die sich vor ihren Wählern verantworten müssen, bringt die Marktwirtschaft alleine der Umwelt wenig – siehe China. Der durch Marktwirtschaft ermöglichte Wohlstand ist notwendige, aber nicht hinreichende Bedingung für eine saubere Umwelt.

    Ökowatch: Was würde sich ändern, wenn NGOs im Umwelt- und Entwicklungshilfebereich stärker auf die Entfaltung eines freien Marktes – auch in der Dritten Welt – setzen würden?

David Harnasch: Einige würden ganz fix pleitegehen, denn derzeit leben viele nicht davon, Probleme zu lösen, sondern sie zu bewirtschaften. Der Begriff NGO trifft gerade bei der Entwicklungshilfe oft nicht zu, denn die meisten Vereine hängen hier direkt am Tropf des europäischen Steuerzahlers. Das größte Verbrechen der Ersten an der Dritten Welt sind Importzölle und andere Handelsschranken. Kaum ein anderer einzelner Akteur handelt so segensreich wie die WTO.

Das Interview führte Fabian Heinzel von Oekowatch

Mehr Infos zum Greenpeace Konzern finden Sie bei NOVO Stichwort "Greenpeace und die Gemeinnützigkeit" mit Dank an Leser Erik




Arktische Sommereisschmelze – Ein Menetekel für eine bevorstehende anthropogene Klimaerwärmung?

Dennoch macht vielen unserer Mitmenschen das nachfolgende Bild Sorgen, oder es wird versucht, damit Sorgen auszulösen.

Die Abbildung 1 zeigt die arktische Seeeisentwicklung zum 15.07.2010 im Vergleich der Jahre 2002 – 2009. Es ist unschwer zu erkennen, dass in 2010 in den vergangenen Wochen, die dortige Eisschmelze noch größere Ausmaße eingenommen hat, als im Rekordschmelzjahr 2007 im (kurzen) Vergleichszeitraumes 2002 – 2010. Quelle: (http://arctic-roos.org/observations/satellite-data/sea-ice/ice-area-and-extent-in-arctic)

 

Die Verfechter des anthropogenen Klimawandels machen für diese Eisschmelze anthropogen ausgebrachte THG´s (Treibhausgase) verantwortlich. Allen voran, Kohlenstoffdioxid (CO2), insbesondere, weil der Faktor, der von den Klimarealisten als einzig entscheidender Faktor für das Klimasystem Erde angeführt wird, die Sonne, derzeit eine „Pause“ einlegt, und eine vergleichsweise geringe Aktivität zeigt, CO2 aber nach wie vor ansteigend ist. EIKE wird Ihnen aufzeigen, dass zum einen, das Klimageschehen etwas komplexer ist und auf deutlich mehr Faktoren beruht, als uns das IPCC und deren Verfechter weismachen wollen und zum anderen, die Sommereisschmelze, auch die (scheinbar) beschleunigte Sommereisschmelze in 2010, die obiges Bild zeigt, allein auf natürlichen Ursachen beruht und dass es mit einem (vermeintlichen, auf kurzen Zeitspannen) Eisrückgang in der arktischen Seeeisbedeckung bald vorbei sein wird.

 

Die Abbildung 2 zeigt die solare Aktivitätskurve anhand des TSI (Total Solar Irradiance) im Zeitraum von 1980 – Juli 2010, Quelle: (ftp://ftp.pmodwrc.ch/pub/data/irradiance/composite/DataPlots/comp06_ext_d41_62_1005.pdf). Derzeit ist die Sonne in einer sog. ruhigen Phase.

 

Die Abbildung oben zeigt, dass der aktuelle 24. Sonnenzyklus nicht recht beginnen will und bis jetzt sehr schwach ausgefallen ist, was als Erklärung für die in 2010 beobachtete verstärkte Eisschmelze in Abbildung 1 gegenüber den Vorjahren nicht herangezogen werden kann.

 

Nun ist bekannt, dass die Sonne bis zum Jahr 2003 ihr langjähriges Maximum im Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus hatte. 2003 war denn auch das Jahr, in dem in Mitteleuropa Rekordtemperaturen in einem „Jahrhundertsommer“ zu verzeichnen waren, der fälschlicherweise seinerzeit von großen Teilen der Medien dem anthropogenen Klimawandel zugeschrieben wurde (Abbildung 3).

 

Die Abbildung 3 zeigt die Temperaturanomalien im “Hitzesommer“ in Europa vom August 2003, Quelle: Hadley Center. Die Temperaturanomalien beziehen sich dabei im Vergleich auf das späte 19. Jahrhundert.

 

Die Abbildung 4 zeigt, wie sich die magnetische Aktivität der Sonne mit dem Hauptsonnenzyklus, bei dem es sich vorwiegend um einen magnetischen Zyklus handelt, im 20. Jahrhundert änderte. Obwohl der bekannte Sonnenzyklus, der im Mittel 11-jährige Schwabe-Zyklus in 2003 bereits abgefallen war, befand sich die magnetische Aktivität und damit die Aktivität der Sonne in ihrem Maximum. So waren beispielsweise im Oktober 2003 in Deutschland Polarlichter zu sehen, was den Sonnenforscher der Uni Göttingen, Dr. Volker Bothmer, zu der Aussage veranlasste, dies sei normalerweise nicht möglich, dann müsse auf der Sonne Sturm herrschen. Die ESA bezifferte die Schäden an Satelliten, die durch die hohe solare Aktivität entstanden, auf nahezu 400 Mio. €. Noch in 2005 titelte der Sonnenforscher der NASA, David Hathaway: “Das Solare Minimum sieht seltsamerweise aus wie ein solares Maximum.“ (http://www.astrolabium.net/archiv_science_nasa/science_nasa_september2005/16-9-2005.html). Mit dem solaren Minimum ist das solare Minimum im Schwabe-Zyklus gemeint.

 

 

Die Abbildung 4 zeigt die Änderung der magnetischen Stürme auf der Sonne von 1867 bis 2007 (blau, die grüne Linie zeigt den Trend von 1900 – 2005) und den 11-jährigen Schwabe-Zyklus. Es ist deutlich erkennbar, dass der Schwabe-Zyklus und der Gleißberg-Zyklus (Maximum während dem 19. Schwabe-Zyklus), der den Schwabe-Zyklus antreibt, zwar mit den relativen Maxima der magnetischen Stürme korreliert, nicht aber mit deren steigender Tendenz. Diese steht in Relation zum de Vries/Suess-Zyklus. Ergänzt nach Quelle: British Geological Survey (http://www.geomag.bgs.ac.uk/earthmag.html). In der kleinen Abbildung, in der die 3 letzten Schwabe-Zyklen dargestellt sind, ist gut zu sehen, wie mit dem Anstieg des de Vries/Suess-Zyklus die magn. Aktivität der Sonne stark zunimmt. Hierzu sind die hochenergetischen Protonen, die als Maß dienen, als rote Balken eingezeichnet (Quelle: NOAA Space Environment Center).

 

Wie passt dies nun zusammen, der TSI zeigt eine zurückgehende (2003), bzw. schwache solare Aktivität (2005) und die magnetische Aktivität, die exorbitante Energiemengen zur Erde schleudert, hat ihr Maximum. Die Antwort ist gänzlich einfach. Das Messgerät auf den Satelliten, die den TSI aufnehmen, hat lediglich ein energetisches Sichtfenster von 200 nm (UVB) – 2.000 nm (IR). Also die Bereiche, die bis zur Erdoberfläche gelangen. Weite Teile des solaren Energiespektrums, vor allen die Bereiche, die extrem variabel sind, werden gar nicht erfasst. Unser Wetter wird aber nicht auf der Erdoberfläche „gemacht“, sondern in der Tropos- und Stratosphäre, bzw. durch den Svensmark-Effekt (EIKE berichtete mehrfach darüber) und hier wirkt das gesamte solare Energiespektrum. Insofern handelt es sich beim TSI um eine Mogelpackung, da von „total“ keine Rede sein kann.

 

Der berühmte Meeres- und Klimaforscher Prof. Mörner (1999-2003 Präsident der INQUA-Kommission zur Meeresspiegelveränderung und Küstenentwicklung) hat untersucht, wie sich die arktische Seeeisbedeckung in den vergangenen 600 Jahren änderte (Abbildung 5).

 

Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt die Abbildung 5, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde von mir um den de Vries/Suess-Sonnenzyklus ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus).

 

Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus (Abbildung 6). Bei Sonnenminima erlebten Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung 5 zeigt weiter, dass für die nächsten 30 – 40 Jahre eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist.

 

Die Abbildung 6 zeigt die 30-jährig gleitende Temperaturkurve von 1701 – 2000. In der Temperaturkurve ist der 208- jährige de Vries/Suess – Zyklus abgebildet. Der de Vries/Suess – Zyklus hatte in 2003 sein Maximum, als die Temperaturen ihren Höchststand erreichten. Das letzte Temperaturmaximum war in den 90er-Jahren des 18. Jahrhunderts, genau im Maximum des de Vries/Suess – Zyklus. Anmerkung: Nach dem Maximum in der solaren Aktivität zu Beginn des Jahrtausends fallen die Temperaturen deutlich (kleines Bild).

 

Obwohl die Untersuchungen von Prof. Mörner zeigen, dass die arktische Seeeisbedeckung zyklisch ist und damit auf natürliche Ursachen zurückzuführen ist und mit dem Hauptsonnenzyklus korreliert, erklärt auch die magnetische Aktivität der Sonne (noch) nicht den diesjährigen Eisrückgang, bzw. den, der letzten Jahre, da die magnetische Aktivität der Sonne seit 2005 vergleichsweise schwach ist. Das Wetter/Klima ist eben nicht so einfach zu verstehen, wie z.B. ein Prof. Schellnhuber und einige Politiker uns Glauben machen wollen: CO2 hoch – Temperatur hoch (Eisbedeckung runter), CO2 runter – Temperatur runter (Eisbedeckung hoch), zumal die globalen Temperaturen seit 10 Jahren deutlich fallen und das CO2 weiter ansteigt. Es also keine Korrelation zwischen CO2 und der Temperatur gibt.

 

Unsere Erde, deren Oberfläche ist zu über 70% mit Wasser bedeckt. Wasser ist bekanntlich ein hervorragender Wärmespeicher und wird nicht umsonst im Heizungen zum Wärmetransport und Wärmespeicherung benutzt. So liegt es nahe, dass das Klimasystem, auf Grund der in den Ozeanen gespeicherten Energie, einen Nachlauf gegenüber der solaren Aktivität aufweist. Dies konnten verschiedene Forschergruppen beweisen, von denen ich Ihnen zwei Charts vorstellen möchte (Abbildung 7 und 8).

 

Die Abbildung 7 zeigt die zeitliche Reaktion der Temperatur zur Sonnenaktivität (Trägheit des Klimasystems), Quelle: SPPI – Science & Public Policy Institute nach Scafetta und West, Duke University. Die Temperatur fällt zeitversetzt mit der Sonnenaktivität, was vor allem auf die gespeicherte thermische Energie in den Ozeanen zurückzuführen ist.

  

Der geniale Sonnen- und Klimaforscher Prof. Solanki (“Solar activity over the last 1150 years: does it correlate with climate”) untersuchte den Zusammenhang der solaren Aktivität mit der der Temperatur über die letzten 1150 Jahre. Seine Untersuchungen zeigten, dass die Sonnenflecken in der Langzeitbetrachtung dem Klima im Mittel um 10 Jahre vorauslaufen (Abbildung 8), also das Klima den Sonnenflecken hinterher.

 

 

Es darf als gesichert angesehen werden, dass Herr Prof. Solanki mit seinen Untersuchungen der Realität sehr nahe kommt. Aber warum kommt es gerade in 2010 zu einem stärkeren Eisrückgang als in den letzten 10 Jahren, zumindest Stand 07.07.2010. Die Antwort liefert die Abbildung 9.

 

Die Abbildung 9 zeigt die zyklische AMO*) im Zeitraum von 1981 – Juli 2010 im Nordatlantik (0° – 70°N).

 

*)   AMO (Atlantic MultiDecadal Oscillation) ist eine zyklische Temperaturschwankung der Oberflächentemperaturen im Nordatlantik. Dabei wechseln sich in einem Rhythmus von ca. 35 Jahren Warm- und Kaltphasen, ohne Beeinflussung durch den Menschen ab. Die AMO steht in starker Korrelation mit den arktischen Temperaturen, wie die Abbildungen 10 und 11 zeigen.

 

Die Abbildung 10 zeigt die arktischen Temperaturschwankungen im Zeitraum von 1880 – 2000. Deutlich ist ein Schwingverhalten zu erkennen, welches mit der AMO (Abbildung 11) übereinstimmt.

 

Abbildung 11 zeigt die AMO von 1856 – 2007. Während der Phasen einer positiven AMO liegen die arktischen Temperaturen deutlich über dem Mittelwert (Abbildung 10).

 

Doch nicht nur mit den arktischen Temperaturen und der arktischen Seeeisbedeckung (wie noch gezeigt wird), sondern auch mit der Gletscherentwicklung in den Alpen steht die AMO in direktem Zusammenhang, wie die Abbildung 12 zeigt.

 

Die Abbildung 12 zeigt die zyklische Entwicklung der österreichischen Gletscher von 1890 – 2005, Quelle: Slupetzky, 2005, Uni Salzburg. Es ist gut erkennbar, dass der derzeitige Rückzug auf einen längeren Eisvorstoß folgt und das es in den Jahren von 1930 bis in die 1960-Jahre, ähnlich geringe Eisbedeckungen gab, wie heute. Der Gletscherzyklus zeigt weiter sehr starke Ähnlichkeiten mit der AMO und keine mit einem CO2-Atmosphärenpegel (kleines Bild).

 

Die Abbildung 12 zeigt, dass während einer positiven AMO-Phase, ein deutlicher Gletscherrückgang zu verzeichnen ist. Nun lässt sich auch die Abbildung 9 „lesen“. Der bis Juli 2010 deutliche Eisrückgang ist auf die starke AMO in 2010 zurückzuführen, die 2009, als die Eisschmelze im Sommer „schwächelte“, negativ war.

 

Da es sich bei der arktischen Seeeisbedeckung nicht um akkumulierte Schneefälle, sondern um gefrorenes Wasser handelt, kann es niemanden verwundern, dass die Eisschmelze in wärmerem Wasser (positive AMO = Warmphase) verstärkt auftritt und dies umso mehr, je positiver die AMO ist. 2010 ist die Spitze der AMO zwar etwa gleich hoch wie 2007, dennoch ist davon auszugehen, dass die diesjährige Eisschmelze nicht die Ausmaße von 2007 annehmen wird, da 2007 nach einer kumulierten Phase von mehreren Maxima der AMO liegt und 2010 nicht.

 

Dass vorrangig die zyklische AMO für die verstärkte Eisschmelze in der Arktis verantwortlich ist, möchte ich Ihnen weiter anhand der nachfolgenden Abbildungen zeigen.

 

 

Die Abbildung 13 zeigt die Temperaturabweichungen in der Arktis (rot) und der Antarktis (blau) im Zeitraum von 1979 – 2009 (Quelle: http://www.appinsys.com/GlobalWarming/GW_4CE_ PolarIceCaps.htm). Während die Temperaturschwankungen bis in die 1990-Jahre synchron verlaufen, beginnt sich ab 1994 das Temperaturverhalten in der Arktis von dm der Antarktis abzukoppeln. Die Arktis beginnt sich zu erwärmen. Wird diese Erkenntnis mit der AMO und den Abbildungen 10 und 11 verglichen, so wird ersichtlich, warum die Abbildung stattfand. Ab 1995 beginnt die positive Phase der zyklischen AMO. Mit dem Abkoppeln der Temperaturwerte und der positiven AMO beginnt denn auch synchron die beobachtete Eisschmelze in der Arktis, weil es dort wärmer wird.

 

 Die Abbildung 14 links zeigt die Abweichungen der arktischen Eisbedeckung (schwarz) und der antarktischen Eisbedeckung (grün). Mit einer zeitlichen Zerzögerung von ca. 2 Jahren zur positiven AMO, berinnt 1997 in der Arktis die verstärkte Eisschmelze und beide Datenreihen beginnen, sich voneinander abzukoppeln. Die verstärkte arktische Eisschmelze wird denn auch noch wenige Jahre andauern, bis die positive AMO wieder in ihre zyklische negative Phase (Kaltphase) eintritt.

 

Wie unmittelbar die arktische Eisentwicklung von den Oberflächentemperaturen (und damit von der zyklischen AMO) abhängt, geht aus den beiden nächsten Abbildungen hervor.

 

Die Abbildung 15 links zeigt die SST-Anomalien im arktischen Ozean, also die Abweichungen der dortigen Oberflächentemperaturen im Zeitraum von 1980 – 2009 und die Abbildung rechts die arktische Eisentwicklung (schwarz) und dazu invertiert, die SST-Anomalien. Es kann nicht verwundern, dass das arktische Eis, welches überwiegend aus schwimmendem Eis besteht, direkt von den SST-Anomalien abhängt.

 

Über diese Erkenntnisse hinaus, welche die arktische Eisschmelze prinzipiell erklären, gibt es nach Angaben von Prof. Dr. Heinrich Miller (stellv. Direktor des Alfred-Wegner-Instituts) zwischen der Arktis und der Antarktis auf längeren Zeitskalen eine Kippschaukel, d.h. zeigt die Antarktis Eiszunahme so liegt in der Arktis eine Eisschmelze und umgekehrt vor. Globale Meeresströme transportieren dabei gewaltige Wärmemengen von Pol zu Pol und treiben diese Klimaschaukel an. Ihre Erkenntnisse wurden im Rahmen des europäischen Bohrprojekts Epica (European Project for Ice Coring in Antarctica) gewonnen und im November 2006 veröffentlicht. Die Daten der Arktis und Antarktis konnten dabei über im Eis eingeschlossene Luftbläschen und den darin enthaltenen Spurengasen abgeglichen werden.

 

Zur starken AMO kommt weiter, dass in 2009 und Anfang 2010 ein starker El Niño vorlag, wie die Abbildung 16 zeigt.

 

Die Abbildung 16 zeigt die ENSO (El Niño 3.4-Sektor) und einen starken El Niño zwischen Oktober 2009 und März 2010.

 

Zu den El Niño-Auswirkungen auf die Gebiete Europas, Asiens und der Arktis hat Prof. Brönnimann (ETH Zürich) anhand von Untersuchungen nachgewiesen, dass es in den 40er Jahren des 20. Jahrhunderts über mehrere Jahre eine ungewöhnlich hohe Temperaturschwankung gab, die auf El Niño-Effekten beruhte. Aus alten meteorologischen Messdaten konnte er die atmosphärischen Verhältnisse auf der Nordhalbkugel zu Beginn der 1940er Jahre rekonstruieren. Die Temperaturanomalien sind in folgender Abbildung vom ihm aufgetragen. Die Ergebnisse sind in Abbildung 17 festgehalten.

 

Die Abbildung 17 zeigt die Temperaturabweichungen gegenüber dem Durchschnittswert der Jahre 1961 – 1990 für die untere Atmosphäre (unten) und der Stratosphäre (oben), gemittelt von Januar 1940 – Februar 1942. Die Abbildungen dokumentieren eine großräumige Klimaanomalie, die mit einer ungewöhnlich dicken Ozonschicht verbunden ist (Quelle: Spektrum der Wissenschaft 03/05, S. 20). Die Farbskala gibt die Temperaturdifferenzen im Vergleich zu einem Referenzwert an (Grafik: Prof. Brönnimann). In der Stratosphäre (oben) ist die Luft über der Arktis wärmer, der Polarwirbel schwächer und die Ozonschicht dicker als üblich. Auch das Klima auf der Erdoberfläche war außergewöhnlich: Extreme Kälte in Mittel- und Osteuropa, mildes Wetter in Alaska und Teilen des arktischen Gebietes (den Flächen, für die Daten vorliegen – vor Grönland) und frostige Kälte im Nordpazifik. Dies erinnert uns doch sehr an den vergangenen Winter (siehe auch Untersuchungen von Hansen, zu den Auswirkungen der AO, weiter unten im Text)! Vergleicht man weiter mit der Abbildung 10 und 11, so ist festzuhalten, dass seinerzeit auch die AMO eine deutliche positive Spitze aufweist und die arktischen Temperaturen hoch sind.

 

Bleibt denn noch eine Frage offen, warum die Eisschmelze gerade an den Orten in der Arktis stattfindet, an denen sie stattfindet.

 

Bisher wurde lediglich ein physikalisch/chemischer Faktor betrachtet, der für Schmelzvorgänge von Wasser verantwortlich ist, die Wärme. Wie jeder von uns aus eigener Erfahrung weiß, bestimmt aber nicht nur die Temperatur des Eises oder des Wassers den Schmelzpunkt, bzw. Gefrierpunkt, sondern auch dessen chemische Zusammensetzung. So ist jedem bekannt, dass im Winter die Straßen mit Salz gestreut werden, weil Salz den Gefrierpunkt herabsetzt. Meerwasser ist bekanntlich salzhaltig. Sein Salzgehalt ist nicht konstant, sondern er variiert (Abbildung 18).

 

Die Abbildung 18 zeigt den Salzgehalt der Meere. Das Mittelmeer hat z.B. einen Salzgehalt von 38 ppt (parts per thousend). Dies entspricht einem Salzgehalt von 3,8%. Der niedrigste Salzgehalt findet sich mit 32 ppt vor Alaska und der höchste im roten Meer mit 40 ppt. Das Tote Meer hat sogar einen Salzgehalt von 24%. Für den arktischen Ozean liegen in dieser Abbildung keine Daten vor.

 

Der Salzgehalt variiert aber nicht nur über die Meere, sondern auch über die Zeit. Zu den eingehend geschilderten zyklischen Schwankungen des Wärmeeintrages in den arktischen Ozean hat ein Forscherteam von NASA und Hochschulwissenschaftlern der Universität von Washington eine Dekadenschwingung ermittelt (http://www.nasa.gov/vision/earth/lookingatearth/ipy-20071113.html), die durch die atmosphärische Zirkulation AO (Arktische Oszillation)  ausgelöst wird und das arktische Klima massiv beeinflusst.

 

AO: Entgegen der AMO, die für Schwankungen in der Meeresoberflächentemperatur steht, ist die AO, wie übrigens auch die bekanntere NAO (Nord-Atlantik-Oszillation), ein normierter Druckunterschied zwischen zwei oder mehr ausgesuchten Orten, die weit auseinander liegen und daher eine großräumige Schwingung darstellen. So bewirkt z.B. eine positive AO, auf Grund der damit verbundenen Luftströmungen, ein Aufstauen von kalter Luft über der Arktis, was nach Prof. Hansen für den kalten Winter 2009/2010 verantwortlich ist (http://www.columbia.edu/~jeh1/mailings/2010/20100127_TemperatureFinal.pdf).

 

Die Forscher um Prof. Dr. James Morison (Polar Science Center – PSC) geben an, dass diese Schwingung und die damit verbundenen Klimaschwankungen nichts mit einer anthropogenen globalen Erwärmung zu tun haben. Sie stellen weiter fest, dass die arktischen Meeresströmungen, angetrieben durch Luftmassenzirkulationen, die Verteilung von Wärme und Salzgehalt verändern. Die AO steht dabei in direktem Zusammenhang mit der Meereisbedeckung. James Morison: "The winter of 2006-2007 was another high Arctic Oscillation year and summer sea ice extent reached a new minimum."

 

Das Forscherteam um James Morison fand heraus, dass sich (durch die geänderten Meeresströmungen) der Salzgehalt des arktischen Ozeans seit 2002 deutlich geändert hat (Abbildung 19).

 

Die Abbildung 19 links zeigt die Trendkonturen des Druckes der arktischen See im Zeitraum von 2002 – 2006, verglichen mit dem Referenzwert der 1990-Jahre. Der Druck steht im direkten Zusammenhang mit dem Salzgehalt, weil die Änderung des Wasserdrucks durch die im Wasser gelösten Stoffe – Salz – bestimmt wird. D.h. eine Erhöhung des Druckes ist gleichbedeutend mit einer äquivalenten Erhöhung des Salzgehaltes – je höher der Druck, desto höher der Salzgehalt. Die Messungen entstanden mit GRACE. GRACE ist ein Gemeinschaftsprojekt der NASA und des DLR (Deutsches Zentrum für Luft- und Raumfahrt). Die Abbildung 19 rechts zeigt die sich veränderte Eisbedeckung im Zeitraum von 1979 – 2005, wobei die Eisschmelze in den 2000-Jahren vergleichsweise hoch ausfiel, Quelle: NASA. Werden beide Abbildungen miteinander verglichen, wird sofort ersichtlich, dass die Regionen, die eine hohe Eisschmelze zu verzeichnen haben, überwiegend auch die Regionen sind, in denen sich der Salzgehalt des Meerwassers erhöht und damit der Schmelzpunkt des Eises herabgesetzt wurde, d.h. die Eisschmelze bereits bei tieferen Temperaturen eintritt, bzw. bei höheren Temperaturen verstärkt stattfindet, mit einer großen Eisschmelze in der Fläche.

 

Neben dem natürlichen Salzgehalt des arktischen Ozeans, gibt es noch einen weiteren Faktor, der den Schmelzpunkt von Wasser beeinflusst. Es ist die Schadstoffeinbringung in den arktischen Ozean, insbesondere durch die großen sibirischen Flüsse. Zu der Problematik der Schadstoffeinbringung wird im ACIA-Report 2008 (Impacts of a warming Arctic) auf S. 106 eingegangen. Da durch die Verteilung der Landmassen, im arktischen Meer nur ein vergleichsweise geringer Wasseraustausch mit dem Atlantik und dem Pazifik stattfindet, kommt es zu Schadstoffkumulationen. Darüber hinaus werden chemische Verbindungen in kaltem Wasser (da chemische Reaktionen im Allgemeinen bei Kälte langsamer ablaufen) deutlich langsamer abgebaut, was jeder am Beispiel von Tankerunfällen weiß.

 

Über die großen sibirischen Flüsse fließt jährlich die gewaltige Menge von ca. 4.000 km3 Wasser in den arktischen Ozean. Wie bereits in Abbildung 19 rechts gesehen, befindet sich die in der Fläche größte Eisveränderung vor den russischen Küstengebieten, die mit einem vergleichweise hohen Salzgehalt korrelieren. Gut ist dies in den beiden nächsten Abbildungen zu sehen.

 

Die Abbildung 20 links zeigt die arktische Eisausdehnung im September 1979, kurz nach der Kaltperiode der 1960 -1970 Jahre, als das Schreckgespenst der drohenden Eiszeit durch Politik und Medien ging und die Abbildung rechts die arktische Eisausdehnung im September 2005. Beide Abbildungen werden gerne von den Verfechtern des anthropogenen Klimawandel benutzt, um einen dramatischen Eisrückgang aufzuzeigen, aus dessen Grund, politische Entscheidungen zur Reduzierung von THG´s unabdingbar seien, was, wie geschildert, Unfug ist.

 

Die globale Erwärmung soll danach für den deutlichen Rückgang der Eismassen und Eisflächen in den letzten 30 Jahren verantwortlich sein. Schauen wir uns daher die beiden o.g. Abbildungen genauer an. In Abbildung 21 sind die Eisrückgangsflächen unterteilt und als Orientierung zu den Küstenbereichen (zum Vergleichen) markiert.

 

In der Abbildung 21 links ist zu sehen, dass bereits 1979, nach einer Kälteperiode! das Eis vor dem Mündungsgebiet der Lena zu schmelzen beginnt, die für ihre Verschmutzung bekannt ist. In der rechten Abbildung der Eisentwicklung in 2005 ist gegenüber der Lena eine deutliche Einbuchtung in die Eisfläche zu sehen.

 

Zur Rolle der Wasser- und Seeeismassen schreiben die Verfechter des anthropogenen Klimawandels, Prof. William Collins, Robert Coman, James Haywood, Martin R. Manning und Philip Mote in S.d.W 10/07, S. 72 – 81 (“Die Wissenschaft hinter dem Klimawandel“): “Im Meer zeigen sich deutliche Erwärmungstrends, die sich erwartungsgemäß mit der Tiefe abschwächen“ und weiter “Das Meer erwärmt sich wegen seiner großen thermischen Trägheit langsamer“.

 

Analysiert man das Meeresprofil, die Tiefen (Abbildung 22) und das damit verbundene Wasservolumen und setzt beides in Korrelation zur obigen Aussage, so ist festzustellen, dass die Eisrückgangsflächen A1, A3 und A4 alle im Flachwasserbereich liegen und somit die These stützen, dass diese durch Erwärmung verschwanden, da sich das Flachwasser entsprechend seiner geringeren Pufferkapazität (Volumen) erwärmt. Die Eisrückgangsfläche A2, die wie eine Zunge in die Eismasse ragt, liegt indes über einem Tiefseegraben von 4.000 m Wassertiefe. Aufgrund der thermischen Trägheit und der Wärmekapazität müsste sich eigentlich die Wärme im größeren Volumen verteilen, was zu einer Abschwächung des Eisrückgangs führen müsste. Das Gegenteil ist jedoch der Fall, was mit einer reinen Erwärmung nicht vereinbar ist.

 

Die Abbildung 22 zeigt das Tiefenprofil des arktischen Meeres. Genau unterhalb der am weitesten vorgeschobenen Auftaufläche liegt ein Tiefseegraben mit 4.000 m Tiefe, dessen großes Wasservolumen sich eigentlich dämpfend auf die Eisschmelze auswirken müsste, da sich die Wärmemenge in einem größeren Volumen verteilen kann.

 

Fazit:

Abschließend ist festzuhalten, dass die arktische Eisschmelze natürlichen Zyklen unterliegt, die durch die Sonne gesteuert sind, wobei auf Grund der thermischen Speicherung des Wassers, das Klimasystem der Erde der solaren Aktivität um mehrere Jahre nachläuft. Der derzeitige Eisrückgang ist nichts Außergewöhnliches und fügt sich in die natürliche Variabilität ein und ist auf die derzeit starke AMO und den vergangenen starken El Niño zurückzuführen. Mit der zyklischen Änderung der AMO in ihre negative Phase (Kaltphase) werden sowohl die arktischen Temperaturen fallen (wie wir es übrigens derzeit am Beispiel der PDO für Alaska sehen*)), als auch die arktische Eisbedeckung wieder deutlich zunehmen. Weiter wird die sommerliche Eisausdehnung durch den Schmelzpunkt des Wassers bestimmt, der in erster Linie von natürlichen Schwankungen des Meerwassersalzgehalts beeinflusst wird. CO2 oder sonstige THG´s haben bei alledem nicht den geringsten Einfluss.

 

*)  Pacific Decadal Oscillation (PDO)

Seit Beginn der negativen Phase der PDO in 2008, fallen in Alaska die Temperaturen deutlich (Abbildung 23).

 

Die Abbildung 23 zeigt den zeitlichen Verlauf der PDO von 1900 – September 2009, Quelle: (http://jisao.washington.edu/pdo/). Das kleine Bild zeigt die landesweiten Temperaturabweichungen in Alaska von 1918 – 2009 (Quelle: NOAA). PDO und Landtemperaturen in Alaska sind deckungsgleich. In Alaska fallen die Temperaturen mit der PDO. Seit 2005 um ca. 2°C.

  

Raimund Leistenschneider – EIKE

 

 




Pisa, Gymnasien und physikalisches und ökonomisches Grundwissen der Abiturienten! Was sollten sie wissen, was wissen sie? Ein Zwischenruf!

Die Medienbeiträge und Politikerreden sind letztendlich dummes Bla Bla, welches im Prinzip jeder Abiturient problemlos ohne große Formelherleitung entlarven können müßte:
Die Rotorfläche wächst quadratisch mit dem Rotorradius, während der Materialaufwand für den Rotor und damit auch die Kosten kubisch wachsen. Eine ähnliche Beziehung gibt es beim Turm nebst Fundament. Getriebe und Generator haben einen linearen Zuwachs zur Rotorflächenvergrößerung. Dementsprechend steigen mit der Größe der Windmühlen die spezifischen Nennleistungskosten überproportional. Aber trotzdem produzieren die mehr Strom, als kleine. Hennicke und Fischedick[1] verkaufen das Größenwachstum als technische Entwicklung mit einer Ertragssteigerung um das 180-Fache.
Woran liegt es? Nun, der Wind nimmt wegen der Bodenreibung mit der Höhe zu, wobei die Zunahme mit der Höhe in Abhängigkeit von der thermischen Schichtung  der Atmosphäre (stabil, indifferent, labil) logarithmisch abnimmt. Nachts ist der Höhenwind stärker. Der Energiegehalt der Luft wächst mit dem Quadrat der Geschwindigkeit, während die Leistung, die abgezapft werden kann, kubisch wächst. Daraus folgt, daß die angeblich bessere Effizienz der großen Windmühlen aus der notwendig steigenden Bauhöhe resultiert und nicht dem Wachstum der Rotorblätter. Die Erhöhung der effektiven mittleren Windgeschwindigkeit von 5,5 auf 7 m/s bringt etwas mehr als eine Verdopplung (Faktor 2,06) des Ertrags. Das entspricht in etwa der Turmverlängerung einer 75 kW-Windmühle von 40 auf 130 m in Hamburg. Verwendet man einen abgespannten Turm, hält sich der Turmmassenzuwachs und damit die Kostensteigerung in Grenzen. Abgespannte Türme kann man bei großen Windmühlen allerdings nicht verwenden.

Dann sollte jeder Abiturient wissen, daß die großen Windmühlen aerodynamisch sogar eindeutig schlechter sind, weil es wegen der Höhenabhängigkeit der Windgeschwindigkeit eine Windscherung gibt und die Leistungsabzapfung vom Anstellwinkel bzw. der Windgeschwindigkeit nichtlinear abhängt. Zudem ist die Energieverteilung und Abzapfmöglichkeit im Rotorkreis mit der dritten Potenz zur Windgeschwindigkeit höhenabhängig. Nur oben kann der Rotor optimal abzapfen. 

Daraus folgt, daß es für den Standort x mit einer mittleren effektiven Windgeschwindigkeit, die als die Dritte Wurzel aus dem Mittel der Dreierpotenzen der Windgeschwindigkeitshäufungen definiert ist, eine kostenoptimale Windmühle (Rotordurchmesser und Bauhöhe) gibt. Kostenoptimal in dem Sinn, daß die mittleren Kosten der Stromproduktion minimal werden. Je nach Standort liegen die Größen der optimalen Windmühlen unterhalb einer Nennleistung von 800 kW.

Zu beachten ist auch, daß jede Umdrehung einer Windmühle Geld kostet (variable Kosten) und jede Windmühle Kapitalkosten durch die Existenz einer Investition verursacht. Nun sind, wie man beobachten kann, die Rotorumdrehungsfrequenzen in aller Regel nicht direkt proportional abhängig von der Windgeschwindigkeit, so daß bei geringen Windgeschwindigkeiten die spezifischen variablen und fixen Kosten ihr Maximum erreichen. Eine weitere Nichtlinearität. Je geringer die aktuelle Windgeschwindigkeit, desto höher die Stromerzeugungskosten.

Warum dann aber die Gigantwindmühlen?

Das ist ganz einfach: Der Gewinn für die Hersteller und die Banken steigt mit dem Massenumsatz und der steigt exponentiell mit der Länge der Rotorblätter. Mit steigender  Effizienz in Abhängigkeit vom Rotorradius hat das nichts zu tun, wird aber dem Volk wahrheitswidrig erzählt.

Möglich ist der Quatsch auch nur deswegen, weil der Unsinn subventioniert wird, also am Markt keine Gewinne mit dem Endprodukt Strom realisiert werden müssen. Die Gigantwindmühlen sind also auf den politisch willkürlich festgelegten Subventionspreis hin für den Gewinn der Hersteller und Banken optimiert und nicht auf die kostengünstigste Stromproduktion. Eine Realisierung und Optimierung von Gewinnen für die Betreiber = Investoren auf Kommanditebene bei Marktbedingungen ist nicht Ziel des Geschäftsmodells Windmühle und EEG, bzw. des Vorgängers Stromeinspeisegesetz, welches von der CDU/FDP geschaffen wurde.

Möglich wird der Betrug am Stromverbraucher – das ist der Konsument, denn es gibt in D kaum ein Produkt, welches ohne Strom hergestellt und vermarktet werden kann – nur, weil die Abituranforderungen der jetzigen Journalisten-, Politiker- und Beratergeneration in Sachen Naturwissenschaft als ungenügend einzustufen sind (Korruption ist natürlich an Stelle der Dummheit oder Ungebildetheit nicht auszuschließen). Die wissen halt nicht oder wollen nicht wissen, wie eine Windmühle physikalisch und ökonomisch funktioniert und warum Windstrom nur einen Marktwert von 1 bis 2 Cent/kWh bei Herstellungskosten von 9 Cent/kWh hat. Strom aus der Nordsee kostet mindestens das Doppelte. Das gilt auch für die Kanzlerin, die als Physikerin den Schwindel als Umweltministerin und promovierte Physikerin eigentlich hätte durchschauen können müssen. Das gilt auch für die Professoren an den FH oder dem Wuppertal Institut (Hennicke und Fischedick), die die nichtlineare Wachstumsfunktion der Kosten mit der Windmühlengröße gedanklich nicht realisieren wollen.  

Jeder Oberstufenschüler muß  wissen können, daß die Wirkungsgrade bei Alttechnologien, wie z.B. den Windmühlen, nicht mehr gesteigert werden können, weil die Physik eindeutige Grenzen setzt und die Technik das physikalisch machbare fast erreicht hat. Gleiches gilt für die Ökonomie. Billiger herstellen läßt sich Alttechnologie durch Massenproduktion nicht. Lerneffekte sind praktisch nicht mehr realisierbar. Insofern gibt es auch keine Technologieführerschaft, denn Rotorblätter aus Glasfasermatten und Epoxydharz, simple Übersetzungsgetriebe und Generatoren nebst Trafos kann jedes Entwicklungsland kostengünstig bauen. Es handelt sich bei Windmühlen betriebswirtschaftlich um ausgereifte Alttechnologie deren Produktionsweise bestens bekannt ist. Allein mit der Größe gibt es aufgrund der nichtlinear steigenden Kräfte Schwierigkeiten, aber Größe braucht man ja  nicht, denn die ist aus physikalischen Gründen ja ökonomisch kontraproduktiv.

Mitteln oder Linearisieren ist bei nichtlinearen Prozessen immer gefährlich, es sei denn, man weiß, was man warum in welchem Intervall macht. Aber das wissen offensichtlich die Kanzlerin, die Minister, Ministerpräsidenten und Abgeordneten in den Parlamenten mit Abitur und ggfs. Promotion nicht oder wollen es nicht wissen.

Jedenfalls schafft der Subventionskannibalismus unter den Bürgermeistern und Ministerpräsidenten durch das EEG kurzfristig Arbeitsplätze und Wählerstimmen in ökonomisch aufgrund von Politikversagen unproduktiven Regionen wie dem Emsland, Bremerhaven, Cuxhaven oder der Region um Husum Primitivarbeitsplätze zu Niedriglöhnen, während in den produktiven Regionen der Republik qualifizierte Arbeitsplätze mit einem Faktor 4 pro MW installierte Windleistung  dauerhaft vernichtet werden. Auch hier ist Nichtlinearität festzustellen, weil die volkswirtschaftliche Kostenfunktion für Arbeitsplatzverluste nichtlinear ist. Netto hat nach meinen Berechnungen Herr Wulff mit seiner Windenergiepolitik zu Gunsten seines politischen Freundes A. Wobben mehr Arbeitsplätze in Niedersachsen vernichtet, als durch die sog. zukunftsträchtige Windindustrie des Freundes Wobben in Niedersachsen kurzfristig geschaffen wurden. Er war ja als MP Aufsichtsrat des produktivsten Unternehmens in NI, welches immer mehr seiner stromfressenden Produktion ins billigere Ausland verlagert. Die Berichte des Fianzvorstands hat er offensichtlich nicht gelesen. Gleiches gilt für den MP in Schleswig-Holstein.

Nichtwissen kann im Fall des jetzigen Bundespräsidenten also nicht gegeben sein. Gleiches gilt für die in Physik promovierte Kanzlerin. Bei einer Akademikerquote von ca. 10% in der Bevölkerung und einer Abiturquote von derzeit ca. 25% ist es nicht erklärbar, warum es in D die Gigantwindmühlen gibt. Irgendwas ist da im Bildungssystem schief gelaufen.

Ein Zwischenruf von T. Heinzow Umweltökonom für EIKE


[1] P. Hennicke und M. Fischedick: Erneuerbare Energien, München 2007, S. 51




Brief an Umweltminister Roettgen als Nachtrag zum „Energiepolitischer Dialog der CDU /CSU Bundestagsfraktion“ vom 9.6.10

Sehr geehrter Herr Dr. Röttgen,

bei dem vom MdB Herrn Bareiß ausgerichteten „Energiepolitischen Dialog der CDU /CSU Bun­destags­fraktion“ hielten Sie das Grundsatzreferat. Die Beteiligung mit geschätzten 250 bis 300 Teilnehmern war vorzüglich. Wir, Professor F.-K. Ewert und der Rechts-Unterzeichner, durften eben­falls teilnehmen. Leider kam dann der angekündigte und erhoffte Dialog, durch Ihren plötzlichen Abgang sehr zu kurz. Insgesamt konnten daher nur 10 – 12 der Teilnehmer ihre Fragen und An­merkungen loswerden, weitere Anfrage­wünsche, so auch meine, blieben leider unberücksichtigt. Selbstverständlich akzeptieren wir, dass ein Bundesminister, zumal in der jetzigen Zeit, viel zu tun hat. Deswegen möchten wir Ihnen schriftlich diese Stellung­nahme (nun ausführlicher)  zu­kommen lassen, mit der Bitte, sie so bald wie möglich in ei­nem persönlichen Gespräch vertiefen zu können. Bitte nennen Sie uns dazu einen Ihnen passenden Ter­min. Da es nicht das erste Mal ist, dass wir um einen Termin1 bitten,  hoffen wir, dass er diesmal nicht abgelehnt wird.

Die Lage ist wirklich ernst. Jeder Mensch der eine große Operation plant, wird vernünftiger­weise zuvor mindestens eine zweite Meinung einholen, jeder Mensch der eine große Anschaf­fung plant, holt we­nigstens zwei Angebote ein. Warum kann nicht auch die Bundesregierung bei die­sem existenziellen Thema so handeln? Bitte sprechen Sie mit uns.

Sie führten in Ihrem Einführungsreferat die Ziele, Gründe und Mittel auf, die Sie zur Leitlinie Ihres Handelns im Energiebereich machen. Zusammengefasst (nach meinen Notizen) sind dies die Ziele:

1.     Deutschland solle Industrieland bleiben!

2.     Der CO2 Ausstoß soll, bezogen auf 1990, bis 2020 um 40% und bis 2050 gar um 90 % abge­senkt werden.

3.     Die Umstellung auf sog. Erneuerbare Energien soll so schnell wie möglich erfolgen.

Begründet werden diese Ziele 2. und 3. mit der Notwendigkeit

1.    des Klimaschutzes

2.    des Vorsorgeprinzips wg. der (vermuteten) Endlichkeit der fossilen Brennstoffe.

Diese Komplexe werden im folgenden diskutiert.

„Klimaschutz“.

Wir dürfen Ihnen vorab mitteilen, dass wir die Anmerkung unseres Geologen Prof. Ewert (EIKE) voll teilen, der in einer kürzlich fertiggestellten und in Kürze publizierten Untersu­chung von 775 Temperaturkurven der NASA aus allen Regionen der Welt, die um 1880 be­ginnen, kei­nen Hinweis auf eine anthropogen ver­ursachte globale Erwärmung feststellen konnte. Dies be­stätigen auch die weltweiten Messungen mittels Wetterballons und Satelliten. Nur wenige der landgestützten Temperaturmessstationen zeigen überhaupt eine Erwärmung an, wie selbst Prof. Schellnhuber, Chef des PIK,  in einer wissenschaftlichen Arbeit2 fest­stellte.

Die Trendlinien, die uns hingegen das IPCC als Beweis vorlegt, zeigen nur die geringe Er­wär­mung von 0,7 °C in 100 Jahren an. Selbst diese Rate ist falsch, denn die Daten basieren für die letzten 20 Jahre auf mani­pulierten Datensätzen: D’Aleo + Watts3 haben nachgewiesen, dass seit Ende der 1980er Jahre nicht mehr die Daten aller 6000 Stationen weltweit berück­sichtigt wur­den, sondern nur noch die von 1500 Stationen, und dass von der Aussonderung der Stationen überproportional solche auf kalten Standorten betroffen waren. Auf die Be­deutung des unbe­strittenen städtischen Wärme-Insel-Effektes, der infolge der angestie­genen Weltbevölkerung von 1,5 Milliarden um 1900 auf heute 6,7 Milliarden, eine große Bedeutung hat, weil inzwischen davon ca. 50 % in Städten leben, soll nur am Rande hingewiesen wer­den.

Der hierzulande kaum beachtete ClimateGate Skandal4 der Climate Research Unit der Univer­sity of East Anglia (CRU), dem Hauptlieferanten der IPCC Temperaturdaten, entlarvte die Arbeitser­gebnisse des IPCC und seiner Top-Autoren, als nicht mehr zuverlässig. Obwohl die Forschung mit Milliardenbeträgen sub­ventioniert wurde, ließ sich kein überzeugender Beweis für die anthropogene Wirkung des Spurengases CO2 finden, dessen Anteil an der Atmosphäre gegen­wärtig nur 0,038 % beträgt, und der in früheren Epo­chen, also im vorindustriellen Zeit­alter über lange Zeiten schon wesentlich höher war. Beispielsweise betrug er 0,12 %, war also mehr als drei mal so groß, als in einer früheren Eiszeit die Gletscher bis zum heutigen Südspanien reich­ten. Für Sachverständige ist das keine Über­raschung, denn die physikalischen Grundlagen lassen nichts anderes erwarten. Dies ergeben auch die eigens dafür entwickelten Modelle, wie IPCC Leitautoren zugeben (5).

Wie wenig schon Modellen viel geringerer Komplexität zugetraut werden kann, hat uns die an­dauernde Finanzkrise vor Augen ge­führt. Wenige Augenblicke vor dem Fall von Lehman Brot­hers orderten sie noch im großen Stil faule Pa­piere.

Das Problem einer vom anthropogenen CO2 induzierten globalen (und dazu noch: gefährlichen!) Erwär­mung existiert einfach nicht, wie viele 1000 Forscherkollegen weltweit bestätigen. Es ist ein No-Problem. Die Literatur darüber ist meterlang6. Eindrucksvoll wurde diese Tatsache jüngst wieder durch den großen internationalen Klimakongress mit über 700 Wissenschaftlern vom Mai 2010 in Chicago untermauert.

Vorsorge

Auch dieses Prinzip greift bei mangelndem Wissen um Alternativen und Prozesse hier nicht. Ein erschre­ckendes Beispiel für übereilt angewendetes Vorsorgeprinzip ist die Behandlung der jüngsten „Schweinegrip­pe-Pandemie“, weitere Beispiele wären das Waldsterben oder der Rin­derwahnsinn. Nur ist der mit dem Vorsorgeprinzip begründete Ausstieg aus den fossilen Brenn­stoffen noch um mehrere Größenordnungen schlimmer und auch unumkehrbar teuer. In meinem „Großen Brockhaus“ von 1928 steht, dass die Erdölvorräte noch 40 Jahre reichen. Seitdem sind über 80 Jahre vergangen, der Verbrauch auf nie für möglich gehaltene Höhen gestiegen und noch immer wird gesagt, dass die Erdölvorräte noch 40 Jahre reichen. Gleichzeitig mit dem Verbrauch sind jedoch die Reserven noch schneller gestiegen. Es werden immer wieder neue bedeutende Erdöl- und Erdgasfelder (häufig Offshore) entdeckt. Und dabei wurde gerade erst an­gefangen, sowohl in bisher versiegelten Landflächen (USA) als auch auf See (ca. 70 % der Erdoberfläche sind Ozeane) zu suchen. Daran wird auch das schreckliche Ölunglück im Golf von Mexiko nichts ändern, wohl aber werden die Sicher­heitsvorkehrungen auf diesem Gebiet deutlich ver­bessert werden. Tatsache ist jedenfalls, dass, nach allen Schätzungen über die Reichweite der Energieträger Öl und Gas, noch deutlich über 1000 Jahre für Öl und bei Gas über 200 Jahre zur Verfügung stehen (7).

 

Bei Nutzung von Aquiferen sogar noch > 1000 Jahre. Für Kohle und Uran/Thorium gilt dies ebenfalls. Selbst wenn durch massiven Mehrver­brauch Öl und Gas nur noch für 100 bis 200 Jahre verfügbar sein sollte, er­möglicht es die technisch längst beherrschte Umwandlung von Kohle in Benzin (Fischer/Tropsch Verfahren) zu konkurrenzfähigen Kosten die Versorgung mit Benzin und Heizgas zu gewähr­leisten8. (Der Breake­ven liegt bei < 50 $/Barrel beim Abbau im Tiefbau und bei < 30 $ im Tage­bau, wie die Fa. Sasol in Südafri­ka täg­lich vormacht).  Für „Erneuerbare“ ist auch aus der Sicht der Vorsorge daher kein Bedarf. (Übri­gens wären bei strikter Anwendung des Vorsorge­prinzips durch unsere Vorfahren weder das Feuer, noch das Rad, noch das Schiff und schon gar nicht die Eisen­bahn, das Auto und das Flug­zeug zugelassen worden).

Nach dem Vorsorgeprinzip ist die Politik zur Abwendung potentieller großer Gefahren gezwun­gen. Das ist bei Naturkatastrophen grundsätzlich problematisch: Vulkanausbrüche oder episo­disch und plötzlich auftretende extreme Wetterlagen sind nicht vorhersehbar, Temperatur­schwankungen geringen Ausmaßes gibt es ständig, wirkliche Klimaänderungen erfolgen lang­sam und erfordern keine Sofortmaßnahmen, denn sie sind erst nach Jahrzehnten erkennbar und es dauert noch länger, bis sie sich auszuwirken beginnen. Die WMO hat das Klima deshalb auch als den statistischen Mittelwert des Wetters von 30 Jahren definiert. Einen Klimawandel kann man folglich erst erkennen, wenn nach den 30 Jahren des zweiten Zeitabschnittes für diesen deutlich andere Mittelwerte festgestellt worden sind. Das ist für den vom IPCC angeblich er­kannten globalen Klimawandel eindeutig nicht der Fall: Die Phase zwischen 1946 und 1976 war durch eine deutliche Abkühlung gekennzeichnet. Statt nun bis etwa 2005 das Ende des nächsten Zeitintervalls von 30 Jahren abzuwarten, reichten schon wenige relativ wärmere Jahre bis etwa 1985 aus, den IPCC zu gründen und einen angeblich globalen Klimawandel festzustellen. Das für Klimaänderungen zwingende Gebot der fachlich kompetenten Langzeitbetrachtung wurde missachtet, und weder eine zweckfremde Motivation noch ein unvollständigen Wissen können es rechtfertigen, für Langzeitprozesse teure Sofortmaßnahmen zu beschließen, die lediglich auf Szenarien basieren, die man mit Modellrechnungen erhält. Bei einer Berücksichtigung der realen Temperaturmes­sungen aus den vergangenen Jahrhunderten wäre erkannt worden, dass ein globaler Klimawandel nicht vorliegt. Die Menschheitsgeschichte spricht überzeugend dafür, dass die Anpassung an das Kommende immer die effizientes­te und auch billigste Vorgehensweise9 war und sein wird, um für Langzeitänderungen vorzusorgen.

Absenkung des CO2 Ausstoßes bis 2020 um 40% bis 2050 um 90 %, bezogen auf 1990

Dieses u.E.n. Extremvorhaben wird weder durch die Beobachtungen zum Klimawandel noch durch irgend­welche hehren Vorsorgegedanken zur Abwendung höchst unwahrscheinlicher Ge­fahren gedeckt. Es wür­de, wenn es denn erfolgreich umgesetzt werden könnte, lediglich zu mas­siver Verarmung der gesamten Be­völkerung auf das Niveau der vorindustriellen Zeit führen. Diese Bevölkerung – selbst wenn Sie den Ver­lautbarungen des IPCC weiterhin glauben sollte, wonach es weniger und weniger aussieht, wie jüngste Umfragen belegen – würde dies jedoch freiwillig nicht zulassen. Deswegen ist 2009 von interessierter Seite schon scheinheilig die Frage öffentlich (und mit Steuergeldern ausgerichtet) auf dem Essener Kongress zur “Grossen Trans­formation“ 10 gestellt worden, ob denn die Demokratie zur Durchsetzung dieser Forderung, die richtige Lösung sei, d.h. ob nicht autoritäre Strukturen vorzuziehen seien. Nordkorea sollte mit seinem – wenn auch aus profane­ren Gründen – geringen CO2 Ausstoß für alle, die dies an­streben, ein abschreckendes Beispiel sein.

Selbst das unter Gouverneur Schwarzenegger kräftig „ergrünte Vorreiterland“ Kalifornien, Spit­zenreiter bei allen möglichen grünen Technologien, ist inzwischen ein Sanierungsfall, wie „Die Welt“ vom 11.6. süffisant feststellt. Tägliche Stromausfälle gehören dort inzwischen zum prakti­schen Lebensalltag. Kanada hat dies offensichtlich erkannt (wie u.a. Spiegel Online11 überrascht verkündet) und verabschiedet sich vom Kyoto­prokoll. Zum Schutz der Wirtschaft, wie Premier Harper selbstbewusst verkündete.

Schließlich ist an eine Tatsache zu erinnern, die weitgehend unbekannt zu sein scheint, die aber für das Leben auf der Erde entscheidend ist: Neben H2O ist CO2 ist ein unverzichtbarer Baustoff der Photosynthese. Aus dem dabei entstehenden Traubenzucker bilden sich alle weiteren Nah­rungsmittel – d.h. CO2 ist die Grundlage des Lebens:

6CO2 + 6H2O à C6H12O6 + 6O2

Das impliziert zumindest drei Aspekte:

·       Mit dem gegenwärtigen Gehalt der Atmosphäre von 385 ppm sind längst nicht alle Pflan­zen opti­mal versorgt. Beispielsweise ist mit einem CO2-Gehalt von 1000 ppm beim Wei­zen ein um ca. 30% größerer Ertrage zu erzielen.

·      In Anbetracht der weiter wachsenden Bevölkerung und dem entsprechend größeren Be­darf an Nahrungsmitteln ist es vermutlich eher kontraproduktiv, den Ausstoß an anthro­pogenem CO2 derart zu begrenzen.

·      Die klimaforschenden Physiker  scheinen in ihren Modellrechnungen zur Entwicklung der  atmosphärischen Konzentration außer acht lassen, dass auch die Biosphäre der Oze­ane und der Landflächen diese Konzentration mitbestimmt: eine wachsende CO2-Kon­zentration der Atmosphäre regt die Bio­sphäre zu stärkerem Wachstum an, und verringert damit den CO2-Gehalt.

Umstellung auf sog. Erneuerbare Energien so schnell wie möglich 

„Auch ein Begriff muss bei dem Worte sein“, sagt Goethe, und deshalb ist die Feststellung er­forderlich, dass es nach dem Gesetz von der Erhaltung der Energie tatsächlich keine erneuerbare oder regenerative Energie gibt. Unser Hauptenergielieferant ist die Sonne, und wenn wir sie nut­zen wollen, müssen wir ihre Energie umwandeln – egal, ob sie in der geologischen Vergangen­heit auf der Erde als Gas, Öl oder Kohle gespeichert wurde oder ob sie täglich frisch eintrifft. Die Umwandlung erfordert technische Prozesse, und dafür sind Installationen und folglich In­vestitionen erforderlich. Der Aufwand für die Installation je Kilo­wattstunde ist um ein Vielfa­ches größer, wenn frische Sonnenenergie umgewandelt werden soll.

Koalitionsvertrag hin oder her – er ist kein in Stein gemeißeltes Gesetzbuch und wird laufend an anderen wichtigen Stellen in Frage gestellt oder schlicht nicht angewendet. Die sog. „Erneuerba­ren“ erfüllen keine der Anforderungen, die eine moderne Industriegesellschaft stellen muss. Sie sind irrwitzig teuer12, nicht verfügbar wenn sie gebraucht werden, und dazu hoch fluktuativ und in schnellster Zeit schwankend. Ihr systemischer Nachteil (um einen beliebten Begriff zu ver­wenden) liegt in der extrem geringen Ener­giedichte. Dies macht das „Ernten“ sehr aufwendig und teuer und kann auch von keiner Technologie der Welt ausgeglichen werden. Die Nutzungs­grade sind systembedingt verschwindend gering (sie liegen bei Onshore Windanlagen bei weni­ger als 20 %, bei Offshore hofft man auf ca. 30 %; bei Photovoltaik sind es ca. 8 %, nur bei Biomasse ist er höher, jedoch ist diese noch aufwendiger herzustellen und extrem land­schafts­verbrauchend, und konkurriert mit Nahrungspflanzen). D.h. die weitaus meiste Zeit im Jahr steht diese Stromfabrik still. Keine der Eigenschaften, welche die Verbraucher benötigen, wie Wirt­schaftlichkeit, Verfügbarkeit, Stetig­keit und Umweltverträglichkeit wird von diesen Energiearten gewährleistet.

Die produzierte kWh kostet bei Wind an Land ca. 9 ct, bei Offshore ca. 15 ct, bei PV ca. 40 ct.13 . Im Vergleich dazu liegt der Preis bei Kernenergie und Braunkohle bei 2,4 ct, bei Steinkohle und Gas bei ca. 4-5 ct.

Wie Frau Müller richtig ausführte und von Herrn Klinkert,  Vattenfall, mit Daten bestätigt wurde, ist allein die zwingend erforderliche großtechnische Speicherfrage weder in unserem Land noch irgendwo sonst in Europa zufriedenstellend beantwortet. Wegen der schnellen Schwankung in Se­kundenbruchteilen bei der Erzeu­gung sind Pumpspeicherwerke die einzig be­kannte, aber technisch sehr aufwendige Lösung, um die zwin­gend erforderliche Phasen- und Spannungskonstanz zu gewährleisten. Das größte deutsche (und eines der größten in Europa) Pumpspeicherwerk ist Goldisthal in Thüringen. Es hat eine Speicherkapazität von 8 GWh,  d.h. es kann 1 GW 8 Stun­den lang liefern. Dann ist es leer und muss wieder befüllt werden. Seine Planungs- und Bauzeit betrug 30 Jahre, die reine Bauzeit 11 Jahre. Die Kosten beliefen sich auf 600 Mill.€. Wenn – wie dieser Tage – nur eine 3 tägige Flaute herrscht, bräuchte man zum Aus­gleich für die heute in­stallierten Windkraftanlagen (ca. 22.000 Stck.) über 250 Pumpspeicher­werke vom Typ Gol­disthal. Die Kos­ten beliefen sich auf knapp 150 Mrd. €. Weder sind dafür in Europa irgendwo die geografischen Voraus­setzungen zu finden noch sind die benötigten Instal­lationen zu bezah­len (14).

Herr Minister, Sie haben auch die gewünschte Unabhängigkeit von Importen als eines der Unter­ziele ge­nannt. Wegen des unstetigen, stark fluktuierenden Angebotes an Strom muss jedoch jede installierte kW in „Erneuerbare“ mit einer kW von konventionellen Kraftwerken gepuffert wer­den, die im teuren Teillast­betrieb mitlaufen müssen. Kohle- und Kernkraftwerke sind dazu kaum in der Lage, stattdessen müssen (neue) Gaskraftwerke eingesetzt werden. Mit Gas betrieben, das wir importieren. Im Gegensatz zum Ziel erhöhen wir mit den Erneuerbaren also unsere Import-Abhängigkeit. Bis heute wurde – und so wird es bleiben – wg. der mangelnden Verfügbarkeit von „Erneuerbarer Energie“ noch kein konventionelles Kraftwerk stillgelegt. Im Gegenteil es kommen neue hinzu, nur für unwirtschaftliche und teure Puffer­zwecke.

Schaffung neuer, moderner Arbeitsplätze

Somit ist auch klar, dass die durch die massive Zwangssubventionierung von „Erneuerbaren“ u.a. durch das unsägliche EEG, das Arbeitsplatzargument weder betriebswirtschaftlich noch volkswirtschaftlich trägt. Wie Studien des RWI, aber in jüngster Zeit besonders spanische und italienische Studien 15, 16 zei­gen, vernichtet jeder „erneuerbare Arbeitsplatz“ zwischen 2,2 bis 6 konventionelle Arbeitsplätze. Die von Ihnen erwähnte genannte „Erfolgsbilanz“ von 300.000 „erneuerbaren Arbeitsplätzen“ in Deutschland ver­kehrt sich dadurch nachhaltig in ihr Gegenteil. Mindestens 600.000 konventionelle Arbeitsplätze sind da­her bisher dauerhaft vernichtet worden.

Weitere 800.000 – nämlich die in der energieintensiven Grund­stoffindustrie und ihrer Zulieferer  werden bald folgen. Für immer! Hinzu kommt, dass nach diesen Stu­dien ca. 60 % der Erneuer­baren -Arbeitsplätze in der Montage entstanden sind. Die sind nur dann nach­haltig, wenn die extrem teure Subventionierung – direkt oder indirekt –   dauerhaft erhalten bleibt. Mit un­ausweichlicher Vernichtung von weiteren Arbeitsplätzen.

Deutschland solle Industrieland bleiben!

Somit bleibt das an vorderster Stelle von Ihnen genannte Wunschziel „Deutschland solle In­dustrieland bleiben“ nach unserem Eindruck, ein dialektischer Kunstgriff, da Sie nach unserer festen Überzeugung – geteilt von vielen Anwesenden im Saal, wie wir durch Gespräche erfuh­ren –  durch Ihr Handeln (und das vieler anderer im Lande) das genaue Gegenteil bewirken. In echter Sorge verbleiben wir mit freundlichen Grüßen Ihre

Dr. Holger Thuss Michael Limburg

Präsident EIKE Vizepräsident EIKE

 

Fußnoten

1   Siehe auch unser Schreiben an Sie vom 20.1.2010,  Seite 1 von 5

2 Eichner, Koscielny-Bunde, Bunde, Havlin und Schellnhuber„Power-law persistence and trends in the at mos phere: A detailed study of long temperature records“, erschienen in Physical Review E 68, 046133 (2003) wird auf S. 5 unter Punkt (iii)

3  Surface Temperature Records Policy Driven Reception? Joe D´aleo & Anthony Watts SPPI 2010

4 Vertrauen in Welt-Klima-Rat im freien Fall: Die Irrungen, Wirrungen und Manipulationen des IPCC! Ein Up date!,  http:// www.eike-klima-energie.eu/news-anzeige/vertrauen-in-welt-klima-rat-im-freien-fall-die-irrungen-wirrungen-und-manipulationen des-ipcc-ein-update/

5  “It is only possible to attribute 20th Century warming to human interference using numerical models of the climate system.” John Mitchell, Julia Slingo, David S. Lee, Jason Lowe & Vicky Pope: ‘CLIMATE CHANGE Response to Carter et al.’, World Eco nomics, 8 (1): 221228.

6 Beispielsweise diese Auflistung; 700 Peer-Reviewed Papers Supporting Skepticism of „Man-Made“ Global Warming Alarm, http:// www.populartechnology.net/2009/10/peer-reviewed-papers-supporting.html

7  Nach Einschätzung der BGR Hannover, Basis 2001

8 Details mit ausführliche Quellen dazu u.a. im Buch „Die Klimahysterie – was ist dran?“ (S97 ff) von ISBN 978-3-940431-10-3

9 Siehe z.B. hier: What to Do about Climate Change, by Indur M. Goklany Policy Analysis No. 609 February 5, 2008

10 Kommentar hierzu und Website des Kongresses The Great Transformation http://www.greattransformation.eu/

11  Kanada reduziert Klimaziele drastisch http://www.spiegel.de/wissenschaft/natur/0,1518,698888,00.html

12 s, z.B. hier eine vorsichtige Abschätzung des 1. Zieles von Meseberg 2007 (Kosten bis 2020 allein daraus ca. 900 Mrd. €) Die gigantischen Kosten der Meseberger Beschlüsse http://www.eike-klima-ener­gie.eu/fileadmin/user_upload/Bilder_Dateien/WCMSAlt/Kosten_Meeseber­ger_Beschl__sse_Niemann_801.pdf

13 Details mit ausführliche Quellen dazu u.a. im Buch „Die Klimahysterie – was ist dran?“ (S97 ff) von ISBN 978-3-940431-10 3 Kapitel „Erneuerbare“ Energien sind keine Lösung sondern vergrößern die Abhängigkeit.

14 Energy is the Key: Renewable Energy Problems in Germany: „Renewable“ Energies are not a Solution Rather They Increase Foreign Depend ency.: http://multi-science.metapress.com/content/51236465258m7747/

15 Calzada Studie : http://www.eike-klima-energie.eu/uploads/media/Calzada-Study-090327-employment-public-aid-renewable.pdf

16 Stagnaro Studie: Saubere Arbeitsplätze, teure Arbeitsplätze? Warum Italien sich keine „Grüne Ökonomie“ leisten kann

P.S. Wir haben uns erlaubt, dem Initiator des Dialogs Herrn Bareiß und anderen,  unsere Sorgen mit zuteilen.

Eine Kurzfassung der Studie die Prof. Ewert vorstellte finden Sie im Dateianhang!

Related Files




ClimateGate Update: Englischer amtlicher Informationsbeauftragter hält CRU für schuldig

Da kommt noch mehr, weil dies nur eine von den vier Strafanzeigen von David Holland ist. Diese werden beim Büro des Informationsbeauftragten bearbeitet, welches sowohl in Angelegenheiten der Informationsfreiheits-Anfragen wie auch in Umweltstreitfragen rechtlich entscheidet. Die Zuständigkeit umfasst auch andere Behörden, das Energie- und Klimawandelministerium (DECC) und den Wetterdienst.

Alle in die IPCC-Abläufe eingebundenen Behörden sind verpflichtet: "sicherzustellen, dass die Beurteilung auf der Basis einer umfassenden, objektiven, offenen und transparenten Basis erfolgt; … sicherzustellen, dass alle schriftlichen und Regierungs-Prüfbemerkungen in einem offenen Archiv aufbewahrt werden für die Dauer von mindestens 5 Jahren, und sicherzustellen, dass die die Beurteilung beaufsichtigenden Gutachter (Review Editors) einen schriftlichen Bericht vorlegen – im Einklang mit den IPCC-Regeln."

Ursprünglich hatte der Wetterdienst Hollands Ansuchen abgelehnt mit der Begründung, dass die Daten vernichtet gewesen wären – keine Arbeitsunterlagen und keine Korrespondenz sei aufbewahrt worden. Dann änderte der Wetterdienst seine Entschuldigung. Er sagte, die Daten wären nicht vernichtet – aber der Wetterdienst-Direktor für Klimatologie, John Mitchell, Träger des Ordens des Britischen Empires, der inzwischen den Wetterdienst verlassen hat, hätte seine Arbeit als Gutachter (Review Editor) für das IPCC persönlich wahrgenommen und deshalb könnte der Wetterdienst keine Auskunft über dessen Arbeit erteilen.

Als herauskam, dass der Steuerzahler Mitchells Arbeit für das IPCC bezahlt hat (der Wetterdienst hat auch seine Reisekosten getragen), wurde die Entschuldigung wieder geändert. Jetzt hieß es, dass dies nicht im öffentlichen Interesse läge.

Holland versuchte es erneut, diesmal berief er sich auf die Umweltinformations-Anfrage-Regel Nr.11 (FREEDOM OF INFORMATION ENVIRONMENTAL PROTECTION) und erwartete eine raschere Reaktion als die Ausflüchte, mit denen staatliche Behörden Informationsfreiheits-Ansuchen behandeln. Unter den Regeln für Informationsfreiheits-Ansuchen können Behörden die Antwort auf die lange Bank schieben, bis die Offenlegungsfristen verstrichen sind. Das CRU hatte die Offenlegung der Prüfungsbemerkungen der Gutachter unverblümt abgelehnt.

Der Wetterdienst hatte die Anfrage zunächst unter Berufung auf die Umweltinformations-Ansuche-Regeln verzögert, berief sich dann auf ein Schlupfloch, Regel Nr. 2(1). Dieses lautet "Die Archivierungs- und Einspeisungsverfahren, Anweisungen und Korrespondenz gelten als Verwaltungsinformationen und sind keine Umweltinformationen. 

Die University of East Anglia berief sich auf das gleiche Schlupfloch wie der Wetterdienst. Mit dem gestrigen Urteilsspruch hat der Informationsbeauftragte die University of East Anglia darauf hingewiesen, dass Regel Nr. 2(1) nicht so eng interpretiert werden darf, und dass Behörden sie so weit wie möglich auszulegen hätten. (Hier sind die Bemerkungen.)

Das belastende E-Mail-Archiv, Quellcode und Wetterstationsdaten heißt FOIA.ZIP und man glaubt, dass ein Insider es zusammengestellt hat.

Im Januar sagte der Informationsbeauftragte, dass er den Augenscheinsbeweis hätte, dass die CRU-Forscher gegen das Gesetz verstoßen hätten, indem sie wiederholt versucht hätten, den Anfragen auszuweichen und indem sie Kollegen baten, die Daten zu löschen, die Holland angefordert hatte. Dies begann 2005, lange bevor im vergangenen Jahr aus dem Rinnsal höflicher Anfragen eine Sintflut wurde. In einem Falle hat Jones sogar am Tag des Eingangs einer von Hollands Anfragen Briffa aufgefordert, Daten zu löschen.

Bemerkenswerterweise hat in der Russell-Untersuchung niemand Jones befragt, ob er irgendeine E-Mail gelöscht hätte. Der Russell-Bericht zitiert zwei der am meisten belastenden Aufforderungen zum Datenlöschen und erklärt dann: "Das scheint eine klare Anstiftung zum Löschen von E-Mails zu sein, doch wir haben keinen Beweis gesehen, dass auch nur irgendein Versuch gemacht worden wäre, Informationen zu löschen angesichts einer eingegangenen Anfrage.“

Einer aus dem Untersuchungsausschuss, Richard Horton, Redakteur der Zeitschrift Lancet, hat in einem Zeitungsartikel erklärt, dass dies die "letzte Untersuchung" wäre. Entweder er war zu schnell oder zu optimistisch. Der Abgeordnete Graham Stringer hat die Russell-Untersuchung als nicht angemessen bezeichnet und gefordert, dass das Parlament eine erneute Untersuchung eröffnen möge.

von Andrew Orlowski Originalartikel hier The Register, 8 July 2010

gefunden von Dr. Benny Peiser auf Achgut

Die Übersetzung besorgte dankenswerterweise Helmut Jäger EIKE




Energieamortisationszeit von Windkraft- und Solaranlagen!

Energieamortisationszeit von Windkraftanlagen

Zur energetischen Amortisation von Windkraftanlagen gibt es immer wieder Diskussionen mit Ergebnissen, die weit auseinander liegen. Es wird daher im folgenden eine Berechnung der Energieamortisationszeit an Hand eines 1,5 MW-Windrades als Beispiel gegeben. 

1)  Daten für die Materialien nach den Angaben für das Windrad von München-Fröttmaning, auf dem Schuttberg neben der Allianz Arena

2) abgezogen sind die Kosten für die Materialien, die ca. 10% der Gesamtkosten des Münchner Windrades von 2,25 Mill. € ausmachen.

3) „Spezifischer kumulierter Energieverbrauch“ des produzierenden Gewerbes, s. Statist. Bundesamt

4) s. Klaus Heinloth, „Die Energiefrage“

5) Einspeisevergütung 10ct/kWh für 20 Jahre: Wartung, Reparaturen, Auszahlungen an Kapitalgeber

Ein Windrad liefert in Deutschland im Durchschnitt 1500 Volllaststunden Strom, mit diesem Mittelwert liefert das als Beispiel gewählte 1,5MW-Windrad 2,25 Millionen kWh pro Jahr. Beim derzeitigen Strommix bei uns werden damit 6,75 Millionen kWh Primärenergie eingespart (Wirkungsgrad=1/3).

Natürlich ist die Energieamortisationszeit sehr wesentlich vom Standort abhängig. An der Küste mit viel Wind wird viel Strom erzeugt (man rechnet mit 2000 Volllaststunden), dort beträgt die Energieamortisationszeit 2,5 Jahre, im Binnenland mit 900 Volllaststunden sind es 5,5 Jahre.

Zum Bau und Betrieb eines Windrades sind die Ressourcen:

1. Materialien wie Stahl, Zement, Kunststoff, (Transporte weggelassen) und Gelderforderlich. Die Ressource „Geld“ – sie wird häufig „vergessen“ – ist eine äußerst kostbare und nur in begrenzter Menge verfügbare Ressource, ist sie doch universell zu vielerlei Zwecken einsetzbar. Um diese in großer Menge erforderliche Ressource „herzustellen“, muß sie im Wirtschaftsprozess zuvor erarbeitet werden, wozu aber wieder Energie erforderlich ist. „Geld ist vorgetane Arbeit und damit vorab aufgewandte Energie“ (s. Prof. Klaus Knizia, s. www.buerger-fuer-technik.de/), die Umrechnung erfolgt wie oben unter 4) angegeben. Aber auch für den Betrieb eines Windrades ist Geld erforderlich, es ist ein immer währender Zuschussbetrieb. Durch die von allen Stromverbrauchern erhobene und an der Betreiber ausgezahlte Einspeisevergütung wurden Windräder per Gesetz „wirtschaftlich gemacht“. Ohne Einspeisevergütung gäbe es nicht die 19 000 Windräder in Deutschland. Daher muß die Einspeisevergütung berücksichtigt werden.

Ergänzung von Prof. Appel:

1. Für eine Wertschöpfung von 1,- € benötigen wir 2 kWh Primärenergie. Für Dienstleistungen ist es weniger, für Industrieanlagen mehr. 

Für die Installation von 1 kW Leistung aus Wind- und Dampfkraftwerken müssen 1000,- bis 2000,€ investiert werden. 

Danach muss für 1 kW Windleistung einschl. des notwendigen Schattenkraftwerks ca. 3000,- € investiert werden. Für den Bau dieser Anlagen sind dann mindestens 6000 kWh erforderlich. Bei einer Stromerzeugung von 1700 kWh im Jahr eines 1 kW Windgenerators muss der Generator mindestens 3,5 Jahre laufen, bis er einen ‚Energieüberschuss erzielt. 

Geschätzter Primär-Energieaufwand zur Erzeugung von 1 kg. 

Stahl:   10 kWh            Preis:    0,6 € / kg
Aluminium:   50 kWh                 1,8   (diese Zahlen sind exakt)
Magnesium:  60 kWh                 3,5
Kupfer:   10 kWh                        3,5
Kunststoffe: 20 kWh                     2,-  bis 5,-


Energieamortisationszeit von Photovoltaikanlagen

Zur energetischen Amortisation von Photovoltaikanlagen gibt es Berechnungen mit Ergebnissen, die weit auseinander liegen. Im folgenden eine Überschlagsrechnung für eine Solarstromanlage mit 1kWpeak:

 

1)  6000 EURO ist der Preis von  1kWpeak , das habe ich aufgeteilt (willkürlich) je zur Hälfte für Produktion (Materialien, Herstellungsprozess) und zur Hälfte für die sonstigen Kosten (Löhne u.a.m.).

2) „Spezifischer kumulierter Energieverbrauch“ des produzierenden Gewerbes, s. Statist. Bundesamt

3) Die Energieintensität oder Energieeffizienz ist eine wichtige Kenngröße einer Volkswirtschaft oder auch nur eines Teiles einer Volkswirtschaft. Für unser Land ergibt sich nach den Daten des Jahres 1995 die Energieintensität = 2,4 kWh Primärenergieverbrauch (PEV) / 1 EURO BIP. Siehe bei Klaus Heinloth, „Die Energiefrage“ und www.buerger-fuer-technik.de „Wohlstand – Energie – Geld“ von Lutz Niemann

4) gesamte Einspeisevergütung für 20 Jahre Betrieb bei Stromerzeugung von 800kWh/Jahr und 50ct/kWh . Davon wird gezahlt: Wartung, Reparaturen, Auszahlungen an die Kapitalgeber.

Eine Photovoltaikanlagen liefert in Deutschland im Durchschnitt 800 Volllaststunden Strom, also 800 kWh. Beim derzeitigen Strommix bei uns werden damit 2 400 kWh Primärenergie eingespart (Wirkungsgrad=1/3).

 

Zum Bau und Betrieb einer Photovoltaikanlage sind die Ressourcen:

1.    Materialien, Herstellungsprozess  und Geld

erforderlich. Die Ressource „Geld“ – sie wird häufig „vergessen“ – ist eine äußerst kostbare und nur in begrenzter Menge verfügbare Ressource, ist sie doch universell zu vielerlei Zwecken einsetzbar. Um diese in großer Menge erforderliche Ressource „herzustellen“, muß sie im Wirtschaftsprozess zuvor erarbeitet werden, wozu aber wieder Energie erforderlich ist. „Geld ist vorgetane Arbeit und damit vorab aufgewandte Energie“ (s. Prof. Klaus Knizia, s. in www.buerger-fuer-technik.de der Aufsatz „Wohlstand – Energie – Geld“), die Umrechnung erfolgt wie oben unter 3) angegeben. Aber auch für den Betrieb einer Photovoltaikanlage ist Geld erforderlich, es ist ein immer währender Zuschussbetrieb. Durch die von allen Stromverbrauchern erhobene und an den Betreiber ausgezahlte Einspeisevergütung wurden Photovoltaikanlagen per Gesetz „wirtschaftlich gemacht“. Ohne Einspeisevergütung gäbe es keine Solarstromerzeugung in Deutschland. Daher muß die Einspeisevergütung berücksichtigt werden.

Die vielen Solarstromanlagen in Deutschland dienen nicht in erster Linie der Stromerzeugung, sondern sie wurden zum Zwecke des „Kohle machen“ installiert.

Wird die Ressource Geld in obiger Berechnung fortgelassen, so fällt der dickste Brocken in der Rechnung weg, und es folgt die geringere Energieamortisationszeit von 21 000 / 2 400 =  8,7 Jahre . Die dargelegte Betrachtung zeigt, Solarstromanlagen sind keine Energiequelle, sondern Anlagen zur Energievernichtung.

Anmerkung des Autors: Bei den Instituten, die derartige Berechnungen machen, ist es üblich, das zum Betrieb benötigte Geld (Einspeisevergütung) und die Löhne nicht zu berücksichtigen, dann ergibt sich eine kleine Energieamortisationszeit, wie man es auch will (man sagte mir gegenüber, Geld wird sowieso ausgegeben, dann ist es gleich, für was man es ausgibt, also braucht es nicht berücksichtigt werden (seltsame Logik, die ich nicht verstehe)). Das ist falsch, es wird der dickste Brocken unterschlagen.

Ganz wichtig ist die Umrechnung:  Für eine Wertschöpfung von 1,- € benötigen wir 2 kWh Primärenergie. Für Dienstleistungen ist es weniger, für Industrieanlagen mehr. s.o. Man findet diese Umrechnung auch bei Heinloth (Die Energiefrage), weit ausgeführt. Ohne Energie kann man kein Geld von Wert schaffen. Und wenn man diese Gedanken benutzt, kommt für Solarstromanlagen heraus, das diese Dinge keine Energiequelle, sondern eine Energiesenke sind.

Dr. Lutz Niemann; Bürger für Technik

* Die Studie des UBA 100 % Erneuerbare bis 2050 finden Sie im Anhang 

Weitere Info: http://www.energie-fakten.de/html/erntefaktor.html

Related Files




Klimamodelle und Messungen stimmen nicht überein? Kein Problem! Wo man einen “Hot Spot” bei null Grad finden kann

In Robust Tropospheric Warming Revealed by Iteratively Homogenized Radiosonde Data (März 2008) bringen Steven Sherwood et al. Windscherungs- und Temperaturdaten zusammen, um sich noch einmal mit den Radiosonden zu befassen. In The Scientific Guide to The Skeptics Handbook und anderen Veröffentlichungn wird die Grafik oben links benutzt, um zu darauf hinzuführen, dass der “Hot Spot” nicht ausbleibt oder auch, dass der “Fingerabdruck” gefunden wurde. Das ist eine oberschlaue Grafik, ganz schön „heiss“, oder?

 

Abb. 1. Sherwood 2008: Messungen (obere Grafiken) gegenüber Modellen (untere Grafiken).  (Maßstab beachten!)

Schauen Sie genau auf den Maßstab der Grafik. Beachten Sie die Farbe bei NULL – ja, richtig – das bedeutet, wenn es keine globale Erwärmung in der ganzen Atmosphäre gäbe, würde sich nichts ändern, nichts würde passieren, die Sherwood-Darstellung würde wie ein riesiger „Hot Spot“ aussehen.

 Keine Änderung bedeutet also “heiss”

Durch geringe Auflösung und eine sorgfältig ausgewählte Farbgebung beim Maßstab erwecken die oberen Grafiken den augenfälligen Eindruck, dass die Modelle gar nicht schlecht sind. Aber die Farbgebung oben ist nicht nur gegen die Intuition gerichtet, sie verhindert auch, dass jemand den Trend in der oberen Troposphäre mit dem an der Erdoberfläche vergleicht. Jedweder Erwärmungstrend ist „rot“. Die Trendinformation ist nicht mehr in der Grafik sichtbar. (Ich habe versucht, die Grafik neu einzufärben, aber wenn alle roten Stellen rot sind, wenn Sie wissen, was ich meine. 101 Schattierungen von rot könnten ja vielleicht den Schlangen mit Infrarot-Erfassungsvermögen helfen…).

Keiner der Autoren, Redakteure, Gutachter sah offenbar Probleme in einer Grafik mit aussagelosem Maßstab. So ist es halt bei den anonymen, unbezahlten Gutachtern.

Hier unten sind die früheren Grafiken, die sich das Papier nun offenbar erneut vornimmt. Man beachte, dass in den ursprünglichen CCSP-Dokumenten die Farbgebung dem Leser beim Verständnis des Geschehens half (auch wenn pink eine fragwürdige Wahl für ultra-kalt ist). Die Modelle haben einen Fingerabdruck vorgesagt von gut durchgemischten Treibhausgasen, wie in der Grafik A unten dargestellt. Die Abkühlung in der Stratosphäre (das blaue Bändchen oben) würde von abnehmenden Kohlendioxid- und Ozon-Pegeln verursacht (teilweise). Aber der rote Hot Spot käme von den Rückkoppelungen aus Feuchtigkeit und Wolken, auch mit Freisetzung von latenter Wärme – so jedenfalls in der Theorie. 

Tatsächlich haben die Radiosonden nichts dergleichen entdeckt. Woraus sich ergibt, dass die von den Modellen vorgesagte Rückkoppelungswirkung nicht beschreiben, was tatsächlich in der Wirklichkeit vorgeht.

 

 Abb. 3. Das Fehlen des Hot Spots ist in diesen CCSP-Grafiken gut sichtbar. 

Im großen und Ganzen übereinstimmend?

Kann man behaupten, dass die Radiosondenmessungen nach Sherwoods Änderungen mit den Modellen übereinstimmen? Das hängt davon ab, wie weit man den Begriff „Übereinstimmung“ fasst. Wenn ein Null-Trend schon als „im Großen und Ganzen übereinstimmend“ mit einem Erwärmungstrend von 0.25 begriffen wird (auch noch in rot dargestellt), wo ist da noch ein Unterschied?

Bei solcher Begrifflichkeit könnte man die Zahl 1 auch mit „2“ als im Großen und Ganzen übereinstimmend bezeichnen.

Um nicht mißverstanden zu werden, Sherwood hat nach dem fehlenden Hot Spot gesucht. In der Einleitung macht er klar, dass es nur darum ge

Die Frage, ob die Troposphärentemperaturen wie erwartet beim Klimawandel mitmachen, ist kontrovers, da einige Beobachtungssysteme Veränderungen gemeldet haben, die inkonsistent mit den Modellen sind (CCSP 2006; National Research Council 2000)…, dass Diskrepanzen zwischen erwarteten und gemessenen troposphärischen Erwärmungsraten in den Tropen nicht vollständig erklärt wurden. (CCSP 2006), …

Die Überschrift könnte schon nach einer beeindruckend richtigen Erklärung klingen, aber die windige Farbgebung und das Kleingedruckte sagen etwas anderes. In der Zusammenfassung legt sich niemand genau fest: 

“Die südlichen Abweichungen der nach Zonen zusammengefaßten Temperaturtrends seit 1979 sind signifkant näher an diejenigen von der Microwave Sounding Unit (MSU) gerückt, nachdem die Daten justiert worden sind. Justierte Daten aus den Breiten zwischen 5°S to 20°N zeigen weiterhin relativ schwache Erwärmung, aber der Fehler ist sehr groß und die Trends sind mit denen aus anderen Breiten inkonsistent.“

Beachte diesen Satz von Grafiken in seiner Abb. 3
(besonders die mittleren aus den Tropen, vor allem 1979-2005):

Sherwood 2008 Fig 3: Die obere Troposphäre über den Tropen (150 hPs – 300 hPa) soll sich zweimal so stark erwärmen wie an der Erdoberfläche. Der Erwärmungstrend von 1979-2005 müsste stärker sein über einen längeren Zeitraum.
(Gelbe Markierungen -von Jo Nova zugefügt- zeigen die Zone an, wo die Modelle den stärksten Erwärmungstrend vorhersagen.)

Zusammenfassend kommentiert Sherwood den Trend als in einem Unsicherheitsband  liegend (und das ist in der unteren Hälfte der Troposphäre). Aber ich kann  keine besondere zahlenmäßige Entsprechung in der wichtigen Zone zwischen  150 – 350 hPa erkennen (die ich oben markiert habe), und das war offenbar der  Grund, warum noch mehr Justierungen vorgenommen wurden.

Unsere Trendraten für 850-300 hPa in den Tropen betragen 0.15° – 0.07°C pro Dekade. Die liegen innerhalb des Unsicherheitsbandes zwischen ungefähr 0.17° – 0.22°, wie aufgrund der Trendraten an der Erdoberfläche von 0.12° – 0.14°C pro Dekade zu erwarten ist (CCSP 2006;  Santer et al. 2005). Die Übereinstimmung wäre besser, wenn man die Daten der tiefen tropischen Messstationen entfernen würde, die sich inkonsistent mit dem übrigen Stationsnetzwerk verhalten.

Nirgendwo aus dem Papier ergibt sich eine Rechtfertigung für die Behauptung, dass die justierten Daten von den Sonden jetzt “im Großen und Ganzen” mit den Modellen übereinstimmten. Seit 10 Jahren haben wir die Daten aus der 1979 – 1999er Erwärmungsperiode, eine Wissenschaftlergruppe nach der anderen hat die Daten auf jede nur mögliche Art und Weise analysiert, und die ganze wiederholte Analysiererei scheint in eine nichtzufällige modell-freundliche Richtung gegangen zu sein. 

Das IPCC ist sich jedoch zu 90 Prozent sicher, dass das Unglück seinen Lauf nimmt. Doch wenn man nach den Beweisen fragt, ob die Modelle die Rückkoppelungen richtig abbilden, dann verflüchtigt sich die aggressiv zur Schau gestellte Sicherheit in Vagheit über Nicht-Inkonsistenzen mit Vorbehalten hinsichtlich Datenjustierung und speziellen Datenbeständen aus speziellen Gebieten. Möglicherweise hat Sherwood die Trends verbessert, aber wenn er wirklich den heiligen Gral gefunden hätte, dann hätte er das auch gesagt.

Joanne Nova Original Artikel hier

Die Übersetzung besorgte dankenswerterweise Helmut Jäger EIKE




Umwelt-Ökonom* Paul Driessen stellt einige unbequeme Fragen!

Amerika braucht entscheidungsfreudige Führer, die verstehen, was eine Regierung tun (oder nicht tun) kann, um die Golfkatastrophe zu stoppen, die Verwüstung zu beseitigen und Wirtschaft, Jobs und Wohlstand zurück zu bringen. Statt dessen klingt Präsident Obama wie ein Organisator einer anti-wirtschaftlichen Gemeinschaft, der ohne jede Grundlage beansprucht, unsere „Abhängigkeit vom Öl“ zu beenden, und der keine Krise auslässt, um einen jobvernichtenden CO2-Zertifikatehandel sowie Agendas für erneuerbare Energien zu propagieren. Seine „Vision“ vom 15. Juni warf mehr Fragen auf als sie beantwortete.

  1. 1) Der Präsident sagte, dass er keine neuen Bohrungen zulassen kann, solange die Industrie nicht beweisen kann, dass diese Bohrungen “absolut sicher” sind. Diese vermeidbare Katastrophe ereignete sich, weil BP, seine Zulieferer und die Gewerbeaufsicht (MMS regulators) vorgeschriebene Tests nicht durchgeführt haben und weil sie nicht ausreichend auf Warnsignale reagiert haben, die darauf hinwiesen, dass es bei dieser Bohrung zunehmend Probleme gab. Aber wenn „absolute Sicherheit“ zur Grundlage neuer Technologien und Entwicklungen gemacht wird, wird Amerika zu einem Stillstand kommen. Den Beweis, dass niemals etwas schief gehen kann, dass niemand je zu Schaden kommen wird, dass eine Technologie niemals funktionsunfähig sein würde – diesen Beweis kann niemand erbringen.

Öltanker laufen manchmal auf Grund und verteilen ihre schwarze Ladung an unseren Küsten. Werden Ölimporteure jetzt auch verbannt? Über 42 000 Amerikaner kamen im vorigen Jahr bei Verkehrsunfällen ums Leben. Werden Autobahnen und Straßen in der Stadt jetzt für Fahrzeuge aller Art gesperrt? Flughäfen, Züge und Unterführungen? Windräder töten jedes Jahr 3000 Adler [das Wappentier der USA, A. d. Übers.] und andere Greif- und Raubvögel sowie außerdem 100 000 bis 300 000 andere Vögel und Fledermäuse. Werden sie stillgelegt bis dieses Blutbad endet?

  1. 2) Präsident Obama hat verlangt, dass BP “alle nötigen Mittel bereit stellen muss, die erforderlich sind, um alle durch den Ölfilm betroffenen Arbeiter und Firmenbesitzer zu entschädigen“. Angesichts Tausender von Umweltaktivisten, Regulatoren, Kongressmitgliedern und Strafverteidigern im Team Obama kann man nur vermuten, welche kreativen Schäden und Kosten man aushecken kann, um den 20-Milliarden-Fonds von BP in ein Fass ohne Boden zu verwandeln, und nach welchen „Standards“  man zum Beispiel den Tod der Vögel evaluiert.

Exxon Mobil zahlte 600 000 Dollar, als 85 Vögel in einer ungeschützten Müllkippe ums Leben kamen. PacifiCorp wurde zu einer Geldstrafe von 1,4 Millionen Dollar verurteilt, nachdem innerhalb von zwei Jahren 230 Adler durch die Überlandleitungen dieser Firma starben. Werden diese Strafen als Standard heran gezogen, um den Verlust von Vögeln durch die Katastrophe am Golf zu regulieren? Oder werden dazu die Standards null, nichts, gar nichts heran gezogen, mit dem die Betreiber von Windturbinen für die anhaltende Schlächterei „bestraft“ werden? Wird man von BP verlangen, die Arbeiter auf den Ölplattformen zu entschädigen, die ihren Job verloren haben, weil das Team Obama ein Moratorium für Ölbohrungen verhängt hat, anstatt sicher zu stellen, dass verbesserte Sicherungsmaßnahmen bei den Bohrungen sowie zur Vermeidung von Ölunfällen eingeführt werden?

Der Präsident hat gesagt, dass in China Jobs in “sauberer Energie” geschaffen werden, die “besser hier in Amerika geschaffen werden sollten”, während wir “fast 1 Milliarde Dollar unseres Wohlstands täglich an fremde Länder zahlen für ihre Öllieferungen“.  Wir werden „eine nationale Bewegung ins Laufen bringen, um Amerikas Innovationspotential auszuschöpfen und selbst Kontrolle über unser Schicksal zu erlangen,“ erklärte er, weil „die Zeit, in eine saubere Energiezukunft zu starten, jetzt ist.“

Die amerikanischen Ölvorräte gehen nicht zur Neige. Zur Neige gehen die Orte, an denen uns die Regierung erlaubt zu bohren. China schafft Jobs im Bereich erneuerbare Energien, weil dort Lanthaniden, Lithium und andere Mineralien abgebaut werden, die für den Bau von Windturbinen, Solarpaneelen und Hybridautos gebraucht werden, während wir unsere Möglichkeiten verschließen; China verbrennt Kohle, um billige Energie zur Versorgung seiner Fabriken zu erzeugen, während das Weiße Haus, der Kongress und die EPA [Environmental Protection Agency, die amerikanische Umweltbehörde. A. d. Übers.] versuchen, Kohlekraftwerke in den USA stillzulegen; und es zahlt seinen Fabrikarbeitern einen Bruchteil dessen an Lohn, was amerikanische Arbeiter verdienen.

Ölgesellschaften bohren im tiefen Wasser, weil die meisten küstennahen und Flachwassergebiete bereits ausgebeutet werden. Werden wir jetzt die ANWR, die nationale Petroleumreserve in Alaska, öffnen; und werden wir jetzt in den Rocky Mountains und küstennahen Naturschutzgebieten bohren – wo der Zugang und die Entwicklung leichter sind und wo Unfälle (von denen wir hoffen, und was die Industrie sicherstellen muss, dass sie nie wieder vorkommen) leichter begrenzt und die Folgen besser beseitigt werden können als in kilometertiefen Gewässern?

Wird Präsident Obama sein OCS Moratorium aufheben (gegen das selbst seine unabhängigen Sicherheitsexperten opponieren), bevor es die geschlagene Wirtschaft am Golf weiter zerstört, bevor Plattformen auf See hinaus laufen und Tausende erfahrener Arbeiter diese Industrie für immer verlassen, um sich anderswo Arbeit zu suchen?

Um die “nationale Mission” des Präsidenten voran zu bringen und 20% oder mehr unserer Energie mit Windkraft und Sonne zu erzeugen – werden unsere Gesetzgeber, Regulatoren und Litigatoren [?] weiterhin den Umweltaspekt ignorieren, die Auswirkung auf gefährdete Arten, Zugvögel und andere Gesetze, die für fossile Energie und die Kernkraft gelten – so dass wir schnellstens Millionen von Quadratkilometern Amerika an Land und vor den Küsten mit Windturbinen und Solarpaneelen bedecken können, um Kohlekraftwerke zu ersetzen, ohne jede Rücksicht auf die Umweltauswirkungen?

Anstelle Dutzender “hässlicher” Öl- und Gasplattformen vor der Küste, oftmals viele Dutzend Meilen von den Küsten entfernt – wird Amerika sich nun an „wundervollen“ küstennahen Windturbinen erfreuen, die sich über unseren Stränden auftürmen und Hinderniskurse für Unterseeboote, Handelsschiffe beladen mit Treibstoff und mehr Tanker gefüllt mit Rohöl und noch viel giftigeren raffinierten Produkten darstellen?

Werden der Präsident und der Kongress jetzt einige der Hunderte von Millionen Quadratkilometer Land öffnen, die bisher dafür gesperrt wurden, um die für die Schaffung „grüner“ Technologien notwendigen Mineralien auszubeuten und abzubauen? Oder werden wir weiterhin von anderen Ländern und Diktatoren abhängig sein sowohl hinsichtlich des „schmutzigen“ Öls als auch der seltenen Materialien und vorgefertigter Teile, um eine neue „saubere Energiewirtschaft“ zu schaffen?

  1. 3) Mit dem Emissionshandel wird der Preis für Energie aus Kohle “logischerweise explodieren“, um Firmen und Familien zu „ermutigen“, weniger fossile Energie zu nutzen, und sie zu „überreden“, zu Wind- oder Solarenergie zu wechseln. Welche Auswirkungen wird das auf die Kosten und Subventionen für den Bau von Windturbinen und Solarpaneelen haben? Und auf die Folgekosten für erneuerbare Energien und alles, was die Amerikaner herstellen, fahren, essen, trinken und tun?

Wie sollen Wind- und Solarfabriken in den USA mit chinesischen und indischen Produktionsstätten mithalten, wenn die amerikanischen Firmen dazu verurteilt sind, das Zwei-, Drei-, Fünffache für Strom zu zahlen? Wie sollen sie [gegen diese Konkurrenz] bestehen, wenn sie auch noch für Gesundheitskosten und Pensionen aufkommen müssen; wenn staatliche Subventionen auch an Zuwendungen für gewerkschaftliche Organisationen gebunden sind, und wenn Firmen, die diese Zuwendungen nicht zahlen, vom Angebots- und Subventionsprozess ausgeschlossen sind? 

Wie wollen die Regulierer und Erzeuger “sauberer Energie” mit den schlimmen Schadstoffen umgehen, die beim Herstellen hunderttausender Windturbinen und Millionen Solarpaneelen anfallen? Wie behandeln sie die hochgiftigen Abfälle von Silikon Tetrachlorid, das starke Treibhausgas Stickstofftrifluorid und andere Chemikalien, die entstehen oder auch zur Herstellung von Solarpaneelen, Fiberglas und anderer Komponenten gebraucht werden?

Sogar “kleine” Windturbinen mit einer Leistung von 1,5 Megawatt benötigen zur Herstellung 700 Tonnen Beton, Stahl, Fiberglas, Kupfer und seltene Erdmineralien (Lanthanide). Für die Überlandleitungen kommen noch gasbetriebene Generatoren als Backup hinzu, und außerdem gibt es gravierende Konsequenzen im Verbrauch von Landschaften, Rohmaterialien, Verschmutzung, Vogelsterben und ökonomische Probleme. Welche Pläne haben unsere Gesetzgeber, Kontrolleure und Umweltaktivisten, um mit diesen Dingen umgehen?

Werden Firmen, die Solarpaneele und Windturbinen herstellen, den Kräften des freien Marktes unterworfen und dann möglicherweise im Wettbewerb gegen andere Energiefirmen scheitern? Oder werden sie mit riesigen Subventionen von der Regierung unterstützt, mit Geld, das unzähligen Milliarden Familien und weniger bevorzugten Firmen weggenommen oder von unseren Kindern geborgt wird, um es dann an Firmen mit „sauberer Energie“ zu verteilen? Wie lange kann diese griechische Formel wirksam sein?

In Spanien gingen 2,2 herkömmliche Arbeitsplätze für jeden einzelnen Job in der Windindustrie verloren, trotz massiver Subventionen. Präsident Obama hat gesagt, dass man 5 Millionen grüne Jobs schaffen könne. Aber wie will er für die 11 Millionen Arbeitskräfte aufkommen, die ihren Job unter den spanischen Bedingungen verlieren werden? Mit noch mehr Geld und roter Tinte?

Sieben Millionen Gallonen [ca. 28 Millionen Liter, A. d. Übers.] von Biodiesel aus dem Maisanbau erfordert Milliarden von Subventionen, Farmland von der Größe [des Bundesstaates] Indiana, Millionen Gallonen Wasser und Millionen Tonnen Dünger, um Treibstoff zu gewinnen, der viel mehr kostet, jedoch ein Drittel weniger effektiv ist als Benzin. Kann mal jemand erklären, wie das umweltfreundlich und nachhaltig sein soll?

Wenn dieses Kartenhaus unvermeidlich zusammenbricht, wie es in Spanien bereits geschehen ist, werden die Mitglieder des Kongresses und der Regierung, die hierfür verantwortlich sind, zur Rechenschaft gezogen? Womöglich unter den gleichen Bedingungen, die sie jetzt für BP ansetzen?

Ich frage ja nur. (Nicht, dass ich von Präsident Obama, Senator Kerry oder der Sprecherin des Kongresses Pelosi Antworten erwarte – oder dass ich gar Antworten für irgendeinen Bürger parat habe, der solche impertinenten Fragen stellt.)

Gastbeitrag von Paul Driessen

* Paul Driessen ist Senior policy advisor für das Committee For A Constructive Tomorrow (www.CFACT.org) und Autor des Buches  Eco-Imperialism: Green Power – Black Death.

Er ist auch Autor des Buches "Öko-Imperialismus. Grüne Politik mit tödlichen Folgen" hier zu beziehen .

Der erfahrene Ökologe, Jurist und Politikberater Paul K. Driessen hat mit "Öko-Imperialismus. Grüne Politik mit tödlichen Folgen" eine provozierende und scharf formulierte Abrechnung mit selbstvergessenen Umweltschützern und Entwicklungshelfern vorgelegt, die sich wissenschaftlich auf höchstem Niveau bewegt. Erstmals wird in ihr die vielfältige Umweltproblematik umfassend aus einer modernen, lebens- und marktbejahenden Perspektive dargestellt. 

Übersetzt von Chris Frey




Wie man einen Alarmisten vorführt: Andrew Bolt interviewt den Al Gore von Australien

Die Leser von TIA Daily werden daher ein kompromissloses Interview im Stil des australischen Journalisten Andrew Bolt dankbar aufnehmen, in dem er einen der weltweit führenden Alarmisten, Tim Flannery – ein Mann in den Fußstapfen von Al Gore – der Bedeutungslosigkeit überführt.

Andrew Bolt hat TIA Daily die Genehmigung erteilt, das Interview in voller Länge zu bringen.

Die Diskussion beginnt damit, dass Bolt Flannery nach seiner Desillusion fragt über die australische Regierung hinsichtlich der stillen Beerdigung des Handels mit Kohlendioxid–Zertifikaten [cap and trade legislation].

Flannery: Es ist unwahrscheinlich, dass ich für ihn stimme, weil mein Vertrauen geschwunden ist… Er hat versprochen, einen Handel mit Zertifikaten einzuführen und hat dies danach mit einer sehr fadenscheinigen Begründung wieder zurückgezogen…

Bolt: Er sagte er wird sich nicht bewegen solange der Rest der Welt es nicht auch tut, was ein direkter Widerspruch zu dem ist, was er davor sagte. Aber, Tim, natürlich liegen die Gründe für seinen Rückzug teilweise auch in einem großen Stimmungsumschwung gegen diese Art von Maßnahmen, der Skeptizismus nimmt überall zu. Inwieweit sind Sie dafür verantwortlich?

Flannery: Es gibt tatsächlich eine gewisse Änderung der Stimmung. Aber ich glaube, es ist sehr schwierig, irgendetwas, das so lange ein solch hohes Niveau der Zustimmung gehabt hat, damit in Verbindung zu bringen. Es gibt so etwas, aber was in der Welt derzeit geschieht, sollte uns alle Ermutigung geben. China hat versprochen, seine Emissionen über 40 Prozent zu reduzieren.

Bolt: Aber sie bauen immer noch ein Kohlekraftwerk pro Woche, oder so ähnlich.

Flannery: Falls dieses Ziel bis 2020 erreicht wird, wird es uns auf den Weg bringen, die gefährliche Klimaänderung zu vermeiden. Aber wir hier, in Orten wie Australien oder die USA, den Führern in dieser Diskussion, wir müssen unseren Anteil leisten.

Bolt: Aber, Tim, ich wundere mich über die Zunahme des Skeptizismus. Dies ist genau der Grund, warum zum Beispiel die Liberalen ihre Ansicht geändert haben. (Die Liberale Partei steht der klassischen freien Marktwirtschaft des 19. Jahrhunderts  näher, was bedeutet, dass sie dem, was man heute unter diesem Begriff versteht, nicht so zugetan sind). Sie haben einen Zertifikatehandel erst unterstützt und sind jetzt dagegen… sie haben sogar ihren Vorsitzenden darüber zum Rücktritt bewegt. Jetzt frage ich mich, in welchem Ausmaß Sie für die Zunahme des Skeptizismus über einige der alarmistischsten Behauptungen über die globale Erwärmung verantwortlich sind.

Flannery: Nun, viele der zu erwartenden Folgen, die die Wissenschaftler besonders betonen, sind sehr alarmierend. Sie sind keine Alarmisten, sondern sie machen sich Sorgen. Anstiege des Meeresspiegels sind beispielsweise eine bedeutende Angelegenheit.

Bolt: Nun, lassen Sie uns zu einigen Ihrer eigenen Behauptungen kommen. Sie sagten zum Beispiel, dass die Stadt Adelaide bis zum Jahre 2009 auf dem Trockenen sitzen würde. Ihre Reservoire sind derzeit halb voll. Sie sagten, dass auch der Stadt Brisbane bis 2009 das Wasser ausgehen könnte. Die dortigen Reservoire sind zu 97 Prozent gefüllt. Und Sydney könnte schon 2007 die Wasserknappheit spüren. Diese Reservoire sind auch mehr als halb voll. Wie können Sie mit all diesen [Ihren] Behauptungen umgehen?

Flannery: Aber, Andrew, dankenswerterweise haben sich die Regierungen das zu Herzen genommen und einige Entsalzungsanlagen gebaut, wie zum Beispiel in Perth.

Bolt: Nur in Perth.

Flannery: Nein, Pläne gibt es in jeder größeren Stadt.

Bolt: Nein, nein, nein; Sie sagten, dass Brisbane schon bis 2009 kein Wasser mehr hätte. Es gibt dort keine Entsalzungsanlage und keinen einzigen Damm.

Flannery: Was ich gesagt habe, war, dass es ein Wasserproblem gibt. Sie könnten auf dem Trockenen sitzen. Und…

Bolt: 100 Prozent gefüllt, fast! 100 Prozent voll!

Flannery: Das ist eine Lüge, Andrew. Ich habe nicht gesagt, dass sie bald kein Wasser mehr hätten. Ich habe keine Kristallkugel vor mir. Ich habe gesagt, dass Brisbane ein Wasserproblem hat.

Bolt: Ich zitiere Ihre eigenen Worte: “Die Wasservorräte sind so niedrig, dass sie dringend eine Wasserentsalzungsanlage brauchen, möglicherweise schon in 18 Monaten.” Das war, hinsichtlich des zeitlichen Rahmens, den Sie damals gegeben haben, Anfang 2009. Ihre Reservoire sind derzeit zu 97 Prozent gefüllt.

Flannery: Ja, sicher. Das liegt an den unterschiedlichen Regenmengen. Sie brauchen immer noch eine Entsalzungsanlage.

Bolt: Sie haben auch gewarnt, dass Perth die erste Geisterstadt des 21. Jahrhunderts sein könnte.

Flannery: Ich sagte, dass… könnte.

Bolt: Es ist alles “könnte”, stimmt’s?

Flannery: Weil es damals ein Jahr lang keine Zuflüsse in dieses Reservoir gab und die Wasserbauingenieure erschrocken waren. 

Bolt: Haben Sie das Niveau des Wasserspiegels hier gesehen? Schauen Sie, es liegt über dem mittleren Niveau von fünf Jahren. Ich zeige es Ihnen.

Flannery: Sie wissen, über was ich hier sprechen wollte, Andrew? Wir haben es zu tun mit unserer Deakin–Lesung in Bendigo, in der Stadthalle von Bendigo. Und es ist ein wirklich interessantes Ereignis… [Deakin–Lesung, ein lokales Ereignis in Australien. Die namentliche Bezeichnung kann nicht übersetzt werden. A. d. Übers.]

Bolt: Das ist alles wundervoll, Tim. Aber ich glaube, dass Sie dafür gerade stehen müssen, dass der Alarmismus teilweise Ihr Werk ist, und dass Sie für das verantwortlich sind, was Sie jetzt sehen, nämlich der Rückzug von politischen Maßnahmen im Hinblick auf die globale Erwärmung.

Flannery: Sie wollen mich als Alarmisten hinstellen.

Bolt: Sie sind ein Alarmist.

Flannery: Ich bin ein pragmatischer Mensch.

Bolt: Ich fordere von Ihnen, diese Ihre Aussagen zu rechtfertigen.

Flannery: Nun, das habe ich bereits getan!

Bolt: Sie sagten, dass die Arktis vor zwei Jahren schon eisfrei sein könnte.

Flannery: Nein, das habe ich nicht…

 (Der Moderator, Steve Price, unterbricht hier, und sie debattieren über die Fragestellung)

Bolt: Ich frage Tim, ob er nicht all seine Behauptungen bereut, z. B. über Städte, denen das Wasser ausgeht; über Städte, die sich in Geisterstädte verwandeln; Über den Anstieg des Meeresspiegels bis in Höhe eines achtstöckigen Hauses. Glauben Sie nicht, dass diese Behauptungen mit ein Grund sind, dass so viel mehr Leute skeptisch geworden sind?

Flannery: Das tue ich eigentlich nicht, weil Einiges davon zukünftig tatsächlich passieren kann, wenn wir mit der Umweltverschmutzung so weiter machen. Und in allen Städten in Südaustralien ist doch die Folgen schon zu sehen. Jeder erinnert sich an Die Rationierung des Wassers, und so weiter. Nur weil wir ein gutes, nasses Jahr hatten, heißt doch nicht, dass wir dieses Problem vergessen können. Wir haben es tatsächlich mit einem langzeitlichen Trend zu Trockenheit zu tun, und das bedeutet, dass wir Maßnahmen zur Sicherheit unserer Wasserversorgung ergreifen müssen.

Bolt: Sie warnen vor einem Anstieg des Meeresspiegels bis auf die Höhe eines achtstöckigen Hauses. Wie bald wird das geschehen?

Flannery: Diese Frage ähnelt ein wenig der Frage an einen Börsenanalysten, wann sich der nächste Börsencrash ereignet und wie groß er sein wird. Niemand kann das. Wir alle können die Unsicherheit auf den Märkten in den Monaten vor dem Crash sehen.

Bolt: Tausende von Jahren?

Flannery: Das kann Tausende von Jahren dauern.

Bolt: Zehntausende von Jahren?

Flannery: Es könnten Hunderte von Jahren sein.

Bolt: Hunderte von Jahren?

Flannery: Es könnten Hunderte von Jahren sein. Die Thermodynamik von Eisschilden ist sehr, sehr schwer vorherzusagen, aber was wir heute wissen, wenn wir auf die Spuren von Fossilien schauen, ist, dass der Meeresspiegelanstieg sehr signifikant ist und zwischen vier und 14 Metern über dem heutigen Stand liegt, sofern die Welt nur ein oder zwei Gran wärmer ist als heute.

Bolt: Sollten wir auch Atomkraftwerke nutzen?

Flannery: Für Australien sehe ich das nicht so. Wir haben so viele Ressourcen im Bereich der Erneuerbaren, dass ich mir nicht vorstellen kann, dass es hier eine Debatte darüber gibt, dass sie [die Atomkraftwerke] jemals wirtschaftlich sein werden. 

Bolt: Vor vier Jahren konnten Sie sich das vorstellen. Was war der Grund dafür, dass Sie Ihre Meinung geändert haben?

Flannery: Ich habe meine Meinung niemals geändert. Ich habe immer das Gleiche gesagt.

Bolt: Nein, nein, nein! Hier sind Ihre Worte, Zitat: “Während der nächsten zwei Jahrzehnte könnten die Australier Strom aus Kernkraftwerken nutzen, die alle unsere Kohlekraftwerke ersetzen können. Wir hätten dann in Bezug auf Energie eine ähnliche Infrastruktur wie Frankreich, und wenn wir das tun, tun wir etwas Großes für die ganze Welt!“ Zitat Ende, das waren Ihre Worte.

Flannery: Ich kann mich nicht erinnern, das jemals gesagt zu haben.

Bolt: Sie schrieben es. Sie schrieben es in [dem Magazin] The Age. Hier sehen Sie, das sind die Höhepunkte.

Flannery: Nun ja, sehr gut.

Bolt: Sehen Sie, das ist der Punkt! Sie stellen diese Behauptungen auf, und wenn Andere Sie damit konfrontieren, wenden Sie sich ab.

Flannery: Aber das war über “könnte”. Nein, nein, Sie sagten „könnte“. Und Australien könnte in der Lage sein, das zu tun. Es ist aber nicht das, was ich fordere, und ich habe es auch nie gefordert. Aber was ich wirklich sage…

Bolt: “Wir würden etwas Großes für die ganze Welt tun.”

Flannery: Aber was ich wirklich sage ist, dass die Ersetzung der Kohle durch Kernkraft gut für die Welt sein würde. Aber warum sollten wir in diesem Land die teuerste Option verfolgen, die immer als die teuerste und schwierigste Option gesehen wird? Wir sind dabei eine große Menge anderer Technologien und Innovationen zu erkennen, die wir zur Zeit durchführen und die wir anstelle der Kernkraft nutzen können.

Bolt: Zum Beispiel?

Flannery: Zum Beispiel konzentrierte PV–Technologie [?], Geothermie, Wellenkraft, Windkraft…

Bolt: Sie sind ein Investor in geothermische Technologie, nicht wahr? (Flannery’s Investitionen in diese Technologie erhielten im vorigen Jahr einen Zuschuss in Höhe von 90 Millionen Dollar von der australischen Regierung.)

Flannery: Ja, das bin ich. Wirklich.

Bolt: Wie kommt es dann, dass Sie das nicht angegeben haben.

Flannery: Nun, eben habe ich das getan.

Bolt: Sie haben es getan, weil ich es Ihnen gesagt habe. Sie nannten die Geothermie, in die Sie investieren, Sie haben ein Kraftwerk, Sie haben in ein Kraftwerk in Innamincka investiert, und Sie sagen, dass die Technologie wirklich einfach ist. Wie kommt es, dass dieses Kraftwerk…

Flannery: Nicht wirklich so einfach.

Bolt: Nun ja. Es gab tatsächlich technologische Schwierigkeiten, und es kam mit zwei Jahren Verspätung, weil es doch nicht so ganz einfach ist, oder?

Flannery: Nun, jede neue Technologie hat ihre Schwierigkeiten, bevor man sie nutzen kann. Es gibt immer wieder Herausforderungen. Aber was die Geothermie betrifft, gibt es viele Orte in der Welt, in der man tatsächlich bohren kann und in heiße Regionen vorstößt, wie zum Beispiel…

Price [der Moderator]: Andrew, wir müssen Schluss machen.

Tom Minchin schreibt Beiträge für TIADaily.com und ist Autor, Forscher und Geschäftsmann in Melbourne, Australien.

Original hier


Übersetzt von Chris Frey




Climategate „Aufklärer“ Lord Oxburgh : „wissenschaftliche Erkenntnis war nicht Gegenstand unserer Studie. „

Aus verlässlicher Quelle erfuhr ich von Phil Jones’ Eingeständnis während der Oxburgh-Interviews, dass es wahrscheinlich unmöglich wäre, die tausendjährige Temperaturgeschichte auch nur mit einiger Genauigkeit zu rekonstruieren. Offenbar wäre das ein enorm wichtiges Eingeständnis in dieser Debatte. Doch der Oxburgh-Ausschuss zur wissenschaftlichen "Untersuchung" hat über dieses Eingeständnis nicht berichtet, obwohl die University of East Anglia angekündigt hatte, dass der "Wissenschaftliche Untersuchungsausschuss" die wissenschaftliche Erkenntnis ihres Klimaforschungsinstituts einer "erneuten Prüfung" unterziehen würde. 

Demgemäß habe ich vergangene Woche den folgenden Brief an Oxburgh (an seine Oberhaus-E-Mail-Adresse wie auch an die in der Untersuchung benutzte E-Mail-Adresse) geschickt und auch in Kopie an zwei Mitglieder des Parlamentsausschusses, an zwei Journalisten und an den Muir Russel Untersuchungsausschuss.

Sehr geehrter Dr. Oxburgh,

Ich schreibe an Sie in Ihrer Eigenschaft als Vorsitzender des "Wissenschaftlichen Untersuchungsausschusses", der am 14. April 2010 über die unabhängige externe Untersuchung der wissenschaftlichen Erkenntnis der CRU berichtete, wie von der University von East Anglia im Februar 2010 angekündigt.

Ich habe aus verlässlicher Quelle erfahren, dass während eines der vom "Wissenschaftlichen Untersuchungsausschuss" durchgeführten Interviews Phil Jones (CRU) eingestand, dass es wahrscheinlich unmöglich wäre, auch nur mit einiger Genauigkeit diese [tausendjährigen] Temperaturrekonstruktionen zu machen.

Wenn man bedenkt, dass dies eine der umstrittensten, wenn nicht die allerumstittenste Frage überhaupt im Disput über die Wissenschaftliche Erkenntnis der CRU ist, scheint die Nichterwähnung durch den Wissenschaftlichen Untersuchungsausschuss so erheblich zu sein, dass sie den Untersuchungsbericht verfälscht.

Angesichts dessen fordere ich, dass Sie einen Zusatz nachfolgen lassen, der klar über Jones’ Aussage zur wahrscheinlichen Unmöglichkeit einer auch nur annähernd genauen tausendjährigen Rekonstruktion [der Temperaturgeschichte] berichtet.
Hochachtungsvoll,
Stephen McIntyre

Heute Morgen erhielt ich folgende bemerkenswerte Antwort:

Sehr geehrter Dr. Mcintyre,
Danke für Ihre Nachricht. Was Sie melden,  kann,  muss aber nicht wahr sein. Aber, wie  bereits kürzlich Ihnen gegenüber erwähnt, die wissenschaftliche Erkenntnis war nicht Gegenstand unserer Studie.

Hochachtungsvoll,
Ron Oxburgh

Das muss man sich auf der Zunge zergehen lassen. "die wissenschaftliche Erkenntnis war nicht Gegenstand unserer Studie". Wieso sollte man denn überhaupt erwarten, dass die wissenschaftliche Erkenntnis Untersuchungsgegenstand des "Wissenschaftlichen Untersuchungsausschusses" sein könnte? Dafür gibt es einen guten Grund. Die University of East Anglia und Muir Russell haben immer wieder betont, dass der wissenschaftliche Untersuchungsausschuss die wissenschaftliche Erkenntnis des [Klimaforschungsinstituts] CRU einer Prüfung unterziehen würde. 

Schauen Sie sich die erste Ankündigung der University of East Anglia vom 11. Februar unter der Überschrift an: 

"Erneute wissenschaftliche Überprüfung der Klimaforschungspublikationen angekündigt".

Dort heißt es: eine unabhängige externe Überprüfung der wissenschaftlichen Erkenntnis in den Schlüssel-Publikationen des Klimaforschungsinstituts der University of East Anglia ist angekündigt worden. Die Royal Society wird die Universität beim Benennen von Beisitzern mit der notwendigen Fachkenntnis, Unabhängigkeit und Reputation unterstützen. 

 "Von der CRU veröffentlichte Papiere sind dem strengen und eingehenden Fachbegutachungsprozess unterworfen gewesen, das ist der Eckstein zur Wahrung der Glaubwürdigkeit der Forschung," sagte Professor Trevor Davies, Vizekanzler der Universität und zuständig für Forschung, Betrieb und Personal. "Dieser Prozess und die Erkenntnisse unserer Forscher waren in den vergangenen Monaten einer beträchtlichen Debatte unterworfen. Kollegen in der CRU haben tatkräftig ihre Vorgehensweisen und ihre Veröffentlichungen verteidigt, und wir glauben, dass eine zusätzliche Überprüfung der wissenschaftlichen Erkenntnis selbst im Interesse aller Beteiligten liegt!

Oder Muir Russells Aussage auf der Pressekonferenz vom 11. Februar:

Unsere Aufgabe ist die wissenschaftliche Sorgfalt zu überprüfen, die Ehrlichkeit, die Offenheit und die gebotene Methodik der CRU, wie auch anderer Angelegenheiten in deren Aufgabenbereich … und die Einhaltung der Regeln. Es ist nicht unsere Aufgabe, die wissenschaftliche Erkenntnis der CRU zu überprüfen. Dazu würden andere Fähigkeiten und Kräfte benötigt. Die Universität erkennt den Bedarf einer derartigen Untersuchung an. Sie hat die Royal Society darum gebeten. Man hat entschieden, dass ein Ausschuss mit der Überprüfung der hauptsächlichen wissenschaftlichen Erkenntnisse der CRU beauftragt werden soll, mit Hilfe der Royal Society beim Finden und Benennen der Personen mit der nötigen Reputation, Expertise und Erfahrung, um dies durchzuführen.

Oder die Presseerklärung der Royal Society vom 11. Februar, in welcher Martin Rees sagte:

Es ist wichtig, dass die Leute höchstes Vertrauen in die wissenschaftlichen Erkenntnisse vom Klimawandel haben. Wenn berechtigte Zweifel über auch nur einen Teil der wissenschaftlichen Erkenntnis geäußert werden, muss dem nachgegangen werden – so wird in der Wissenschaft gearbeitet. Die Royal Society wird die University of East Anglia bei der Auswahl der unabhängigen Beisitzer zur Durchführung der Überprüfung beraten.

Oder den BBC-Bericht vom gleichen Tag:

Die Kommission wird aber nicht die vergangene Forschungsarbeit der CRU überprüfen, weil diese Überprüfung mithilfe einer von der University of East Anglia beauftragten Studie durchgeführt werden wird, wobei die Royal Society einer Beraterrolle einnimmt.

"Kollegen in der CRU haben eifrig ihr Verhalten und ihre Veröffentlichungen verteidigt, und wir glauben, dass es im Interesse aller Beteiligten ist, eine zusätzliche Untersuchung durchzuführen, welche die wissenschaftliche Erkenntnis selbst in Augenschein nimmt," wie Professor Trevor Davies sagte, Vizekanzler der Universität und zuständig für Forschung, Betrieb und Personal. 

Lord Rees, Präsident der Royal Society, sagte, dass es wichtig wäre, dass die Öffentlichkeit absolutes Vertrauen in die wissenschaftliche Erkenntnis vom Klimawandel hätte. "Wenn berechtigte Zweifel geäußert werden über irgendeinen Teil der wissenschaftlichen Erkenntnis, dann muss dem vollständig nachgegangen werden – so ist die wissenschaftliche Vorgehensweise," erläuterte er. "Die Royal Society wird die University of East Anglia bei der Auswahl unabhängiger Beisitzer für die Überprüfung beraten."

Oder die schriftliche Eingabe der University of East Anglia an den Parlamentsausschuss vom 25. Febr.: 

2.3 Parallel zu Sir Muir Russels Überprüfung haben wir uns für eine zusätzliche wissenschaftliche Bewertung der Schlüsselpublikationen der CRU entschieden; für eine externe Überprüfung der wissenschaftlichen Erkenntnis. Die Royal Society ist einverstanden, der Universität bei der Auswahl der Beisitzer mit der erforderlichen Erfahrung, Ansehen und Unabhängigkeit zu helfen.

Oder Muir Russells schriftliche Eingabe an den Parlamentsausschuss.

4. Der Aufgabe der [Muir Russell] Überprüfung enthält nicht den Auftrag zur Überprüfung der wissenschaftlichen Arbeit der CRU. Diese Überprüfung wird getrennt von der University of East Anglia beauftragt mit Unterstützung der Royal Society.

Oder Actons mündliche Aussage vor dem Parlamentsausschuss:

Was die wissenschaftliche Erkenntnis selbst betrifft, habe ich dort keine Anzeichen von irgendwelchen Fehlern bemerkt, aber ich hoffe, dass ich am Ende der Woche den Vorsitzenden eines Untersuchungsausschusses benennen kann, welcher die wissenschaftliche Erkenntnis begutachten und sicher stellen wird, dass da nichts falsch ist.

Oxburgh hat das Eingeständnis von Jones weder bestätigt noch in Abrede gestellt. Unglücklicherweise gibt es keine Aufzeichnung der Befragung von Jones, weil Oxburgh sich über die Empfehlung des Parlamentsausschusses hinweggesetzt hat, die besonders betonte, dass bei der Untersuchung Öffentlichkeit hergestellt werden müsste, um Akzeptanz für das Ergebnis zu erreichen. Oxburgh aber hat auf die Empfehlung des Parlamentsausschusses gepfiffen, indem er weder schriftliche Stellungnahmen, noch Aufzeichnungen von Befragungen, ja noch nicht einmal Notizen anfertigen ließ. Umso schlimmer, dass zumindest einer der Kommissionsmitglieder seine eigenen Befragungsaufzeichnungen bereits vernichtet hat.

Oxburgh sagt, – trotz aller öffentlichen Aussagen der Universität, auch gegenüber dem Parlament in Presseveröffentlichungen und der Bekundung gegenüber dem Parlamentsausschuss von der Pflicht zur "Überprüfung" der wissenschaftlichen Erkenntnisse der CRU – dass "die wissenschaftliche Erkenntnis" nicht Gegenstand seiner "Überprüfung" gewesen wäre.

Angesichts aller gegenteiligen Aussagen gegenüber der Öffentlichkeit und dem Parlament würde man doch erwarten, dass Oxburgh als Vorsitzender der Untersuchung eine klare und schriftliche Aufgabenbeschreibung gehabt hätte, die anders war, als in der Öffentlichkeit und gegenüber dem Parlament behauptet. Und dann auch noch Oxburgh, der bei allen Rätselhaftigkeiten und Ungereimtheiten sagte, seine Aufgabenbeschreibung wäre "mündlich" erfolgt. (Wer hat schon einmal etwas von "mündlichen" Aufgabenbeschreibungen gehört?)

Doch kommen wir noch einmal zu Jones Eingeständnis zurück, dass es "wahrscheinlich unmöglich wäre, auch nur einigermaßen genau eine tausendjährige Temperaturrekonstruktion zu erstellen." Diese Information habe ich aus erster Hand. Wenn sie stimmt, wäre sie ein wichtiges Eingeständnis angesichts der Aussagen des IPCC und anderer, dass man den Spaghetti-Schnörkeln vertrauen könnte. Die Gültigkeit der Information muss festgestellt werden – vielleicht kann ein Mitglied des Oxburgh-Ausschusses dies gegenüber Reportern bestätigen. Vielleicht gibt Jones es selbst zu.

Möglich, dass sich der parlamentarische Untersuchungsausschuss erneut treffen könnte, um herauszubekommen, was zum Teufel in der Oxburgh-"Untersuchung" vorging.

Stephen McIntyre in Climateaudit

Übersetzt von Helmut Jäger EIKE




Der „Weltklimarat“ IPCC verspricht: Der nächste Bericht wird noch alarmistischer

Diese neuen Daten werden im nächsten Assessment Report des IPCC – welches von Regierungen und wissenschaftlichen Institutionen als das Basisdokument zur Klimaänderung betrachtet wird – berücksichtigt und dürften zu einer Korrektur nach oben bzgl. des zu erwartenden Anstiegs des Meeresspiegels führen, erklärte Professor van Ypersele.

Der geschätzte Anstieg des Meeresspiegels im aktuellen Bericht des IPCC, veröffentlicht im Jahre 2007, war eher auf der niedrigeren Seite. Dieser Bericht nannte einen Anstieg zwischen 18 und 59 cm über das Niveau von 1990 bis zum Jahre 2100.

Mitglieder des IPCC trafen sich letzte Woche in Kuala Lumpur, um die Auswirkungen der Daten aus Grönland und der Antarktis für den nächsten Bericht zu diskutieren – dem fünften. Analysen des Ausmaßes des Eisverlustes in den beiden bedeutenden Eisfeldern werden im Fokus des Berichts stehen.

“Der Grund für das Treffen in KL war, dass das IPCC sehr gut weiß, eine wie große Aufmerksamkeit dieses Thema braucht, zu dem es viele Fortschritte gab,“ sagte Professor van Ypersele.

Neue Satellitenbeobachtungen “beginnen zu zeigen – aber das schon sehr überzeugend, muss ich sagen – dass sowohl der Eisschild Grönlands als auch der der Antarktis an Masse verlieren, nicht an den Rändern, sondern als Eisschild als Ganzes,” sagte er.

“Dies sind neue Daten, dies sind neue Entwicklungen und neue Methoden, welche es dem IPCC ermöglichen, hinsichtlich des Anstiegs des Meeresspiegels Zahlen zu präsentieren, die fast unvermeidlich höher ausfallen als im letzten Bericht.“

Das IPCC hat außerdem bekannt gegeben, dass es 850 Wissenschaftler verpflichtet hat, die am nächsten Bericht arbeiten sollen, doppelt so viele wie zuletzt.

Professort van Ypersele besucht Australien wegen der weltweit ersten Konferenz zur Anpassung an den Klimawandel, die an der Goldküste mit fast 1000 Delegierten stattfindet.

“Klimaanpassung” meint Vorbereitung auf Veränderungen der Umwelt, die es selbst dann geben wird, wenn das Ausmaß der globalen Erwärmung durch die Begrenzung von Emissionen begrenzt werden kann.

Die Ministerin für die Klimaänderung Penny Wong erklärte in der Konferenz, dass die Wissenschaft im Mittelpunkt zur Neubildung eines Konsens’ zur Klimaänderung steht, die es der Premierministerin Julia Gillard zufolge geben muss, bevor es in Australien ein Zertifikatehandel geben kann.

Martin Parry, der Mitherausgeber des zweiten Kapitels im vierten Assessment – Report, sagte in der Konferenz, er würde harte Entscheidungen treffen müssen darüber, wie man sich vor einer sogar nur moderaten Klimaänderung schützen könnte.

Die Welt hat 100 Milliarden Dollar bis zum Jahr 2020 bereit gestellt, um Entwicklungsländern zu helfen, ihren Kohlendioxidausstoß zu reduzieren. Professor Parry sagte, dass 50 Milliarden davon für die Anpassung an Klimaänderungen gedacht waren, aber „es gibt einen Graben zwischen dem, was uns möglich wäre zu tun, hätten wir Zeit und Geld, und den tatsächlichen Bemühungen, die auf dem Tisch liegen“.

von Tom Arup, The Sydney Morning Herald, 30 June 2010

Anmerkung des Herausgebers: Der Prozess zur Erstellung des fünften Berichts des IPCC hat noch nicht einmal begonnen – aber der Vize des IPCC, Jean-Pascal Ypersele, weiß jetzt schon, was herauskommt. Da ist es kein Wunder, dass viele Regierungen der Welt das Vertrauen in das IPCC verloren haben und seinen Ratschlägen nicht mehr folgen. BP

Source: The Age

Environmental Business News Green Living 

Übersetzt von Chris Frey

Kommentar dazu von Benny Peiser: 

The review process for the IPCC’s Fifth Assessment Report (AR5) has not even started yet – but the IPCC’s vice-chairman Jean-Pascal van Ypersele has already announced its likely outcome. No wonder governments around the world have lost trust in the IPCC and no longer follow its advice. –Benny Peiser, 30 June 2010

 Kommentar von EIKE. "That´spolitical Science"




EEG-Das dicke Ende kommt noch: Musterklage gegen RWE wegen Nachforderungen für Ökostromkosten!

Das Handlsblatt schreibt: 

Der Berliner Energiedienstleister Ampere hat wegen hoher Nachzahlungen für Ökostrom eine Musterklage gegen den Energiekonzern RWE eingereicht. Der Versorger rechne erst jetzt die gesetzliche Umlage aus dem Jahr 2008 ab, begründete Ampere-Chef Dietmar Polster im "Handelsblatt" (Freitag) die Klage vor dem Dortmunder Amtsgericht. Dies sei zu spät. RWE wies den Vorwurf zurück. Das Unternehmen sehe der Klage gelassen entgegen, sagte ein Sprecher der Zeitung. RWE gebe lediglich die im Erneuerbare-Energien-Gesetz (EEG) festgelegten Kosten an die Kunden weiter.rechne erst jetzt die gesetzliche Umlage aus dem Jahr 2008 ab, begründete Ampere-Chef Dietmar Polster im "Handelsblatt" (Freitag) die Klage vor dem Dortmunder Amtsgericht. Dies sei zu spät. RWE wies den Vorwurf zurück. Das Unternehmen sehe der Klage gelassen entgegen, sagte ein Sprecher der Zeitung. RWE gebe lediglich die im Erneuerbare-Energien-Gesetz (EEG) festgelegten Kosten an die Kunden weiter.

Laut "Handelsblatt" gehen bei Unternehmen derzeit tausendfach Nachforderungsbescheide zu Stromrechnungen ein. Die Beträge schwankten von wenigen Hundert Euro bis hin zu sechsstelligen Summen. Insgesamt verlangten die Stromkonzerne mit Verweis auf das Öko-Gesetz nachträglich bis zu eine halbe Milliarde Euro, schreibt die Zeitung unter Berufung auf Experten. Mit einer solchen Kostenlawine habe in der Industrie niemand gerechnet.

Ampere stützt sich in seiner Klage auf das seit 2009 gültige neue EEG-Gesetz. Darin ist erstmals eine Frist enthalten, bis zu der Ansprüche geltend gemacht werden müssen. Bis zum 30. November des Folgejahres müssen die Elektrizitätsunternehmen die Kosten abrechnen. RWE wiederum verweist darauf, dass es nicht möglich sei, das neue Gesetz auf frühere Fälle anzuwenden. Zudem gebe es Übergangsregelungen und individuelle Vereinbarungen, sagte ein Sprecher dem Blatt.

Die Stromkonzerne reichen die gesamten Kosten von Sonnen-, Wind-, und Bioenergie an ihre Kunden weiter. Dazu sind sie laut dem von der früheren rot-grünen Bundesregierung verabschiedeten Erneuerbare-Energien-Gesetz berechtigt. Dass die Nachforderung so spät kommt, hängt damit zusammen, dass die genaue Menge des erzeugten Ökostroms erst im Nachhinein feststeht. Sonne und Wind erzeugen unregelmäßig Strom. Die genauen Kosten für die Förderung werden daher erst später sichtbar.

Wegen des Booms beim Ausbau vor allem der Solarenergie in Deutschland steigen die Kosten rasant an. In diesem Jahr rechnet der Energieverband Bdew mit einer EEG-Umlage von 8,2 Mrd. Euro, das wäre doppelt so viel wie 2008. vor diesem Hintergrund hat sich in der laufenden Diskussion über die Kürzung der Solarförderung etwa auch die Verbraucherzentrale für starke Einschnitte ausgesprochen. An diesem Montag will der Vermittlungsausschuss aus Bundestag und Bundesrat einen Kompromiss vorschlagen. Die Bundesregierung will die Vergütungssätze für Dachanlagen um 16 Prozent und für Solarparks um elf Prozent senken. Dagegen laufen die Solarunternehmen Sturm. Sie fürchten eine Pleitewelle und einen Verlust von Arbeitsplätzen bei einer massiven Förderkürzung.

Den Originalartikel finden Sie hier

Weil offensichtlich immer noch nicht genügend Geld vom Verbraucher abkassiert wird, fürchtet die Solarbranche eine Dämpfung und bemüht vorsichtshalber schon mal ihr baldiges Ende. So schreibt der Solarenergie-Förderverein Deutschland e.V. (SFV)  svf in einer Rundmail vom 1.7.10 : 

Todeskampf der Photovoltaik in Deutschland

1. Todeskampf der Photovoltaik in Deutschland

Torschlusspanik und Ende der Kleinanlagen

Seit 1.1.2009 erhalten nur noch Solarstromanlagen, die der
Bundesnetzagentur gemeldet worden sind, die Einspeisevergütung nach EEG.
Die Datenmeldungen an die Bundesnetzagentur sind deshalb die
zuverlässigste Quelle, aus der sich Fortgang oder Verzögerungen im
Ausbau der PV in Deutschland belegen lassen.

Die auf der Internetseite der Bundesnetzagentur veröffentlichten
PV-Datenmeldungen – durch den SFV in eine Graphik umgesetzt – zeigen ein
erschütterndes Bild.

Zunächst einmal erkennt man deutlich, dass bereits die "regulären"
Absenkungen der Einspeisevergütungen zum Jahreswechsel 2008/2009 (um
5 bis 6,5 Prozent) sowie 2009/2010 (um 8 bis 10 Prozent) erheblich zu
hoch ausgefallen sind. Der Grund für den jeweiligen Einbruch in der
Nachfrage ist bekannt: Beim Übergang von einem Jahr in das nächste
verlängert sich zwar die Laufzeit der Einspeisevergütung um fast ein
Jahr (5 Prozent) aber die Vergütung selbst sinkt um mehr als 5 Prozent.
Würde die Vergütung um weniger als 5 Prozent sinken, so würden sich
Verlängerung der Vergütungsdauer einerseits und Absenkung der
Vergütungshöhe andererseits in etwa ausgleichen und die jeweilige
Torschlusspanik zum Stichtag der Absenkung würde ausbleiben.

An der Höhe des Balkens im Dezember 2009 erkennt man die
Leistungsfähigkeit der deutschen Installationsbetriebe. 1450 MW wurden
in einem einzigen Monat, sogar in einem Wintermonat, installiert! Doch
diese Leistung soll nach dem Willen von Schwarz/Gelb zukünftig mit 16
Prozent weniger Vergütung und ab Januar 2011 sogar mit 16% + etwa 10%  =
26 Prozent weniger Vergütung erzielt werden. (Vielleicht sollten die
Diäten der Bundestagsabgeordneten, die in namentlicher Abstimmung für
diese Entscheidung gestimmt haben, um den selben Prozentsatz gekürzt
werden.)

Besonders bedrückend ist das deutliche Zurückbleiben der "kleinen
Anlagen". Der SFV hat als typische Anlagengrößen die Anlagen bis 5 kWp
sowie die Anlagen über 5 kWp bis 10 kWp aus den Statistiken gesondert
berücksichtigt. Die erstere Größe passt auf ein Reihenhausdach, die
zweite Größe auf ein größeres Einfamilienhaus. Diesen Kleinanlagen
stehen die mittleren und großen Anlagen gegenüber, die hier nicht weiter
nach Größen klassifiziert wurden.

Die Graphik zeigt das Problem der Kleinanlagen aus
"produktionstechnischer Sicht" bzw. aus Sicht der Solarinstallateure.
Sie zeigt, welch geringer Anteil der neu installierten Solarmodule
überhaupt noch auf Einfamilienhäusern verbaut wurden.

Die zweite Graphik zeigt schließlich aber auch noch das Problem aus
"sozialer Sicht". Wer hat Anlagen gebaut? Sie zeigt, wie wenige
Einfamilienhausbesitzer überhaupt noch Solaranlagen auf ihre Dächer
gebaut haben. Der Grund für das Zurückbleiben der kleinen Anlagen liegt
zweifellos in der Tatsache begründet, dass bei den Kleinanlagen bereits
seit Januar 2009 die Einspeisevergütung nicht mehr ausgereicht hat, die
Kosten für die Errichtung der Anlagen zu decken.