1

Windenergie ist eine völlige Katastrophe!

Flemming Nissen, der Leiter der Entwicklung im westdänischen Energieversorgungs-Unternehmen ELSAM – eins der größten dänischen EVU – sagte uns, dass „Windkraftanlagen die Kohlendioxid-Emissionen nicht verringern.“ Die deutschen Erfahrungen sind nicht anders: Der SPIEGEL berichtete, dass „Deutschlands CO2-Emissionen um nicht einmal ein einzelnes Gramm reduziert wurden“ und dass zusätzliche Kohle- und Gaskraftwerke gebaut wurden, um eine zuverlässige Lieferung zu gewährleisten.

Tatsächlich zeigt die jüngste wissenschaftliche Forschung, dass die Windkraft die Treibhausgasemissionen in einigen Fällen sogar erhöhen kann – abhängig von der Kohlenstoff-Intensität der Stütz- bzw. Backup-Kraftwerke, die wegen der unregelmäßigen Leistungs-Charakteristik der Windanlagen benötigt werden.

Auf der Negativseite der Umweltbilanz stehen auch die Auswirkungen der industriellen Windturbinen auf Vögel und andere Wildtiere, Nutztiere und  Feuchtgebiete.

Industrielle Windenergie ist keine sinnvolle Alternative zu anderen Möglichkeiten der Energieeinsparung. Wiederum sind hier die dänischen Erfahrungen lehrreich. Die dortigen Stromerzeugungskosten sind die höchsten in Europa (15 Cents pro KWh verglichen mit Ontario´s gegenwärtigen 6 Cents). Niels Gram vom dänischen Industrieverband sagt „Windmühlen sind ein Fehler und machen wirtschaftlich keinen Sinn.“ Aase Madsen, der Vorsitzende für Energiepolitik im dänischen Parlament, nennt es „eine furchtbar teure Katastrophe.“

Die US-Energie-Informations-Administration berichtete 2008, auf der Berechnungsgrundlage von Dollar pro Megawattstunde (MWh), dass die US-Regierung Wind mit 23,34 $ subventioniert – verglichen mit zuverlässigen Energiequellen wie Erdgas mit 25 Cent, Kohle mit 44 Cent, Wasserkraft mit 67 Cent und Kernkraft mit 1,59 $, was einige US-Kommentatoren einen „großen Sozialhilfe-Speisungs-Wahnsinn“ nennen. Das Wall Street Journal konstatiert, dass „Windenergie das Musterbeispiel dafür ist, was schief gehen kann, wenn die Regierung beschließt, Gewinner auszuwählen.“

Die Zeitschrift The Economist stellt kürzlich in einem Leitartikel mit dem Titel „Geldverschwendung für den Klimawandel“ fest, dass jede Tonne an Emissionen, die durch Subventionen in Erneuerbare Energien wie die Windkraft vermieden wurde, zwischen 69 $ und 137 $ kostet, wohingegen unter einem cap-and-trade-Modell (Emissionshandel) dieser Preis geringer als 15 $ wäre.

Sowohl eine Kohlenstoffsteuer als auch ein cap-and-trade-System schafft Anreize für Konsumenten und Hersteller mit Tausenden von Spielräumen für die Reduzierung von Energieverbrauch und Emissionen, die – wie diese Zahlen zeigen – bezüglich ihrer Kosteneffizient alle Subventionen in Erneuerbare geradezu überwältigen.

Die Ontario Power Authority (Energiebehörde) rät dazu, den Windkraft-Erzeugern 13,5 Cents/KWh zu zahlen (mehr als das Doppelte, was die Verbraucher gegenwärtig zahlen), wobei noch nicht einmal die zusätzlichen Verbindungs- und Übertragungskosten und die Kosten für die Backup-Reserve dabei sind. Wie die europäischen Erfahrungen bestätigen, wird das unvermeidlich zu einer dramatischen Erhöhung der Elektrizitätskosten führen – mit den sich daraus ergebenden negativen Auswirkungen auf Wirtschaft und Beschäftigung. Aus dieser Perspektive ist das Versprechen der Regierung von 55.000 neuen Arbeitsplätzen eine grausame Wahnvorstellung.

Eine neuere detaillierte Analyse (mit Schwerpunkt vor allem auf Spanien) stellt fest, dass für jeden Job, der durch staatliche Förderung für Erneuerbare geschaffen wurde – insbesondere Windenergie – 2,2 Jobs vernichtet werden. Jede so in der Windindustrie geschaffene Job kostet fast 2 Millionen $ an Subventionen. Weshalb sollten die Erfahrungen in Ontario anders sein ?

In den Debatten über den Klimawandel und insbesondere über Subventionen für Erneuerbare Energien gibt es zwei Typen von Grünen. Einerseits gibt es etliche Umwelt-Grüne, die das Problem als derart dringend ansehen, sämtliche Maßnahmen, die irgendeine Wirkung auf die Treibhausgas-Emissionen haben, sofort in Angriff genommen werden sollten – gleichgültig, was deren Kosten oder ihre Auswirkung auf die Wirtschaft und den Arbeitsmarkt auch sind.

Dann gibt es die fiskalischen Grünen, die sich nicht für Kohlenstoffsteuern und cap-and-trade-Systeme interessieren, statt dessen aber massive öffentliche Subventionen für sich selbst bevorzugen – für Erneuerbare-Energie-Projekte, welche Auswirkungen auf die Treibhausgas-Emissionen diese auch hätten. Diese beiden Gruppen werden also durch unterschiedliche Formen von Grün motiviert. Der einzige Konvergenzpunkt zwischen ihnen ist ihre Unterstützung für massive Subventionen für Erneuerbare Energien – wie Windturbinen.

Diese unheilige Allianz der zwei Sorten von Grünen (Weltuntergangspropheten und Gewinninteressierte) sorgt für eine sehr effektive, auch opportunistische Politik (wie sie im Green Energy Act (Gesetz) der Ontario-Regierung zum Ausdruck kommt), aber zugleich auch für eine lausige staatliche Politik: Politiker versuchen, auf unsere Kosten Gewinner in einer sich schnell bewegenden technologischen Landschaft auszuwählen und zu bestimmen, anstatt eine gesellschaftlich effiziente Reihe von Anreizen zu schaffen, auf die wir alle reagieren können.

Quelle: Financial Post, Don Mills, Ontario, Canada. Die Übersetzung besorgte dankenswerterweise Dr. Günter Keil für EIKE

           Michael J. Trebilcock ist Professor für Recht und Ökonimie,

           Universität von Toronto.

           Veröffentlicht am 8. April 2009.

* Aktuelles Update FTD vom 17.3.10 Emissionshandel: Skandal legt Emissionshandel lahm

** man benötigt realistischerweise 100 %, wenn die Stromversorgung sicher sein soll. 50% würden nur reichen, wenn man Glück hat und bei Windstille zufällig Schwachlast wäre. Prof. Alt (s. auch pdf Anlage)

Related Files




Warum regenerative Energien in Deutschland keine Zukunft haben!

Schaut man sich nur den Stromanteil an, so werden ca. 15% des Strombedarfes in Deutschland durch die EE gedeckt. Davon ca. 0,003% aus Erdwärme, 0,6% aus Photovoltaik, 3,4% aus Wasserkraft, 4,2% aus Biomasse und 6,6% aus Windenergie.

Vor allem die Photovoltaik- und Windkraftanlagen werden derzeit in Deutschland stakt beworben und ausgebaut. Hier besteht das größte Potential, zumindest, wenn man den Versprechungen der Werbung und den laufenden Kampagnen glauben schenkt.

Biomasse und Wasserkraft sind weitgehend ausgebaut. Der Ausbau der Biomasse ist alleine durch die landwirtschaftlichen Flächen sehr beschränkt und die Flüsse sind weitgehend ausgebaut, so dass hier keine großen Steigerungsraten zu erwarten sind. Wie sieht es mit der Erdwärme aus? Nur wenige Standorte in Deutschland sind für Erdwärmeprojekte geeignet, u.a. der obere Rheingraben und Standorte in Süddeutschland. Zudem muss man in Deutschland sehr tief bohren – einige Kilometer – um eine Temperatur von über 100°C zu erreichen, was die Sache sehr ineffektiv und zugleich unwirtschaftlich macht.

Es bleiben also die Photovoltaik und die Windkraft. Für Photovoltaikanlagen stehen noch genügend Flächen zur Verfügung, bei der Windkraft sieht das anders aus. Hier setzt man vor allem auf das so genannte Repowering, dabei werden alte Anlagen durch neuere, leistungsfähigere Anlagen ersetzt. Zudem gibt es noch Ausbaupotential im Meer. Aber auch das ist begrenzt. Zudem sind die negativen Auswirkungen auf den Menschen und die Umwelt zu berücksichtigen, wie z.B. Schallbeeinträchtigung (durch Infraschall), Schattenschlag, Vogelschlag, etc..

Wie bedarfsgerecht produzieren Photovoltaik- und Windkraftanlagen den Strom?

Derzeit ist eine Speicherung von Strom, jedenfalls im großen Umfang, nicht möglich. Zudem ist die Speicherung von Strom sehr teuer. Daher wird der Strom immer bedarfsgerecht produziert. Überkapazitäten und Unterkapazitäten müssen also ausgeglichen werden.

Zur Photovoltaik:
 Schaut man sich die Globalstrahlung, darunter versteht man die gesamte an der Erdoberfläche auf eine horizontale Empfangsfläche auftreffende Solarstrahlung an, so zeigen sich starke jahreszeitliche und tägliche Schwankungen. Als Beispiel habe ich Wasserkuppe gewählt, eine zentrale Erhebung in Deutschland.

Moderne Photovoltaikzellen erreichen in etwa einen Wirkungsgrad von 10 – 20 %. Also nur 10 – 20 % der eingestrahlten Leistung werden in Strom umgesetzt.

In der Nacht ist es dunkel. Es wird kein Strom produziert. Im Winter sinkt die solare Verfügbarkeit beträchtlich ab. Hier ist der Bedarf aber ausgerechnet am größtem. Im Sommer steigt die solare Verfügbarkeit beträchtlich an. Hier ist der Bedarf aber am geringsten. Das gilt übrigens auch für Solarthermieanlagen. Bedarf und Verfügbarkeit stehen also genau im entgegengesetzten Verhältnis zueinander.

Zur Windenergie: Bei der ins Stromnetz eingespeisten Windenergie sieht es nicht wesentlich anders auf. Als Beispiel zeige ich die bei transpower (Tochtergesellschaft von E.ON) eingespeiste Windenergie im Jahre 2009.

Die 15. minütigen Mittelwerte der eingespeister Windenergie zeigen Schwankungen zwischen ca. 0 – 8.000 MW. D.h. die eingespeiste Leistung kann innerhalb von kürzester Zeit um mehrere tausend MW schwanken. Diese Schwankungen richten sich natürlich nicht nach dem Bedarf der Stromkunden. Entweder wird zu wenig Strom produziert, oder aber zu viel. Je nachdem, wie der Wind weht. Der Bedarf der Stromkunden muss also durch Regelkraftwerke ausgeglichen werden. Je weiter die Windenergie ausbaut wird, desto schwerer fällt es diese Schwankungen zu kompensieren. Immer leistungsfähigere Regelkraftwerke müssen her. Bisher können das nur konventionelle Kohle-, Gas-, oder Kernkraftwerke kompensieren, so genannte Schattenkraftwerke, die hinter jedem Windpark stehen müssen. Der Verschleiß ist durch das ständige hoch und runter fahren hoch.

Die Folgen

Der Strom aus den konventionellen Kraftwerken wird immer teurer, u.a. da nicht mehr mit Volllast produziert werden kann, sondern gedrosselt produziert werden muss, je nachdem wie viel Windstrom gerade eingespeist wird. Je weniger Strom die konventionellen Kraftwerke einspeisen können, desto länger dauert es, ehe sie sich bezahlt machen, oder desto höhere Preise muss man für den eingespeisten Strom verlangen, damit sich die Kraftwerke in gleicher Zeit bezahlt machen. Hinzu kommen die Kosten für Emissions-/ CO2-Zertifikate. Das führt dazu, dass Kohlekraftwerke unwirtschaftlich werden. Neubauten von effizienteren Kohlekraftwerken, die alte, emmisionsstarke Kohlekraftwerke ersetzen, werden dadurch verhindert. Diese Entwicklung erleben wir gerade. Das führt langfristig gesehen zu Versorgungslücken, die letztendlich über das Ausland abgedeckt werden müssen. Damit wird der Strom allerdings noch teurer.

Fazit: Schon jetzt wird der Strom aus EE hoch subventioniert. Über das Erneuerbare Energien Gesetz (EEG) werden die Abnahme und ein Festpreis für Strom aus EE gesetzlich garantiert. Die überhöhten Preise werden als so genannte Umlage an die Stromkunden, also an Sie, weiter gegeben.

Die Energiekosten werden mit den Ausbau der EE weiter steigen. Zum Einen sinken die Produktionskosten für EE nicht so schnell wie erwartet. Zum Anderen verdrängen die EE durch die staatlichen Subventionen, die garantierte Abnahme und durch CO2-Zertifikate die konventionellen Kraftwerke, bzw. machen den Strom aus konventionellen Kraftwerken unwirtschaftlich, teurer und/ oder zusätzliche Strom-Importe erforderlich.

Auf kurz, oder lang müssen wir weg von den konventionellen Energien, die Rohstoffe sind begrenzt. Dazu eignen sich aber weder die Windkraft noch die Photovoltaik, noch die anderen EE in Deutschland. Es gibt weder die notwendigen Energiespeicher, um eine Versorgungssicherheit zu garantieren, noch genügend Ressourcen um eine Vollversorgung durch EE zu garantieren. Vielfach fallen in diesem Zusammenhang die Worte Kombilösung und Energieeffizienz. Eine Kombination aus verschiedenen EE kann Energielücken schließen, diese aber auch erzeugen. Man denke nur an Flauten, lange Winternächte, Ernteausfälle bei Biomasse, etc. die zusammenfallen. Zudem sind wir in Deutschland derzeit weit weg von Energieeffizienz. Der Stromverbrauch steigt von Jahr zu Jahr, trotz der Einführung energiesparender Geräte. Lediglich die Wirtschaftskrise hat im letzten Jahr zu einer geringfügigen Abnahme des Stromverbrauches geführt. Man bedenke, die steigenden Energiepreise gehen vor allem auf Kosten der Kleinverdiener.

Was bringen EE für das Klima?

Trotz Solar- und Windenergie-Booms wird in Europa kein Gramm CO2 eingespart. Denn für jedes neue Windrad in Deutschland darf in Osteuropa mehr Kohle verfeuert werden. Schuld daran ist ausgerechnet die Klimapolitik der Europäischen Union: Denn der EU-weite Emissionshandel legt die Gesamtmenge an CO2 fest, die Stromkonzerne und Industrie ausstoßen dürfen. Und diese Menge ist unveränderlich – egal wie viele Windräder errichtet werden.

Was würden die EE für das Klima bringen, wenn der Emissionshandel nicht wäre?

Maximal 0,002 °C (ZWEI TAUSENDSTEL GRAD) sind der deutsche Beitrag am Klimaschutz, welcher durch die geplanten Reduktionen bis 2020 den Berechnungen nach erreicht werden könnte. Eine Fortführung bzw. Verschärfung der deutschen Reduktionen nach 2020 würde einen weiteren Beitrag im TAUSENDSTEL BIS HUNDERTSTEL GRAD BEREICH leisten. Dieser wird uns weitere Milliarden kosten.

Michael Krüger. Der Beitrag erschien zuerst bei Science Sceptical 

Nachtrag: Die ersten Vernünftigen scheinen sich jetzt an die Öffentlichkeit zu wagen. Gerade wird berichtet, dass die Indianapolis Power and Light Company ihren Vertrag mit der französischen EDF Energies Nouvelles zum Bezug von Windstrom gekündigt hat. Wieder mal sind die Amerikaner sachlicher und rationaler als wir. Details dazu hier

Datenquellen

Wetterdaten Wasserkuppe

transpower Windenergieeinspeisung

ÄHNLICHE BEITRÄGE (BETA):




Warum es Erdgas künftig im Überfluss gibt!

Update vom 21.3.10 : Scientists find way to make cheap gas from coal

Die Nachricht ging fast unter, sie sah aus wie eine kleine Fußnote in der Geschichte zweier ewiger Rivalen: Mitte Januar gab das amerikanische Energieministerium bekannt, dass die USA im vergangenen Jahr Russland als weltgrößten Erdgasproduzenten abgelöst haben.

Doch hinter dem nüchternen Befund steckt mehr. Viel mehr. Er ist ein erster Indikator dafür, dass sich das Kräfteverhältnis an den globalen Gasmärkten verschiebt. Und das damit verbundene politische Machtgefüge gleich mit.

Bisher gehorchte der internationale Gashandel einer einfachen Mechanik: Steigt die Nachfrage und wird das Angebot knapp, nimmt die Macht großer Förderstaaten wie Russland und Norwegen zu. In schöner Regelmäßigkeit folgen daraufhin die politischen Panikreflexe: Die Nato entwirft Bedrohungsszenarien, die darlegen, welch geostrategisches Gefahrenpotenzial von Russland ausgeht. Und die Europäer zerbrechen sich den Kopf, wie sie sich aus der Abhängigkeit von russischem Gas befreien können.

Ein technischer Durchbruch könnte diesen Automatismus jetzt außer Kraft setzen. Immer mehr Spezialfirmen vor allem in Amerika bohren nach sogenanntem nichtkonventionellem Erdgas – Gas also, das in dichten Ton- und Schieferschichten eingelagert ist.

Die Bergung dieser Vorkommen ist aufwendig. Die Bohrungen müssen erst vertikal tief in die Erde getrieben werden, um dann horizontal zu den Lagerstätten vorzudringen. Anschließend wird das Gestein hydraulisch aufgebrochen (siehe Grafik auf Seite 2). Doch dank der hohen Gaspreise ist diese teure Fördertechnik inzwischen konkurrenzfähig. Und die Funde übertreffen alle Erwartungen.

Mehr als die Hälfte der nachgewiesenen Erdgasreserven der USA entfallen bereits auf nichtkonventionelles Gas. Das Potential Gas Committee der Colorado School of Mines, einer führenden geowissenschaftlichen US-Universität, hob seine Schätzungen über die amerikanischen Gasressourcen jüngst um mehr als ein Drittel an: auf 58?800 Milliarden Kubikmeter.

Die Experten überbieten sich geradezu mit feierlichen Kommentaren. Eine "stille Revolution" nennt Fatih Birol, Chefvolkswirt der Internationalen Energieagentur (IEA), die neuen Fördermöglichkeiten. Daniel Yergin, der Guru der Energieanalysten, spricht von der "wichtigsten Energieinnovation des Jahrzehnts".

Lesen Sie den ganzen aufsehenerregenden  Text in der Dateianlage, oder direkt bei Capital hier oder PI hier

Related Files




Liberale Kampfansage an FDP-Klimapolitik! Ein offener Brief an Michael Kauch, umweltpolitischer Sprecher der Bundestagsfraktion; Autorin: Heide-Marie Rasch

Sehr geehrter Herr Kauch,

die von Ihnen als umweltpolitischer Sprecher der FDP-Bundestagsfraktion betriebene Politik erweist sich als ganz anders, als ich es vor der Bundestagswahl erwartet habe. Ich weiß, dass viele Wähler sich in ihren Erwartungen ebenso getäuscht sehen wie ich. Die FDP hat bei den letzten Bundestagswahlen einen großen Erfolg erzielt, weil sie als einzige Partei im Wahlkampf einen Politikwechsel in Richtung auf mehr Freiheit versprochen hat. Ihre Wähler erwarten eine entschiedene liberale Alternative zu der bevormundenden Politik der letzten Jahrzehnte. Diesen Erwartungen wurde die FDP in den ersten Monaten ihrer neuen Regierungsbeteiligung überwiegend nicht gerecht. Der dramatische Rückgang in der Zustimmung zu ihr zeigt die Enttäuschung vieler Menschen. Einen maßgebenden Anteil an dieser negativen Entwicklung haben Sie als der führende Umweltpolitiker der FDP-Bundestagsfraktion zu verantworten. Ihre Klimapolitik ist in Zielsetzung und Methodik nicht von jener der staatsdirigistischen Parteien CDU/CSU/SPD/Grüne/Linke zu unterscheiden.

Nun muss die FDP als die kleinere Partei in der Koalition sicher manch schmerzhaften Kompromiss eingehen. Aber von Ihnen hat man den Eindruck, dass Sie die grüne Politik aus eigener Überzeugung zur Gänze übernehmen, wie es zum Beispiel Ihr Eintreten für eine 40%ige Reduktion der Kohlendioxidemissionen bis 2020 zeigt, wobei Sie dieses Ziel „ohne Wenn und Aber“ verfolgen, wie Sie in einer Bundestagsrede erklärt haben. Dieses von Ihnen vehement verfolgte Minderungsziel liegt erheblich über der bereits hohen EU-Reduktionsvorgabe, die weltweit gesehen schon einen selbstgewählten klimapolitischen Alleingang darstellt. Die von Ihnen angestrebte deutsche Vorreiterrolle fügt der Wirtschaft schweren Schaden zu und macht alle Bürger, mit Ausnahme einiger weniger politisch auserkorener Profiteure, ärmer.

Das erweist sich in dem von Ihnen befürworteten EU-Emissionshandelssystem, das in der gegenwärtigen Ausbaustufe 45% des gesamten Kohlendioxid-Ausstoßes der EU erfasst. Um die ehrgeizigen deutschen Minderungsziele zu erfüllen, werden die Elektrizitätsversorgungsunternehmen vom Staat gezwungen, Solarstrom zu 700% und Windstrom zu 80% über dem Großhandelspreis zu bezahlen und vorrangig ins Netz aufzunehmen. Auf diese Weise verdrängt die teure erneuerbare Energie in Deutschland den preiswerten Strom aus fossilen Energiequellen, was zur Folge hat, dass die deutschen EVUs ihre nicht genutzten Emissionsrechte an der Börse an Unternehmen aus anderen EU-Ländern verkaufen können, was dort zu zusätzlichen Emissionen führt. Letztendlich bewirkt diese Politik, dass alle deutschen Stromkäufer, unabhängig von ihrem Einkommen, über höhere Strompreise gezwungen werden, einigen wenigen Konzernen Milliardeneinkünfte aus dem Verkauf von Emissionszertifikaten zu ermöglichen. Das ist nicht nur unsozial, sondern sogar nach Ihren Maßstäben ökologisch sinnlos, denn die von der EU festgelegte Menge an Kohlenstoffemissionen wird so nicht verringert, sondern nur mit immens hohen Kosten vom Vorreiter Deutschland in andere EU-Länder verlagert.

Von einem liberalen Politiker muss man erwarten, dass er es dem Markt überlässt, wie viel von jeder Energieart wann, wo und wie produziert wird. Ihre Politik besteht hingegen darin, willkürlich und nach ideologischen Vorgaben bestimmte Techniken zu bevorzugen, andere zu benachteiligen, und dann mit staatlichen Zwangsmitteln und sehr viel Geld der Steuer- und Gebührenzahler Ihre persönlichen Präferenzen durchzusetzen. Es gibt in Ihrer Politik für jeden Aspekt der Energiewirtschaft staatliche Fördermaßnahmen und technische Anordnungen, sehr unterschiedliche Ökosteuersätze und Einspeisetarife. Das hat mit Marktwirtschaft nichts mehr zu tun, sondern ist schlimmste Kommandowirtschaft.

Sie bezeichnen das Emissionshandelssystem als marktkonform. Das ist ein schlechter Witz, denn in diesem System bestimmt der Staat, wer, zu welchem Preis, wie viele Emissionsrechte erhält, die faktisch staatliche Bezugsscheine für fossile Energieträger sind. Dieses Zentralbewirtschaftungssystem stellt die Energie, die Schüsselressource jeder Volkswirtschaft, unter das Kommando einiger Politiker, die sich anmaßen, bessere Entscheidungen treffen zu können, als die Gesamtheit der Marktteilnehmer.

Dass dieser Anmaßung zu misstrauen ist, zeigt Ihr Eintreten für die Sequestrierung von CO2 bei der Nutzung fossiler Energieträger. Sie haben auf der Tagung von GLOBE (Global Legislators Organisation for a Balanced Environment), bei der Sie Leiter der deutschen Delegation waren, der übrigens auch Bärbel Höhn von den Grünen angehörte, im Juni 2009 eine Entschließung angenommen, die u. a. folgende Vorgabe enthält: „Plan no new fossil fuel power stations from 2013 without a commitment to fit carbon capture and storage technology … with the overall aim of a carbon neutral power sector by 2050.“

In Nordfriesland soll ein Endlager für sequestriertes Kohlendioxid entstehen. Dagegen hat sich die nordfriesische Bevölkerung eindeutig ausgesprochen. Die FDP-Fraktion im Kreistag von Nordfriesland verurteilte derartige Pläne entschieden. Die Sequestrierung verursacht nicht nur riesige Kosten, sondern sie bringt auch unlösbare Sicherheitsprobleme mit sich. Man kann keinem Menschen zumuten, über einem CO2-Speicher zu wohnen, denn austretendes Gas würde jedes Leben in weitem Umkreis ersticken. Dieses Risiko besteht, wenn nicht ewig, so doch zumindest für sehr lange Zeit, denn anders als bei radioaktiven Stoffen ist bei CO2 keine Verfallszeit bekannt. Die bei der Sequestrierung anfallenden Mengen sind gigantisch, denn für jeden verbrannten Kubikmeter Kohle müssten 5,4 Kubikmeter flüssiges Kohlendioxid gespeichert werden. Wohin damit? Wollen Sie ganz Deutschland in ein Endlager für sequestriertes CO2 umwandeln?

Nach dem Scheitern der UNO-Klimakonferenz in Kopenhagen im Dezember letzten Jahres fehlt Ihrer Politik jede Grundlage. China und Indien, sowie auch andere wichtige Schwellenländer, werden niemals einer völkerrechtlich verbindlichen Reduzierung von Kohlendioxid zustimmen. Von den USA ist nicht zu erwarten, dass sie sich Beschränkungen auferlegen, wenn ihre Konkurrenten in Asien das nicht ebenfalls tun. Ich darf Sie daran erinnern, dass das Kyoto-Protokoll vom damaligen US-Präsidenten Clinton wohl unterzeichnet wurde, aber der US-Senat einstimmig die Ratifizierung des Protokolls ablehnte mit der Begründung, dass die USA sich nicht binden wollen, wenn dies nicht auch China und andere wichtige Schwellenländer tun. Das ist eine sehr rationale Haltung.

Der Weltmarkt für Erdöl, Erdgas und Kohle sorgt dafür, dass alle Maßnahmen der EU zur Einsparung fossiler Energieträger global gesehen unwirksam bleiben, denn was in Europa weniger verbraucht wird, steht für einen Mehrverbrauch in den energiehungrigen Schwellenländern außerhalb Europas zur Verfügung. Die Klimapolitik der EU bewirkt eine Einschränkung der Nachfrage nach fossilen Brennstoffen. Dadurch sinken deren Preise auf dem Weltmarkt, was denen zu gute kommt, die die von der EU geschaffene künstliche Nachfragelücke mit eigener Nachfrage auffüllen. Ihre Klimapolitik ist nichts anderes als ein Förderprogramm für China und andere Konkurrenten Deutschlands auf den Weltmärkten.

Im Ergebnis führt die von Ihnen betriebene Politik weltweit nicht zu einer Verminderung der CO2-Emissionen, denn alles was in Deutschland und der EU unter riesigen Kosten eingespart wird, erhöht anderswo den Verbrauch zu verminderten Kosten. Ähnlich wie ein internationales Emissionshandelssystem, bei dem die Emissionsmengen zentral festgelegt werden, die Wirkung nationaler Alleingänge aufhebt, sorgt der Weltmarkt dafür, dass kommandowirtschaftliche Sonderwege zu höheren Kosten führen, die angestrebten Minderungsziele aber nicht erreicht werden können.

Sie haben im Bundestag erklärt, dass Sie das Ergebnis der Kopenhagener Klimakonferenz nicht anerkennen und so weitermachen wollen wie bisher. Damit nehmen Sie eine ökofundamentalistische Haltung ein, welche die FDP noch mehr von ihren Wählern entfremdet. Um zu zeigen, dass es in der FDP auch liberale Stimmen gibt, zitiere ich ausführlich aus einer Stellungnahme (1) von Holger Krahmer, Mitglied des Europäischen Parlaments und umweltpolitischer Sprecher der dortigen FDP-Fraktion: „Von einer Vorreiterrolle Europas in der Klimapolitik kann nicht mehr gesprochen werden. Der Rest der Welt ist an Europas Regulierungsideen schlicht nicht interessiert. Die seit langer Zeit absehbaren Interessensunterschiede zwischen Industrie- und Schwellenländern sind unüberwindbar. Das ‚Nein‘ zu verbindlichen Minderungszielen ist eindeutig, denn die ärmeren Länder wollen sich ihre Entwicklungsmöglichkeiten nicht beschneiden lassen … Die Chancen auf ein internationales Abkommen sind angesichts dieser Situation allerdings gleich null. Was Europa jetzt nicht braucht, ist ein ‚Weiter so‘ oder gar eine einseitige Verschärfung der Klimapolitik. Die hohen Folgekosten der CO2-Minderungspolitik sind bereits jetzt ein Risiko für die Wettbewerbsfähigkeit europäischer Volkswirtschaften.“

Zur Rechtfertigung Ihrer Klimapolitik verweisen Sie gerne auf die dadurch angeblich ausgelösten Innovationen und die vermeintliche Technologieführerschaft Deutschlands bei erneuerbaren Energien. Die Realität sieht hingegen völlig anders aus, wie es gerade auch die Solarwirtschaft zeigt, die unter den von Ihnen subventionierten Wirtschaftszweigen als technologisch besonders anspruchsvoll gilt.

Die deutschen Solarunternehmen sind eher Handelsunternehmen als Produktionsbetriebe. Die Solarzellen werden meistens in China eingekauft und hier nur noch in einen Rahmen eingesetzt. Die Materialaufwendungen, von denen der weitaus größte Teil auf Käufe von Solarzellen entfällt, machen in der deutschen Solarbranche 85% des Umsatzes aus. Diese hohe Abhängigkeit von Zulieferungen ist nicht verwunderlich, wenn man die geringe Forschungsleistung des Wirtschaftszweiges in Betracht zieht. Nach Angabe des Bundesverbandes der Solarwirtschaft betrugen die Forschungs- und Entwicklungsaufwendungen seiner Unternehmen im Jahre 2008 nur 1,7% des Umsatzes. Die F&E-Aufwendungen wirklicher Hightech-Unternehmen liegen im Durchschnitt bei 12%. Die traditionelle Elektroindustrie gibt immerhin noch 5% ihres Umsatzes für F&E aus, und sogar die Autoindustrie kommt auf 3,3%.

Die Solarunternehmen haben wegen ihrer hohen Materialzukäufe eine sehr geringe Wertschöpfung, die durchschnittlich nur 15% beträgt. In der Autoindustrie liegt dieser Wert bei 25%, im Maschinenbau bei 31%. Die großzügige staatliche Förderung erlaubt es der Solarbranche, bei der Modulfertigung noch Handarbeit einzusetzen. Das erklärt, warum auch Installations- und Dachdeckerbetriebe des Handwerks in der Beschäftigtenstatistik der Solarwirtschaft erfasst werden. In der Autoindustrie sind vergleichbare Fertigungsprozesse längst automatisiert. Auch andere Aspekte des Produktionsprozessmanagements der Solarbranche sind rückständig. So beträgt die durchschnittliche Lagerdauer für Solarmodule 122 Tage. Ein Autozulieferer mit dieser Lagerdauer könnte nicht lange existieren.

Der deutsche Staat hat viele Milliarden Euro an Subventionen jeder Art in den Solarbereich geschüttet. Das Ergebnis ist so schlecht, wie man es auch von anderen Eingriffen des Staates her kennt. Die großzügige Subventionierung hat die deutsche Solarwirtschaft träge gemacht. Von einer deutschen Technologieführerschaft kann keine Rede sein. Trotz der weltweit größten Förderung gehört nur ein Solarunternehmen mit Sitz in Deutschland zu den zehn größten Solarzellenherstellern der Welt. Wirklich profitiert von der deutschen Solarsubventionierung haben nur die chinesischen Solarzellenhersteller, für die sie ein großzügiges Exportförderprogramm ist.

Sie haben sich dafür ausgesprochen, die Subventionen für den Solarbereich zum 1. Juli 2010 zu senken. Von einem liberalen Politiker muss man aber erwarten, dass er grundsätzlich Subventionen ablehnt. Ganz abgesehen von ihrer Ineffizienz verlangt es das Gleichbehandlungsgebot, alle Unternehmen gleich zu stellen, und nicht dem einem zu gewähren, was man dem anderen verweigert.

Sie begründen Ihre Politik auch damit, dass durch sie neue Jobs in grünen Wirtschaftszweigen geschaffen werden. Das ist zwar richtig, aber Sie verschweigen, um welchen Preis das geschieht. Gabriel Calzada von der Universität Rey Juan Carlos in Madrid hat in seiner ökonometrischen „Study of the effects on employment of public aid to renewable energy sources“ (2) aus dem Jahre 2009 für Spanien nachgewiesen, dass für jeden Arbeitsplatz, der mit staatlicher Hilfe im grünen Bereich geschaffen wird, 2,2 Arbeitsplätze in der restlichen Wirtschaft verloren gehen. Das erklärt sich zum einen aus der Tatsache, dass jeder Euro, der für erneuerbare Energien ausgegeben wird, als Kaufkraft in anderen Bereichen der Wirtschaft fehlt und zum anderen aus der staatlich erzwungenen Fehlleitung von Ressourcen in weniger produktive Verwendungen, als sie der Markt gefunden hätte. Calzada hat errechnet, dass in Spanien für jedes installierte grüne Megawatt im Durchschnitt 5,28 Arbeitsplätze anderswo in der Wirtschaft zerstört werden. In der Photovoltaik beträgt der Verlust 8,99 Arbeitsplätze je Megawatt, bei der Windenergie sind es 4,27 Arbeitsplätze je installiertes Megawatt, die vernichtet werden. Es ist anzunehmen, dass in Deutschland durch Ihre Klimapolitik ein ähnlicher Verlust von Arbeitsplätzen bewirkt wird.

Für Dänemark, wo die erneuerbaren Energien wie in Spanien und Deutschland eine vorrangige Stellung einnehmen, gibt es vom Center for Political Studies eine Studie über die Windenergie (3), in der festgestellt wird, dass sie wohl 19% des produzierten Stroms liefert, aber nur die Hälfte davon im Lande verbraucht werden kann, weil der Windstrom sehr unregelmäßig anfällt. Im Zeitraum von 2001 bis 2008 musste Westdänemark 57%, und

Ostdänemark 45% des dort erzeugten Windstroms exportieren, da er im eigenen Staat nicht genutzt werden konnte. Die Stromausfuhr ist nur zu einem niedrigen Preis möglich, während die Kosten der Windstromerzeugung hoch sind. Dadurch entstand in diesen 8 Jahren ein Verlust von 917 Millionen Euro, der von den dänischen Haushalten über hohe Stromgebühren zu tragen ist.

Die Einsparung einer Tonne Kohlendioxid durch Windenergie kostet in Dänemark 87 Euro. Zusätzliche Windenergie durch Offshore-Kraftwerke wird zur Gänze ausgeführt werden müssen, weil die heimischen Aufnahmekapazitäten erschöpft sind. Außerdem können Norwegen und Schweden, die den dänischen Windstrom importieren und in ihren Pumpspeicherwerken speichern, keine zusätzlichen Strommengen puffern. Das Speicherproblem für den Strom aus erneuerbaren Energien ist auf absehbare Zeit technisch nicht gelöst. Man könnte es vorerst nur mindern, indem man den Verbrauchern ihre Konsumfreiheit nimmt und ihnen zentral Verbrauchszeitpunkt und -menge vorschreibt. Ganz abgesehen davon, dass der dafür erforderliche Netzumbau und die Steuerungselektronik in den Haushalten und Unternehmen nicht vorhanden und größtenteils noch nicht mal entwickelt sind, wäre eine derartige willkürliche Kommandowirtschaft das Gegenteil dessen, was der Liberalismus will.

Für die Erzeuger erneuerbarer Energien ist eine prekäre Situation entstanden, weil sie niemals sicher sein können, dass die ihnen zugesagte staatliche Förderung wirklich bestehen bleibt. Nach Aussage der Solarwirtschaft wird die von Ihnen angekündigte Kürzung der Subventionen für diesen Wirtschaftszweig zu einem Verlust von 50.000 Arbeitsplätzen führen. Das zeigt, wie gefährdet die Geschäftspläne in diesem staatsabhängigen Bereich sind.

Selbst wenn Sie versprechen, keine rückwirkenden Änderungen der Förderrichtlinien zu beschließen, kann das kein Vertrauen schaffen, denn die Investitionspläne gehen über viele Wahlperioden, in denen Politiker kommen und gehen, politische Moden entstehen und vergehen und das internationale Umfeld sich ändert. Außerdem stehen alle Subventionen unter einem Finanzierungsvorbehalt. Angesichts der stark defizitären Staatshaushalte und der ins Grundgesetz aufgenommenen Schuldenbremse ist es sehr fraglich, ob mittelfristig für dieses Subventionsunwesen überhaupt noch Geld vorhanden sein wird. Auch die Subventionen, die in den staatlich diktierten Einspeisetarifen versteckt werden, sind unsicher, denn die Verbraucher fordern zunehmend ihre Wahlfreiheit bei Energie ein.

Ich kenne von Ihnen keine Stellungnahme, in der Sie begründen, warum Sie die Hypothese einer anthropogenen globalen Erwärmung konkurrierenden wissenschaftlichen Theorien vorziehen. Außerdem haben Sie nicht erklärt, warum Sie die vielen wissenschaftlichen Beweise missachten, die belegen, dass für Menschen, Tiere und Pflanzen jede Warmzeit weitaus mehr Vorteile als Nachteile mit sich bringt.

Ich nehme an, dass Sie sich zur Rechtfertigung Ihrer Klimapolitik auf das IPCC der UNO berufen. Angesichts der vielen schwerwiegenden Fehler, die in den Veröffentlichungen des IPCC aufgedeckt wurden, wäre es unverantwortlich, so fundamentale Entscheidungen, wie sie in der Klimapolitik zu treffen sind, auf eine derart schwache wissenschaftliche Grundlage zu stellen. Ich zitiere noch einmal ausführlich Holger Krahmer, der beweist, dass es auch Stimmen der Vernunft in der FDP gibt:

„Notwendig ist ein Strategiewechsel: Statt der Fokussierung auf willkürlich gesetzte CO2-Minderungsziele, sollte Europa sein innovatives Potential nutzen und die Erforschung neuer Technologien verstärken. Die Anpassung an unvermeidliche und unkontrollierbare Klimaänderungen muss Priorität bekommen. Das Ende der Klimahysterie ist eingeläutet. Zeit also, die Kritiker der dogmatischen Klimapolitik in die Debatte einzubeziehen, denn immer mehr Bürger stehen den propagierten Weltuntergansszenarien skeptisch gegenüber. Zu Recht: Der angebliche Konsens in der Wissenschaft zu den Ursachen klimatischer Veränderungen entpuppt sich mehr und mehr als Zitierkartell politisierter Wissenschaftler, dem es gelungen ist, die mediale Deutungshoheit über eine These zu erlangen. Bekannt werdende Datenfälschungen und der Fakt, dass eine vorhergesagte Temperaturerhöhung in den letzten Jahren ausgeblieben ist, sorgen für einen Glaubwürdigkeitsverlust der gängigen Klimaforschung. Wir wissen über die Ursachen der Veränderungen des komplexen Systems ‚Klima‘ offenbar wenig. Notwendig ist ein neuer, ganzheitlicher und transparenter Forschungsansatz in der Klimawissenschaft. Alle Wissenschaftsströmungen müssen berücksichtigt werden.“ (1)

Wenn in gut geführten Unternehmen strategische Entscheidungen zu treffen sind, werden zwei voneinander völlig unabhängige Teams beauftragt, zur selben Fragestellung Daten zu sammeln, zu analysieren und Schlussfolgerungen daraus zu ziehen. Dieses Verfahren sollte auch jeder Staat anwenden, insbesondere bei der Klimapolitik, die so tief in die Wirtschaft und das Leben aller Bürger eingreift. Ein „Team A“ gibt es seit 1988 in Gestalt des IPCC, das von Regierungen geschaffen wurde, von ihnen bezahlt und geführt wird, um die gegenwärtige Klimapolitik wissenschaftlich zu rechtfertigen. Was fehlt, ist ein „Team B“, das regierungsunabhängig zum Klima forschen kann, ohne eine vorgegebene Agenda erfüllen zu müssen. Es wäre die Aufgabe einer rationalen und fairen Politik gewesen, eine derartige unabhängige Einrichtung zu schaffen. Erst wenn beide Teams zur gleichen Auffassung kämen, hätte man eine einigermaßen sichere wissenschaftliche Grundlage für das politische Handeln.

Aus Gründen, die man leicht erraten kann, wurde diese Einrichtung von den interessierten Staaten nicht geschaffen. Glücklicherweise ist es der Zivilgesellschaft gelungen, ein derartiges „Team B“ zu bilden. Es ist das Nongovernmental International Panel on Climate Change (NIPCC), das sich folgende Zielsetzung gegeben hat: „NIPCC is what its name suggests: an international panel of nongovernment scientists and scholars who have come together to understand the causes and consequences of climate change. Because we are not predisposed to believe climate change is caused by human greenhouse gas emissions, we are able to look at evidence the IPCC ignores. Because we do not work for any governments, we are not biased toward the assumption that greater government activity is necessary.“ (4)

Das NIPCC hat dieselben Klimadaten geprüft, die vom IPCC der UNO verwendet wurden. Dabei kamen die unabhängigen Wissenschaftler zu Schlussfolgerungen, die denen des IPCC entgegengesetzt sind. Der neueste Bericht des NIPCC: Climate Change Reconsidered: 2009 Report of the Nongovernmental International Panel on Climate Change (4), widerlegt auf 868 Seiten alle wesentlichen Aussagen des IPCC.

Die Autoren der NIPCC-Berichte werden von sehr vielen Wissenschaftlern unterstützt, die der Hypothese einer anthropogenen globalen Erwärmung kritisch gegenüber stehen. Im „Petition Project“ haben 31.478 amerikanische Wissenschaftler eine Petition unterzeichnet, die u. a. folgenden Absatz enthält: „There is no convincing scientific evidence that human release of carbon dioxide, methane, or other greenhouse gases is causing or will, in the foreseeable future, cause catastrophic heating of the Earth’s atmosphere and disruption of the Earth’s climate. Moreover, there is substantial scientific evidence that increases in atmospheric carbon dioxide produce many beneficial effects upon the natural plant and animal environments of the Earth.“ (5)

Unter den Unterzeichnern dieser Erklärung sind auch 9.029 Wissenschaftler, die den Titel eines Ph.D. tragen. Auch außerhalb der USA gibt es sehr viele Wissenschaftler, welche die Aussagen der obigen Petition unterstützen. Im Gegensatz dazu wurde der letzte Bericht des IPCC, der 4. Assessment Report aus dem Jahre 2007, in seinem entscheidenden Teil, nämlich dem Summary for Policymakers, von weniger als 100 Personen, die nicht alle Wissenschaftler waren, geschrieben. Dieser kleine Personenkreis hat auch die wissenschaftlichen Kapitel an die Zusammenfassung für Politiker angepasst. Von einem wissenschaftlichen Konsens in den Klimawissenschaften kann deshalb keine Rede sein. Es gibt keine Rechtfertigung, die es Ihnen erlauben würde, die Erkenntnisse der kritischen Klimawissenschaftler zu ignorieren.

Es stellt sich überhaupt die Frage, wie Sie Ihre Klimapolitik rechtfertigen wollen, die die Verbraucher über staatlich diktierte Einspeisetarife ärmer macht, die Steuerzahler mit unsinnigen Subventionsausgaben belastet, die Energiepreise erhöht und damit die Wettbewerbsfähigkeit energieintensiver Unternehmen zerstört, die Kapitalflucht ins Ausland fördert und Arbeitsplätze vernichtet.

Die FDP hat ihren Wählern eine massive Steuersenkung versprochen. Angesichts der riesigen Staatsschulden ist dieses Versprechen nur zu halten, wenn zur Gegenfinanzierung der Steuersenkung staatliche Ausgaben in mindestens gleicher Höhe reduziert werden. Dafür bieten sich in erster Linie die unsinnigen und schädlichen Subventionen an, die im Rahmen des angeblichen Klimaschutzes gewährt werden. Die von Ihnen betriebene Klimapolitik erschwert eine Sanierung der Staatshaushalte und verhindert, dass die FDP ihr Hauptwahlversprechen glaubhaft erfüllen kann.

Die von Ihnen betriebene Klimapolitik steht in Widerspruch zu allen Grundsätzen liberaler Politik, wie dem Streben nach einem schlanken Staat, niedrigen Steuern, möglichst wenig Regulierungen und Wahlfreiheit der Bürger in ihren Konsumentscheidungen. Erheben Sie überhaupt noch den Anspruch, ein liberaler Politiker zu sein?

Mit freundlichen Grüßen

Heide-Marie Rasch

Vorsitzende der FDP-Fraktion im Kreistag von Nordfriesland

P.S.: Ich werde diesen Brief im Internet veröffentlichen, damit möglichst viele Bürger die Gelegenheit erhalten, zu den hier angesprochenen Themen Stellung zu nehmen.

Quellenangaben

  1. Holger Kramer: Komplettes Versagen europäischer Klimapolitik
  2. Universidad Rey Juan Carlos: Study of the effects on employment of public aid to renewable energy sources (PDF)
  3. CEPOS: Wind Energy – The Case of Denmark(PDF)
  4. NIPCC: Climate Change reconsidered (PDF)
  5. Global Warming Petition

13. März 2010

Zuerst hier bei eigentümlich frei erschienen.

Related Files




Der öko-politische Komplex: Gekaufte Lobbyisten!

Unter dem EU-Reglement können NGOs bis zu 70 Prozent ihres Budgets aus EU-Mitteln absichern und brauchen nur den Rest selbst zu akquirieren. Die jährliche Bezuschussung von Umweltorganisationen ist im letzten Jahrzehnt um durchschnittlich 13 Prozent pro Jahr gestiegen. Der größte Teil der zehn bedeutendsten Umweltorganisationen erhält damit heute mehr Geld aus Brüssel als noch vor zehn Jahren. Mehr und mehr Umweltorganisationen sind damit auf die EU-Förderung angewiesen.

Die Neutralität der Umweltpolitik aus Brüssel ist daher mit einem großen Fragezeichen zu versehen. Zwar ist es eine Illusion von einer Politik ohne Interessengruppendruck jenseits der Stimmenmacht der Wähler auszugehen, doch wenn sich die Politik die eigene Wunschopposition finanziert, dann wird der politische Wettbewerb verzerrt. Private Interessengruppen treiben ihren Lobbyismus stets nur so weit, bis der zusätzliche Ertrag des Lobbyismus gerade noch die dabei entstehenden Kosten deckt, die schließlich vom Konsumenten in Form höherer Preise zu tragen sind. Der Wettbewerb zwischen den Unternehmen verhindert, dass diese Preisüberwälzung überhand nimmt. Subventioniert der Staat die Lobbyisten, überschreitet der Einsatz der Lobbyisten jedoch die Kosten, die private Geldgeber oder Verbraucher aufzubringen bereit sind. Weder herrscht unter den widerstreitenden Interessen Waffengleichheit, noch entspricht der Lobbyismus den tatsächlichen oder abgeleiteten Interessen der Bürger im politischen Wettbewerb.

Dieser Beitrag erschien bereits in einer gekürzten Version bei "Denken für die Freiheit", dem Weblog des Liberalen Instituts der Friedrich-Naumann-Stiftung für die Freiheit.

von Steffen Hentrich: 

*Die des Untersuchung des International Policy Networks finden Sie im Original hier. Sowie in der pdf Datei im Anhang (Friends of EU).

Ergänzung: mehr zur Finanzierung siehe pdf Anlage (Leider anonym erschienen, die links sind jedoch Klartext). Nutznießer dieser Vollversorgung sind u.a auch hier aufgezählt :http://www.oekologismus.de/?cat=19

Related Files




ClimateGate 2.0 (Teil 4):Die NASA-Daten: Ist die U.S.-Klimawissenschaft so korrupt wie die CRU?

Ich tat dies, weil der kanadische Geschäftsmann Steve McIntyre — ein Mann mit professioneller Erfahrung bei der Untersuchung verdächtiger statistischer Aussagen in der Bergbauindustrie und anderswo, wie auch seine Aufdeckung des Schwindels um den jetzt anrüchigen „Hockey Stick“ – etwas Ungewöhnliches in den NASA Aussagen bezüglich einer ständig wärmer werdenden ersten Dekade dieses Jahrhunderts bemerkte. Die NASA schien, beginnend mit dem Jahr 2000, die U.S. Temperaturen aufgeblasen zu haben. In meiner FOIA- Anforderung fragte ich deshalb die NASA nach ihren internen Diskussionen, ob und wie der von McIntyre  aufgedeckte Temperatur-Fehler korrigiert wird.

Die NASA hat diese Anforderung für mehr als zwei Jahre mit Schweigen übergangen, bis Climategate mich veranlasste, der NASA mit Klage zu drohen, wenn sie nicht unverzüglich meiner Anfrage nachkäme. Zu Silvester 2009 versorgte die NASA schließlich unser CEI mit den Dokumenten, die ich im August 2007 angefordert hatte.

Als ich nahezu die Durchsicht der FOIA- Dokumente beendet hatte, bemerkte ich, dass Al Gores Current News- Netzwerk berichtete, dass die NASA diese Dokumente gleichzeitig veröffentlicht hatte. Aber dafür keine Pressemitteilung herausgegeben hatte,was die NASA übrigens auch vermied, als sie ihre verfälschten Temperaturen (nachdem dies entdeckt wurden) korrigierte. Im allgemeinen ist es bei der NASA aber nicht üblich, keine Pressenotiz herauszugeben, wenn irgend etwas mit globaler Erwärmung  zu tun hat. 

Es war eine alte Taktik. Gibt es denn einen besseren Weg, um Enthüllungen den Stachel zu nehmen, die man zwei Jahre verborgen hat, als sie zur gleichen Zeit zu veröffentlichen — in einer nicht nachprüfbaren Form — ohne jede Pressenotiz? Dann hat man Verbündete, die die explosiven Daten abtun mit: „Das ist eine alte Geschichte… wen interessierts?“

In der Tat, aus diesen und für die „grünen“ Medien anderen spezifischen Gründen, hat bis jetzt niemand eine Geschichte der Dokumente geschrieben, welche, vor noch nicht mal einem Monat, soviel Aufmerksamkeit erregten (und grüne Wut entfachten). Aber es gibt keine dauerhafte Möglichkeit, glaubhaft zu machen, dass es sich um „alte Nachrichten“ handelt. Man will aber eine Diskussion, über diese Enthüllungen vermeiden, denn die E-Mails schließen beachtliche  Eingeständnisse der NASA ein, die der Öffentlichkeit zeigen, wie die NASA über etwas schweigt, wofür die Öffentlichkeit bezahlt.

Unsere geplante Klage wird mehr dieser Praktiken im einzelnen enthüllen. Wir werden den Rechsstreit führen, wenn die NASA, wie wir erwarten, in ihrem Verhaltensbericht unsere Anforderung verleugnen wird.

Die Current „Verteidigung“

Al Gores Internet-Netzwerk "Current TV" betreibt derzeit einen ziemlichen törichten Blog-Post, um NASAs Veröffentlichungen kleinzureden. Er lief unter dem Titel: „Es gibt (..kein..) Climategate 2.0 “.(“It’s ClimateGate 2.0 ( … Not)”)  Dieser Post im Blog lädt zu weiteren Untersuchungen ein, -–- die jetzt durch die Klage enthüllt werden -– denn ängstlich wird dort festgestellt:

"Klar, es gab bildlich gesehen  in den E-Mails keinen „rauchenden Colt“, weil das CEI  über ähnliches wie Climategate 2.0 nach der Freigabe der E-Mails nicht losjubelte."

Dieses bewusste Verschleiern ist immer der Verbündete der Alarmisten der globalen Erwärmung. Aber wir haben die E-Mails sorgfältig durchgesehen und jubeln jetzt!

Die Current Blog Darstellung tut sich sehr schwer, den kanadischen Geschäftsmann Steve McIntyre, als einen bösen Buben hinzustellen, eher erscheint dieser als bedächtiger Profi bei der Aufdeckung unangemessenen Verhaltens. 

Entlarvend ist, wie der Current TV- Autor, über die Geistesblitze eines Joshua Halpern (von der Howard Universität, der verbirgt sich hinter dem Pseudonym „EliRabbett“ und ist oft die  Quelle ätzender Aüßerungen), den Kopf schüttelt. Der Autor des Current Post wählt dazu harmlose Passagen aus den NASA E-Mails aus und präsentiert diese dann als charakteristischen Beweis, welcher für hunderte von Seiten zuträfe. Aber dieses scheint nicht so zu sein. Er vermeidet es nämlich ganz einfach, belastende Informationen einzubeziehen, noch macht er deutlich, ob er alle E-Mails gelesen hat.

Aber der Current TV- Autor sagt einiges, das – zumindest teilweise- wahr ist:

"Gerade heraus gesagt, die E-Mails zeigen, dass die GISS-Wissenschaftler professionell arbeiten und in einer offenen und transparenten Art mit Reportern und selbst mit McIntyre umgehen."

Ja, wenn sie mit McIntyre direkt zu tun hatten, waren sie professionell, -– doch es folgten intern oft böse Beratungen, die den Wunsch enthüllten, seine legitimen Untersuchungen abzuwenden. Aber, wenn sie es mit den Medien zu tun hatten, waren sie sehr unprofessionell.  Entweder reagierten sie ausweichend, (auf die sehr spezifischen Fragen von Journalisten von New York bis Brasilien) oder in dem sie kumpelhafte Beziehungen zu den Reportern pflegten, die auf ihrer Seite standen. (wie hier bereits angemerkt).

Wenn man irgendwelche Auswirkungen betrachtet, die diese E-Mails enthüllen, dann handelten diese Wissenschaftler professionell, jenseits des direkten Umgangs mit McIntyre. Ich sehe daher keine Notwendigkeit, diesen Punkt zu widerlegen, nur um dem bevorzugten Vorgehen der Alarmisten, sich auf persönliche Angriffe und Namensnennungen zu konzentrieren, zusätzliche Aufmerksamkeit zu schenken. Es gibt davon sehr viele in nun den enthüllten Seiten. Dies ist aber nicht der wichtigste Teil der Geschichte, welche die E-Mails bloßlegen. Obwohl sie versuchen die Aufmerksamkeit auf derartiges Verhalten zu lenken, weil doch es ihre bevorzugte Taktik ist, um vom Climategate, dem Original, abzulenken.

Aber warum das Thema für etwas Frivoles verlassen, wenn das Thema selbst so faszinierend ist?

Püfen Sie in den kommenden Wochen mit PJM unsere Updates und Besonderheiten. wenn wir unseren Rechtsstreit gegen die NASA und noch eine andere vom Steuerzahler bezahlte Klima-Behörde, die dem Steuerzahler den Zugang verweigert, ankündigen. Diese Behörde wird vom Steuerzahler zu 100% bezahlt. Wir werden zahlreiche Taktiken enthüllen, die die NASA und andere einsetzen, um der Öffentlichkeit zustehende Informationen vor ihr zu verbergen. Dieses Verhalten schützt einen hoch lukrativen Lizenzbetrieb im Bereich des globalen Erwärmung Alarmismus.

Am 20. Februar 2010 von Christopher Horner bei Pajamas Media ins Netz gestellt. In Science, Science & Technology,  

(Am 31. Dezember 2009 hat die NASA endlich dem Competitive Enterprise Institut die Dokumente übergeben, die ich im August 2007 unter Berufung auf den „Freedom of Information Act“ angefordert hatte. Ich hatte die NASA gebeten, über ihre internen Diskussionen zu informieren, die sich wegen ihrer Irrtümer bei den Behauptungen zu den Temperaturen ergeben hatten, und die Steve McIntyre aufgedeckt hatte. Die NASA hat diese Anforderung für mehr als zwei Jahre mit Schweigen übergangen.) 

Die Übersetzung besorgte Dr. Peppler für EIKE




Wir sind nicht allein – Auch in den USA werden Milliardenbeträge für „erneuerbare“ PR-Projekte vergeudet

So fand eine in Spanien durchgeführte Studie im letzten Jahr heraus, dass jeder neu geschaffene „grüne“ Arbeitsplatz seit 2000 im Schnitt 570.000 Euro gekostet hat und dass dadurch rechnerisch pro neuem „grünen“ Arbeitsplatz 2,2 Arbeitsplätze in anderen Bereichen vernichtet wurden. Jeder Arbeitsplatz in der Windenergie-Industrie wurde in Spanien in diesem Zeitraum sogar mit etwa 1 Million Euro bezuschusst.

RWI Studie offenbart: Förderung Erneuerbarer Energien ist immer teuer und meist nutzlos

Für Deutschland ist eine ähnliche Studie im letzten Jahr vom Rheinisch-Westfälischen Institut für Wirtschaftsforschung (RWI) in Essen erstellt worden. Und auch hierzulande wird der Förderpolitik für „Erneuerbare Energien“ ein desaströses Zeugnis ausgestellt.

Wir legen dar, dass die deutsche Erneuerbare Energien Politik, und im speziellen die Einspeisevergütung, darin gescheitert ist, im Markt Anreize für eine brauchbare und kosteneffektive Einführung von Erneuerbaren Energien in das Energie-Portfolio des Landes zu schaffen. Ganz im Gegenteil, die Förderungsmechanismen der Regierung haben in vielerlei Hinsicht eben diese Anreize untergraben, mit dem Resultat von massiven Aufwendungen welche auf lange Sicht wenig zur Stimulation der Wirtschaft, dem Schutz der Umwelt oder einer erhöhten Energiesicherheit beitragen. Im Fall der Photovoltaik hat das Deutsche Regelwerk zur Subventionierung einen Stand erreicht, der bei weitem die Durchschnittslöhne übersteigt. Die Subventionen pro Arbeiter in der Branche betragen 175.000 Euro.

Dass solch unsinnige Fördermaßnahmen nicht nur auf Europa beschränkt sind, beschreibt jetzt Tom Steward auf Big Government. Dort berichtet er von den Ehrgeizigen Zielen des Staates Minnesota, die Energieversorgung des Bundesstaates bis 2025 zu 25% aus „Erneuerbaren“ Quellen zu bestreiten. Und von den absurden Maßnahmen, die getroffen werden, um diesem Ziel irgendwie näher zu kommen.

Unsinnige Förderpraxis auch in den USA

So wurden dort im letzten Herbst in 12 Gemeinden jeweils eine 160 kW Windkraftanlage installiert, welche ursprünglich in Kalifornien aufgestellt waren. Das führte dazu, dass die Anlagen nicht für strenge Winter geeignet waren, die es im „Sunshine State“ nun einmal nicht gibt, die in Minnesota hingegen jedes Jahr auftreten. Diese Anlagen wurden an Orten aufgestellt, die bestimmte Kriterien erfüllen mussten. Ein wichtiger Punkt war, dass sie von wichtigen Verkehrsstraßen gut zu sehen sein sollten. Damit wollten die Gemeinden demonstrieren, wie wichtig Ihnen die Förderung dieser Art der Energieerzeugung ist. Oder anders gesagt, dieses Projekt stellt auch eine wichtige PR-Maßnahme dar. Eine Tatsache, die auch von Wally Wysopal, dem City-Manager einer der beteiligten Gemeinden unumwunden eingestanden wird:

„Eigentlicher Zweck war, mitzuhelfen, unseren 25% Planwert zu erreichen. Das andere Ziel ist, zu demonstrieren, dass es nicht einfach sein wird, diese Vorgabe zu erreichen, und dieses Projekt steht als Symbol dafür.“

Allerdings demonstrierten die Turbinen in diesem Winter vor allem eines. Nämlich, dass sie sich, wenn es draußen sehr kalt ist, nicht bewegen. Ein Effekt, der umso mehr auffiel, weil die Windräder an so prominenten Orten platziert waren. Um sich nicht ständigen Fragen aus der Bevölkerung nach dem Sinn solcher Anlagen stellen zu müssen, die einen großen Teil des Jahres stillstehen, wurde folglich beschlossen, die Turbinen „Winterfest“ zu machen. Offenbar um jeden Preis. Denn die Kosten für die Umrüstung betrugen satte 417.000 Dollar; pro Anlage wohlgemerkt.

Teure Nachrüstung ungeeigneter Anlagen

Finanziert wurde die 5 Millionen Dollar teure Aktion aus öffentlichen Mitteln, über staatliche Anleihen zur Finanzierung „sauberer“ Energieproduktion (Clean Renewable Energy Bonds (CREBS)). Eine Finanzierung, ohne die diese Umrüstung niemals durchgeführt worden wäre. City-Manager Wysopal:

„Die CREBS Anleihe hat das Projekt erst durchführbar gemacht. Sie ist subventioniert, sie ist verfügbar, und wir haben die Gelegenheit wahrgenommen. Ansonsten hätten wir das nicht gemacht.“

Ursprünglich wollte der Staat Minnesota für dieses „Leuchtturmprojekt“ Anlagen mit jeweils 1,5 MW Leistung installieren. Dass letztendlich die sehr viel kleineren Anlagen mit einem Zehntel der Leistung installiert wurden, hatte wohl vor Allem Kostengründe. Allerdings kann eine so kleine Anlage bei Vollauslastung nur etwa 50 bis 100 Haushalte mit Strom versorgen. Ein nennenswerter Beitrag zur Erreichung des 25% Ziels sähe jedenfalls anders aus. Auch die jetzt durchgeführte Aufrüstung der Anlagen hat wohl eher symbolischen Wert und ist somit nicht viel mehr als eine extrem teure PR-Maßnahme.

Uns Deutschen zeigt ein solches Beispiel, dass wir mit unserer verkorksten Politik der Subventionierung überteuerter Maßnahmen zur Stromerzeugung nicht allein in der Welt sind. Und das gibt einem ja auch irgendwie ein gutes Gefühl.

Rudolf Kipp EIKE




437 Atomkraftwerke auf der Welt : Eine Nachricht und ihre Interpretation!

…Langfristig plane die Regierung in Seoul, bis 2030 weitere zehn Atom kraftwerke zu bauen. Aktive Bauprojekte zählt die Zeitschrift in folgenden Ländern: Amerika (l), Argentinien (l), Bulgarien (2), China (20), Finnland (l), Frankreich (l), Indien (5), Iran (l), Japan (l), Südkorea (6), Pakistan (l). Russland (8), Slowakische Republik (2) und Taiwan (2). In „fortgeschrittenem Planungsstadium" befänden sich derzeit 84 Reaktorblöcke in 17 Län dern. Die meisten Reaktoren sind in Amerika (104), Frankreich (59) und Japan (54) in Be trieb. In Russland sind 31 Anlagen am Netz, in Südkorea 20, in Großbritannien 19, in Indien 18, in der Ukraine 15 und in China elf. Auch in deutschen Nachbarstaaten ist die Atomkraft weiterhin beliebt: In Schweden waren 2009 zehn Anlagen in Betrieb, in Belgien sieben, in den Niederlanden eine, in Tschechien sechs und in der Schweiz sechs. In Deutschland erzeu gen derzeit 17 Kernreaktoren knapp ein Viertel des Strombedarfs. Zwei Meiler könnten noch 2010 vom Netz gehen, weil sie dann die ihnen von der Politik insgesamt zugestandene Strommenge erzeugt haben."

Soweit die Nachricht, und noch einmal zusammengefasst:  

• 2009 wurden in 30 Ländern der Welt 437AKW betrieben,  

• 2009 befanden sich in 14 Ländern 52 AKW im Bau, 

• In fortgeschrittener Planung befinden sich in 17 Ländern 84  Reaktorblöcke, 

• Im Artikel noch nicht aufgeführt sind die kürzlich vom US-Präsidenten angekündigten  30 neuen AKW. Nach der Fertigstellung werden in absehbarer Zeit insgesamt 663 AKW in Betrieb sein.  

Unter Berücksichtigung des beschlossenen und noch zu realisierenden vollständigen Ausstiegs aus der Nutzung der Kernenergie in Deutschland sind für die dieser Situation zwei Alternativen realistisch:

A – Aus deutscher Sicht: Die AKW-Technologie ist für die Existenz der Menschheit technisch unverantwortbar. Alle genannten Länder haben das noch nicht verstanden, weil ihre Wissenschaftler, Ingenieure und Politiker kollektiv dumm sind und/oder verantwortungslos handeln. Offensichtlich kennen nur wir Deutschen den richtigen Weg; eine Aufhebung des Ausstiegsbeschlusses ist eher unwahrscheinlich, denn das würde wohl unseren Nationalcharakter überfordern.

B – Aus der Sicht der Atomländer: Trotz der Entwicklung und Installation regenerativer Energien kann der rasant zunehmende Energiebedarf für immer mehr Menschen bei abnehmendem Angebot fossiler Brennstoffe ohne AKW nicht gedeckt werden, so dass man dem deutschen Beispiel nicht folgen wird. Da sich der steigende Bedarf kurz- bis mittelfristig nicht anders decken lässt, wird man weiter AKW bauen und betreiben und das damit verbundene Restrisiko in Kauf nehmen müssen.  

Fazit: Die Energieversorgung der Welt wird sich nach Plan B entwickeln; die anderen Länder werden sich nicht nach uns richten. Die historische Erfahrung mit dem deutschen Konzept „Am deutschen Wesen soll die Welt genesen“ lehrt, dass Deutschland mit seinem Weg scheitern wird und wir Bürger dafür die Zeche zu zahlen haben.  

Dabei ist Plan A im Kern unredlich und kann auch nicht wirklich ernst gemeint sein, denn: 

• Wären die Politiker der Grünen und der SPD (und der Linken ?)  tatsächlich von der Unverantwortbarkeit der Atomenergie überzeugt, hätten sie schon längst in der UNO den Antrag für ein weltweites Verbot der friedlichen  Nutzung der Kernenergie ein¬bringen müssen, selbst wenn sie davon auszugehen hatten, dass er abgelehnt würde.  

• Die von AKW potentiell ausgehenden Gefahren sind grenzüberschreitend. Deutschland ist von Ländern mit AKW umgeben. Sollten dort Unfälle auftreten, wirkten sie sich auch bei uns aus. Wir nehmen alle Lasten auf uns, um eine potentielle Gefahr zu vermeiden, wären ihr aber im Versagensfall genauso ausgeliefert. 

• Ein Hauptargument für die Ablehnung ist die Entsorgungsfrage: Bei technisch sachgerechter Lagerung kann die Gefahr, die von radioaktiver Strahlung ausgeht, ausgeschlossen werden, denn Deponien können in Salzstöcken oder in Tongesteinen eingerichtet werden, über die Deutschland reichlich und in guter Qualität verfügt. Beim Hinweis der Kernkraftgegner auf die Gefahren der AKW verdrängen sie, dass: 

• Wir zukünftige Generationen mit unserem Verbrauch von fossilen Brennstoffen und Rohstoffen und mit vielen langlebigen Produkten unserer chemisch-pharmazeutischen Industrie sehr viel grundsätzlicher benachteiligen. 

• Beurteilten wir die Technologien nach den tatsächlich verursachten Schäden, dürften wir keine modernen Verkehrsmittel benutzen: Autos, Flugzeuge und Schiffe haben bisher ungleich mehr Leben vernichtet als der Betrieb von AKW. Selbst die aggressivsten Kernkraftgegner wollen auf ihre Mobilität nicht verzichten.  

• Dass die Endlagerung noch nicht abschließend geregelt wurde, hat denn auch vorrangig politische Gründe: solange man das Problem nicht löst, kann man es instrumentalisieren. Für die Grünen war Anti-Atom anfangs die Grundlage ihrer Bewegung und später der Gründung ihrer Partei. Die Grünen haben es geschafft, trotz falscher Argumentation einen großen Teil der Bevölkerung gegen AKW einzunehmen. Mit der Mischung aus Unwissenheit und Angst lassen sich Wähler gewinnen. Helmut Schmidt meinte jüngst bei Reinhold Beckmann, dass die Deutschen wohl doch leicht verführbar seien. Die Erfahrung gibt ihm leider recht.  

• Mit dem Ausstieg aus der Kernkraft verlieren wir ein komplettes Industrie- und Wirtschaftssegment, während das Risikopotential unverändert bestehen bleibt.  

Warum ist den Grünen diese Indoktrinierung gelungen? Weil die Politiker der anderen Parteien, die grundsätzlich für die Beibehaltung der AKW sind, mangels Engagement und/oder Sachverstand nicht bereit waren und immer noch nicht bereit sind, ihren Standpunkt zu erläutern, zu begründen und zu verteidigen. Vielleicht sind wir das ‚Volk der Dichter und Denker’, unsere Fähigkeit für pragmatisches und flexibles Handeln ist bei vielen von uns jedoch eindeutig unterentwickelt.

Prof. F.K. Ewert EIKE




Climategate 2.0 – Die NASA-Daten: Ist die U.S.-Klimawissenschaft so korrupt wie die CRU? ( Teil drei) Wenn die Daten eine Abkühlung zeigen, blendet die NASA viel größere Temperatur-Anomalien aus, die sie sonst als verhängnisvoll ankündigt.

In einer Email vom 7. August 2007 von Dr. Reto Ruedy vom GISS an den GISS-Direktor James Hansen sagt Ruedy, dass die Korrektur nur wenig Einfluß auf die U.S.-Daten hätte. In einer Email an den Umweltreporter Andrew Revkin [New York Times] vom 9. August 2007 beurteilt Hansen den Fehler für die USA als „innerhalb der Unsicherheitsbandbreite liegend, die wir nennen“, und im globalen Maßstab als „völlig vernachlässigbar“. In einer Email vom 14. August 2007 an Dr. Donald E. Anderson — Programmleiter des Earth Science Enterprise [Instituts] im NASA Hauptquartier — benutzte Hansen die Ausdrücke “geringfügig”, “vernachlässigbar,” und “geringer als die Unsicherheit”, um die vorher herbeigeredete Erwärmung zu erklären, die sich nun als Irrtum herausgestellt hatte.

Das war keine Erklärung, warum die Erwärmung in den vergangenen sieben Jahren so übertrieben wurde.

Und dann schrieb Hansen eine Woche später privat an Revkin, daß „wir eine Unsicherheit anfügen können”, um tatsächlich das zu machen, was man vorhatte, wie Hansen schon an Revkin hatte durchblicken lassen:

Wir fügen einen senkrechten Balken [Fehlerbandbreite] an verschiedenen Stellen auf unserer Temperaturkurve ein, aber wir merken an, dass er nur die größte Quelle der Unsicherheit bei der Temperaturänderungen umfasst (unvollständige Bereichsabdeckung).

Um ein weiteres seltsames Hansen’sches Formulierungsmuster seiner bemerkenswert flexiblen Meinung zu nennen, in welcher Größenordnung eine Erwärmung aussagekräftig ist, sei auf eine Email von Hansen vom 14. August 2007 an Makiko Sato und Ruedy vom GISS verwiesen, wo er eine vorgebliche viel geringere Erwärmung von 0,02 Grad Celsius von 1934 bis 1998 „etwas wärmer“ [slightly warmer] nennt — die sich in Hansens eigenem Papier von 2001 mit 0,5 Grad Celsius (ein voller halber Grad mehr) gezeigt hatte. Ausgehend von den Aufzeichnungen des NASA GISS kann man wohl unterstellen, dass der Unterschied heruntergespielt werden musste, weil 1934 ein früheres Jahr ist. Aber es ist sehr beunruhigend, dass Hansen von seiner eigenen Arbeit nichts mehr wissen wollte, als er wiederholt den Vorhalt zurückwies, dass er jemals 1934 für wärmer als 1998 erklärt hätte, und an seine jüngeren Behauptungen, dass der Unterschied tatsächlich nur 0,02 Grad Celsius betrüge und „weit unterhalb der Messgenauigkeit“ der Instrumente läge. Aus diesem Grunde sagt er: „Natürlich ist das alles wissenschaftlicher Unsinn.“

In der Tat ist das Unsinn mit den unterschiedlichen Standards, wie die Emails über das NASA-GISS enthüllen, nämlich, wie viele und welche Art von Anomalien (warm oder kalt) aussagekräftig sind. Doch nicht so, wie  e r  meint.
Hansen verwirft auch in einer Email an den Bloomberg-Journalisten Demian McLean vom 14. August 2007 das, was vorher in den Temperaturstatistiken die rangordnungsmäßig  beträchtliche relative Wärme von 1934 über der von 1998 war:

In unserem Papier von 2001 stellten wir 1934 nur minimal und unbedeutend wärmer als 1998 dar.

Doch tatsächlich erklärte jenes Papier das Jahr 1934 mit einem knalligen halben Grad für wärmer als 1998. Das konnte und sollte so nicht stehen bleiben.

In einer Email vom 9. August 2007 von Ruedy an Hansen schlug ersterer eine andere Methode vor, um ihre Daten in Ordnung zu bringen – dies wenigstens intern – welche die behauptete Erwärmung des 20. Jh. von weniger als einem Grad auf nahezu ein Drittel (0,3 Grad) dieses Wertes abkühlen würde. Ruedy wiederholte dies noch einmal am gleichen Tag in einer Email an Gavin Schmidt. Beide Episteln enthüllten die von der NASA gewählte Taktik, die Auswirkung der amerikanischen Temperaturen weniger zu betonen, stattdessen die globalen Temperaturen, um damit die Bedeutung ihres U.S.-Temperatur-Problems herunter zu spielen. Das offenbart die Voreingenommenheit für Parteigängerei und Aktivismus im Gegensatz zu objektiver Wissenschaftlichkeit, eine fragwürdige Praxis einer steuerfinanzierten und mit hauptamtlichen Angestellten besetzten Wissenschaftsbehörde. 

Hansen mailte an den Times Reporter Revkin am 9. August 2007:

Es ist [in der Tat] unklar, warum irgend jemand versuchen sollte, etwas daraus zu machen [aus den Differenzen], vielleicht (hat er) keine Erleuchtung im Oberstübchen? 
[perhaps not a light in upstairs.]

Diese Sichtweise ignoriert, dass Hansens Dienststelle jahrelang solche Differenzen groß herausgestellt hatte, die tatsächlich aber kleinere waren. Jetzt, als er beim Übertreiben der Erwärmung erwischt worden war, beim Ändern und sogar Verschlampen von historischen Daten, behauptete er, dass die Unterschiede unbedeutend wären. Niemand, der im Vollbesitz seiner geistigen Kräfte ist, pflegt Derartiges zu tun, was Hansens Dienststelle lange Zeit bei noch kleineren Anomalien tat. Weil nämlich jene früheren kleineren Anomalien die erwünschte Erwärmung belegten und die damit verbundene politische Zielsetzung unterstützten, die den [Klima-]Wandel braucht.

Also bog Ruedy für Revkin die Dinge zurecht, indem er das Ausmaß von Hansens Irrtum verkleinerte:

Um außergewöhnlich zu sein, muss eine beobachtete Änderung ein Mehrfaches der Standardabweichung betragen; und im Vergleich damit haben die von “schlechten” Stationen, Wärmeinsel-Effekten usw. herrührenden Fehler nur geringe Bedeutung.

Man erkennt daraus, wie lernfähig jemand sein kann und damit auch noch Karriere macht.

Christopher Horner ist Senior-Fellow [wissenschaftliches Mitglied]des  Competitive Enterprise Institute. Hier der Originalartikel 

Ende des 3. Teils, wird fortgesetzt.

Die Übersetzung besorgte dankenswerterweise Helmut Jäger für EIKE




Climategate 2.0 — Die NASA Daten: U.S. Klimawissenschaft so korrupt wie die CRU (Teil 2) ?

Dr. James Hansen hat eine besondere Geschichte von alarmierenden Warnungen und gewagten Behauptungen aufzuweisen. Er hat im Namen einer globalen Erwärmung allarmierend ausgesagt in Unterstützung (1) der Zerstörung von privatem Eigentum (2). In diesem Zusammenhang verglich er Kohletransportzüge mit den Nazi-Todeszügen, während er darauf bestand, dass ein Präsident Namens George Bush ihn mundtot mache. Er hat sich selbst als Erwärmungs-Fanatiker herausgestellt, der ein durch Steuern finanziertes Institut (GIS) leitet.

Am 11. August 2007 hat James Hansen eine E-Mail an Andrew Revkin von der New York Times, gesandt:

  • Was die Zukunft der USA betrifft, können Sie davon ausgehen, dass die Erwärmung in der nächsten und übernächsten Dekade deutlicher wird.

 

Die Beobachtungen und die Vorhersagen der sich darauf beziehenden Literatur berücksichtigen die vergangene Dekade ohne Erwärmung. Änderungen in den ozeanischen Strömen und andere offenbar entscheidende Klima-„Zwänge“ haben sich seitdem in die andere Richtung gewendet.

Völlig daneben zu liegen, ist anscheinend gut genug für Regierungsarbeit. Es wird sehr deutlich, dass Hansen nur geschützt wird und weiter angestellt ist, weil er ein Regierungsbeamter ist, der die Dinge in einer Art und Weise falsch macht, die die politisch bevorzugte Sichtweise unterstützt. Hansens extremer Übereifer ist ein annehmbarer extremer Übereifer. Er ist eine heilige Kuh, trotz jahrelanger fragwürdiger Praktiken und Nebenbeschäftigungen.

Abenteuerlich argumentierend bei seiner Verteidigung während des Durcheinanders im August 2007, ausgelöst durch Steve McIntry, lehnte Hansen wiederholt ab, dass die NASA immer 1934 als wärmer als das Jahr 1998 dargestellt hatte. In dem Vorgang bezieht er sich laufend auf einen Aufsatz von 2001 mit anderen NASA- Kollegen. Er war dort der  führende Autor.

Am 23.August 2007 schrieb Ruedy an Hansen, offenbar um zu versuchen, den höchst profilierten Wissenschaftler seines Amtes zu bewegen, sich nicht selbst und die anderen in Verlegenheit zu bringen:

Die Temperaturkurve in unserem Aufsatz von 1999, die sich auf GHCN- Daten abstützen, zeigt 1934 um 0,5°C wärmer als 1998; 1998 war auf dem 5. Platz hinter 1921, 1931, 1938, 1951.

In der entsprechenden Kurve unseres Aufsatzes von 2001, die auf USHCN-Daten basiert und jetzt sorgfältig korrigiert wurde (Achtung: beschönigender Ausdruck!), 1934 und 1998 sind an erster, 1921 an dritter Stelle (NOAA, stellte die USHCN-Daten bereit, 1998 lag leicht vor 1934).  

Die US-Tabelle, die wir während 2006 gezeigt haben, zeigte 1998 und 1934 sogar bei 1,24 °C (ich bekam eine Kopie von einem Journalisten aus Brasilien, wir haben die Daten nicht aufgehoben).

 

In der Tat, der Aufsatz, auf den sich das hier bezieht, Hansen et al (3), 2001), zeigte 1934 ein erstaunliches halbes Grad wärmer als das nächst nähere Jahr 1998.

Nachdem er intern in Verlegenheit gebracht wurde, sagte Hansen:

Ich denke, wir sollten vermeiden, immer mehr in Einzelheiten zu gehen, um einzelne Jahre einzuordnen.

 

Ja, ich vermute, dass er es in dieser Weise empfunden hat.

Nicht nur war die Dateninstandhaltung überhaupt nicht von großer Bedeutung – trotz  NASA’s ausdrücklicher Betonung von Zuverlässigkeit und Integrität, historisch und andererseits – Hansen und die NASA verbrachten einen Großteil von August 2007 damit, zu versuchen die Geschichte komplett neu zu schreiben. Besonders ihre eigene.

Am 10. August 2007 sandte Ruedy eine E-Mail einer NASA-Person mit Namen Leslie McCarthy (in der Öffentlichkeitsarbeit tätig), mit einer Kopie an Hansen. Ruedy informierte McCarthy von dem Dreh, den sie benutzen würden, um gegen Steve McIntyre zu kämpfen:

(McIntyre) konzentriert sich auf US-Zeitserien, welche weniger als 2 % der Welt abdecken. Diese sind so fluktuierend (verrauscht) und haben eine so große Fehlerspanne, dass keine Schlüsse daraus zu ziehen sind.

Der Fehler, auf den Ruedy sich bezieht, ist 0,5 °C, durch Ruedy selbst in seiner E-Mail an Kris French bei National Geographic am 10. August 2007. In dieser E-Mail tadelt Ruedy McIntyre als globalen “Erwärmungs-Verneiner“.

Hansen sandte eine E-Mail an Dr. Donald E. Anderson, Programmdirektor des Earth Science Enterprise beim NASA-Hauptquartiers, am 14. August 2007:

Wenn man wünscht wissenschaftlich zu sein, anstelle zu versuchen, die Öffentlichkeit zu verwirren…, sollte man festhalten, dass einzelne Jahrestemperaturen für Gebiete so gering wie die der US (2 % der Erde) extrem fluktuierend (verrauscht) sind.

Damit hat Hansen implizit NASA’s lang geübte Praktiken eingeschätzt, mit Temperatur-Anomalien zu werben: Nur U.S. Temperaturen oder geringere als diese, seien unwissenschaftlich und geeignet, die Öffentlichkeit zu verwirren. Die NASA hat aber jahrelang von den U.S. Daten –Temperaturen großes Aufhebens gemacht. Diese seien also nur irgendwie sinnvoll, wenn eine Erwärmung erkennbar ist. Sogar dann, wenn die Erwärmung geringer war, als der Betrag, den er jetzt als bedeutungslos abtut. Er baut nun eine unmittelbar gegensätzliche Sichtweise auf, wenn nur die U.S.-Temperaturen die Behauptung von einer  Erwärmung bedrohen.

In einer E-Mail an Andrew Revkin am 24. August 2007 stellt Hansen fest:

Die Gegner vermischen klug diese zwei Sachen, global und U.S., so verwirren sie vollständig die öffentliche Diskussion.

Aber es war die NASA und in der Tat Hansens GISS, die die U.S. Temperaturen die ganze Zeit hervorhoben. Nicht die „Gegner“. Die NASA ordnete einzelne Jahre ein, dann sagten sie plötzlich diese Einordnung sei nicht der Rede wert, wenn die Zahlen (ihrer Vorstellung) widersprachen.

Hansens Ausführungen dazu schlossen ein, Andrew Revkin am 24. August mitzuteilen:

Ich denke wir sollten vermeiden, einzelne Jahre immer detaillierter einzuordnen. Soweit ich mich erinnern kann, haben wir immer versucht, davor abzuraten, da dies etwas unsinnig ist, im Gegensatz zu (sic) der Frage, welches das wärmste Jahr ist.

Hansen hat Beispiele eines Abratens  dieser Art nicht gezeigt. Stattdessen hat sich die NASA diesen Praktiken aktiv angenommen,aber trotz dieser offensichtlichen Priorität schwankten NASA`s Zahlen, Ansprüche und Einordnungen abenteuerlich.

Am 23. August 2007 sagte Hansen auch zu Revkin:

 So weit ich weiß, machen wir keine solche Liste. Wir mögen solche Listen nicht, weil die Ergebnisse nicht bedeutsam sind und sich von Gruppe zu Gruppe sicherlich unterscheiden (..dies bedeutet, es gibt keine Übereinstimmung bei den als bekannt behaupteten Temperaturen—herunter bis zu einem hundertstel Grad!). Es sind im allgemeinen die Medien, die eine Liste machen. Wir sehen (nur) einem neuen Hoch in den Aufzeichnungen entgegen (…„sehen entgegen“ ist ein wenig untertrieben), sollten aber beachten, dies ergibt nur virtuelle Verbindung, wenn die Differenz so gering ist.

Hansens Erinnerung ist fehlerhaft. Wir haben gesehen, dass sich entscheidende Differenzen bis zu 0,5°C, so wie die zwischen 1934 und 1998, in der Folge und geradezu magisch in eine statistische Verbindung von 0,02°C unter NASA`s  sanften Diensten verändern.

Am 10. August 2007 sandte Ruedy eine E-Mail an NASA`s Leslie McCarthy, Kopie an Hansen. Er bat sie folgendes aufzuzeigen:

Das Problem mit Einordnungen ist, dass es große (Ansammlungen) Gruppen von Jahren gibt, die bezüglich der Fehlerspanne gleich sind und Einordnungen innerhalb dieser Gruppen rein zufällig sind.

Am 23. August sandte Hansen eine E-Mail an Revkin:

Ich glaube wir haben einige Male klar festgestellt, was die Einordnung bewirkt.

 

Alte Gewohnheiten sterben jedoch schwer, und später in seiner E-Mail hebt Hansen 2005 als „das wärmste Jahr“ hervor.

Hier ist eine Auswahl von Presseverlautbarungen der NASA (diese wurden am 27. August 2007 eingesehen):

·     „Wärmstes Jahr in einem Jahrhundert“

·     „2006 war der Erde fünfwärmstes Jahr“

·     „Viertwärmstes Jahr weltweit seit 1890“

·     „Das Jahr 2003 ist das drittwärmste Jahr in dem Zeitraum der genauen Messungen mit Instrumenten“ (besonders erwähnt die zwei wärmeren Jahre)

·     „Das meteorologische Jahr 2002 ist das zweitwärmste Jahr in dem Zeitraum der genauen Messungen mit Instrumenten“

 

Im August 2007 richteten sich die Bemühungen darauf, das Interesse zu verringern, das die NASA, mit nicht bestätigten  Behauptungen über den Anstieg der U.S.- Temperaturen, ausgelöst hatte.  Es waren diese Rangfolgen-Methodik die Hansen und die NASA sich eingesetzt hatte. Sie entsprach der die zu dieser Zeit eingesetzten ad hoc Taktik, weil nur die U.S Messungen und die der einzelnen Jahre, das Interesse an der Temperaturentwicklung hochgetrieben zu haben.

„The New York Times“ Revkin schränkte diplomatisch die Verantwortung für diesen Brennpunkt, an dem die NASA mit einer Leidenschaft teilnahm, die an Besessenheit grenzte, ein, indem er am 10. August 2007 an Hansen schrieb:

  • Tatsächlich haben wenige Leute (Gore und besonders einige Umweltschützer) öfter die US-Temperaturtrends als Argumente für Aktionen genutzt (Reihe von Berichtsjahren). Es ist für mich schwer, die erneute Analyse dieser Jahrestemperaturen zu vernachlässigen,—obwohl mein eigener Schwerpunkt bei den globalen Temperaturen bleibt. Im Grunde genommen sollten die Leute immer weniger Aufmerksamkeit auf den US- Trend (48 Staaten) als einem bedeutenden Signal des AGW gewidmet haben? (Jetzt, da alle diese wärmeren früheren Jahre dazukommen, wird es sicher  zu einem Fall, dass die regionalen Daten ein roter Hering sein können).

Natürlich haben sich die Berichte der Alarmisten lange auf regionalen Daten über das Klima bezogen, obwohl von den Computer Modellen wohl bekannt war, dass sie untauglich sind, Aussagen vom regionalen zum globalen Klima zu machen. Dies ist durch die Anwesenheit der Ozeane und Gebirge bedingt. „Regionales Klima“ ist eine Möglichkeit, lokale Entwicklungstrends zu finden und zu behaupten, sie sind auch für die globale Entwicklung bedeutsam. Sie sind dann politisch nützliche Anekdoten (aber nur wenn sie mit den richtigen Vokaneln geschildert werden können, wie: Erwärmung, sehr trocken/ sehr naß, usw.. Man beachte im obigen Text von Revkin die Worte…." das „Eindringen“ (Hinzukommen) all dieser „früheren warmen Jahre“.

Tatsächlich hat Revkin in der Vergangenheit NASA`s Ansprüche der Art, die er hier Gore zuordnet, vertreten. Dies ist sicherlich ein wenig mehr, als nur ein Diener vor Hansen, wenn er vorschlägt, dabei mitzuhelfen, die aufkommende Verwirrung weg zu massieren und umzulenken.

In der Tat –obwohl Hansen Revkins Fragen grundsätzlich auswich—übernahm Revkin pflichtschuldigst Hansens Linie in eine Geschichte in der New York Times. In dieser spielte er „Hansens Y2k??? Irrtum“ herunter. In dem Artikel, wie er sich in seiner E-Mail als Antwort, an Ruedy der ihn lobte, ausließ, entschuldigt sich Revkin nahezu, all dies geschrieben zu haben—volle zwei Wochen nachdem die Geschichte aufgeflogen war—, aber die Geschichte war für Revkin zu schwierig geworden, um sie noch länger zu ignorieren.

Der NASA Wissenschaftler Ruedy schrieb dann in einer privaten E-Mail am 15.August 2007 an eine brasilianische Journalistin Leticia Francisco Sorg. Darin bestätigt er erneut, wie groß die Heuchelei ist, dass die NASA gewillt ist zu behaupten, dass sogar 30 Jahre eine zu „kurze Zeitspanne“ ist, um die Vorgänge zu beobachten –wenn während dieser 30 Jahre die auftretende Erwärmung der Menschheit nicht zugeordnet werden kann. Andererseits, wenn nicht—sind 30 Jahre viel Zeit, die gewünschten Schlüsse zu ziehen.

Ende des zweiten Teils, Original hier , wird fortgesetzt

 Chris Horner Februar 18, 2010

Christopher Horner ist Senior Fellow des Competitive Enterprise Institute (CEI) Autor u.a. des Buches "Red Hot Lies"

Die Originalversion erschien hier

Mit Dank an h Dr. F. W.  Peppler  und I. Peppler für die Übersetzung.

Article printed from Pajamas Media: http://pajamasmedia.com

URL to article: http://pajamasmedia.com/blog/climategate-2-0-%e2%80%94-the-nasa-files-u-s-climate-science-as-corrupt-as-cru-pjm-exclusive/

URLs in this post:

[1] in support: http://blogs.telegraph.co.uk/news/jamesdelingpole/100023339/james-hansen-would-you-buy-a-used-temperature-data-set-from-this-man/

[2] the destruction of private property: http://joannenova.com.au/2010/01/hanson-barracking-for-lawless-destruction-and-the-end-of-civilization/#more-6213%20http://wattsupwiththat.com/2008/09/10/note-to-nasa-fire-dr-james-hansen-now/

[3] Hansen et al: http://pubs.giss.nasa.gov/docs/2001/2001_Hansen_etal.pdf

 





Climategate 2.0 — Die NASA Daten: U.S. Klimawissenschaft so korrupt wie die CRU (Teil 1) ?

Das tat ich, weil der kanadische Geschäftsmann Steve McIntyre (ein Mann mit professioneller Erfahrung im Hinterfragen von verdächtigen statistischen Behauptungen der Bergbauindustrie und anderer Industrien, der sich einen Namen bei der Aufdeckung der Fehler in der nun berüchtigten “Hockeyschläger-Kurve” gemacht hat)  Ungereimtheiten bei den NASA-Behauptungen vom immer wärmer werdenden ersten Jahrzehnt dieses Jahrhunderts bemerkte. Die NASA schien die U.S. Temperaturen des beginnenden Jahrhunderts ab 2000 aufgeblasen zu haben. Meine FOIA-Anfrage erbat von der NASA Informationen über die dortigen internen Diskussionen zur Frage, ob und wie der Temperaturfehler zu korrigieren sei, der von McIntyre aufgedeckt worden war.

Die NASA hat auf meine Anfrage mehr als zwei Jahre lang gemauert, bis ich durch Klimagate veranlasst wurde, der NASA eine Klage anzudrohen, falls sie nicht umgehend meine Forderung erfüllte.

An Silvester hat die NASA schließlich dem Competitive Enterprise Institute (CEI) die Dokumente übergeben, die ich im August 2007 angefordert hatte.

Die Emails werfen ein Licht auf die Heuchelei, Unehrlichkeit der NASA und deren zweifelhafte Seriosität beim Umgang mit den Daten. Und wie sich die NASA bei der Verteidigung ihrer Behörde windet. Die Emails belegen, wie die NASA enorme Mengen von Steuergeld veruntreut, indem sie genau das tut, was sie nur einem "Skeptiker" zutraut. Die Emails zeigen, wie die NASA versucht hat, ihre Webseite um ihre eigenen Dokumente zu bereinigen, und wie sie doch tatsächlich klammheimlich viele Presseverlautbarungen tilgte, die sich auf nachweislich falsche Daten berufen hatten. Und sie zeigen eine NASA, die behauptet, ihre eigenen Temperatur-Fehler (bei deren Erzeugung sie erwischt wurde, und die sie in nicht korrigierter Form auch noch aggressiv herausstellte) seien nur trivial, nachdem sie jahrelang schon bei geringeren Erwärmungs-Anomalien herumtrompetet hatte. 

Wenn man die folgenden Email-Auszüge zusammen mit denjenigen betrachtet, die ich in den nachfolgenden drei Teilen dieser Reihe besprechen werde, so möge man im Auge behalten, dass diese Emails beabsichtigten, die Sache der Herbeiführung der einschneidendsten Gesetzgebung in der Geschichte zu untermauern: der Verbannung von Kohlenstoff-Emissionen von aller menschlichen Aktivität. Die Aktivisten der NASA lassen keine Zweifel in ihren Emails, dass dies ihr Ziel war. Auch möge man bitte bedenken, dass diese Dokumente eine vor zwei Jahren gestellte diesbezügliche FOIA-Anfrage beantworten. Die jüngsten Entwicklungen lösen zusammen mit den Enthüllungen in diesen Dokumenten weitere Anfragen aus, die bereits abgeschickt wurden, weitere werden folgen.

Darüber hinaus hat das CEI am 29. Januar 2010 die NASA angezeigt wegen deren unrechtmäßiger Zurückhaltung weiterer Dokumente bei der Beantwortung unserer FOIA-Anfragen. In dieser Anzeige haben wir die NASA informiert, dass, falls sie nicht binnen 20 Tagen – wie es rechtlich geboten ist – unsere Forderung erfüllt, wir unsere Rechte vor Gericht ohne Verzug wahrnehmen werden.

Unter der Leitung von Dr. James Hansen, Direktor des NASA-Goddard Institute for Space Studies (GISS) führt die NASA eine fortwährende öffentliche Kampagne mit der Behauptung eines klaren Beweises des anthropogenen Klimawandels (AGW) — eines Klimawandels, der vom Menschen verursacht wäre. Die mittels der FOIA-Anfrage freigegebenen Dokumente jedoch enthalten atemberaubende Geständnisse über die Unverlässlichkeit der Daten. Besonders angesichts der NASA Behauptungen, sie würde die Temperaturen und deren Abweichungen im hundertstel Bereich eines Grades kennen, und angesichts ihres Beitrags zum Alarmschlagen über die behauptete Zunahme von nur einem Grad während mehr als einem Jahrhundert.

Dr. Reto Ruedy, Kollege von Hansen beim GISS, beschwerte sich in seiner Email vom 3. August 2007 bei Gavin Schmidt, einem seiner Mitarbeiter und zugleich RealClimate-Blogger:

        Die Daten [des United States Historical Climate Network] werden nicht routinemäßig aktualisiert (derzeit (sic) scheinen sie 2002 zu enden).

Diese Unterlassung hat zu erheblichen Differenzen bei den Daten geführt, die angeblich von den gleichen Bodenmessstationen des US-HCN und des Global Climate Network (GHCN) kommen. Die NASA trompetete später, dass sie nur ganz geringfügige "Justierungen" an diesen Daten (selbstverständlich nach oben) vorgenommen hätte – diese Justierungen, wie sie jetzt zugeben müssen, liegen innerhalb der Fehlerungenauigkeit. Doch dieser Tatsache haben sie weit weniger Gewicht beigemessen in ihrer Medien-Kampagne zur Behauptung einer nicht normalen, menschengemachten Erwärmung.

   Ruedy vom GISS schrieb dann: 

   Die Annahme [der NASA], dass durch die Justierungen die älteren Daten in Übereinstimmung mit zukünftigen Daten gebracht wurden … könnte möglicherweise nicht stimmen. … Bei 490 von 1057 Stationen waren die USHCN-Daten um bis zu 1C kälter als die entsprechenden GHCN-Daten, bei 77 Stationen waren die Daten gleich, und bei den übrigen 490 Stationen waren die USHCN-Daten wärmer als die GHCN-Daten.

Ruedy behauptete, dass dadurch eine geschätzte Erwärmung von etwa 0.1 C in die Datenhistorie gekommen sei. Dann beschrieb er einen alternativen Weg der Manipulation für die Temperaturdaten, man sollte stattdessen eine “eine sorgfältigere Methode” finden.

Der vormalige Umweltreporter Andrew Revkin von der New York Times schrieb privat, dass er sich Sorgen um die Verlässlichkeit der Bodenmessstationen machte, obgleich er öffentlich seinen oberen Platz auf der Hühnerstange der Klima-Alarmisten häufig zum Beschreien des Klimawandels nutzte. Noch bei der Times schrieb er an Hansen am 23. August 2007: 

„am heutigen tage habe ich zum ersten Mal bei http://www.surfacestations.org nachgesehen und musste mich doch sehr wundern. wenn unsere stationen derart schlampig sind, wie ist es dann erst in der mongolei.“

Leider hat sich Andy niemals die Zeit genommen, über schlampige bis hin zu verwunderlichen Daten zu schreiben, obgleich er in vielen Artikeln für eine Bedeutung warb, von der wir wissen, dass die NASA sie für statistisch bedeutungslose Temperaturaussagen hält. Das genau ist Parteinahme oft: Nur eine Seite der Geschichte wird dargestellt, noch dazu die am wenigsten überzeugende.

Am 14. August 2007 emailte Makiko Sato vom GISS an Hansen, dass nach seiner Analyse eine Erwärmung von 1 Grad zwischen 1934 und 1998 tatsächlich nur die Hälfte hätte betragen können:

        Ich bin mir sicher, dass ich 1998 wenigstens einmal für wärmer als 1934 erkannt hatte, weil ich auf meiner eigenen Temperatur-Webseite (die sich die meisten Leute niemals anschauen), ich habe [hier befindet sich verborgene Image/Information im Dokument]. … die Daten nicht aufgehoben, aber einige davon sind noch da (dann werden einige Daten aufgelistet, in denen 1934 um 0.5 C wärmer als 1998 ist).

Weil die Klima-Aktivisten nur eine Erwärmung von 1 Grad für das vergangene Jahrhundert anführen, ist das Ausmaß von 0,5 C in ihren Berechnungen schrecklich.

Sato fährt fort:

      Es tut mir leid, dass ich nicht mehr Daten aufgehoben habe, aber die US-Daten nach 2001 haben mich in meinem Papier nicht interessiert.

Sato bezieht sich auf das Papier von Hansen et al., in welchem die Kollegen von Hansen diesen daran erinnern, dass 1934 als um einen halben Grad wärmer als 1998 in der Liste steht. — Es ergibt sich aus ihren Emails, dass die Daten vom Juli 1999 das so belegten (ihr Papier beschrieb 1924 als nur "geringfügig" wärmer als 1998, S. 8). Dennoch besteht Hansen in allen diesen Emails darauf, dass 1934 und 1998 statistisch unentscheidbar wären, weil sie gerade mal um 0,02 C unterschiedlich wären und sogar darauf, dass ihre Einordnung [in die Rangfolge der wärmsten Jahre] unverändert bliebe. Beispielsweise behauptet Hansen in einer Email an einen Journalisten bei Bloomberg: "Wie Sie aus unserem Papier von 2001 entnehmen können, fanden wir 1934 als etwas wärmer, aber nur um Haaresbreite mehr als 1998, wir kommen immer wieder zu diesem Ergebnis."  Die Folgerung daraus ist, dass sich nichts geändert hat, obgleich sich die NASA tatsächlich auf ein Unentschieden hinbewegte mit der Behauptung der statistischen Signifikanz eines wärmeren 1934 anstelle von 1998, was politisch unerwünscht war.

In Bezug auf die U.S.-Temperaturen gestand Ruedy am 23. August 2007 Hansen:

       Ich erhielt eine Kopie von einem Journalisten in Brasilien. Wir hier heben die Daten nicht auf.

Die Beziehung von Ruedy zu einem brasilianischen Journalisten führt zum Thema der Inzucht zwischen dem NASA-GISS und ähnlich denkenden Umweltreportern. Man muss sich nur in die Erinnerung zurückrufen, wie jüngst die Behauptung des Weltklimarats (IPPC) vom Gletscherschwund im Himalaya diskreditiert wurde, als entdeckt wurde, dass dies das Werk eines einzelnen spekulierenden Journalisten in einem Unterhaltungsmagazin war und keine streng fachbegutachtete Wissenschaft.

Das kann man auch von der Beziehung der NASA zum IPCC sagen, dessen Alarmschlägerei die NASA ermöglichte. In einer privaten Email wird unter der Hand stillschweigend zugegeben, wenn auch privat, dass die IPCC-Behauptungen von der zunehmenden Erwärmung, wie ja auch IPCC-Chef Rajendra Pachauri oder UN-Generalsekretär Ban Ki-Moon sagen, fadenscheinig sind. Doch die NASA hat sich niemals gegen diese Alarmschreierei gewandt. Im Gegenteil, die NASA wartete ab und zog ihren Vorteil daraus, weil der Steuerzahler mit stark ansteigender Finanzierung das wachsende, wenn auch unpassende Interesse für das "Klima" bezahlte. 

    Am 15. August 2007 antwortete Ruedy per Email auf die Frage der brasilianischen Journalistin Letizia Francisco Sorg, ob sich die Erwärmung verstärke:

"Um das feststellen zu können, würde ein längerer Beobachtungszeitraum benötigt als die vergangenen 25 Jahre. Man braucht tatsächlich noch weitere 50 – 100 Jahre."

Das ist ein vernichtendes Eingeständnis der Komplizenschaft der NASA mit dem UNO-Alarmismus. Das ist keine Wissenschaft. Das ist entlarvte Parteigängerei. Die Unschicklichkeit derartiger Parteigängerei ist allein deshalb schon offensichtlich, sieht man mal von unbegründeten wissenschaftlichen Behauptungen ab.

Ende des 1. Teils, wird forgesetzt.

Christopher Horner ist Senior Fellow des Competitive Enterprise Institute (CEI) Autor u.a. des Buches "Red Hot Lies"

Die Originalversion erschien hier

Mit Dank an Helmut Jäger für die Übersetzung.




Dokumentation: Klima- und Hirnerwärmung von ZDF bis 3Sat: Mehr Schwachsinn geht nicht mehr! Ein veröffentlichter Brief des Fernseh-Journalisten Günter Ederer!

Zugegeben, in einer „heute“-Moderation von Klaus Kleber über die Absenkung der Solarsubventionen hat er in aller Deutlichkeit das Für und Wider der Solarförderungen benannt. Wären alle Moderationen und Sendeinhalte so journalistisch aufbereitet gewesen, hätte ich mir sicher die Arbeit über die ZDF-Berichterstattung nicht gemacht.

Seit meinem Brief hat sich die Diskussion über die menschengemachte Klimaerwärmung verändert. Fast im Wochentakt musste das IPCC neue Fehler seiner Veröffentlichungen zugeben. Selbst Phil Jones räumt plötzlich ein, dass es seit 1995 keine messbare Erwärmung gegeben hat. Hat es keine Erwärmung gegeben, dann kann es logischerweise auch keine Folgeschäden gegeben haben.

Lassen Sie mich an drei Beispielen, die Sie konkret in Ihrem Brief ansprechen, zeigen, wie falsch die öffentliche Diskussion läuft und wie falsch Sie bisher unterrichtet wurden:

Erstens: Sie schreiben: Wenn es nach Kritikeransicht keine Klimaerwärmung gibt, wieso war dann erstmals im August 2008 die Nordwestpassage eisfrei:

Die Realität: Die „FAZ“ schrieb am 02.12.2007: „Im September 2007 wurde die Nordwestpassage zum ersten Mal seit dem Beginn der Aufzeichnungen eisfrei und für Schiffe befahrbar.“. Das war ein Jahr vor Ihrem Datum. Aber 1903 und 1906 durchfuhren Nansen und Amundsen die Nordwestpassage. Das haben wir schon in der Schule gelernt. 1940 während der arktischen Erwärmung 1920-1940 war es das kanadische Polizeischiff St. Roch. 1957 das US-Schiff Stories. 1969 der amerikanische Tanker Manhattan und ein Küstenwachschiff und schließlich 1985 der US Eisbrecher Polar Sea. Darüber hinaus gibt es viele Forschungsergebnisse, die darauf schließen lassen, dass in der mittelalterlichen Warmzeit vermutlich Wikinger und Chinesen die Nordwestpassage befahren haben.

Zweitens: Sie schreiben: Wieso dehnen sich die Wüstenzonen massiv aus (Südspanien). Das stimmt in einigen Regionen der Welt, wo der Mensch massiv in die Vegetation und den Wasserhaushalt eingegriffen hat (Gobi, Nordwestchina). Satellitenaufnahmen aber zeigen, dass die Vegetation in der südlichen Sahara vom Roten Meer bis zum Atlantik massiv zunimmt und sich teilweise weit über 100 Kilometer nach Norden ausgebreitet hat. Darüber hat zum Beispiel der „Spiegel“ ausführlich berichtet. Das ist also keine mühsam zu recherchierende Tatsache. Südspanien hat in den letzten Jahren unter Stürmen und sintflutartigen Regenfällen gelitten. In diesem Winter waren die Berge bis in die Küstenregionen tief verschneit. Alle Wasserreservoirs sind voll – übrigens auch in Sizilien, Süditalien und Sardinien. Einzelne Wetterphasen immer gleich als Beweis des Klimawandels umzudeuten ist sicher einer der größten Sünden der daran interessierten „Wissenschaftler“ und ihren „journalistischen“ Nachbetern. Das gilt sowohl für die Erwärmer wie die Eiszeitpropheten.

Drittens: Sie schreiben, dass die UN mit ihren Klimaschutzanstrengungen sicher nicht der Welt das größte Schauspiel aller Zeiten vorgaukeln will. Nein, das will sie nicht. Aber hier geht es um knallharte Wirtschaftsinteressen und um politische Machtfragen. Im Jahr 2000 habe ich nach meinen Recherchen zu dem Thema in meinem Buch geschrieben, dass es vor allem die Nuklearindustrie ist, die unter massiver Unterstützung durch Al Gore und Margret Thatcher das CO2 zum Thema gemacht haben. Die Nuklearindustrie war tot, flach wie eine Flunder. Die wunderbare Wiederauferstehung ist ihr jetzt offiziell gelungen, nachdem die USA wieder mit dem Bau von Atomreaktoren beginnen. In Großbritannien sollen acht Reaktoren gebaut werden, die – so die Industrie – sich aber nur rechnen, wenn das CO2 deutlich teurer wird als bisher geplant und absehbar. Zielvorgabe 500 Dollar pro Tonne. Sowohl Labour, als auch der konservative Parteiführer David Cameron vertreten genau diese Linie. Also: Es geht nicht um ein Schauspiel, sondern um ein Billionenspiel und um die politische Machtverteilung auf dieser Welt für das 21- Jahrhundert.

Statt des abenteuerlichen Katastophenfilmes wäre es eine wichtige journalistische Aufgabe gewesen, die Mächte aufzuzeigen, die da um Geld und Einfluss kämpfen – wer die Sieger und Verlierer dieses Kapitalmonopolies sind, das da mit moralischen Kategorien ausgetragen wird. In Deutschland ist die Rolle der Münchner Rück und von Siemens dringend aufzudecken und… Aber wie schon bei der Finanzkrise: Die Mainstreamjournalisten werden erst wach, wenn alle darüber berichten.

Ich füge eine DVD bei, auf der zwei Beiträge sind, die ich so im Internet fand. Das eine ist die kommentierende und unsachliche Moderation eines Beitrages durch Petra Gerster. Sie verstößt gegen alles, was ein Volontär in seinen ersten  Tagen lernt: Die strikte Trennung von Nachricht und Kommentar. Der andere Beitrag zeigt die kritiklose Akzeptanz der Potsdamer Klimafolgeforscher. Da darf Prof. Schellnhuber in aller Ausführlichkeit und mit der Autorität, die ihm Journalisten und Politiker eingeräumt haben, den größten Unsinn über das Abschmelzen der Himalayagletscher erzählen. Wer diesem Scharlatan und seine Mitspieler Rahmstorf und Edenhofer einmal genau auf den Wahrheitsgehalt ihrer Voraussagen von früher überprüfen würde, müsste feststellen, dass sie meist schwadronieren, aber nichts beweisen können. Auch das wäre eine journalistische Fleißarbeit.

Sie scheiden als Chefredakteur aus und tragen zumindest für die journalistische Zukunft des ZDF keine Verantwortung mehr. Deshalb bitte ich Sie, dieses Schreiben, wie im Briefkopf angegeben, an Ihren Nachfolger weiterzureichen – auch die DVD. Ich werde diese meine Kritik an der Berichterstattung öffentlich intensivieren, da ich keine wirkliche Besserung sehe. Wie könnte sonst der Moderator Ingolf Baur bei 3Sat fordern: Wir brauchen eine CO2 freie Welt. Hurra: Herr Baur, dann wären wir alle tot.. Mehr Schwachsinn geht nicht mehr.

Mit freundlichen Grüßen

Günter Ederer

Kopie: Herrn Markus Schächter, Intendant des ZDF

28. Februar 2010 

Der Brief erschien zuerst bei eigentümlich frei 




Eiszeit voraus? Die Klima-Launen der Sonne!

Die heiße Sonne | Warum ist die Sonne grell und heiß? Brennt dort ständig irgend etwas, zumBeispiel Kohle?Davon war man noch Anfang des 19.Jahrhunderts(!) überzeugt. DieSonnenflecken wurden folglich als Schlacke oder Rauchfahnen gedeutet. Erst die moderne Chemie zeigte auf, dass eine aus Kohle und Sauerstoff bestehende Sonne schon nach wenigen Jahrtausenden ausgebrannt sein müsste. Nach den physikalischen Entdeckungen von Fraunhofer, Bunsen und Kirchhoff begriff man dann, dass die Sonne innen ein Feuerball und außen eine heiße Gaskugel ist, in der einzelne chemische Elemente spezifische Wellenlängen („Fraunhofer’sche Linien“) des von der Sonnen­Oberflä­che ausgehenden Lichtes absorbieren.

Nachdem 1938 Hans Bethe und Carl­Friedrich von Weizsäcker die Kernfusion von Wasserstoffkernen und die dabei entstehende gewaltige Energie-Freisetzung entdeckt hatten, übertrug man diese Erkenntnis auch auf die Sonne: Dort verschmelzen ineinem komplizierten Prozess mit vielen Zwischenschritten vierWasserstoff Atome zu einem Helium Atom. Das heizt die innere Sonne auf Millionen Grad auf, und noch an der Oberfläche sind es rund 5.500°C. Dabei wird pro Sekunde eine Leistung von 4×1026 Watt erbracht; mit dieser „Sekunden-Leistung“ könnte man Europa vier Millionen Jahre mit Energie versorgen. Aber leider beherrschen wir diese Technik der Sonne auf der Erde noch nicht. Immerhin – die Physiker arbeiten intensiv daran, beispielsweise mit den Projekten JET, TOKAMAK und ITER. Es wäre die Lösung all un­serer Energie Probleme!

Die unruhige Sonne | Der „Fusions­Reaktor“ Sonne arbeitet sehr un­gleichmäßig. Die Sonnen­Oberfläche verändert sich ständig, sowohl in der variablen Zahl der Flecken, als auchdurch allerlei Explosionen und Eruptionen. Im Mantel der Sonne laufen ständig vertikale (konvektive) und horizontale (advektive) Transport­Prozesse ab, deren Intensität sich infolge von Umpolungen, Bündelungen und Entbündelungen solarer Magnetfelder verändert. Dabei entstehen auch diesogenannten „Sonnenflecken“,sowie deren Veränderungen in Zahl, Größe und Kom­bination. Infolge der Magnetfeld Änderungen wird in einigen Bereichen die Konvektion verlangsamt, beendet oder sogar umgekehrt. Nun fehlt an solchen Stellen der „Nachschub“ an heißem Plasma, und die Ober­fläche wird kühler – für das Auge entsteht ein „dunkler Fleck“. Der Kernbereich eines Sonnenflecks, die so genannte Umbra („Kernschat­ten“) hat „nur“ eine Temperatur von rund 4.000 °C, der Randbereich ( Penumbra, Hof, Halbschatten) eine Temperatur von 5.000­5.500°C.

Durch Aufzeichnungen seit Galilei, Scheiner und anderen sowie aus sogenannten „Proxi-Daten“ wissen wir heute, dass es im Laufe von Jahrzehnten und Jahrhunderten bei der Zahl der Sonnen-Flecken Perioden gibt. Die bekannteste Periode ist – über die Jahrhunderte gemittelt – der rund 11-jährige „Schwabe-Zyklus“. Dieser wurde von dem Dessauer Apotheker S. H. Schwabe um 1840 entdeckt und von dem Astronomen J. R. Wolf bearbeitet, zurück verfolgt und nummeriert – „willkürlich“ beginnend mit „Nr. 0“ im Jahre 1749. Ein jeweils neuer Zyklus wird ab dem Flecken-Minimum gezählt, womit derzeit der Zyklus Nr. 24 Ende 2007 begann – beginnen sollte, denn die Sonne sprang nicht an. Längerperiodisch über den Schwabe-Zyklus übergreifend werden in der Literatur immer wieder zwei weitere Zyklen genannt: Der ca. 80-jährige Gleißberg-Zyklus1 und der ca. 200jährige De-Vries-Zyklus2 (Abb.1)………

Lesen Sie den ganzen Text von Klaus Puls EIKE als pdf im Anhang.

Related Files




Den Planeten retten? Emissionshandel beenden

 „Falls die Kongreßmitglieder noch einen weiteren Grund dafür benötigen, um das Waxman-Markey-Gesetz zu töten – das die Wirtschaft erstickende und Jobs zerstörende Energieprogramm der Obama-Administration – dann haben Tim Searchinger und seine Kollegen von der Princeton-Universität einen Volltreffer: Die Gesetze zur Kohlenstoff-Reduzierung bestärken eine weitreichende Entwaldung, so lange Bäume und andere Vegetation für die Energieproduktion aus Biomasse geerntet werden, um Öl und Gas zu ersetzen. Das Problem besteht darin, daß dieser Prozeß auf lange Sicht Treibhausgas-Emissionen tatsächlich erhöht, obwohl das der Emissionshandel eigentlich verringern sollte, wie Searchinger feststellt. Der Artikel der Princeton-Forscher zeigt, daß nahezu alle Studien über die globale Erwärmung darin versagten, die Kohlenstoffemissionen, die aus der Umwandlung von Ackerland und Wäldern  für die Energieerzeugung resultieren, in ihren Berechnungen zu berücksichtigen. Wie die Autoren sagen, behandelt dieser Berechnungsfehler sämtliche Bioenergie als Kohlenstoff-neutral, im Gegensatz zu der Tatsache, daß das Verbrennen von Holz und der Kahlschlag von Flächen in Wirklichkeit eine große Kohlenstoffmenge in die Atmosphäre freisetzt.

Nach Searchinger ergab sich:

– Durch Anwendung eines weltweiten Landwirtschafts-Modells für die Emissionsabschätzung als Folge von   

Landnutzungsänderungen fanden die Forscher, daß aus Mais erzeugtes Ethanol die Treibhausgas-Emissionen 30 Jahre lang nahezu verdoppelt, anstatt eine 20-prozentige Verringerung zu erreichen, und daß es insgesamt die Treibhausgase für 167 Jahre erhöht.

– Biotreibstoffe aus Switchgrass1) auf vormaligen Maisfeldern erhöhen in den USA die Emissionen um 50 Prozent.

– Weder das Kyoto-Protokoll, noch das IPCC oder existierende Europäische Emissionshandels-Programme haben die ausgedehnte Entwaldung berücksichtigt, die durch die weltweite Reaktion der Landnutzer auf die neuen ökonomischen Anreize zustande kam.

Diese Zahlen könnten tatsächlich das Wachstum der im Vertrauen auf Energiegewinnung aus Biomasse-Quellen ausgelösten Treibhausgas-Produktion unterschätzen. Denn der Emissionshandel umfaßt Subventionen in Höhe von 30 Milliarden US-Dollars für die Erforschung alternativer Energien, Entwicklung und Vermarktung, einschließlich Biomasse. In anderen Worten: Eine Stimme für die o.e. Fassung des „cap-and-trade“-Gesetzes oder der Begleitgesetze….bedeutet eine Stimme für sogar noch mehr Treibhausgase.

Jetzt sind es die Gegner der Gesetze zum Emissionshandel, die ernsthaft sagen können, daß sie nur versuchen, den Planeten vor den Verheerungen durch Treibhausgase zu retten“, sagt der Washington Examiner.

1) Switchgrass ist ein mehrjähriges Präriegras. Die Kombination von hoher Photosyntheseleistung (schneller Massezuwachs) und relativ geringem Wasserverbrauch macht Switchgrass daher zu einem geeigneten und in den USA verwendeten Biomasseproduzenten auf trockenen Standorten. (G.K.)

Übersetzung: G. Keil, erschienen hier

Original Quelle: hier 




Tolle Visionen oder der Fluch der Technik?

Das war einmal. Aber auch in der heutigen Zeit werden uns regelmäßig technische Verheißungen vorgestellt, die zwar nicht mehr den Endsieg bringen sollen, jedoch einen viel größeren Wohlstand, eine bessere Umwelt und mittlerweile auch gleich noch die Rettung des gesamten Planeten vor seiner eigentlich unvermeidlichen Vernichtung durch uns selbst.

Einige dieser Wundertechniken sind bereits angeschlagen. So haucht gerade die jahrzehntelang gepriesene Wasserstofftechnik als Fahrzeugantrieb ihr Leben aus. Aber gleichzeitig mit dem Ende dieser Wundertechnik zaubert man nun einen noch besseren Ersatz hervor: Das Elektroauto. Und sofort springen die Politiker nach dieser neuen, eigentlich uralten Mohrrübe.

Andererseits gibt es auch recht alte Zukunftstechniken, die bereits über Jahrzehnte mühsam und teuer  entwickelt wurden und immer noch nicht marktreif sind. Einige dieser Techniken haben eine reale Chance auf die Erlangung einer Anwendungsreife, aber ihre Befürworter haben den erforderlichen Zeit- und Geldaufwand extrem unterschätzt – und dies in der Regel absichtlich. Und das kann bedeuten, daß sie am Ende zwar verfügbar, aber überholt sind.

 

Dieses sich immer wieder erneuernde und oft scheiternde Spiel mit Technik-Visionen kann nicht allein durch den Sensationsbedarf der Medien erklärt werden. Es steckt mehr dahinter:

Hinter dieser nicht enden wollenden Abfolge von technischen Sensationen, deren für den Steuerzahler teure Förderung und ihrem stillem Ende nach etlichen Jahren stehen tatsächlich einige Gesetzmäßigkeiten:

 

1.  Spielverderber Physik

Der größte Spielverderber, fast könnte man es einen Fluch nennen, ist die Physik mit ihren Gesetzen. Und die dazu gehörende Mathematik im schlichten Gewande der Kostenrechnung.  Wenn in der Kette der für eine technische Entwicklung erforderlichen Einzelschritte auch nur ein Glied diesen Gesetzen widerspricht, ist die Pleite am Ende vorprogrammiert. Auch dann, wenn die Promotoren der Neuerung absichtlich diese Fakten ignorieren – zum Beispiel die ausgeblendete energieaufwendige, schmutzige und teure Herstellung des angeblich so sauberen Wasserstoffs oder das bewußte Ignorieren der für witterungsabhängige Stromerzeugungs-Arten wie Photovoltaik und Windkraft unverzichtbaren gewaltigen Stromspeicher, die man einfach nicht hatte; jedenfalls nicht zu erträglichen Kosten.

 

 2.   Das überschätzte Patent

Oft überschätzt man auch ein erteiltes Patent. Das deutsche Patentamt ist mit einer nahezu unendlichen Anzahl erteilter Patente gefüllt, die ebenso nahezu alle für eine Anwendung wertlos sind. Viele davon sind auch nur Sperrpatente, die es nur der Konkurrenz verleiden sollen, bestimmte Entwicklungen aufzunehmen. Der Grund: Für eine Patentierung ist es nur erforderlich, daß die Erfindung neu ist und daß sie den Naturgesetzen nicht widerspricht. Es wird nicht danach gefragt, ob die Erfindung überhaupt funktioniert – es wird kein funktionierender Prototyp verlangt – ob sie wirtschaftlich produziert werden kann, ob sie dem Anwender einen genügend großen Nutzen bringt und ob es überhaupt einen Markt dafür geben kann. Deshalb hat Felix Wankel, bevor er sich an die Konstruktion seines eigenen Kreiskolbenmotors machte, erst einmal über 250 bereits erteilte Patente zu Kreiskolbenmotoren angesehen. Die tollsten Konstruktionen. Die er alle als unbrauchbar erkannte. Und dann seine Version entwickelte, die sich ebenfalls nicht durchsetzen konnte.

 

3.  Oft ist Technik eine lahme Ente

 Vollkommen falsche Vorstellungen herrschen über den Zeitraum, den eine Technik, auch eine sehr geeignete, in ihrer Entwicklung bis zu ihrer Marktreife benötigt. Ein Grund für diese Fehleinschätzung sind sicherlich die gezielt falschen Prognosen der Interessenten, die genau wissen, daß die mit Fördergeldern winkenden Ministerien zu lange Entwicklungszeiten nicht mögen.  Ehrlichkeit in diesem Punkte rächt sich nämlich bei den Haushaltsberatungen, in denen totale Technik-Laien – das sind Finanzbeamte, genannt „die Haushälter“ – zu lang erscheinende Entwicklungszeiträume mit Geldkürzungen bestrafen. Auch Politiker lieben Erfolgsprognosen, die sich angeblich nach wenigen Jahren – beliebt sind 10 -15 Jahre – erfüllen.  Doch die   Wirklichkeit  sieht anders aus.

Beispiele könnte jeder finden:

 

Bald kommt das Elektroauto wieder ?  Ein Musterfall

Die soeben neu erweckte Begeisterung für Elektroautos läßt ein deja-vu-Gefühl aufkommen: Da war doch schon mal was ? In der Tat führte zwischen 1992 und 1995 die damalige Regierung – begeistert  befürwortet durch Forschungsminister Heinz Riesenhuber und eine gewisse Angela Merkel, Umweltministerin, – einen großen Feldtest für Elektroautos auf Rügen durch. Und der damalige Innenminister Manfred Kanther gab das Ziel aus, daß mindestens 10 Prozent aller neu zugelassenen KFZ im Jahre 2000 Elektroautos sein sollten. Es kam natürlich anders. Auch die weitgehend auf Erinnerungsschwäche beruhende neue Begeisterung für das alte Thema ignoriert weiterhin das Fehlen zuverlässiger und kostengünstiger Antriebsbatterien. Das ist seit etwa 100 Jahren der Fall, als mit der Erfindung des Automobils sofort auch der Elektroantrieb Anwendung fand. Nach einigen Jahren hängte der Verbrennungsmotor, der seine Energie aus den mit Abstand besten Speichern holt – das sind flüssige Kohlenwasserstoffe –  den E-Antrieb hoffnungslos ab. Seither arbeiten Generationen von Experten der physikalischen Chemie an der Verbesserung der Akkumulatoren. Aber die heutige erstaunliche Weiterentwicklung der Diesel- und Benzinmotoren hält den Vorsprung aufrecht; so rechnet man in wenigen Jahren für einen Diesel der Golfklasse mit einem Verbrauch von 3 l/100 km.  Wenn man die in diesen 100 Jahren erfolgten gewaltigen Investitionen an Geist und Kapital in die Batterietechnik in Betracht zieht, wird  klar, daß jetzt mit einem sensationellen Durchbruch bei Lebensdauer, Kältefestigkeit  und Preis innerhalb weniger Jahre  nicht zu rechnen ist. Auch die pressewirksamen E-Auto-Aktivitäten der KFZ-Industrie dienen nur dazu, den Medien einen umweltfreundlicheren Eindruck zu vermitteln. Kritische Stimmen werden überhört, weil sie die Illusion stören: So erklärte der Chef der Bosch-Geschäftsführung Franz Fehrenbach, daß „bis zu einer breiten Elektrifizierung noch viel Zeit vergehen werde“ und daß „alle, die etwas anderes behaupten, entweder den Stand der Technik nicht kennen oder verantwortungslos handeln.“ Und weiter: „Selbst noch 2015 müssen sie für einen Elektro-Golf voraussichtlich mit 8000 bis 12000 Euro für die Batterie rechnen.“ Damit würde allein eine solche Lithium-Ionen-Batterie, die gerade einmal für eine 200 km-Reichweite gut sei, mehr als ein Kleinwagen kosten und sie würde dazu, wie Bernd Bohr, ebenfalls Robert Bosch GmbH, betonte, „250 kg schwer sein.“ Und Christoph Huß von der VDI-Gesellschaft Fahrzeug- und Verkehrstechnik betonte, daß „wir nicht vergessen dürfen, daß die technisch-physikalischen Grenzen elektrochemischer Energiespeicher nicht durch politische Sonntagsreden außer Kraft gesetzt können.“

Woraufhin die Regierung am 19. August 2009 ihren „Nationalen Entwicklungsplan Elektromobilität“ im Kabinett verabschiedete, der neben vernünftiger Forschungsförderung die finanziell katastrophalste und unwirksamste aller staatlichen Technikförderungen wiederholt, nämlich als Marktanreizprogramm Zuschüsse für den Kauf der noch unbrauchbaren Technik, an denen sich am Ende ausländische Billighersteller bereichern, wie bei der  Photovoltaik-Förderung nach dem EEG. Und der Ladestrom soll laut Plan selbstverständlich aus erneuerbaren Energien kommen – nur weiß die reale Steckdose nichts davon. Und abermals ein Politiker-Termin: 2020 soll es 1 Million E-Fahrzeuge geben. Kanther läßt grüßen. Nichts beschreibt das intellektuelle Elend der Regierenden mehr als derartige Heilsprogramme und Selbsttäuschungen. Die Rache der Physik  folgt auf dem Fuße; der Steuerzahler blutet.

Dieses Beispiel wird hier so eingehend behandelt, weil der Leser selbst bereits aus den genannten Daten mit einer einfachen Rechnung das Scheitern dieses Nationalen Entwicklungsplans sicher vorhersagen kann:

Der Golf wird bereits um 2015 mit 1 kg bzw. 1 Liter Diesel 33 km weit fahren können. Das E-Auto mit dem Strom aus einem teuren Kilo  Batteriegewicht aber nur 800 Meter. Das ist der Faktor 42. Im Winter ist die Dieselheizung gratis; im E-Auto sinkt die bereits jammervolle Reichweite erneut um etwa ein Drittel. Da sind auch die Stromkosten kein Trost mehr. Selbst bei größter Subventionierung, die zu befürchten ist, wird kaum jemand ein solches Vehikel kaufen.

Der konventionelle PKW besitzt also weiterhin einen uneinholbaren Vorsprung und er wird bei Betankung mit Biosprit der 2. Generation sogar noch zu einem echten Umweltmobil.

In der ferneren Zukunft wird auch die zurückgehende Ölförderung dem klassischen Verbrennungsmotor nicht schaden, da nach 2040 zunehmend synthetisches Benzin auf dem Markt erscheinen dürfte.  Produziert mit Hilfe der dann einsatzbereiten Hochtemperatur-Kernreaktoren (HTR), mit deren Prozeßwärme Wasserstoff billig durch thermische Wasserspaltung erzeugt und in Kohle-Hydrierwerken zu Benzin umgewandelt wird. Diese geniale deutsche Erfindung ist durch deutsche Regierungen nach ihrer erfolgreichen Entwicklung eingemottet worden und wird jetzt in China, Japan und Südafrika zur Marktreife gebracht. Es gibt also auch deutsche Technologieentwicklungen, die erst gefördert, erfolgreich entwickelt,  dann verhindert und schließlich der internationalen Konkurrenz billig  überlassen werden. Auch dies ein Stück aus dem Absurditätenkabinett deutscher Technologiepolitik.

 

Die Brennstoffzelle auf dem langen Marsch

 Die Brennstoffzelle (BSZ) ist wie die Batterie ein Aggregat, in dem leider die Gesetze der physikalischen Chemie wirken und ebenso der oben zitierte Satz von Herrn Huß gilt.  Schon immer war diese Technik der Stromerzeugung durch  „kalte Gasverbrennung“ mit tollen Visionen von mit Brennstoffzellen betriebenen E-Autos begleitet worden und die Fördergelder flossen in Strömen. Bereits 1972  fuhren damit ausgerüstete Boote und Gabelstapler herum; der endgültige Durchbruch für den Autoantrieb war nur noch eine Frage der Zeit. Das ist sie noch heute. Genau wie bei den Akkus gibt es große Probleme mit der Lebensdauer, der Kälteresistenz – und natürlich dem Preis. Einzelne Varianten wie die Hochtemperatur-BSZ für höhere Leistungen und Dauerbetrieb haben es in die Anwendung geschafft. Die Autoindustrie jedoch hat diese Technik zu Gunsten der Batteriespeicher aufgegeben. Heizungsfirmen arbeiten weiterhin daran. Aber es gab und gibt exklusive  Anwendungen: Die Apollo-Raumschiffe hatten Brennstoffzellen – deren Sauerstofftank in Apollo 13 explodierte – und das neueste U-Boot der Bundesmarine kann damit lange und schnell unter Wasser fahren. Die Militärs konnten sich eben schon immer die teuren Sahnestückchen von ansonsten unbezahlbaren Techniken sichern; sie haben auch die besten aller Stromspeicher in ihren Torpedos: Silber-Zink-Batterien. Schon ihr Name sagt uns, daß sie wohl nie in unseren PKW auftauchen werden.

 Die absichtliche Unterschätzung langer Entwicklungszeiten gehört seit jeher zur Technologiepolitik.

 

Die Technik, die immer in 40 Jahren fertig ist…

 Das tollste Beispiel dafür, wie eine Wissenschaftsgruppe seit einem halben Jahrhundert die Steuergelder mehrerer Nationen für eine angeblich irgendwann in der Zukunft liegende  Wundertechnik abmelkt, ist die Kernfusion. Atemberaubend ist die Dreistigkeit, mit der schon vor 40 Jahren behauptet wurde, daß diese Technik in 40 Jahren – also heute – zur Verfügung stehen würde. Der heute von den Forschern mitgeteilte Fertigstellungstermin: Wieder in 40 Jahren. Im Klartext: Niemals. Denn es gibt grundsätzliche Kritik; nicht am prinzipiellen Funktionieren der Fusion, sondern an der vermuteten Unmöglichkeit, mit verfügbaren Materialien jemals eine Hülle des Reaktionsgefäßes herzustellen, die den Temperaturen und der Strahlung auch nur einige Minuten standhalten kann. Die Fusionslobby hat den ultimativen Förderjackpot geknackt: Mit der Vision von der unendlich verfügbaren Energiequelle, die angeblich auch noch sauber sei,  einem immer wieder hinausgeschobenen Zeithorizont, der weit jenseits aller Legislaturperioden liegt,  und einer international agierenden Gemeinschaft der Fusionsforscher, die sich gegenseitig die Argumente liefert, hat sie die kritiklose Dauerförderung erreicht. Pardon: Nicht ganz kritiklos. Denn die unten kritisierten Grünen hatten als einzige die Courage, die Fusionsförderung abzulehnen.

 Zur angeblich sauberen Kernfusion: Auch dieses Märchen stellt eine erstklassige Lobbyarbeit dar. Selbstverständlich verwandelt die entstehende Neutronenstrahlung die Wandmaterialien des Reaktors in strahlende Isotope. Und es ist nur ein schwacher Trost, daß dies „nur“ brutale Gammastrahler sind.

 Ein weiteres Beispiel: Die Wärmepumpe; eine heute mehr und mehr genutzte, sehr sinnvolle Heizungstechnik, die ca. 70 % ihrer erzeugten Wärme aus der Umwelt holt. Ihre erste Anwendung war das Zürcher Rathaus – 1940.

 Das Schönrechnen von Fertigstellungsterminen technischer Entwicklungen dauert an:

Die Techniken der Abtrennung von CO2 aus den Rauchgasen der Kohlekraftwerke für – eine Beschwichtigungstechnik für Kohlekraftwerks-Kritiker – wird heute in kleinen Pilotanlagen erprobt. Geplanter  Einführungstermin: 15 Jahre, was sonst ? Und der Zeithorizont für große Stromspeicher für Windstrom auf der Grundlage von unterirdischen Druckluftspeichern – eine sehr teure und verlustreiche Technik :15 Jahre.

 

 4.  Politik braucht Technik

  Ein starker Anlaß zur Verkündung technischer Wunder besteht für Politiker, wenn sie damit eigene Politikversprechen unterstützen können. Außerdem macht es einen sehr innovativen Eindruck. Man spekuliert darauf, daß das Publikum die technologischen Schwächen eines Projektes nicht sofort erkennen kann – und daß die Verkündung allein bereits ihre politische Wirkung getan  und der Prophet längst seine Amtszeit hinter sich hat, wenn die Pleite eintritt. Keine politische Partei ist davor gefeit, aber diejenigen, die am meisten von dieser Methode Gebrauch machten, sind eindeutig die Grünen. Bei diesen im Grunde zutiefst technikfeindlichen Leuten gibt es ein Paradoxon: Grüne Heilstechnologien.  In ihrem permanenten Kampf gegen Kern- und Kohlekraftwerke genügten ihnen anscheinend die eigenen Ablehnungs-Argumente nicht; sie suchten sich  noch bestimmte Ersatz-Techniken aus, denen sie das Mäntelchen der Umweltfreundlichkeit umhängten – obwohl die Gesetzmäßigkeit Nr.1 mitleidlos festlegt, daß jegliche Energietechnik beträchtliche Umweltprobleme mit sich bringen muß, wenn sie Tausende an Megawatt elektrischer Leistung erzeugen soll.  Sie wird dann nämlich selbst zur bösen, flächenfressenden Großtechnik. Wie das die massenhaft herumstehenden  Windmühlen und hektargroße Photovoltaik-Anlagen bereits bestätigen, obwohl sie noch lange nicht zu der genannten Leistungsklasse ausgebaut worden sind.

 

 5.  Auch die Ministerialbürokratie braucht Technik

  Weitgehend unbekannt ist die Rolle der Ministerien bei der manchmal sogar Jahrzehnte langen Dauerförderung von fragwürdigen Techniken, die ohne eine solche Finanzierung bald wieder in der Versenkung verschwinden würden. Es gibt hier eine Symbiose zwischen den Anbietern derartiger Entwicklungsprojekte – in der Regel die Entwicklungsabteilungen großer Firmen, die mit der Zuwendung ihre Kosten senken und damit auch ihre eigene Existenz vor den hauseigenen Kaufleuten rechtfertigen möchten – und den Förderreferaten der Ministerien. Letztere brauchen andauernd Projekte, die sie mit Steuergeld unterstützen können, denn ohne diese wären sie überflüssig. Und der zerstörerischste Fehler, den ein Referatsleiter machen kann, ist es, am Jahresende seine Haushaltsmittel nicht voll ausgegeben zu haben. Die Strafe dafür ist dann die Kürzung seines Etats im Folgejahr. Fragwürdige Projekte haben in diesem Spiel zwei gewichtige Vorteile: Gerade die gefallen dem Minister, der ja Politiker ist,  zumeist ganz besonders. Weil mit diesen immer besonders schöne Versprechungen und Visionen verbunden sind, die er gut verkaufen kann. Zum zweiten können gerade die Anbieter solcher Projekte, da nicht durch irgendwelche Skrupel hinsichtlich zu hoher Kosten gehindert, besonders schnell Anträge liefern, wenn noch Geld übrig ist, das weg muß. Deshalb kommt es auch oft vor, daß Verzögerungen und Verlängerungen, die schlechte Projekte ohnehin kennzeichnen, nicht ungern gesehen werden, denn eine Verlängerung macht weniger Arbeit als ein neues Projekt und ein erhöhter Mittelabfluß ist erfreulicherweise ebenfalls damit verbunden.

 

 6.  Medienfutter

Nicht zu vergessen: Die Rolle der Medien. Besonders verblüffende, sensationelle und auch schockierende Nachrichten sind keineswegs nur auf die Seite „Vermischtes“ beschränkt; sie sind auch auf der Seite „Wissenschaft und Technik“ die bevorzugten. Technik ist ja leider meist langweilig; echte Sensationen gibt es kaum und alles dauert ewig lange. Der arme Redakteur braucht aber den Knüller. Deshalb ist er automatisch der Verbündete des visionären, Steuergeld in umwälzende Technikprojekte investierenden Politikers und ebenso des mit Untergangsszenarien arbeitenden Technikfeindes. Der Politiker und die auf Förderung hoffenden Unternehmen  liefern die guten Meldungen, der Redakteur übertreibt noch kräftig und fertig sind die Artikel, die immer unter Überschriften wie „XYZ-Technik auf dem Vormarsch“, „Durchbruch dank ABC“ und „Revolution in der UVW-Branche“ erscheinen. Zutaten sind stets die unrealistisch kurzen Termine bis zur Erreichung der Marktreife, was andererseits aber ebenso regelmäßig fehlt, sind belastbare Angaben zu den Kosten – sowohl der Entwicklung selbst als auch der späteren Kosten für die Nutzer.

    

Technik ist nicht gleich Technik: Versuch einer Typologie

Die Aufzählung von teils hoffnungslosen, teils sehr lange Entwicklungszeiten benötigenden Technologien könnte beim Leser den Eindruck erwecken, daß das normal sei. Das ist aber keineswegs der Fall, vielmehr steckt ein tieferer Grund hinter dem von Dauerpleiten heimgesuchten Politik- und Mediengeschäft mit angeblichen Zukunftstechniken und der tatsächlich wichtigen Technologieentwicklung, die sich diesem Rummel entzieht.

 

Die Profitablen

Technische Entwicklungen, die baldige und nachhaltige Markterfolge erhoffen lassen, werden unter weitgehender Geheimhaltung in den Unternehmen vorangetrieben. Dieses Geschäft ist durch hohen Zeitdruck, Industriespionage, Abwerben von Spezialisten und Produktfälschungen gekennzeichnet. Wegen tatsächlicher oder angeblicher Patentverletzungen zerrt man sich vor Gericht. Bei neuen Produkten, die für den Markt äußerst attraktiv sind, erntet man mit hohen Einstiegspreisen möglichst viel Geld, um sie genau dann, wenn die Konkurrenz nachgezogen hat, derart zu senken, dass die verspäteten Wettbewerber nicht einmal mehr ihre Entwicklungskosten herein bekommen.

Es ist wie Krieg. Niemand wird die Politik oder die Medien davon informieren, bevor der Markteintritt erfolgt ist. Und dann geht es Schlag auf Schlag: Massive Verkaufsanstrengungen, Lobbyarbeit, Ausbremsen der Konkurrenz, die nur eine Chance hat, wenn sie innerhalb von höchstens 6 Monaten vergleichbare Produkte am Markt hat.

Insbesondere bei physikalisch-chemischen Produktionstricks werden oftmals nicht einmal Patente angemeldet. Bevor die Konkurrenz das herausgefunden hat – nahezu unmöglich bei Halbleiter-Chips – hat sie entscheidend an Zeit verloren. 

Für die Politik bleibt nichts, für die Medien ein paar Testberichte und Werbeseiten, falls es sich um Konsumgüter handelte.

Besonders in der Informationstechnik geht es rasend schnell voran, weil die Hardware bereits extrem leistungsfähig ist und vor allem schnell realisierbare Software-Innovationen große Fortschritte bringen. Damit es noch schneller geht, wird auch ziemlich bedenkenlos fehlerhafte Software verkauft, die dann beim Kunden – im Industriejargon Beta-Tester genannt – durch Auffinden der Fehler ihre Reife erhält. Aber auch Pharma- und Chemieindustrie, Maschinenbau, Verfahrenstechnik, Auto- und Flugzeugbau denken nicht daran, ihre Pläne an die große Glocke zu hängen, obwohl ihre Entwicklungen deutlich länger dauern. Nennen wir diese für die Wirtschaftsleistung entscheidenden Technologien, von denen wir in Wirklichkeit leben, „Typ 1“.

 

Die 2. Wahl

Nun gibt es aber diesen großen Bereich technischer Entwicklungen,  die entweder recht unsichere Marktchancen haben, einen großen, kostspieligen und somit auch lange Zeit erfordernden Entwicklungsaufwand befürchten lassen – und oft beides zugleich. Das sind  die vom Typ 2. Bei diesen stellt sich für die Unternehmen die Frage, es bleiben zu lassen oder sich zur Verringerung der eigenen Kosten und Risiken um staatliche Hilfen zu bemühen. Letzteres erfordert dann vorbereitende Aktionen: Hierzu sind jetzt die Medien besonders geeignet, die gerne begeisterte Artikel veröffentlichen. Geht es um Techniken, die man in einen gewissen Bezug zum Umweltthema bringen könnte, wird man diesen Aspekt groß herausstellen. Denn das lockt die Umweltverbände hervor, anschließend die politischen Parteien, die eine Förderung dieser Technik gerne in ihr Programm aufnehmen. Und erneut werden die Medien mit diesen nunmehr politischen Visionen versorgt – und wenn dann der Förderantrag genügend geschickt formuliert wird, fließen bald die Gelder, außerdem ist es eine gute PR.

 

Die politischen Techniken

Es gibt jedoch noch die Technologien vom Typ 3. An diesen ist in der Regel überhaupt kein Unternehmen mehr interessiert, weil die Zwecklosigkeit auf der Hand liegt. Typ-3-Techniken sind allein politisch begründet. Gerade Umweltpolitiker suchen für ihre Ziele technische Wunderwaffen, die bei den Wählern für Hoffnung auf durchschlagende Verbesserungen sorgen sollen. Weil sich seriöse Unternehmen nicht damit befassen, sind es meist parteinahe Forschungsinstitute, die solche Projekte suchen und sie mit geeigneten Argumenten aufhübschen; regelmäßig unter krasser Übertreibung des Nutzens und Verschweigen der tatsächlichen Nachteile und Kosten. Wenn dann von der Politik das Signal kommt, daß diese Projekte erwünscht sind und somit auch subventioniert werden, beginnen sich vorzugsweise Großunternehmen dafür zu interessieren. Nicht weil sie derartige Projekte plötzlich doch als sinnvoll ansehen, sondern weil sie sich von einer Beteiligung politisches Wohlwollen erhoffen. So erklärt es sich, daß vor allem Energieversorgungs-Unternehmen und Automobilkonzerne anscheinend ihr grünes Gewissen entdecken und CO2-Abscheideeinrichtungen, Wellenkraftwerke, Windmühlen, Ökoautos  und Solarparks als neuen Bestandteil ihrer Firmenpolitik anpreisen. Mit diesem in ganzseitigen Anzeigen verkündeten und nur bedingt glaubwürdigen  Engagement bezwecken sie eine mildere Behandlung bei Umweltauflagen, weniger Widerstand bei Kraftwerksneubauten und Nachsicht bei der Produktion derjenigen PKW-Typen, die ihre Kunden leider tatsächlich wünschen. Im Klartext: Diese Typ-3-Projekte sind nichts anderes als Schutzgeldzahlungen der Industrie.

In diese Kategorie gehört die im Großmaßstab sinnlose und extrem teure Nischentechnik Photovoltaik und ebenso die seit Jahrzehnten gelobte und geförderte Wasserstofftechnik. Letztere erlebte gerade wieder einmal einen Rückschlag, als BMW endgültig den Spaß an dieser absurden Veranstaltung verlor und sie einstellte. Eine vor 25 Jahren von Ludwig Bölkow propagierte und seit 2009 leicht abgewandelt wieder neu aufgelegte  Typ-3-Idee läuft jetzt unter der Bezeichnung Desertec: Sonnenstrom aus der Wüste – eine multiple Mißhandlung der physikalischen und mathematischen Gesetzmäßigkeiten.

Es ist leider überhaupt kein Trost, daß der Fluch der Technik am Ende alle Typ-3-Projekte und sehr viele der Typ-2-Projekte fressen wird. Es ist das verschwendete Geld, das einem leid tut.

 

Ein frommer Wunsch

Was sollte denn demnach der Staat überhaupt in Sachen Forschung und Entwicklung tun ? Alles bleiben lassen ? Das wäre zwar deutlich besser als der derzeitige Umgang mit den dafür bereit gestellten Steuergeldern, aber nicht der optimale.

Er sollte alle Projekte vom Typ 3 einstellen. Ferner sollte er die Projekte vom Typ 2 von unabhängigen, auch keiner Lobby angehörenden Gutachtern äußerst kritisch bewerten lassen und sich von allen fragwürdigen und hoffnungsarmen Vorhaben verabschieden. Jegliche Form der Marktanreizförderung, Marktöffnung etc. müßte verboten werden.

Die dadurch frei werdenden Mittel sollten in die institutionelle und universitäre Grundlagenforschung und die für mittelständische Unternehmen arbeitende anwendungsnahe Forschung – zum Beispiel die Fraunhofer-Gesellschaft – gesteckt werden.

Und wesentlich mehr Geld in die Schulen, die Facharbeiter-Ausbildung und die natur- und ingenieurwissenschaftliche Ausbildung an den Hochschulen. Der Staat müßte in allen einschlägigen Ministerien diejenigen Referate auflösen, die sich einen Lebensinhalt und eine Lebensberechtigung mit der Verteilung von Steuergeld für politisch begründete Projekte geschaffen haben.

Eine schöne Illusion. Niemals werden die Politiker ihre beliebte Spielwiese aufgeben, auf der sie unter dem Beifall der Medien Glückskekse für das Volk und Fördergelder für die Anbieter von Innovationen verteilen können – alles garniert mit den Standardsprüchen vom internationalen technologischen Wettbewerb und der angeblichen Schaffung von Arbeitsplätzen.

Wobei die Wirtschaftswissenschaftler längst gezeigt haben, daß mit jedem der nur bedingt überlebensfähigen, von einer Regierung durch Subventionen geschaffenen Arbeitsplätze in der übrigen Wirtschaft, der diese Gelder entzogen werden, zwei bis drei normale Arbeitsplätze vernichtet werden.

Nichts wird sich also ändern. Aber man wird sich doch noch etwas wünschen dürfen.

Nachtrag: 

Technik ist weder gut noch böse, sie ist völlig wertfrei. Sie ist folglich auch keine Heilslehre und ebenfalls kein Fluch. Das unübersehbare Angebot an allen möglichen Techniken ist nur eine große Werkzeugkiste, aus der sich Interessierte bedienen können. Und allein auf sie, die Anwender, kommt es an. Alle Techniken sind für einen bestimmten optimalen Anwendungsbereich entwickelt worden; dort machen sie Sinn und dort lohnt sich ihr Einsatz – auch finanziell. Setzen sie aber Ignoranten bzw. Ideologen klar außerhalb der vernünftigen Anwendungsbereiche ein, beginnt großer Ärger, denn die Gesetze der Physik und der Mathematik gelten auch für dumme Anwender. Dann kommt die Strafe in Form von miserabler Leistung, Unzuverlässigkeit und unakzeptablen Kosten. Und das nenne ich – leicht unernst – den Fluch, der die falschen Hoffnungen zunichte macht.

Wie Techniken im falschen Einsatzgebiet versagen müssen, zeigt sich am Beispiel der Photovoltaik. Sie erscheint faszinierend, aber ihre unvermeidbar hohen Kosten  haben sie auf sogenannte Nischenanwendungen beschränkt: Mobile Kleingeräte, Segelyachten, Jagd- und Gartenhäuschen, Bojen, entlegene Lichtsignale. Ein großtechnischer Einsatz war erkennbar absurd, weil unbezahlbar. Es war der rot-grünen Regierung vorbehalten, sie als angebliche Alternative zur Kernkraft zur wichtigen Stromversorgung für das sonnenarme Deutschland zu ernennen und dieses unerreichbare Ziel mit Milliardensubventionen aus der Tasche der Stromkunden anzusteuern. Ohne jeden Erfolg, da man die erwähnten Gesetzmäßigkeiten ( den „Fluch“) gegen sich hat. Es ist eine politische Katastrophe; die Technik ist unschuldig.

Ein Gegenbeispiel ist die Gasturbine, die sich erst ab Leistungen von über 1000 PS durchgesetzt hat und mit der bisher alle Versuche, sie als PKW-Antrieb zu etablieren, teuer gescheitert sind. Das geniale Laserskalpell ist für bestimmte Operationen ein Segen, für andere unbrauchbar. Die Natriumdampflampen sind für die Straßenbeleuchtung ideal, für Wohn- und Arbeitsräume indiskutabel. Die Liste ließe sich beliebig verlängern.

Dr. Günther Keil 

Das Essay erschien zuerst bei NOVO Ausgabe März 10