1

Europa begeht wirtschaftlichen Selbstmord – und stimmt für massive Emissions-Reduktionen

Aber an jeden, der eine Rückkehr einer rationalen Umweltpolitik in Europa erwartet: unterschätzt nie die blinde Entschlossenheit von Europas grüner Elite, ihrem Traum eines emissionsfreien Europas nachzulaufen. Sie werden meiner Ansicht nach die europäische Wirtschaft zurück in die Steinzeit bomben, um ihr lächerliches Ziel zu erreichen. Und sie werden dabei überglücklich sein!

Als Beispiel für die Leute, die Europa lenken, sei hier die jüngst nominierte Europäische Kommissarin Violetta Bulc genannt. Roger Helmer zufolge, einem prominenten Mitglied der euroskeptischen UKIP [eine Oppositionspartei in UK. Anm. d. Übers.] im Europaparlament, stehen auf Bulcs bisheriger Karriere die Behauptung, eine praktizierende "Über heiße Kohlen Läuferin" (fire walker) und eine Schamanin zu sein (hier auf dessen Website).

Auf ihrem eigenen Blog beschreibt sich Bulc selbst als eine Expertin für ausbalancierte nachhaltige Entwicklungs-Strategien, organisches Wachstum und innovative Ökosysteme. Sie glaubt an die Macht von Netzwerken, das ganzheitliche Individuum und positive Energie.

Der letzte Beitrag auf ihrem Blog trägt den Titel „The vibration of white lions in the new era” (hier).

Und doch ist Bulc jetzt oder in Kürze eine der mächtigsten Menschen in Europa – eine von 28 Europäischen Kommissaren, die die alleinige Macht haben, neue Gesetze zu erlassen, welche m. E. normalerweise durch das nahezu machtlose Europaparlament einfach abgesegnet werden. Die Europäische Kommission ist auch die einzige Institution, die die Verantwortung dafür trägt, die von ihr erlassenen Gesetze auch durchzusetzen – die Kommission vereint in sich Exekutive, Legislative und Übersicht über alles in einer einzigen Institution. Mehr dazu hier bei Wikipedia.

Bulc wird sich niemals einer Abstimmung stellen müssen – nur Mitglieder des Europaparlaments dürfen so tun, als befassten sie sich mit dem populistischen Demokratie-Unsinn. Kommissare werden ernannt.

Kann sich irgendjemand vorstellen, dass jemand wie Bulc in ihrer eisernen Entschlossenheit nachlässt, die europäischen Emissionen zu senken, nur weil ein paar schlechte Kapitalisten behaupten, pleite zu machen? Schließlich geht es um die Rettung des Planeten! Und Bulc steht nicht allein – die meisten Mitglieder der Kommission teilen ihren Feuereifer für alles Grüne!

Link: http://wattsupwiththat.com/2014/10/24/europe-commits-economic-suicide-agrees-massive-emission-cuts/

Übersetzt von Chris Frey EIKE




Die wahre AGW-Skeptiker-Lehre

Am Anfang war die AGW-Lehre: Anthropogenic Global Warming – die menschengemachte globale Erwärmung – und die geht so:

1.1 Das Klima verändert sich – es wird immer wärmer

1.2 und das geht auch noch durch dieses Jahrhundert und darüber hinaus immer weiter

1.3 Die Ursache dafür ist überwiegend das menschliche Wirtschaften durch die steigenden CO2-Emissionen

1.4 Diese Entwicklung hat katastrophale Folgen für die Menschen:

1.4.1 Die Eisschilde schmelzen ab – der Meeresspiegel steigt und überflutet Küsten

1.4.2 Die Meere „versauern“, d.h. werden weniger basisch, und schädigen die maritimen Ökosysteme

1.4.3 Es gibt zunehmende Extremwetter, die Menschen töten und Lebensgrundlagen zerstören

1.4.4 Die Klimaveränderungen schädigen die landwirtschaftliche Produktion

1.1   Darum müssen enorme Anstrengungen unternommen werden, um das zu verhindern

1.2   Durch globale Anstrengungen ist es möglich, die CO2 Emissionen zu begrenzen oder zu senken

1.3   Durch eine nationale Vorreiterrolle wird der Prozess unterstützt.

1.4   Erneuerbare Energien in der Stromversorgung stellen dazu die Grundlage bereit.

Dieses kurzgefasste Programm ist aber alles andere als unumstritten. Die AGW-Vertreter versuchten ihr Programm daher als Klima-Konsens zu vermarkten und bedienten sich effizienter Marktingkanäle mit den Hauptzielgruppen der Politiker und Wählerschichten. Kritiker wurden als ‚Klimaleugner‘ verunglimpft und ein moralisches Gebot zur Befolgung des Programms über eine Dauer-Medienkampagne dem Menschen eingeimpft.

Natürlich gibt es keine Klimaleugner, denn niemand leugnet die Existenz von Klima, egal wie es definiert wird. Auch den Klimawandel bestreitet wohl kaum jemand, denn Wetter und Klima haben sich stets gewandelt.

Allerdings sind nahezu alle o.g. Punkte zweifelhaft. Man nennt die Form des begründeten Zweifels AGW-Skeptizismus. Hier nur angerissen:

2.1   Die letzten 16 -18 Jahre (je nach Datenquelle, Satellit, terr. Stationen) zeigen keine weitere globale Erwärmung, obwohl die CO2 Konzentration deutlich gestiegen ist

2.2   Wie sich das Klima weiter entwickelt, ist ungewiss. Wenn man die These der sich überlagernden Zyklen mittels der erprobten Analysemethode FFT (Fast Fourier Transition) als Gegenmodell präsentiert, stehen wir am Beginn einer langen Abkühlung.

2.3   Der Einfluss des CO2 auf das Klima ist zumindest quantitativ ungewiss und umstritten – es kann also nicht von einer klaren quantifizierbaren Ursache-Wirkungsbeziehung ausgegangen werden.

2.4   Die unklare Entwicklung hat unklare Folgen für die Menschen:

2.4.1 Die Eisschilde an den Polen schmelzen ein wenig und wachsen wieder zyklisch. Dramatischer Schwund ist nicht zu erwarten.

2.4.2 Der pH-Wert der Meere schwankt leicht und das ausschließlich im basischen Bereich , aber das bedeutet nicht keineswegs zwingend eine Schädigung der maritimen Ökosysteme – denn diese sind  wie schon vielfach in der Vergangenheit bewiesen- sehr anpassungsfähig.

1.4.3 Es gibt keine zunehmende Extremwetter, den  dies ist weder statistisch noch kausal nicht nachweisbar

1.4.4 Die Klimaveränderungen begünstigen in weiten Teilen die landwirtschaftliche Produktion – Erträge wachsen durch CO2-Düngung, der Sahel ergrünt. Die bilanzierte Wirkung bleibt unklar.

2.5   Es müssen keine Anstrengungen unternommen werden, um irgend etwas zu verhindern, denn es gibt auch kein nachgewiesenes Problem.

2.6   Auch durch globale Anstrengungen ist es nicht möglich, die CO2 Emissionen wesentlich zu begrenzen oder zu senken, denn die Erfordernisse des Lebens und Wirtschaftens lassen sich in einer wachsenden Bevölkerung und Wirtschaft nicht deutlich reduzieren, zumal die jeweiligen nationalen Interessen divergieren.

2.7   Durch eine nationale Vorreiterrolle würde der Prozess der Dekarboniserung nur unterstützt werden, wenn demonstriert würde, dass kostengünstige und effektive Alternativen möglich sind. Die Realität zeigt für D das Gegenteil: Die Energiewende verschlingt Billionen, schädigt damit uns alle über die Wirtschaft und den Volkswohlstand. Der Nutzen zur Emissionsreduktion ist nicht nachweisbar. D fungiert als abschreckendes Beispiel.

2.8   ‚Erneuerbare‘ Energien in der Stromversorgung stellen dazu keine Grundlage bereit:  Sie haben eine marginale Energiebilanz bei hohen Kosten und geringer Versorgungssicherheit.

Das ist jedoch nur sehr oberflächlich betrachtet. Das Problem der wahre AGW-Skeptiker-Lehre fängt jetzt erst an. Denn der Teufel steckt im Detail.

Denn die kritischen Positionen teilen sich in mehrere Lager:

3.1   Radikale THE Skeptiker: Der Treibhaus-Effekt sei nicht nur ein irreführender Name, sondern der steigende CO2-Anteil trägt auch nichts zur Erwärmung bei. Wer etwas anderes behauptet, läge wissenschaftlich falsch, ggf. sei er/sie gekauft

3.2   Wissenschaftliche moderate Skeptiker: CO2-Einflüsse auf das Klima existieren, machen aber weit weniger Wirkung aus, als gemeinhin behauptet wird. Diese sind verglichen mit natürlichen Schwankungen vernachlässigbar. Wer dies bestreitet, würde die wissenschaftliche Basis verlassen. Und dem Ansehen der Skeptiker schaden.

3.3   Wissenschaftliche Agnostiker: Da man die Wirkung von CO2 nicht sicher bestimmen kann, ist jede Vermutung Makulatur und wissenschaftlich gar nicht vertretbar. Dies trifft sowohl 3.1 als auch 3.2. Beide argumentieren nicht der Wissenschaft entsprechend

Auch in vielen anderen Detailfragen gibt es teilweise erbitterte kontroverse Positionen.

Daran wird klar: Viele Positionen sind vermeintlich gegenseitig unvereinbar. Die wahre Lehre ist demnach unteilbar, und die Wissenschaftlichkeit wird einander gegenseitig aberkannt. Interessant darin, dass sich teilweise eher eine Akzeptanz gegen alarmistische Positionen aufbaut, als gegen jene, die eine andere skeptische Position vertreten. Man beschuldigt jeweils das andere Lager, den Pfad der Wissenschaften verlassen zu haben und wirft jenen vor, die Position der Skeptiker zu schwächen.

Ich halte das für einen fatalen Fehler. Auch wenn man in Sachargumenten sicher auch dem Einen oder Anderen Irrtümer nachweisen kann, sollte eine Rechthaberei besser außen vor bleiben. Denn diese führt nur in den Grabenkrieg und nutzt dem eigentlichen Gegner.

Eine Sachdiskussion sollte in dem Geiste getragen sein, dass niemand vor Irrtum gefeit ist. Auch die eigene Ansicht muss sich einer Revision unterziehen können, und gegnerische Irrtümer sollten verständnisvoller besprochen werden. Immerhin wurde von offizieller Seite so viel Unsinn aufgetischt, dass ein radikales Misstrauen gegen vermeintliche Experten zumindest verständlich wird.

Dies führt zu einem anderen Dilemma, dass sich auch vermehrt in Diskussionen abzeichnet. Einerseits werden komplexe Sachthemen diskutiert. Viele fühlen sich bei der Beurteilung dieser überfordert. Was ist die Lösung? Man vertraut auf Experten, denen man das eigene Urteil delegiert. Nur widersprechen sich aber die Experten. Wie erkenne ich aber den richtigen Experten und unterscheide sie von den Scharlatanen? Gegenseitige Vorwürfe bringen nur wieder den Grabenkampf oder die willkürliche Expertenwahl nach fachfremden Kriterien.

Ein beliebtes Stereotyp ist die Interessengebundenheit der Experten. Man kann für fast jede Meinung den passenden Experten selektieren. Nur ist dann die Sachbezogenheit nicht mehr der Maßstab, sondern tritt hinter völlig sachfremden Kriterien zurück. Allerdings ist in Diskussionen oft dieser Effekt zu beobachten:

Der Dieb zeigt mit den Finger auf einen Dritten und ruft: ‚Haltet den Dieb.‘

Tatsächlich gibt es falsche Experten, gekaufte Experten und handverlesene Experten. Diese sind aber nicht leicht als solche zu erkennen, denn auch die moralisch Ehrenhaften mögen von einer falschen Ideologie verblendet sein. Gegenseitige Vorwürfe sind nur wiederum charakteristisch für einen Grabenkampf und klären nichts. Auch wenn der Verdacht gerechtfertigt wäre, hilft dagegen nur das Sachargument und dessen möglichst nüchternen Beurteilung,

Andere setzen dagegen auf die überlegene eigene Erkenntnis und halten keinen Experten für vertrauenswürdig … und werden schließlich als Universaldilettanten und Ignoranten klassifiziert. Der Anspruch eigenen Expertentums mag zuweilen auch begründet sein. Zuweilen ist man als Einäugiger im Land der Blinden König. Aber eigene Selbstüberschätzung steigert die Gefahr der Selbstverblendung.

Einen Königsweg gibt es aus diesem Dilemma nicht. Denn ich kann mir eine eigene Meinungsbildung durch Delegation nicht seriös erleichtern, ohne ein leichtes Opfer für Blender, Scharlatane und falsche Experten zu werden. Andererseits kann ich in der Regel auch nicht genügend Wissen erwerben, um allen Experten qualifiziert widersprechen zu können und die Gefahr des Dilettantismus vermeiden.

Der beste Kompromiss bleibt, sich die Argumente anzusehen und Fragen zu stellen. Wenn ‚Experten‘ Argumente liefern und diese belegen, können diese zutreffend sein. Wenn die Gegenseite diese Argumente nicht überzeugend entkräften kann, wird man diesen auch folgen können. Auf diese Weise ist man zwar noch immer nicht vor Irrtümern gefeit, wird aber vielen Fallstricken entgehen und zu einer fundierteren Ansicht gelangen.

Ich kann von mir als interessierten Laien sagen, dass ich im Kontext der Diskussionen an verschiedenen Stellen meine Ansichten änderte, weil ich durch bessere Argumente überzeugt wurde. Nicht immer waren dabei Meinungsgegner nett, auch wenn sie die besseren Argumente hatten. Ich kann auch jeden verstehen, der aus der oft persönlichen Gesprächssituation heraus nicht bereit ist, sich einem rüpelhaften Gegner zu beugen, sondern sich gegen die gegnerischen Argumente immunisiert und ein Festungsdenken entwickelt. Das aber ist wirklich bedauerlich, denn darunter leidet die Sachlichkeit und behindert den Fortschritt der Erkenntnis. Darum meine Empfehlungen:

4.1        Gehen Sie stets davon aus, dass sich jeder Mensch irren kann. Sowohl man selbst, als auch der Meinungsgegner.

4.2        Versuchen Sie dem Meinungsgegner eine goldene Brücke zu bauen, wenn Sie sich im Recht sehen. Sie erleichtern ihm damit ein besseres Verständnis und legen ihm keine Steine in den Weg.

4.3        Wenn ihre Argumente besser sind, brauchen sie eine sachliche und nüchterne Auseinandersetzung nicht zu fürchten. Bewahren Sie Stil und Respekt für einen Meinungsgegner, der es vielleicht an Kenntnissen und Umgangsformen vermissen lässt. Man kann vom Meinungsgegner keine Vorleistungen fordern.

4.4        Wenn sich ein Meinungsgegner trotz überlegener Argumente nicht überzeugen lässt, lassen sie diese besser einfach stehen, und beschränken sich auf eine sachliche Kritik. Vielleicht braucht er einfach Zeit, um die besseren Argumente anzuerkennen.

4.5        Sie können sich von einer Argumentation, die sie für falsch halten, natürlich distanzieren. Das sollte aber nicht dazu führen, in fruchtlose Grabenkriege und kontraproduktive Ausgrenzungen abzugleiten.

4.6        Stürzen Sie sich in Diskussionen möglichst nicht auf besonders extreme Positionen, sondern fördern Sie vernünftige Beiträge – auch wenn sie nicht ihre Meinung teilen. Ein stumme Zustimmung zur Vernunft und ein lautstarker Protest gegen die Unvernunft verlagern den Fokus der Diskussion von der Vernunft zu Unvernunft.

4.7        Provokationen und persönliche Angriffe von Meinungsgegnern müssen nicht immer unbeantwortet bleiben, aber meist ist es besser, diese einfach zu ignorieren.

Wenn wir darauf verzichten, Verkünder der einzig wahren Lehre zu sein, wird dies die Überzeugungskraft der eigenen Position keineswegs schwächen. Verständige Zuhörer und Gesprächspartner werden die Qualität der Argumente würdigen. Wer sich jedoch von den eigenen Autoritätsansprüchen blenden lässt, wird sich einer anderen Autorität zuwenden, wenn ihm diese profunder erscheint … also eine zu schwache Strategie.

Würdigen Sie guten Stil in der Diskussion, auch beim Meinungsgegner. Das weckt Vertrauen und die Bereitschaft, bei der Sachebene zu bleiben.

Ich habe diese Empfehlungen nicht nur an Dritte adressiert, sondern predige sie mir auch selbst. Denn es ist nicht immer leicht, gute Vorsätze auch umzusetzen … Was dazu führt:

Nehmen Sie sich selbst nicht zu ernst!

Über den Autor: Martin Landvoigt ist Dipl. Agraringenieur und seit Jahren mit der Thematik befasst.




Entsorgung radioaktiver Abfälle

Können Sie sich eine Tagung zum Thema Entsorgung radioaktiver Abfälle vorstellen mit über einem Dutzend Vortragender bzw. Arbeitsgruppenleitern, von denen keiner auch nur einen Satz über die naturwissenschaftlichen und technischen Aspekte der Entsorgung redete und sicherlich auch nichts davon verstand? Auch die rechtlichen und wirtschaftlichen Aspekte wurden nicht angesprochen. Immerhin waren unter den etwa 90 sonstigen Teilnehmern ein paar Techniker und Naturwissenschaftler. Die übrigen wollten etwas lernen? Keineswegs, in der lebhaften Diskussion stellten sie ihre Standpunkte dar und erhoben Forderungen. Ja, so eine Tagung fand statt, aber davon später.

Geisterhaft? Nein, demokratisch. Ganz selten schimmerte durch, warum man sich überhaupt so engagiert mit dem Thema beschäftigte: Radioaktivität auch in kleinsten Dosen sei mindestens eine Million Jahre lang hochgefährlich, radioaktive Stoffe hätten nie erzeugt werden dürfen, es sei ein Verbrechen, dass sie immer noch erzeugt werden.

Eine zutreffende Beurteilung des Strahlenrisikos lag der Tagung nicht zugrunde, sollte aber doch die Grundlage des ganzen Entsorgungsprozesses sein. Über das Strahlenrisiko gab es eine Veranstaltung in Zürich am 23.09.2014, vom Schweizer Nuklearforum. Also die Atommafia! Man sollte aber bedenken: Auf dieser Welt gibt es objektive Tatsachen, die völlig unabhängig davon sind, wer über sie berichtet. Außerdem: Wer ist beim Strahlenschutz am vorsichtigsten? Die Beschäftigten in kerntechnischen Anlagen, denn sie wollen noch etwas von ihrer Rente haben. Natürlich denken sie auch an ihre Nachkommen. Der dortige Vortragende, Herr Dr. Rüegg, verstand sein Fach, hatte sich sein ganzes Berufsleben mit Radioaktivität beschäftigt.

Obwohl es ein ernstes Thema ist, brachte Herr Rüegg die 80 Zuhörer oft zum Lachen, wenn er die absurden Vorstellungen befragter Bürger, der Medien und der Politiker wiedergab.

Fazit: Radioaktive Abfälle sind nur in den ersten Jahrhunderten gefährlich, die danach verbleibenden langlebigen Isotope haben eine zu geringe spezifische Aktivität, um noch ein Problem darzustellen. Grenzwerte sind unvernünftig niedrig, sie bedeuten, dass man große Teile der Schweiz evakuieren müsste, siehe Abbildung. Der Schluss von Herrn Rüegg: Es gibt Hoffnung. »Aber auch der Hexenglaube fand einmal sein Ende.«

Strahlung: Lebensdosen in der Schweiz

Nun aber zu Loccum. Vor 850 Jahren machte ein Graf Hallermund der Kirche ein Geschenk, handelte aber nach dem Grundsatz: Verschenke nichts, was du irgendwie noch selbst brauchen könntest. Leichten Herzens trennte er sich von einem Sumpfgebiet mit einer kleinen Burg mittendrin, in der er nicht leben mochte. Die Kirche nahm das schäbige Geschenk an.

Mönche machten aus dem Sumpf einen schönen, forstwirtschaftlich wertvollen Wald mit vielen Fischteichen darin. Sie bauten eine sehenswerte Klosteranlage. So war das früher: Ihr Glaube veranlasste die Menschen, ägyptische Pyramiden, antike Tempel und gotische Dome zu errichten. Stets wurde die höchste Technik angewandt und dabei weiterentwickelt. Lebensgrundlagen wurden nicht zerstört, und die Ergebnisse können sich sehen lassen. Der heutige Ökoglaube dagegen ist primitiv, zerstört Lebensgrundlagen und macht das Land hässlich.

Der Glaube wechselt, aber heilige Stätten bleiben heilig. An den Orten heidnischer Kulte wurden Kirchen gebaut, im Orient wurden Kirchen zu Moscheen umgewandelt und in Spanien Moscheen zu Kirchen. In Loccum erfolgt ein langsamer Übergang von Christentum zum Ökoglauben, mit Übernahme des Personals. Nur so ist der Sinn der Tagung vom 17.10 bis 19.102014 zu erklären, unter dem Titel:

Endlagersuche – Zusammenarbeit von Endlager-Kommission und Öffentlichkeit

Es wurde kein Wort darüber verloren, was Kommission und Öffentlichkeit zur Lösung der Endlagerfrage beitragen könnten, und wie das ohne Fachkenntnisse möglich sein sollte. Worum es ging, stellte besonders Herr Brunsmeier dar. Er ist stellvertretender Vorsitzender des BUND, hat Landespflege studiert. Seine Forderung: Überall Atomangst verbreiten, vor allem in Schulen.

Nahe Loccum wurde jemand geboren, der dazu gesagt hätte: »Tugend will ermuntert sein, Bosheit kann man von allein«, nämlich Wilhelm Busch.

Für mich war am interessantesten der Vortrag von Herrn Michael Müller, Betriebswirt, Vorsitzender der Kommission für atomare Endlager. Er stellte die zugrunde liegende Ökoreligion verständlich dar. Danach steuern wir auf eine Krise zu. Kerntechnik sei nicht die einzige Technik, welche abgeschafft werden müsse, um den Weltuntergang zu vermeiden.

Tatsachen werden völlig ignoriert. In den letzten 100 Jahren hat die Technik unsere Lebenserwartung fast verdoppelt, die Arbeitszeit fast halbiert, das Einkommen vervielfacht. Gäbe es nicht Vogelschreddermaschinen, Energiemais bis zum Horizont, fischhächselnde Kleinturbinen in jedem größeren Bach, hätte auch die Natur gewonnen. Die Krise besteht offenbar darin, dass die Intelligenz der meisten Menschen nicht ausreicht, um unsere technische Welt zu verstehen. Für Intelligenz gibt es ein grobes Maß, den IQ-Wert, wie er in Tests ermittelt wird. Dass er sinnvoll ist, zeigt sich, wenn man ihn mit anderen menschlichen Kernnzeichen zusammenstellt: Einkommen, Bildungsabschluss, stabile oder instabile persönliche Verhältnisse, Hang zur Kriminalität.

Intelligenzquotientsverteilung von Amerikanern mit und ohne College-Abschluß (1990). Quelle: The Bell Curve, Intelligence and Class Structure in American Life

Ein ungeheures Datenmaterial haben die amerikanischen Sozialwissenschaftler Herrnstein und Murray ausgewertet (The Bell Curve, Intelligence and Class Structure in American Life, 1994). Ergebnis: Bei Einzelpersonen kommen beliebige Kombinationen dieser fünf Merkmale vor. Teilt man die Gesellschaft jedoch anhand der IQ-Werte in Gruppen ein, dann zeigt sich, was ja auch niemanden wundert: In der Gruppe mit dem höchsten IQ häufen sich die Leute mit guter Berufsausbildung und hohem Einkommen. Weit überdurchschnittlich ist der Anteil derjenigen, die noch mit dem ersten Partner/Partnerin verheiratet sind, und weit unter dem Durchschnitt die Zahl derer, die im Gefängnis sitzen.

Aber die Autoren hätten es bei der Darstellung der Daten belassen sollen. Stattdessen haben sie eine Prognose gewagt: Die Gruppe mit der höheren Intelligenz (dunkle Kurve) würde zunehmend die Führung in der Gesellschaft übernehmen. Damit liegen sie voll daneben. Vor allem hier in Deutschland ist die Situation ganz anders. Wer politisch links steht, den findet man überwiegend im hellgrauen Bereich der Intelligenzverteilung, aber von dort aus gibt er den Ton an. Das Sein bestimmt das Bewusstsein. So mag er die Leute der dunklen Kurve nicht; sein Verstand reicht nicht, um zu sehen, dass allein diese ihm sein meist gutes Leben ermöglichen. Wie unsere Katze. Sie fühlt sich als die Herrin des Hauses, hält uns für ihr Personal, glaubt sicherlich, dass es nichts auf der Welt gibt, was sie nicht versteht, und macht sich in keiner Weise klar, dass sie ihr gutes Leben ausschließlich uns verdankt.

Aber es gibt immer Kombinationen menschlicher Eigenschaften, die völlig aus dem Rahmen fallen. Ein Beispiel ist einer der Vortragenden der Tagung, Herr Dr. Michael Wilk, immerhin Arzt. Meist ist er jedoch damit beschäftigt, gegen alles Mögliche zu protestieren, immer nach dem Grundsatz: »Es genügt nicht, keine Ahnung zu haben, man muss auch dagegen sein.« Über Radioaktivität redet er, obwohl ihm nicht nur einfachste Grundkenntnisse fehlen, sondern auch die Anwendung von Logik nicht liegt. Jedes einzelne radioaktive Atom hält er für ungeheuer gefährlich, Vergleiche mit natürlicher Radioaktivität kann er nicht anstellen.

Von den anwesenden Vertretern der Industrie (E.O.N. und GNS) verlangte er, wie auch andere, sie sollten erst einmal einsehen, dass sie einen großen Fehler gemacht haben, sich überhaupt mit Kerntechnik zu befassen: »Kehret um und tuet Buße«, oder so ähnlich.

Der Außenstehende erkannte in den Auffassungen von CDU bis zum letzten Protestler keine Unterschiede, und wunderte sich daher über die lebhafte Diskussion der Politologen, Theologen, Sozialwissenschaftler und Leuten wie Jochen Stay, Aktivist gegen alles und ohne abgeschlossene Berufsausbildung, über gänzlich irrelevante Fragen. Allerdings sind manche gezwungen sich zu profilieren. Das Geschäft mit der Atomangst verschafft vielen ein Einkommen. Mehrfach wurde gefordert, man müsste mehr Geld vom Staat bekommen.

Wie der Teufel das Weihwasser fürchten die Ökogläubigen den Vergleich mit natürlicher Radioaktivität. Ein Streit darüber führte bis zur Androhung einer gerichtlichen Klage. Man hatte viel »Informationsmaterial« ausgelegt, in dem unter anderem die Grenzwerte für die Freigabe von Material aus dem Abriss von Kernkraftwerken scharf angegriffen werden. Dies Material darf dann z. B. im Straßenbau verwendet werden. Die Grenzwerte sind so festgelegt, dass im ungünstigsten Fall jemand ein Zweihundertstel der natürlichen Strahlenexposition im Flachland abbekommt. Ihr Ökos, bleibt auf dem Boden! Eine solche Dosis bekommt man im Flugzeug in 3 Stunden ab! Was soll der Unsinn: »Durch diesen Müll wird das ganze Land vergiftet«. Das ist wie weiland »Die Hexen vergiften alle Brunnen.«

Übernommen von Nuklearia hier


Dr. Hermann Hinsch ist Physiker mit dem Fachgebiet Biophysik. Als Student beteiligte er sich in den 1960er Jahren an Messungen über Strontium-90 im Fallout der Kernwaffenversuche. In seiner Diplomarbeit am Institut für Biophysik der TU Hannover ging es um Dichte- und Feuchtigkeitsmessungen mit Gammastrahlen. Hinsch untersuchte Strahlenwirkungen auf Biomoleküle und promovierte auf dem Gebiet der Biophysik. Von 1982 bis 1991 war er in der Asse hauptsächlich für Auslaugversuche zuständig. Dabei wurden Abfallfässer in Salzlösungen gestellt und gemessen, was an Isotopen in die Lösung überging. Anschließend arbeitete Hinsch bis zu seiner Pensionierung in der Universitätsbibliothek Hannover.




Hauptgutachten des Wissenschaftlichen Beirats der Bundesregierung [für] globale Umweltveränderungen – “New World Order declassified” oder “Maos langer Marsch geht weiter”

Wer noch Zweifel hatte, ob es wirklich diese CO2-Klimadiktatur geben soll, hat es nun schriftlich aus den „besten“ Kreisen. Bereits die Zusammenfassung ist eine unverhohlene und detaillierte Kriegserklärung an die Freiheit und den kritischen Verstand.

Die Klimawandelhypothese dient erwartungsgemäß als festgefügte Grundlage:

„Das kohlenstoffbasierte Weltwirtschaftsmodell ist auch ein normativ unhaltbarer Zustand, denn es gefährdet die Stabilität des Klimasystems und damit die Existenzgrundlagen künftiger Generationen. Die Transformation zur Klimaverträglichkeit ist daher moralisch ebenso geboten wie die Abschaffung der Sklaverei und die Ächtung der Kinderarbeit.”

Die Art unserer Energienutzung und unser (durchschnittlicher) Lebensstil erzeugt  zweifellos massenhaft Probleme und Naturzerstörung. Zum Teil technischer Natur, zum Teil politischer Natur. Aber ausgerechnet die bisher nicht mal durch Indizien gestützte CO2-verursachte Klimawandelhypothese wird zum zentralen Problem ernannt. 

Es soll hier nicht die CO2-Frage erörtert werden. Denn Sie ist für das Verständnis des Textes nicht wichtig. Wird Sie eines Tages allzu unglaubwürdig, wird eine neues Angstelement diese ersetzen. Wir dürfen heute schon raten, welches das sein wird. Irgendwas Ungreifbares, das nur schwer an der praktischen Realität nachzuvollziehen ist und die daher eigene Meinungsbildung schwierig macht.

Daher filtern wir einmal den Klimawandel heraus und extrahieren den eigentlichen Plan. Der Text ist in dieser Hinsicht von erstaunlicher Offenheit und klarer Sprache, wie sie vor wenigen Jahren nur auf „finstersten Verschwörungsseiten im Internet“ zu finden war. Dazu einige Kommentierungen, um die Sprache der Apparatschiks (Parteifunktionäre der Kommunisten) in gebräuchliche Worte zu übersetzen.

Das Hinterhältige an der Sache ist, dass durchaus auch echte Probleme angesprochen werden. Die präsentierte Lösung läuft auf eine allumfassende Diktatur ohne Fluchtmöglichkeit hinaus.

Viele empfinden die Idee einer  Weltregierung nicht als bedrohlich. Überlegen Sie jedoch folgendes: Wenn die Regierung eines Landes für die Bürger des Landes gefährlich wird (Beispiel gibt es wie Sand am Meer: Hitler, Stalin, Mao…) gibt es auch ohne Mauern und Zäune keine Fluchtmöglichkeit mehr. Es gibt auch keine äußeren Akteure und Vergleiche mehr, die in Konkurrenz wirken und früher oder später die Diktatur zu Fall bringen. Ständig flüchten Staatsbürger vor Ihren eigenen Regierungen und suchen Schutz in anderen (freieren) Staaten. Mit einer Eine-Welt-Regierung ist dieser Weg verbaut. Eine Gegenbewegung kann dann nur von innen heraus stattfinden. Wie die Geschichte beweist ist dies extrem schwierig, mit hohen Opfern verbunden und dauert. Bezieht man noch die heutigen und zukünftigen Möglichkeiten der Überwachung und Verhaltensvorhersage (Stichwort Big Data) mit ein, so schwinden die Möglichkeiten einer erfolgreichen inneren Opposition auf praktisch Null zusammen. Insgesamt also keine guten Aussichten…

Doch nun zum Text. Schon auf Seite 2 der Zusammenfassung wird es konkret:

„Es geht um einen neuen Weltgesellschaftsvertrag für eine klimaverträgliche und nachhaltige Weltwirtschaftsordnung.”

Ein klares Statement. Nur ist der Begriff des „Vertrages“ reinstes Neusprech, oder haben SIE da schon mal irgendwas unterschrieben? Es gibt auch einen Rundfunkstaatsvertrag, der aber in Wirklichkeit ein (rechtswidriges) Gesetz ist: 

“Die WBGU-Analyse zeigt zudem, dass die heute bestehenden Institutionen für die globale Politikgestaltung (global governance) nicht gut auf die Transformation vorbereitet sind.”

Dumm aber auch. So geht das ja nicht. 

„…müssen Produktion, Konsummuster und Lebensstile so verändert werden, dass die globalen Treibhausgasemissionen im Verlauf der kommenden Dekaden auf ein absolutes Minimum sinken…“

Aha. Aber nicht freiwillig, wie wir noch sehen werden. Wie wird IHR Lebensstil wohl aussehen?

„Die historisch einmalige Herausforderung bei der nun anstehenden Transformation zur klimaverträglichen Gesellschaft besteht darin, einen umfassenden Umbau aus Einsicht, Umsicht und Voraussicht voranzutreiben.“

Nein, so einmalig ist das nicht. Genau das versuchen die Kommunisten seit hunderten Jahren. In der DDR nannte man das AGITPROP (Agitation und Propaganda). Das Credo war und ist die Erziehung zum „Neuen Menschen“.

„Der Vertrag muss zwei wichtige neue Akteure in Rechnung stellen: die selbstorganisierte Zivilgesellschaft und die wissenschaftliche Expertengemeinschaft.“ 

Neu ist auch das nicht. Oben die allwissende Partei (der Rat, im Russischen Sowjet genannt), unten die armen Schweine die sehen müssen wie sie überleben, also wir.

„Garant dieses virtuellen Vertrages ist ein gestaltender Staat, der für die Zustimmung zu Nachhaltigkeitszielen die Bürgerschaft an den zu treffenden Entscheidungen beteiligt.“ 

Nicht etwa die Bürger gestalten den Staat (Demokratie?), der Staat „beteiligt“ gnädig die Bürger. Verstehen Sie den Unterschied? Es ist nichts weiter als die Frage nach Freiheit oder Diktatur!

Wie das in der Praxis aussieht können wir zum Beispiel beim Umgang der „Grünen“ in Baden  Württemberg mit den Einwänden der Bürger zur Landschaftszerstörung durch Windkraftanlagen sehen. Motto: Anhören und ignorieren. Später dann vielleicht verhören und wegsperren? 

„Der WBGU schlägt vor, bestehende Organisationen zu nutzen, um eine globale nachhaltige Energie-Governance schrittweise zu etablieren“

„Angesichts der Dringlichkeit der globalen Energiewende muss erheblich mehr politische Handlungsbereitschaft und Führungskraft mobilisiert werden“ 

Die zentrale Weltherrschaft ist ein lang gehegter Traum. 

„Die Konferenz [Rio+20-] sollte somit den Weg für eine umfassende kooperative Global-Governance-Architektur bereiten, ohne die eine weltweite Transformation zur Nachhaltigkeit nicht gelingen kann.“

„Vereinte Nationen 2.0 …: Gemessen an den dargestellten Herausforderungen der Transformation spricht aus Sicht des WBGU vieles für einen noch sehr viel radikaleren Ansatz, der über die gegebene Organisation der Vereinten Nationen hinausreichen und diese grundlegend neu ordnen würde.“

„Bundesregierung und EU sollten durch glaubhafte Führerschaft gleichermaßen auf ein hohes Ambitionsniveau in der Sache und ein verbindliches und vermittelndes Auftreten gegenüber den übrigen Staaten hinwirken“

Am deutschen Wesen soll die Welt genesen?

„Stoßrichtung einer neuen Global-Governance-Architektur muss letztlich im Sinne des globalen Gesellschaftsvertrages zur Nachhaltigkeit die Schaffung einer gerechten neuen Weltordnung sein.“

Ja, von Gerechtigkeit haben auch die alten Kommunisten immer viel geredet.

„Politisch erfordert dies die historisch ungekannte Überwindung tradierter Souveränitätsvorstellungen und rein machtgeleiteter Weltpolitik zu Gunsten der dauerhaften Bereitstellung globaler Allgemeingüter.“

Der Satz hat es wirklich in sich. Erstens: Souveränität ist ab sofort abzugeben. Zweitens: Historisch ungekannt ist nicht die Überwindung der Souveränität, sondern nur die totale weltweite Umsetzung. Drittens: Die ganze Welt ein großer VEB (Volkseigener Betrieb)? Wer das für eine gute Idee hält mache sich in der Geschichte der DDR schlau.

„Dies käme einem zivilisatorischen Quantensprung gleich, vergleichbar etwa mit dem Übergang von Feudalsystemen zu Rechtsstaat und Demokratie.“

Donner! Wahrlich große Worte.. Aber was kommt jetzt nach Rechtsstaat und Demokratie? 

„Die Förderung von Forschung und Bildung sind daher zentrale Aufgaben des modernen gestaltenden Staates,…“

Der Staat tritt damit in direkte Konkurrenz zum freien Markt und kann diesen wegen der Auslagerung des wirtschaftlichen Risikos beherrschen. Damit hat der Staat auch die Hoheit über die Art von Forschung und Bildung. Was da mit kritischen Ergebnissen passiert muss jetzt nicht weiter erläutert werden. Man muss allerdings auch sagen, dass es wirklich freie Forschung und Bildung nie wirklich gegeben hat und auch heute nicht existiert. 

„Dazu sollte in den Bildungsangeboten möglichst ein Bezug zu Schlüsselfaktoren der Transformation hergestellt werden. So könnten z. B. im Physikunterricht regenerative Energien zum Thema werden und parallel in den sozialwissenschaftlichen Fächern internationale Energiepartnerschaften behandelt werden; im Geographieunterricht könnten z. B. klimaverträgliche Städte thematisiert werden.“

Ist bereits weitgehend umgesetzt. Regenerative Energien sind sogar schon im Kindergarten ein Thema.  Es wird das Denken der Kinder im Sinne der Transformation beeinflusst, so dass dies als Normalität angesehen werden wird. Kein Hinterfragen mehr ob dies denn sinnvoll ist.

„Nichts weniger als ein neuer Contrat Social muss also geschlossen werden. Dabei wird die Wissenschaft eine entscheidende, wenngleich dienende Rolle spielen.“

Ein Hinweis an die Wissenschaftler, welche Rolle Ihnen zugedacht ist. Wird so eine Wissenschaft frei sein können?

Soweit die Analyse der 27 Seiten der  „Zusammenfassung für Entscheidungsträger“ am Anfang des Dokuments.

(1)Der Gesamttext umfasst über 400 Seiten. und kann hier herunter geladen werden: 

Dipl. Ing. Robert Jachmann

Über den Autor: Robert Jachmann; verh. 3 Kinder,  Jg. 1976 (1) wurde in der ehemaligen DDR geboren und ist auch dort aufgewachsen. Er hat dort Maschinenbau studiert und lebt und arbeitet seit einiger Zeit in Baden Württemberg. Dort beteiligt er sich an einer BI zur Antiwindkraft Bewegung.

(1) Korrektur: In der Ursprungs-Version war fehlerhaft das Jahr 1986 als Geburtsjahr genannt worden. Das hat zu Recht einige Verwirrung ausgelöst. Wir bitten um Entschuldigung.




Energiepolitik: Polen will nicht mehr mitmachen!

Minister Piechociński: Polen wird gegen 40% CO2-Reduktion Veto einlegen

Kamila Wajszczuk

Falls der demnächst stattfindende EU-Gipfel den Vorschlag der Europäischen Kommission zur Reduktion von CO2-Emissionen um 40 Prozent bis zum Jahre 2030 unterstützt, wird Polen sein Veto einlegen. Dies kündigte der stellvertretende Premier- und Wirtschaftsminister Janusz Piechociński vorige Woche in einem Interview im polnischen Rundfunk an.

Bild rechts: Minister Janusz Piechociński

Falls dieser Vorschlag so aussieht, wie es jetzt der Fall ist, bleibt Polen keine andere Wahl als sein Veto einzulegen“, sagte Piechociński und fügte hinzu: „Für den polnischen Wirtschaftsminister und die Mehrheit der EU-Wirtschaftsminister ist die 40-Prozent-Option, die die Hälfte der europäischen Industrie zerschlagen wird, unakzeptabel“.

Die EU-Führer werden sich am 23. und 24. Oktober in Brüssel treffen, und zwar zu einem Klimagipfel, auf dem geplant ist, ein neues Ziel hinsichtlich der Reduktion von CO2-Emissionen zu setzen. Die Europäische Kommission hat eine Reduktion um 40% bis zum Jahr 2020 ins Spiel gebracht mit einem gleichzeitigen Wachstum des Anteils erneuerbarer Energie auf 27%.

Link: http://wbj.pl/poland-will-veto-40-co2-reduction-piechocinski/

————————————-

Opposition würde das polnische Veto gegen die CO2-Politik der EU unterstützen

Die größte Oppositionspartei Polens [übersetzt] Gesetz und Gerechtigkeit (PiS) sagte, sie würde ein Veto von Premierministerin Kopacz zum Klimawandel in Brüssel unterstützen, falls die Brüsseler Vorschläge die Wirtschaft Polens schädigen. „Die polnische Wirtschaft steht an erster Stelle“, sagte der Sprecher von PiS Adam Hofman im polnischen Rundfunk vor dem EU-Gipfel am 23. Oktober.

Die ungewöhnliche Solidarität dieser Partei mit der Regierung folgte der Ankündigung des Wirtschaftsministers, beim EU-Gipfel sein Veto einzulegen.

Premierministerin Ewa Kopacz sagte auf dem letzten Asien-Europa-Gipfel in Mailand vor ein paar Tagen, dass die Verhandlungen mit den EU-Partnern „schwierig werden würden, und zwar infolge weit auseinandergehender Interessen“. Zuvor hatte sie gesagt, dass sie jeden Punkt blockieren wird, der zu steigenden Energiekosten für die polnischen Bürger führen würde.

Full story

Link: http://www.thegwpf.com/poland-to-veto-eus-40-co2-reduction-proposal/

Übersetzt von Chris Frey EIKE

Anmerkung der Redaktion.

Man kann der polnischen Regierung nur Standfestigkeit bei ihrem Veto wünschen. Derzeit sind massive Anstrengungen im Gange den Polen ihr Veto abzukaufen, zu Lasten des Musterschülers Deutschland, versteht sich. Die Bundesregierung sei offen für diesen Kuhhandel meldet heute die Welt. Natürlich, was sonst !

Und die scheidenden Kommissare Barroso und der noch amtierende Noname Van Rompoy brüsten sich damit, dass dieses Programm immer noch das ehrgeizigste Klimarettungsprogramm der Welt sei. Und auch SPON macht sich Sorgen über diese Situation. Gibt Frau Merkel etwa nicht mehr die Klimakönigin? (hier). Das sind doch alles Probleme über die man sich Sorgen machen kann, wenn man sonst keine Sorgen hat. Wie diejenigen, die hier das Erarbeitete verteilen, aber nicht im Traum daran denken, an Erarbeitung mitzuwirken.

Über die Kehrseite dieser ideologischen verblendeten Politik  wird auch berichtet Die Netzgebühren steigen weiter. Der Grund der Ausbau der Netze um unnötigen Windzappelstrom abzuleiten. Schleswig Holstein hat einen Bedarf von nur 2 GW erzeugt aber schon jetzt 6 GW – jedenfalls gelegentlich. 




Wir trauern um unser Mitglied und Beirat Prof. Dr. Klaus Landfried

Video vom 10.10.2010 im Hörsaal des Instituts Geographie in Leizig zum Thema "wo bleibt der Klimawandel?"




Die Energiewende zerstört ein zuverlässiges System

Die deutsche „Energiewende“ zerstört ein Versorgungssystem, das Strom liefert, der preiswert und jederzeit verfügbar ist. Sie verteuert den Strom auf unverantwortliche Weise und setzt Unternehmen wie Privathaushalte unnötig der Gefahr plötzlicher Stromausfälle aus (hier). Aber sie wirkt zerstörend nicht nur in Deutschland, sondern fügt auch Nachbarstaaten Schaden zu. Ein Beispiel dafür sind die Schweiz und Österreich. Beide Alpenländer haben viele kleine Flüsse, deren Strömung, deren starkes Gefälle sie für die Stromerzeugung ausnutzen. Diese kleinen Laufwasser-Kraftwerke tragen dort wesentlich zur Stromversorgung bei. Ihre Erzeugungskosten für Strom liegen bei verbraucherfreundlichen 5 Cent je Kilowattstunde. Es macht also Sinn, ein solches Wasserkraftwerk zu betreiben. Bisher, denn nun wird diese umweltfreundliche Stromerzeugung durch Deutschlands „Energiewende“ mit dem Aus bedroht.

Das Verhökern an der Strombörse

Auf diese weitere Energiewende-Folge macht die Stromverbraucher-Schutzvereinigung NAEB*) aufmerksam. Um zu verstehen, warum diesen Kraftwerken in Österreich und der Schweiz das Aus droht, ist der Hintergrund zu erklären: Der wesentliche gesetzliche Bestandteil der Energiewende ist bekanntlich das interventionistische Erneuerbare-Energien-Gesetz (EEG). Es zwingt dazu, den Strom aus Wind, Sonnenschein und „Biogas“ (landläufig Ökostrom genannt) mit Vorrang abzunehmen und ins Stromnetz einzuspeisen. Erst danach darf Strom der herkömmlichen Dampf- und Gaskraftwerke verbraucht werden und ins Netz fließen. Diesen Ökostrom müssen die Netzbetreiber mit lukrativen, im EEG festgelegten Sätzen vergüten. Die Vergütung ist im Durchschnitt vier- bis fünfmal höher als die Erzeugungskosten der Dampf- und Gaskraftwerke. Außerdem pflegt das Ökostrom-Angebot unberechenbar zu schwanken. Weht zuviel Wind, scheint zuviel Sonne, und ist der Strombedarf zugleich geringer als der jeweilige Bedarf, würde ein solches Überangebot an diesem teuren Ökostrom keine Abnehmer finden. Daher wurde festgelegt, den Strom zu jedem Preis, also weit unter dem Gestehungspreis und unter den Erzeugerpreisen der Dampfkraftwerke an der Strombörse zu verhökern.

Was den Ökostrom-Erzeuger vom Bäcker unterscheidet

Zur weiteren Hintergrund-Erläuterung ist in der NAEB-Mitteilung zu lesen: „Inzwischen wird mit jeder neuen Ökostromanlage bei Starkwind und Sonnenschein immer häufiger mehr Ökostrom erzeugt als in Deutschland gebraucht wird. Da Strom wirtschaftlich nicht speicherbar ist, wird er in diesem Fall verschenkt oder es wird sogar eine Zuzahlung an den Abnehmer geleistet, um das Netz nicht zu überlasten. Gelingt auch dies nicht, müssen Anlagen abgeschaltet werden. Den Betreiber stört das nicht. Er bekommt nach dem EEG auch eine Vergütung für den nicht gebrauchten und nicht gelieferten Strom. Ein Bäcker, der zu viele Brötchen gebacken hat, bleibt dagegen ohne Entschädigung auf den restlichen Brötchen sitzen.“

Die größte Dumping-Aktion der Welt

Ich zitiere zur Erklärung aus der Mitteilung weiter: „Die als Vermarktung propagierte Entsorgung des unbrauchbaren Ökostroms ist typisches Dumping. Sie ist die größte Dumping-Aktion in der Welt. Wir, als Stromkunden, müssen dafür jährlich über 20 Milliarden Euro (250 Euro pro Einwohner) als EEG Umlage bezahlen. Dumping soll den Wettbewerb schwächen bis zur Vernichtung. Dieser Prozess läuft zurzeit. Die Dampfstromerzeuger müssen in die niedrigen Dumpingpreise des Ökostroms einsteigen. Der mittlere Strompreis an der Börse ist dadurch von 5 Cent pro Kilowattstunde auf 3 Cent pro Kilowattstunde in den letzten Jahren gefallen. Für den Verbraucher müssten die fallenden Börsenpreise zu geringeren Stromkosten führen, so behaupten es immer wieder die Grünen mit Trittin an der Spitze. Doch das Gegenteil ist der Fall. Je weniger für den Ökostrom an der Börse gezahlt wird, umso höher ist die EEG-Umlage, die ja der Stromkunde als Dumping-Kosten bezahlen muss. Es ist schon eine Unverfrorenheit der Grünen-Politiker, den vielen Mitbürgern, die die Zusammenhänge nicht überschauen, die Mär aufzubinden, die günstigen Börsenstrompreise würden nicht an den Verbraucher weitergegeben.“

Die programmierte Insolvenz

Und weiter: „Die Dampf- und Gaskraftwerke versuchen, durch Personalabbau und geringere Wartung bei diesem Preisverfall wenigstens noch die Betriebskosten zu verdienen. Doch das kann nicht lange gutgehen. Die Kraftwerke müssen bei verringerter Wartung häufiger ausfallen. Rücklagen für große Reparaturen oder gar einen erforderlichen Neubau können nicht gemacht werden. Kurz: Die Insolvenz der konventionellen Steinkohle- und Gaskraftwerke ist durch das unsinnige EEG programmiert. Nur die Braunkohlekraftwerke können bei den derzeitigen Preisen überleben.“

Der Schaden in Österreich und der Schweiz

„Im Strombereich ist Deutschland keine Insel“, heißt es in der NAEB-Mitteilung weiter. „Wir sind in das Europäische Verbundnetz eingegliedert. Damit gelangt der Dumping-Ökostrom auch in unsere Nachbarländer. Die Kraftwerke dort müssen sich ebenso wie in Deutschland mit nicht kostendeckenden Strompreisen herumschlagen. Große Probleme haben die Laufwasserkraftwerke in der Schweiz und in Österreich. Sie haben hohe Wartungskosten wegen der starken Korrosion in den immer nassen Anlagen. Trotz Personalabbau bleiben sie in der Verlustzone wegen der in den letzten Jahren gefallenen Börsenpreise. Sie müssen ihre Arbeit einstellen, obwohl diese Stromerzeugung kaum die Umwelt belastet und die Erzeugerpreise nur ein Drittel der Ökostrompreise ausmachen. Damit geben die Alpenländer eine wichtige Stromerzeugung auf, die übrigens auch Strom nach Deutschland schicken sollen, wenn der Wind nicht weht und die Sonne nicht scheint. Unfreundliche Auseinandersetzungen mit unseren Nachbarländern sind durch die deutsche ideologisch begründete Energiepolitik programmiert. Vielleicht werden sich alle Nachbarländer gegen das deutsche Stromnetz abschotten. Querregler, die Überschüsse an Ökostrom nicht mehr durchlassen, bauen bereits die Niederlande und Polen.“ So weit NAEB.

Auch Pumpspeicherwerke in Deutschland geraten in Not

Aber die Energiewende bringt nicht nur Laufwasserkraftwerke in den Alpenländern in betriebswirtschaftliche Not, sondern auch Pumpspeicher-Kraftwerke in Deutschland. Sie speichern Wasser, das sie in ein großes Becken oberhalb des Kraftwerks gepumpt haben, und nutzen das Gefälle aus, um mit dem herunterströmenden Wasser Turbinen mit Stromgeneratoren anzutreiben. Das Wasser im Becken dient als indirekter Stromspeicher. Die potentielle Energie des gespeicherten Wassers wird zur kinetischen Energie, wenn es für die Umwandlung in elektrische Energie gebraucht wird. Hochgepumpt wird das Wasser mit Strom, wenn er im Überangebot (zum Beispiel nachts) vorhanden ist, heruntergelassen, wenn ein Spitzenbedarf an Strom zu decken ist. Diese Kraftwerke ermöglichen also einen Ausgleich von Angebot und Nachfrage. Sie sichern die Stabilität des Stromnetzes und die Zuverlässigkeit der Stromversorgung. Derzeit und wohl auf noch lange Zeit sind sie die einzige Möglichkeit, Strom großtechnisch (indirekt) zu speichern und ihn abzurufen, wenn der Bedarf hochschnellt.

Ein Gutachten sieht trübe

Aber weil immer mehr Ökostrom auf den Markt kommt, rentieren sich die Pumpspeicher-Kraftwerke kaum noch. Dabei sind sie für den unzuverlässigen, flatterhaftigen Ökostrom noch nötiger als vor der „Energiewende“. Wie die FAZ im August berichtet hat**), „beklagen die großen Speicherbetreiber, dass sie genau wegen der Energiewende kaum noch etwas an ihren Wasserkraftbatterien verdienen“. Die FAZ verweist auch auf ein Gutachten für das Bundeswirtschaftsministerium. Dies komme zu dem Schluss, dass Pumpspeicher zwar wichtig, auf Sicht aber nicht wirtschaftlich zu betreiben seien. Die wirtschaftliche Situation für neue Pumpspeicherkraftwerke sei „mittel- und langfristig mit großen Unwägbarkeiten behaftet“. Bestehende Anlagen dürften geringe Renditen erzielen. Sogar eine „vorübergehende Stilllegung von Anlagen“ sei möglich, stellten die Gutachter fest.

Ungenügende Deckungsbeiträge in Schweizer und österreichischen Werken

Verglichen werden im Gutachten nach dem FAZ-Bericht auch Pumpspeicherkraftwerke in Österreich und der Schweiz. Dort hätten sie ein ungleich größeres Volumen und eine ungleich höhere Bedeutung. Die geringsten Deckungsbeiträge habe man für die Schweiz errechnet, die höchsten, aber ebenfalls ungenügenden, für Anlagen in Österreich. Das Ergebnis sei ernüchternd: „Die ermittelten Deckungsbeiträge dürften in der Regel nicht zur Refinanzierung von Neuinvestitionen in Pumpspeicherkraftwerke ausreichen.“ Neubauprojekte für Pumpspeicher in Deutschland, so die FAZ weiter, seien inzwischen begraben, nicht nur wegen des Widerstands von Naturschützern und Anwohnern, die keine Bergkuppen zu Speicherseen umfunktioniert sehen wollten.

Vattenfall bedauert inzwischen sein Engagement in Deutschland

In der Branche sei man sich sicher, der (auch in Deutschland tätige) schwedische Stromerzeuger Vattenfall werde die vor Jahren getroffene Modernisierungsentscheidung für das Kraftwerk in Wendefurth heute wohl kaum noch einmal treffen. Da werde auch die zeitweise Befreiung von Netzkosten nicht helfen. Vattenfall ist nach FAZ-Angaben mit einer Kapazität von etwa 3000 Megawatt der größte deutsche Pumpspeicherbetreiber mit Anlagen in Thüringen, Sachsen, Sachsen-Anhalt und Schleswig-Holstein. Inzwischen leide er an seinem Engagement. Wegen der Stilllegung seiner Kernkraftwerke hat Vattenfall die Bundesregierung verklagt – vor einem Schiedsgericht in New York. Der Konzern fordert von Deutschland 4,7 Milliarden Euro als Entschädigung (siehe hier).

„Energiewende“ wie „Blitzkrieg“

Vermutlich wird das Wort „Energiewende“ in den angelsächsischen Sprachschatz eingehen wie das Wort „Blitzkrieg“. Oder ist es vielleicht schon. Der Vergleich verführt zu einer ironischen Wortspielerei: Die Energiewende mit dem Ausstieg aus der Kernkraftnutzung für die Stromgewinnung kam mit der eigenmächtigen Verkündung durch Kanzlerin Merkel wie ein Blitz aus heiterem Himmel. So mancher im Ausland amüsiert sich über diese deutsche Verrücktheit. Aber die Stromverbraucher in Deutschland sind not amused. Deutschland schadet sich selbst. Die Vorstellung, dass die deutschen Politiker die ruinöse Wirkung nicht erkennen oder erkennen wollen, dass sie also absichtlich geschieht, fällt schwer.
______________________________________________________________________________

*) Wenn Sie dies lesen, sollten Sie wissen, dass ich dieser Schutzvereinigung als Beiratsmitglied angehöre. Der Originaltext der Mitteilung hier. Alle NAEB-Mitteilungen hier   und hier. Kontakt aufnehmen können Sie hier. Der Vortrag des NAEB-Vorsitzenden Heinrich Duepmann „So funktioniert unser Stromnetz – Zusatzkosten der Energiewende“ hier – auch andere seiner Vorträge. Die NAEB-Homepage hier. Info-Prospekt hier und hier. Falls Sie Mitglied werden wollen hier.

Der Beitrag von Dr. K.P. Krauses Blog übernommen hier




Soziale Konditionierung – auch beim Klimawandel?

Dr. Thomas Petersen

Klopfzeichen aus der Welt der Sozialwissenschaften (45): Soziale Konditionierung

Wer eine Ahnung davon bekommen möchte, wie die Berichterstattung der Massenmedien durch die Verwendung stereotyper Begriffe die Wahrnehmung von Politik beeinflusst und damit letztlich auch die inhaltliche politische Meinungsbildung, kann dies mit einem kleinen Gedankenexperiment tun und die folgende Frage beantworten: „An welche Partei denken Sie, wenn sie das Wort ‚Klientelpolitik’ hören?“

Die meisten Menschen werden bei diesem Stichwort spontan an die FDP denken. Doch warum eigentlich? Warum denkt kaum jemand spontan an die Grünen, die in den letzten Jahren mit gewaltigem propagandistischen Aufwand durchgesetzt haben, dass ihre Kernwähler von Studiengebühren befreit wurden – auf Kosten der Berufstätigen, von denen die meisten nie eine Universität von innen gesehen haben? Warum denkt man nicht an die Sozialdemokraten, die seit vielen Jahrzehnten kaum eine politische Grundsatzentscheidung treffen, ohne sich vorher intensiv mit den Gewerkschaften abzustimmen? Der Grund ist vermutlich einfach, dass das Stichwort „Klientelpolitik“ fast immer im Zusammenhang mit der Politik der FDP in der Berichterstattung auftaucht, praktisch nie mit der der Grünen oder der SPD.

Das Wort „Klientelpolitik“ ist ein Beispiel für ein Phänomen, das ich seit einigen Jahren „soziale Konditionierung“ nenne, und das meiner Meinung nach für das Verständnis der Mechanismen der Medienwirkung von großer Bedeutung ist. Die These der „sozialen Konditionierung“ stützt sich auf drei in der Sozialforschung gut dokumentierte Befunde:

1.: Menschen neigen dazu, bestimmten Begriffen oder schlagworthaften Formulierungen Bedeutungen hinzuzufügen, die objektiv gar nicht darin enthalten sein müssen.

2.: Es gibt ein bestimmtes Vokabular, das praktisch ausschließlich in den Medien verwendet wird, und das offensichtlich solche Beiklänge transportiert. Man spricht auch von „Mediensprache“. Beispiele sind Begriffe wie „umstritten“, „Zahlmeister“ oder eben auch „Klientelpolitik“. Kein Mensch würde am Gartenzaun im Gespräch mit dem Nachbarn das Wort „Klientelpolitik“ verwenden – außer er plappert gerade nach, was er im Fernsehen gehört hat.

3.: Diese Begriffe können ein erhebliches Drohpotential entwickeln, das den Verlauf ganzer Diskussionen bestimmt. Wer es nicht glaubt, möge in einer Diskussionsrunde mal einem Teilnehmer soziale Kälte vorhalten und beobachten, wie dieser allein durch dieses Wort in die Defensive gerät, und zwar auch dann wenn es inhaltlich vollkommen unangebracht ist.

Stellt man sich nun die Frage, wie denn die implizite Bedeutung solcher Formulierungen zustande kommt, wie also Elemente der Mediensprache mit wertenden Beiklängen aufgeladen werden, und verknüpft diese Frage mit der seit den frühen 1970er Jahren bekannten Erkenntnis, dass die Wirkung der Massenmedien auf die Meinungsbildung auf, wie es in der Fachsprache heißt, Kumulation und der Konsonanz beruht, also der Aufnahme gleicher oder ähnlicher Medienbotschaften über einen längeren Zeitraum hinweg, dann drängt sich einem die These der „sozialen Konditionierung“ regelrecht auf.

Medieninhaltsanalysen zeigen, dass die Berichterstattung zu politischen Themen oft von starken Wertungen geprägt ist, und zwar medienübergreifend. Die redaktionellen Linien der einzelnen Zeitungen, Zeitschriften oder Fernsehsender unterscheiden sich zwar, doch ein Wechsel in der Bewertung eines Gegenstandes, einer Person oder Institution wird in der Tendenz von allen oder zumindest den meisten meinungsbildenden Medien nachvollzogen. Wenn nun die Medienberichterstattung wiederholt die gleichen Argumente mit den gleichen Begriffen präsentiert und gleichzeitig übereinstimmende Bewertungen vornimmt, dann heißt das, dass die Leser und Zuschauer die stereotype Formulierung der Mediensprache auch zusammen mit der gleichzeitig vermittelten Wertung aufnehmen und im Gedächtnis abspeichern.

Wird nun, beispielsweise in einem persönlichen Gespräch oder durch die Lektüre eines „Achgut“-Eintrags, ein Teil dieser aus zwei Komponenten bestehenden Information aufgerufen, dann wird die gemeinsam mit ihr gelernte zweite Komponente mitaktiviert. Sagt jemand „Klientelpolitik“, liefert das Gehirn den Begriff „FDP“ gleich mit, ob man will oder nicht. Letztlich handelt es sich um einen klassischen Konditionierungsvorgang: Das Glöckchen klingelt – und der Hund denkt ans Fressen. Tatsächlich gibt es eine Reihe von Untersuchungen, die darauf hindeuten, dass das Prinzip der Konditionierung zumindest im Prinzip auch auf den Menschen angewendet werden kann.

Findet dies nun über die Verknüpfung von Begriffen in der Medienberichterstattung statt, ist es angemessen, von „sozialer Konditionierung“ zu sprechen, nicht einfach von „Konditionierung“, weil der Vorgang durch die Beteiligung der Massenmedien eine ganz neue Dimension bekommt. Die Konditionierung findet nicht in Einzelfällen statt, sondern zehntausendfach, tendenziell gleichgerichtet über das ganze Land verteilt, und zwar praktisch jederzeit. Ihr ist nicht nur eine Vielzahl von Individuen ausgesetzt, sondern in Konsequenz die ganze Gesellschaft oder zumindest erhebliche gesellschaftliche Gruppen. Wer die Sprache beherrscht, beherrscht die Gesellschaft. Vorsicht also, wenn man merkt, dass man in den Medien mit einem schlagworthaften Etikett versehen werden soll. Es kann noch so unsinnig, ja lächerlich sein – wenn es nur oft genug geschieht, bleibt es auf Dauer kleben. Dies sei allen Klimaleugnern ins Stammbuch geschrieben.

Neuerscheinung von Thomas Petersen: “Der Fragebogen in der Sozialforschung. Konstanz: UVK, 2014”.




Grüne Projekte, tiefrote Zahlen

Der Fortschritt in Gestalt von Windrädern erreichte im Jahr 2012 auch den hessischen Odenwaldkreis. Eine staatliche Regionalgesellschaft, die Gemeinde Lützelbach und eine Energiegenossenschaft investierten dort in einen Rotor, und setzten so auf den durchschlagenden Erfolg des grünen Umgestaltungsprojekts.

Landrat Dietrich Kübler lobte damals das Unternehmen euphorisch: „Eines der gemeinsamen Ziele bei der Windenergienutzung muss sein, eine möglichst hohe Wertschöpfung in der Region zu erzielen und zum anderen den Abfluss der Erträge an anonyme Investoren von Außerhalb zu verhindern.“ Bürger ringsum könnten sich neben der öffentlichen Hand über die Genossenschaft beteiligen und an der guten Sache mitverdienen.

Einen Abfluss der Windkrafterträge muss in Lützelbach jedenfalls niemand befürchten. Es gibt nämlich keine.

Bisher erwirtschaftete die Gesellschaft 235 000 Euro Verlust, ein Minus, das gut 100 000 Euro über dem geplanten Anlaufverlust liegt. Allein 2013 verbuchte sie ein Defizit von 165 000 Euro. Die Betreiber klagten, gerade 2013 habe der Wind schlecht geweht, außerdem aus der für die Drehflügler ungünstigen Ostrichtung. Am Sinn der Steuergelder-Investition zweifeln die Verantwortlichen bisher nicht. Der Wind wehe sicherlich auch wieder besser.

Trösten können sich die hessischen Kommunalpolitiker immerhin damit, dass nicht nur sie tiefrote Zahlen mit grünen Ideen schreiben. Je weiter südlich in Deutschland Rotoren stehen, desto größer die Wahrscheinlichkeit, dass sie nicht nur die Landschaft ruinieren, sondern auch die das Vermögen ihrer Investoren. Werner Daldorf, Vorsitzender des Anlegerbeirates im Bundesverband Windenergie, untersuchte seit dem Jahr 2000 Jahresabschlüsse von rund 1 200 so genannten Bürgerwindparks. In 37 Prozent aller Fälle reichten die Erträge noch nicht einmal aus, um die Bankkredite für die Turbinen zu bedienen. Denn üblicherweise finanzieren die Gesellschaften das Windgeschäft zu 30 Prozent mit Anlegermitteln und zu 70 Prozent mit einem Darlehn. Nur eine Minderheit der von Daldorf durchleuchteten Windparks erreichte überhaupt eine Rendite oberhalb der Inflationsrate. Zwei Drittel der Windturbinen im Binnenland, stellte Daldorf fest, rotieren im roten Bereich. 

Für das massenhafte Minusgeschäft gibt es Gründe. Die liegen in der Physik und nicht etwa an sinisteren Machenschaften von Windkraftgegnern. Von Nord nach Süd nimmt die Windstärke ab – und damit auch die Zahl der so genannten Volllaststunden. So bezeichnen Fachleute die rechnerischen Stunden pro Jahr, in denen ein Windrad die maximal mögliche Stromausbeute liefert. Auf Ostsee-Windplattformen liegt diese Zahl im Schnitt bei 4 275, in der Nordsee bei 3092, in Rheinland-Pfalz dagegen nur noch bei 1503 und in Baden-Württemberg auf den Schwarzwaldhügeln nur noch bei bescheidenen 1 315 Vollaststunden pro Anlage. Ein Jahr zählt allerdings 8 760 Stunden. Mit anderen Worten: ein Rotor im Ländle liefert schon wegen seines Standorts nicht einmal ein Siebtel des Jahres volle Kraft. Selbst 2000 Volllaststunden, die schon als guter Schnitt gelten, entsprechen übrigens gerade einer Auslastung von gut 23 Prozent.

Selbst die hohen Subventionen für die Windenergie nützen den meisten Betreibern im Süden nichts. Denn die Ökostromumlage fließt nicht für die Anlage selbst, sondern für jede Kilowattstunde Strom, den sie liefert. Außerdem verlangen Landbesitzer selbst in Schwachwindgebieten bis zu 40 000 Euro Pacht pro Windrad und Jahr. Produziert ein Windrad im Süden also zu wenig Energie, dann treibt es den Eigentümer schnell in die Verlustzone, trotz einer gesetzlich garantierten Stütze über 20 Jahre. Diese Erfahrung mussten die Gesellschafter der Windpark Ettenheim GmbH & Co in Baden-Württemberg machen: Seit ihrer Gründung im Jahr 2000 schrieb sie Verluste. Im vergangenen Jahr demontierten die frustrierten Anleger schließlich das Windrad und schlossen die Bücher. Ein Einzelfall? Die Stadtwerke Mainz erwirtschafteten mit ihren 20 Windrädern nach Angaben ihres Chefs Detlev Höhne seit 2005 nicht einen Cent Gewinn. Im Gegenteil, klagt Höhne, die Propeller bescherten ihm einen „leichten Verlust“. Kalkuliert hatten die Stadtwerke mit einer Rendite zwischen 4,5 und acht Prozent. In Erlangen machten die Stadtwerke die gleiche Verlustrechnung auf: ihre drei Räder fuhren ein Minus ein. Das Unternehmen musste 3,8 Millionen Euro abschreiben.

Trotzdem werben Windkraftfonds unverdrossen für Investitionen in Windparks – mit Renditeversprechen, an die auch die Manager der Stadtwerke Mainz einmal geglaubt hatten. Der Fondsvertrieb „Grüne Sachwerte“ etwa wirbt für eine Direktbeteiligung an einem neuen Windpark in Bayern, der „hochrentabel“ sein werde. Ab 200 000 Euro könne jeder einsteigen; „durch Verzicht auf einen BaFin-geprüften Verkaufsprospekt wird eine sehr hohe Investitionsquote erreicht“. Ähnlich wie Anbieter geschlossener Immobilienfonds verdienen Verkäufer von Windfonds schon durch die Ausgabe des Anteils. Außerdem lassen sie sich die Managementleistung in der Regel ordentlich vergüten. Die Verluste tragen die Investoren. Das beantwortet auch die Frage vieler gutgläubiger Politiker: „Warum sollte denn jemand Windräder aufstellen, wenn es sich nicht lohnen würde?“ Für einige lohnt sich das Geschäft immer: Fondsmanager, Rotorenhersteller, Verpächter. Für andere weniger. Die rund 75 000 Anleger des insolventen Windkraftunternehmens Prokon dürften selbst im glücklichsten Fall nur 60 Prozent ihrer Einlagen wiedersehen – und das nur gestückelt über Jahre. Auch die Prokon-Werber versprachen ihren Kunden, die Anlage sei durch Subventionen ein „grünes Sparbuch“, also praktisch rundum verlustgeschützt.

Die Politiker in den Südländern lassen sich von roten Zahlen und Pleiten nicht im Geringsten beeindrucken. Sie wischen sie mit dem Argument beiseite: es handle sich um Einzelfälle, instrumentalisiert von notorischen Energiewendefeinden. Eveline Lemke, grüne Wirtschaftsministerin Rheinland-Pfalz, will bis 2030 die Windkraftleistung in ihrem Land verfünffachen und für ihren großen Plan sogar sensible Naturgebiete opfern. Baden-Württembergs Umweltminister wünscht sich 1000 neue Rotoren im Ländle, vorzugsweise in den Schwachwindgebieten des Schwarzwaldes.

Als der grüne Ministerpräsident Winfried Kretschmann kürzlich ins idyllische Taubertal reiste, versuchten Windkraftgegner, mit ihm über einen geplanten Rotorenpark ins Gespräch zu kommen. Sie führten die Landschaftszerstörung an – und die notorisch mauen Winderträge. Vergebens. „Die Regierung hat das so entschieden“, blaffte Kretschmann die Bürger an, „und so wird es auch gemacht.“

Zuerst erschienen beim Deutschen Arbeitgeberband hier

Mehr zum Thema: Alexander Wendt
„Der grüne Blackout. Warum die Energiewende nicht funktionieren kann“,
edition blueprint, Paperback 167 Seiten 9,99 Euro
Amazon, E-Book 3,99 Euro bei >> Amazon <<
oder unter www.alexander-wendt.com

• Taschenbuch via Amazon (9.99€)
• eBook-Bundle (Formate: PDF, ePub, Mobi)
Amazon Kindle




Das neue Kernkraftwerk in Groß-Britannien – Hinkley Point C

Die Geschichte

Großbritannien (GB) ist die Mutter der sog. "Strom-Markt-Liberalisierung" in Europa. Traditionell gab es Gebietsmonopole, in denen "Energieversorger" tätig waren. Als Ausgleich für ihr Monopol, mußten sie ihre Tarife durch eine staatliche Aufsicht kontrollieren und genehmigen lassen. Nach der "Liberalisierung" sollte elektrische Energie  — wie andere Wirtschaftsgüter auch — zwischen Erzeugern und Verbrauchern gehandelt werden. Eine "Strombörse" sollte hierfür der zentrale Marktplatz sein. So weit, so schlecht. Märkte kann man nicht verordnen, sondern Märkte ergeben sich und müssen sich frei organisieren können. Heute steht man in GB vor einem Scherbenhaufen. Böse Zungen behaupten, daß das heutige Theater um Hinkley Point nur das zwangsläufige Ergebnis für eine seit 30 Jahren nicht vorhandene Energiepolitik sei. Eine sicherlich nicht ganz falsche Feststellung. Noch treffender könnte man sagen, ein bischen Planwirtschaft geht genauso wenig, wie ein bischen schwanger. Um auch weiterhin seinen politischen Einfluß geltend machen zu können, hat man ganz schnell ein prinzipielles "Marktversagen" in der Form einer von Menschen verursachen "Klimakatastrophe" konstruiert. Früher gab es eine "Aufsichtsbehörde" mit klar definierter Verantwortung und Aufgabenstellung. Heute ist die Elektrizitätswirtschaft zu einem Tummelplatz für Laiendarsteller und skrupellose Geschäftemacher verkommen. Im Ergebnis, haben sich immer mehr seriöse Investoren aus diesem Sektor zurückgezogen. Dafür wurden immer mehr Kräfte aus dem dunklen Reich der "Gesellschaftsveränderer" magisch angezogen. Wie konnte es dazu kommen?

Am Anfang und am Ende steht das Atom

In GB gab es zwar nie eine der deutschen "Anti-Atomkraft-Bewegung" vergleichbare Strömung in der Bevölkerung, gleichwohl erkannten auch dort Politiker das Potential für eine "Gesellschaftsveränderung". Man versuchte deshalb den Sektor Kernenergie möglichst lange aus der "Strom-Markt-Liberalisierung" heraus zu halten. Letztendlich wurde auch er "privatisiert". Die Kernkraftwerke wurden komplett an die staatliche französische EDF verkauft. Von einem Staatskonzern Unternehmertum zu erwarten, dürfte ungefähr genauso erfolgreich sein, wie die Übertragung eines Schnapsgeschäftes an einen Alkoholiker. Parallel wurden die "Alternativenergien" massiv bevorzugt. Mit dem Ergebnis, daß man auch bald keinen Dummen mehr finden konnte, der gewillt war, in fossile Kraftwerke zu investieren. Nun steht man vor einem Scherbenhaufen: Rund ein Drittel aller Kraftwerke müssen in den nächsten Jahren aus Altersschwäche vom Netz gehen. Dies führt zu einer Versorgungslücke von wahrscheinlich 60 GW. Eine volkswirtschaftliche Herausforderung, wie in einem Schwellenland. Die Zeit wird knapp. Längst hat man gemerkt, daß Windenergie ohne konventionelle Kraftwerke gar nicht funktionieren kann. Da helfen auch noch so hohe Investitionen nicht weiter. Den Weg über den Neubau von Kohlekraftwerken traut man sich nicht zu gehen, hat man doch erst mit großem politischen Aufwand die "Klimakatastrophe" erschaffen. Der einst erträumte Weg über "flexible und umweltfreundliche Gaskraftwerke" ist bei der benötigten Stückzahl auch nicht realistisch. Zumindest das Handelsdefizit würde explodieren und das Pfund ruinieren. Man kann es drehen und wenden wie man will, aber zum Schluß landet man wieder bei der (ungeliebten) Kernenergie.

Weisse Salbe oder Reform

Solange man an dem "Einspeisevorrang" für Windenergie fest hält, wird man keinen Investor für konventionelle Kraftwerke finden. Jedes zusätzliche Windrad drückt die Preise für Strom an der Börse weiter in den Keller und senkt zusätzlich die Auslastung der konventionellen Kraftwerke. Würde man die Einspeisung begrenzen — wenn der Wind einmal zufällig kräftig weht — wären die Windmüller aber über Nacht pleite. Dies wäre zwar die volkswirtschaftlich sinnvollste Lösung, ist aber (zur Zeit noch nicht) politisch durchsetzbar. Deshalb handelt man lieber nach dem alten Grundsatz: Erst einmal die Probleme schaffen, die man anschließend vorgibt zu lösen: In Deutschland nennt man das "Kapazitätsmärkte", in GB "Contracts for Difference CfD". Zwar ist beides durchaus nicht das Selbe, dient aber dem gleichen Zweck. Es dient dazu, die Kosten für ein zusätzliches System für die Zeiten der Dunkel-Flaute nicht dem Verursacher (Windmüller), sondern dem Verbraucher aufs Auge zu drücken. Noch einmal in aller Deutlichkeit: Würde man den "Erneuerbaren" abverlangen, zu jedem Zeitpunkt den erforderlichen Anteil an der Netzleistung bereitzustellen, wäre der Traum von der "Energiewende" über Nacht beendet. Es würden sich nämlich die wahren Kosten für jeden ersichtlich zeigen. Jeder Windmüller müßte entweder auf eigene Kosten Speicher bauen oder Notstromaggregate errichten oder Ersatzleistung bei anderen Kraftwerken zu kaufen. Wenn er keinen Strom liefern kann, weil das Netz voll ist (Starkwind) bekommt er auch kein Geld. Alles Selbstverständlichkeiten, die für jedes konventionelle Kraftwerk gültig sind. Ein "Kapazitätsmarkt" wäre nicht notwendig oder würde sich von selbst ergeben — ganz nach Standort des Betrachters.

Windenergie ist nicht gleichwertig zu Kernenergie

Der Strom aus der Steckdose ist ein homogenes Gut im wirtschaftlichen Sinne. Es ist physikalisch in engen Grenzen (Frequenz, Spannung) immer gleich. Egal ob heute oder morgen oder in Berlin oder am Bodensee. Genauso wie Dieselkraftstoff, bei dem es auch egal ist, wo man tankt. Zu diesem homogenen Wirtschaftsgut wird die elektrische Energie aber noch nicht durch die Erzeugung, sondern erst durch das Netz (Netz nicht nur im Sinne von Drähten, sondern einschließlich Schaltanlagen, Transformatoren, Frequenzregler etc.). Ganz anders als beim Dieselkraftstoff. Der bleibt immer gleich, egal ob er frisch aus der Raffinerie kommt oder aus einem Lagertank. Damit ergibt sich wirtschaftlich ein grundlegender Unterschied: Diesel kann man lagern, bis die Preise günstiger sind (Arbitrage). Elektrische Energie muß man in dem Moment verkaufen, wo sie entsteht (z. B. Windbö). Andersherum gilt genauso: Der aktuelle Strompreis kann noch so hoch sein, wenn Flaute ist, hat man nichts davon. Genauso wenig nutzt es, wenn der Sturm in der Nordsee tobt, man aber mangels Leitungen den Strom nicht nach Bayern transportieren kann.

Letztendlich muß der Verbraucher immer alle Kosten tragen. Für einen Vergleich unterschiedlicher Erzeuger ist aber eine richtige Zuordnung der Kosten sehr wohl nötig, will man nicht Äpfel und Birnen gleich setzen. Ein einfaches Beispiel mag das verdeutlichen: Bei einem Kernkraftwerk werden die Schaltanlagen und Anschlußleitungen bis zum "relevanten Anschlußpunkt" den Baukosten des Kraftwerks zugeschlagen, weil sie als sicherheitsrelevant gelten. Bei Windkraftanlagen ist das genau andersherum, um die Windenergie künstlich günstig zu rechnen. Hier schmarotzt der Anlagenbetreiber von der Allgemeinheit. Insofern sind Investitionskosten ohne genaue Kenntnisse der Verhältnisse nicht unmittelbar gegenüber zu stellen. Begriffe wie "Netzparität", sind nichts weiter als Irreführung der Verbraucher.

Entspricht 16 nun 34 oder nicht?

Die Baukosten für zwei EPR-Blöcke mit zusammen 3 200 MW werden mit 16 Milliarden Pfund angegeben. Dies ist für sich schon ein stolzer Preis. Verwundern kann das jedoch nicht, da die Vergabe ohne Konkurrenz erfolgt. Dies ist nur politisch zu erklären: Der Segen aus Brüssel war sicherlich nur mit massiver Unterstützung von Frankreich möglich. Dürfte dieser Preis Realität werden, dürfte sich der EPR und Areva als sein Hersteller auf dem Weltmarkt erledigt haben. Er wäre schlichtweg nicht konkurrenzfähig. Wie eigenartig das Vergabeverfahren verlaufen ist, erkennt man schon daran, daß der Angebotspreis kurz vor Abgabe noch einmal um zwei Milliarden erhöht worden ist. Dies wurde mit einem zusätzlichen Erwerb eines Grundstückes und den Ausbildungskosten für die Betriebsmannschaft begründet. Vielleicht platzt das ganze Geschäft noch, weil Areva vorher die Luft ausgeht. Vielleicht ist Hinkley Point auch der Einstieg der Chinesen in das europäische Geschäft mit Kernkraftwerken. EDF hat ohnehin nur eine Beteiligung zwischen 45 bis 50% geplant. China General Nuclear und China National Nuclear Corporation sind schon lange als Partner vorgesehen.

Welche Kosten nun die wirklichen Kosten sind, ist so alt wie die Kerntechnik. Die Baukosten werden mit rund 16 Milliarden Pfund angegeben. Genauer gesagt sind dies die "Über-Nacht-Kosten". Nun beträgt aber die geplante Zeit bis zur Inbetriebnahme etwa 10 Jahre. In dieser Zeit müssen alle Ausgaben über Kredite finanziert werden. Einschließlich der Finanzierungskosten soll das hier etwa 24,5 Milliarden Pfund ergeben. Weitere rund 10 Milliarden Pfund sollen auf die Rückstellungen für "Atommüll" und die Abbruchkosten für das Kraftwerk entfallen. So ergibt sich die Zahl von 43 Milliarden Euro, die durch die Presselandschaft geistert. Man sollte dabei nicht vergessen, daß dies alles nur kalkulatorische Kosten zur Rechtfertigung des vertraglich vereinbarten "strike price" von 92,50 Pfund pro MWh sind. 

Es ging hier um ein "Beihilfeverfahren", in dem die Kosten möglichst hoch angesetzt werden müssen, um das gewollte Ergebnis zu erhalten. Deutlich wird das an der erfolgreichen "Subventionskürzung" bei der Finanzierung um über eine Milliarde Pfund, die Almunia stolz verkündet hat. Um was geht es genau dabei? Die Finanzierung eines Kernkraftwerks ist mit erheblichen, nicht kalkulierbaren — weil staatlich verursachten — Risiken verbunden. Man kann erst die Kredite zurückbezahlen, wenn man Strom liefern kann. Der Zeitpunkt ist aber unbestimmt, da laufend die Anforderungen der Behörden verändert werden können. Dieses (unkalkulierbare) Risiko, lassen sich die Banken mit erheblichen Zinsaufschlägen vergüten. Aus diesem Gedanken wurde die staatliche Bürgschaft (bis zur Inbetriebnahme) erschaffen. Durch diese Bürgschaft ist der Kredit einer Staatsanleihe gleichwertig. Allerdings kostet eine Bürgschaft immer Gebühren. Der Staat subventioniert hier nicht, sondern kassiert im Gegenteil ab! Zahlen muß — wie immer — der Verbraucher. Für Hinkley Point ist eine Bürgschaft über 10 Milliarden Pfund bzw. 65% der auflaufenden Kosten vorgesehen. Man setzt nun einen fiktiven Zinssatz mit Bürgschaft in Relation zu einem durchschnittlichen Zinssatz für Kredite und hat flugs eine — freilich rein theoretische — Subvention.

Es ging hier auch mehr um die grundsätzliche Absegnung eines Verfahrens. Eine solche Anleihe kann sehr langfristig angelegt werden und dürfte sich zu einem Renner für die Versicherungswirtschaft, Pensionskassen usw. im Zeitalter der niedrigen Zinsen erweisen. Dies war übrigens der Gedanke, der hinter der Erschaffung von Desertec, dem Projekt Strom aus der Sahara, stand. Nur hatten die energiewirtschaftlichen Laien der Münchener Rück auf das falsche Produkt gesetzt. Trotzdem ist die Idee Geld wert. Hier schlummert ein europaweites, gigantisches Infrastrukturprogramm. In diesem Sinne ist auch das chinesische Interesse kein Zufall. Man sucht auch dort händeringend langfristige, sichere und lukrative Anlagemöglichkeiten für die gigantischen Devisenreserven. Kapital gibt es genug, man muß nur die ideologischen Bedenken über Bord werfen.

Ist CfD gleich EEG oder doch nicht?

Um die Antwort vorweg zu nehmen: Das Hinkley Point Modell ist eher eine Abkehr vom deutschen EEG-Modell und eine Rückwärtsbesinnung auf die gute alte Zeit der Energieversorger mit genehmigungspflichtigen Preisen. Insofern hinkt auch hier der Vergleich mit der Förderung von Windenergie.

Nach dem EEG-Modell wird ein einmal beschlossener Energiepreis für die gesamte Laufzeit gewährt. Egal, wie hoch die erzielbaren Preise sind. Selbst wenn eine Entsorgungsgebühr für den erzeugten Strom an der Börse entrichtet werden muß (negative Energiepreise). Die Subvention wird jährlich als Zuschlag auf alle verbrauchten Kilowattstunden umgelegt. Das System ist rein an der Erzeugung orientiert. Je mehr Windstrom erzeugt wird, um so mehr drückt das auf die Börsenpreise und um so höher werden die Subventionen. Langfristig müssen sich die konventionellen Kraftwerke nicht nur ihre eigenen Kosten, sondern auch die Entsorgungsgebühren für Wind und Sonne in den Zeiten der Dunkel-Flaute zurückholen. Dies wird zu extremen Preisschwankungen an der Börse führen. Nicht einmal "Kapazitätsmärkte" können dagegen etwas ausrichten.

Beim "strike price" wird ebenfalls ein Preis festgelegt (hier die 92,50 Pfund/MWh auf der Basis 2012), der langfristig gezahlt wird. Immer wenn die an der Börse erzielbaren Preise geringer sind, wird die Differenz draufgelegt. Sind die erzielten Preise jedoch höher, muß diese Differenz zurückbezahlt werden. In der reinen Lehre, sollte es hierfür ein Bankkonto mit Zinsen geben, dessen Kredite durch den Staat (wegen der dann niedrigen Zinsen) verbürgt werden sollten. Dies war angeblich nicht "beihilfekonform" und soll jetzt über kontinuierliche Umlagen bzw. Vergütungen bei den Stromrechnungen erfolgen. Hier liegt der entscheidende Unterschied zum EEG-Modell: Ein Kernkraftwerk kann immer Strom liefern, wenn es der Betreiber will — eine Windmühle nur, wenn die Natur es will. Kernkraftwerke können die hohen Börsenpreise bei "Spitzenlast" in der Dunkel-Flaute voll mitnehmen. "Kapazitätsmärkte" lassen sich so mit dem CfD-Modell elegant umschiffen. Die Kostentransparenz ist größer.

Die Preisaufsicht ist wieder zurück

In der Zeit der Gebietsmonopole, mußten sich die Energieversorger die Preise für die Endverbraucher genehmigen lassen. Ein Modell, welches noch in vielen Teilen der Welt praktiziert wird. Später glaubte man dies, durch den freien Handel einer Börse ersetzen zu können. Leider ist dieser "freie Handel" nie wirklich frei gewesen. Insofern hat es auch nie eine transparente und marktkonforme Preisfindung gegeben. Es war nur ein Alibi für eine Planwirtschaft.

Der von Brüssel genehmigte Preis ist nicht mehr auf ewig festgeschrieben, sondern plötzlich anerkannt veränderlich und bedarf somit einer Kontrolle. Er ist — klassisch, wie eine Preisgleitklausel — mit der allgemeinen Inflationsrate indexiert. Es ist ausdrücklich festgehalten, daß bei geringeren Baukosten als angesetzt, der "strike price" angepaßt werden muß. Das gleiche gilt, wenn der Gewinn höher als vorgesehen ausfällt. Beides wohl eher fromme Wünsche, handelt es sich doch beim Bauherrn und Betreiber um staatliche Unternehmen. Zumindest die "hauseigene Gewerkschaft der EDF" wird eher für das 15. und 16. Monatsgehalt streiken, bevor es dem Kunden auch nur einen Cent Preissenkung zugesteht. Man darf gespannt sein, mit welchen Befugnissen die Preisaufsicht ausgestattet werden wird.

Brüssel hat das ursprünglich auf 35 Jahre begrenzte Modell auf die voraussichtlich Lebensdauer von 60 Jahren ausgedehnt. Man will damit verhindern, daß das dann weitestgehend abgeschriebene Kraftwerk zu einer Gewinnexplosion bei dem Betreiber führt. Auch in dem erweiterten Zeitraum, müssen zusätzliche Gewinne zwischen Betreiber und Kunden aufgeteilt werden. Allerdings kehrt man mit diesem Ansatz nahezu vollständig zu dem Modell regulierter Märkte zurück. Eigentlich sollten an einer Börse die Preise durch Angebot und Nachfrage gefunden werden. Der Gewinn sollte dabei der Lohn für das eingegangene unternehmerische Risiko sein. Was unterscheidet das CfD-Modell eigentlich noch von einer rein öffentlichen Energieversorgung?

Nachwort

Man mag ja zur Kernenergie stehen wie man will. Nur was sind die Alternativen? Wenn man die gleiche elektrische Energie (3,2 GW, Arbeitsausnutzung ca. 90%) z. B. mit Sonnenenergie erzeugen wollte, müßte man rund 30 GW (Arbeitsausnutzung ca. 10%) Photovoltaik installieren. Trotzdem bleibt es in der Nacht dunkel — und die Nächte sind im Winterhalbjahr in GB verdammt lang. Im Gegensatz würden 30 GW an einem sonnigen Sonntag das Netz in GB förmlich explodieren lassen. Wollte man diese Leistung auf dem Festland entsorgen, müßte man erst gigantische Netzkupplungen durch den Ärmelkanal bauen.

Windkraftanlagen auf dem Festland erscheinen manchen als die kostengünstigste Lösung. Bei den Windverhältnissen in GB müßte man für die gleiche Energiemenge ungefähr 10 GW bauen und zusätzlich Gaskraftwerke mit etwa 3 GW für die Zeiten mit schwachem Wind. Das ergibt eine Kette von fast 1000 km Windkraftanlagen an der Küste. Wohlgemerkt, nur als Ersatz für dieses eine Kernkraftwerk Hinkley Point!

Oder auch gern einmal anders herum: Der Offshore-Windpark  London Array — Paradebeispiel deutscher Energieversorger — hat eine Grundfläche von etwa 100 km^2 bei einer Leistung von 0,63 GW. Weil ja der Wind auf dem Meer immer so schön weht (denkt die Landratte) geht man dort von einer Arbeitsausnutzung von 40% aus. Mit anderen Worten, dieses Wunderwerk grüner Baukunst, produziert weniger als 1/10 der elektrischen Energie eines Kernkraftwerkes.

Übernommen von NUKEKLAUS hier




Klimawissenschaft: Fehler von Fehlverhalten trennen

In einem kürzlich bei Climate Audit erschienenen Artikel wird untersucht, ob eine Graphik absichtlich oder unabsichtlich verkehrt herum dargestellt worden ist. In der Einleitung wird gefragt:

Spielt es eine Rolle, ob Proxys verkehrt herum verwendet werden oder nicht?

Vielleicht nicht in der Welt von Michael Mann (in der er als Erwiderung auf unsere Kritik bei PNAS behauptete, dass es für ihn unmöglich sei, Reihen verkehrt herum zu verwenden). Aber anders als Mann räumt Darrell Kaufman die Verantwortung ein, Proxy-Reihen in der richtigen Reihenfolge zu verwenden. Unglücklicherweise scheinen er und die PAGES2K-Autoren nicht sehr erpicht darauf zu sein sicherzustellen, dass sie das auch so machen.

Diese Story läuft parallel zur Tijander-Graphik, einer früheren Verkehrt-Herum-Präsentation in dem Debakel um den „Hockeyschläger“, der dazu erdacht worden ist, die Klima-Historie umzuschreiben dergestalt, dass die Mittelalterliche Warmzeit MWP aus den Statistiken eliminiert wird. Bei Climate Audit hat man sich auch die Tijander-Graphik vorgenommen und erschöpfend untersucht.

McIntyre und McKitrick (M&M) kommt der Verdienst zu, die von Mann et al. angewendeten ungeeigneten statistischen Methoden bloßgestellt zu haben, mit denen die Hockeyschlägergraphik erstellt worden ist. Diese hat ja den Missbrauch der Klimawissenschaft seitens des IPCC an das Tageslicht gebracht. Allerdings hat der große australische Skeptiker John Daly das größere Problem erkannt, bevor M&M die falschen Methoden bloßgestellt hatten. Ich empfehle dringend allen Menschen Dalys bemerkenswerte Analyse in seinem Artikel „The ‘Hockey Stick’: A New Low in Climate Science” zu lesen. Man beachte, dass dieser Artikel vor M&M erschienen war, findet sich doch darin keinerlei Querverweis auf deren Arbeit. Stattdessen handelt es sich dabei um eine synoptische Klimaanalyse dessen, was falsch ist.

Ich verstehe es so, dass McIntiyre den „Hockeyschläger“ auf einer Konferenz gesehen und ohne zu wissen, dass es eine Darstellung der globalen Temperatur sein sollte, aus seiner Erfahrung mit Statistik heraus sofort erkannt hat, dass es sich um eine potentiell manipulierte Darstellung handelt. Aus der Analyse von M&M geht klar hervor, mit welchen spezifischen Mitteln diese Graphik erzeugt worden ist. Eine Zeitlang kritisierten Kommentatoren auf der Website von McIntyre, dass dieser unwillig war zu sagen, dass Manns Aktionen absichtlich irreführend waren. Korrekterweise billigte ihm McIntyre zunächst das Recht auf Zweifel zu und ging davon aus, dass es bei ihm fehlendes Wissen und Verständnis war. Ethisch gibt es einen Unterschied zwischen einem Fehler und einem vorsätzlichen Fehler. Dies war Thema meiner Präsentation auf der 6. Heartland-Klimakonferenz in Washington D.C., aber dort kam das Argument, dass der gesamte IPCC-Prozess vorsätzlich war ebenso wie die Ergebnisse ihrer Computermodelle.

Der Missbrauch spezialisierter Methoden und Verfahren ist ein fundamentales Problem wegen der allgemeinen wissenschaftlichen Natur der Klimatologie. Die meisten sind Spezialisten nur in einer einzelnen Hinsicht und nennen sich dann fälschlich Klimawissenschaftler. Wenn sie versuchen, Stücke des riesigen Systems zusammenzufügen, müssen sie unvermeidlich zu unvertrauten Methoden und Verfahren greifen. Die Wahrscheinlichkeit eines Fehlers ist hoch. Dies ist höchst problematisch für Computer-Modellierer.

Das IPCC hat solche Spezialisten zusammengebracht und sie damit beauftragt, die Hypothese zu beweisen (anstatt sie zu widerlegen), dass die Menschen Grund für die globale Erwärmung (AGW) sind. Es war eine unheilige Allianz, die ein Umfeld von Missbrauch schuf. Sie fabrizierten wissenschaftliche Beweise in Fachbereichen, von denen sie kaum Ahnung hatten, und zwar mit Methoden und Verfahren, von denen sie sogar noch weniger Ahnung hatten. Mit massiven Finanzzuwendungen und politischer Unterstützung wurde dies zu einem Rezept für Katastrophen, wie es in den durchgesickerten E-Mails der Climate Research Unit (CRU) offenbar geworden ist. Das Ergebnis rechtfertigt die Mittel: man tue alles, was immer notwendig ist, um zu zeigen, dass menschliches CO2 die Ursache der globalen Erwärmung ist und dass die derzeitigen Temperaturen die höchsten jemals waren. CRU war eine kleine Gruppe und ein klassisches Beispiel von Gruppendenken, befeuert durch die Politik, wie ich seinerzeit hier erklärt habe.

Irving Janis erklärt das Konzept von Gruppendenken, welches Einmütigkeit erfordert auf Kosten von Entscheidungen hinsichtlich der Qualität. Ein kürzlich bei WUWT erschienener Beitrag befasste sich mit dem Problem des Gruppendenkens im Gebiet der Physik (hier):

Vom Gruppendenken betroffene Gruppen ignorieren Alternativen und tendieren dazu, irrationale Aktionen durchzuführen, die andere Gruppen entseelen. Eine Gruppe ist besonders verwundbar durch Gruppendenken, wenn deren Mitglieder einen ähnlichen Hintergrund haben, wenn die Gruppe abgeschirmt ist von externen Meinungen und wenn es keine klaren Regeln für die Entscheidungsfindung gibt.

Lubos Motl berichtete über den Kommentar von Benjamin Santer vom 25. April, in dem er sagte:

Ich schaute mir Einiges von dem Zeug bei Climate Audit an. Ich hatte wirklich das Gefühl, dass ich mal mit einigen dieser „Auditoren“ in einer dunklen Ecke reden sollte.

Dies ist der gleiche Santer, der als Leitautor einen zuvor abgesegneten IPCC-Bericht noch verändert hat. Avery und Singer schrieben im Jahre 2006:

Santer hat im Alleingang die ,Klimawissenschaft‘ des gesamten IPCC-Berichtes auf den Kopf gestellt und damit auch den politischen Prozess bzgl. der globalen Erwärmung! Der vom IPCC proklamierte vermeintliche ,erkennbare menschliche Einfluss‘ wurde tausende Male in Medien auf der ganzen Welt zitiert und war der ,Stopper‘ in Millionen Diskussionen unter Nichtwissenschaftlern“.

Es ist kaum vorstellbar, dass Santer nicht wusste, was er tat. Als seine Änderungen öffentlich gemacht worden waren, wurde eine rapide Antwort erzeugt, die eine Vertuschung zu sein scheint. Zu den diesbezüglichen Aktionen folgt hier noch einmal mit kleinen Änderungen, was ich seinerzeit dazu geschrieben habe:

Am 4. Juli 1996, kurz nach der Enthüllung, wartete das offensichtlich willfährige Journal Nature mit einem Artikel auf unter der Überschrift A Search for Human Influences On the Thermal Structure of the Atmosphere”. Mitgeliefert wurde eine nur allzu bekannte Liste von Autoren – Santer, Wigley, Mitchell, Oort und Stouffer. Er bot beobachtbare Beweise, die zeigten, dass die Modelle akkurat waren. Eine Graphik ist so viel wert wie tausend Worte, wie Manns „Hockeyschläger“ zeigte, und genauso war es mit Santers ,erkennbarem menschlichen Einfluss‚. John Daly reproduzierte die Graphik von Santer et al. (Abbildung 1) mit dem aufwärts gerichteten Temperaturtrend in der oberen Atmosphäre:

Abbildung 1

Dann erstellte Daly eine Graphik mit dem größeren Datensatz in Abbildung 2 und erklärte: „Wir erkennen, dass die in Santers Version erkennbare Erwärmung einfach das Ergebnis der ausgewählten Daten ist“ (Fettdruck von Daly):

Abbildung 2

Fast sofort wurden Fehler entdeckt, aber Nature hat sich mit der Veröffentlichung der Widerlegungen 5 Monate Zeit gelassen (bis zum 12. Dezember 1996), nachdem der oben besprochene Artikel veröffentlicht worden war. Einer erkannte die Rosinenpickerei, ein anderer stellte eine natürliche Erklärung für das Phänomen vor. Allerdings war zu jener Zeit die PR-Verschleierung bereits im Gange. Am 25. Juli 1996 sandte die American Meteorological Society AMS eine Brief der Verteidigung an Santer. Der Brief scheint den CRU-Einfluss zu beweisen und ist ein PR-Meisterstück. Es hieß darin, dass es zwei Fragen gebe, die Wissenschaft und was die Gesellschaft hinsichtlich der wissenschaftlichen Ergebnisse und der Debatte tun muss, die sie ausgelöst haben. Wissenschaft sollte nur in wissenschaftlich begutachteten Fachjournalen besprochen werden und nicht in den Medien. Dies war die in einer durchgesickerten E-Mail bestätigte Strategie von Mann. „Das war die Gefahr, die Skeptiker immer zu kritisieren, weil sie nichts in der ,begutachteten Literatur‘ veröffentlichen“. Darauf schrieb die AMS: Was zählt, ist wissenschaftliche Information und wie diese in politischen Debatten interpretiert wird. Das ist ein wichtiger Teil unserer Aufgaben. Das sind schließlich die wirklichen Gründe für die Vermischung von Wissenschaft und Politik im IPCC. Daly nannte das zu Recht „Wissenschaftismus“ [scientism].

Die Zurückweisung scheint zu belegen, dass Santer wusste, was er tat mit seinen Original-Änderungen des IPCC-Berichtes. Er wusste eindeutig um den willkürlich gewählten Start- und Endzeitpunkt der Graphik. Jeder Graph muss einen Start- und einen Endzeitpunkt haben, aber dieses Beispiel fand sich in einem Artikel, der geschrieben worden war, um die Bloßstellung seiner Umformulierungen zu verwerten.

Die Verteidigung von Santer erfolgte offensichtlich konzertiert und folgte einem Muster, das immer dann zur Anwendung kam, wenn Fehlverhalten ans Tageslicht gekommen war. Das Einspannen offizieller Agenturen zur Abdeckung des Fehlverhaltens erklärt vieles, warum das immer weiter betrieben wurde. Es erklärt auch, warum die Täter weiterhin glauben, dass sie nichts Falsches getan haben.

Phil Jones hat nach der Veröffentlichung der E-Mails die Polizei gerufen. Um die Behauptung eines Hacker-Angriffs zu stützen, musste er zugeben, dass sie echt waren. Die Ergebnisse waren bedeutungslos, weil sich die Untersuchung hinzog, bis das Statute of Limitations [?] ausgelaufen war. In einer dem widersprechenden Schlussfolgerung sagte die Polizei:

Besonders die internationale Dimension, das World Wide Web zu untersuchen, hat sich als extreme Herausforderung erwiesen … Als Ergebnis unserer Ermittlungen können wir jedoch sagen, dass der Datendiebstahl das Ergebnis eines ausgeklügelten und sorgfältig orchestrierten Angriffs auf die Datensätze der CRU war, durchgeführt via Internet“.

Das ist einfach unglaubwürdig angesichts des Ausmaßes, mit dem gewöhnliche Bürger ausspioniert werden, und angesichts des Ausmaßes an Wissen, das erforderlich ist, um aus 220.000 E-Mails 1000 herauszufiltern. Es gibt drei Möglichkeiten: Sie sind inkompetent, absichtlich irreführend oder beides. Wie auch immer, es war zu langsam, um dem Glaubwürdigkeitsverlust der gesamten IPCC-Operation zu begegnen.

Als Folge wurden blitzartig fünf kontrollierte Untersuchungen initiiert, alle orchestriert, um irrezuführen und abzulenken. Hans von Storch schrieb über die 3 Untersuchungen in UK:

Wir müssen uns selbstkritisch fragen, was da geschehen ist. Nichts darf unter den Teppich gekehrt werden. Einige der Untersuchungen wie in UK haben genau das getan. Sie haben eine Gelegenheit, Vertrauen wiederherzustellen, verpasst“*

[*Rückübersetzung aus dem Englischen].

Lord Oxburgh wurde berufen, eine der Untersuchungen zu leiten.

Oxburgh war kompromittiert, weil er ein Mitglied der Royal Society ist. Wichtiger aber ist, dass er leitender Direktor der Carbon Capture and Storage Association und Vorsitzender of Falck Renewable Resources ist, die sehr von der Behauptung profitieren, dass menschliches CO2 Erwärmung verursacht. Er befürwortete auch die Erwärmungs-Behauptung als Vizevorsitzender von GLOBE International in UK, einem Konsortium von Industrie, NGOs und der Regierung, die für die Politik zur globalen Erwärmung Lobbyarbeit leistet.

Es folgt eine Liste der Probleme bei der Oxburgh-Untersuchung:

Die Oxburgh-Untersuchung sollte die CRU-Wissenschaft untersuchen, aber um das zu tun, gab es a) keine öffentlichen Anhörungen und b) keine Anforderung von Beweisen.

Nur 11 akademische Studien wurden untersucht, eine Liste, die von Phil Jones unter die Lupe genommen worden war. Er war Direktor der CRU, also der Agentur, die untersucht werden sollte.

Interviews mit CRU-Mitarbeitern wurden nur hinter verschlossenen Türen durchgeführt.

Es gab keine Zusammenkunft mit CRU-Kritikern.

Die UEA hatte die effektive Kontrolle über die gesamte Untersuchung.

Das Select Committee des Unterhauses in UK hat Oxburgh hinsichtlich der Oberflächlichkeit seiner Studie und seines Berichtes sowie seiner versprochenen Begutachtung der Wissenschaft in die Mangel genommen.

Mehr Informationen hierzu gibt es in der detaillierten Zusammenfassung der Grenzen aller Untersuchungen bei Andrew Montford. Die Untersuchung von Muir Russell war so schlecht, dass selbst Guardian’s Fred Pearce schrieb:

Geheimniskrämerei stand bei der CRU auf der Tagesordnung. Wir fanden, dass es dort ein konsistentes Verhalten gab, nicht dem gebotenen Grad an Offenheit zu folgen, heißt es in dem Bericht. Diese Kritik richtet sich nicht nur an Jones und sein Team an der CRU. Sie richtet sich genauso an die Universität selbst, die empört sein könnte, sich selbst genauso im Schlamassel zu finden wie die Wissenschaftler, über die zu richten Russell beauftragt worden war“.

Jeder macht Fehler in der Wissenschaft, aber normalerweise werden diese im idealerweise unpersönlichen und professionellen Begutachtungsprozess gefunden. In Santers Fall haben seine Mitautoren die Begutachtung durchgeführt. Er hat beschlossen, deren Bedenken beiseite zu schieben und wurde erwischt. Der Artikel zum Hockeyschläger war begutachtet, aber wie Prof. Wegman in seinem Bericht an ein Komitee des Kongresses schrieb:

In unserer weiteren Erkundung des Netzwerkes der Autoren der Temperatur-Rekonstruktion fanden wir, dass mindestens 43 Autoren direkte Verbindungen zu Dr. Mann haben, und zwar in Gestalt der Mitautorenschaft seiner Studien. Unsere Ergebnisse dieser Analyse zeigen, dass Autoren im Fachgebiet Paläoklima eng verbandelt sind und dass daher ,unabhängige Studien‘ nicht so unabhängig sein könnten, wie sie an der Oberfläche aussehen.

Dieses Ergebnis wurde durch die durchgesickerten CRU-E-Mails bestätigt. Die Korruption dieses Prozesses seitens der CRU bedeutete Fehler, die absichtlich oder unabsichtlich Eingang in die wissenschaftliche Aufzeichnung fanden. Außerdem wurde die Verschleierung und die Ablehnung der Veröffentlichung von Daten zum Standard. Wegman dazu:

Es ist nicht klar, dass Mann und seine Verbündeten den Fehler in ihrer Verfahrensweise zur Zeit der Veröffentlichung erkannt haben. Infolge fehlender vollständiger Dokumentation ihrer Daten und Computer-Codes waren wir nicht in der Lage, ihre Forschungen nachzuvollziehen. Wir haben jedoch bei der Reproduktion der Verfahren von M&M ähnliche Ergebnisse wie diese erzielt. Dieses Nachvollziehen stützt die Kritik der MBH98-Methoden, wo der Offset* des mittleren Wertes eine künstlich große Abweichung vom gewünschten mittleren Wert Null erzeugt.

[*Original: „as the offset of the mean value creates an artificially large deviation from the desired mean value of zero“. Das habe ich inhaltlich nicht verstanden. Im LEO werden für ,offset‘ so viele Bedeutungen angezeigt, dass ich deswegen da ratlos war. Anm. d. Übers.]

Sie wussten, warum man die Daten in Erfahrung bringen wollte. Phil Jones antwortete am 21. Februar 2005 auf die Datenanforderung von Warwick Hughes so:

Wir haben etwa 25 Jahre in die Arbeit gesteckt. Warum sollte ich Ihnen die Daten zugänglich machen, wenn es Ihr Ziel ist zu versuchen, Fehler darin zu finden?“

Später sagte Jones dass er die Daten verloren habe. Werden auch andere Daten im Nirwana verschwinden?

Bedeutsam ist hier die Natur des Fehlers. Falls er entscheidend war für eine These oder eine wissenschaftliche Schlussfolgerung, wurde der Fehler aus Inkompetenz oder mit Absicht gemacht. Wie auch immer, die dafür verantwortliche Person ist auf seiner Position wegen seiner Behauptungen fehl am Platze.

Entscheidend für die IPCC-Objetive war die Notwendigkeit zu beweisen, dass die menschliche Erzeugung von CO2 zu Temperaturzunahmen führte und Temperaturen zeitigte, die in der gesamten Historie höher denn je lagen. Ist es Zufall, dass dies die Bereiche sind, wo die Wissenschaft geschaffen wurde, um das vorbestimmte Ergebnis zu bekommen? Es scheint, dass sich eine Verteilung von Fehlern heraus kristallisiert, die Fehlverhalten beweisen. Unglücklicherweise weiß ich nicht um die Verantwortlichkeiten, aber dies ist allgemein die Lage mit den verbundenen Punkten des Fehlverhaltens in der heutigen Gesellschaft.

Link: http://wattsupwiththat.com/2014/10/12/climate-science-separating-mistakes-from-malfeasance/

Übersetzt von Chris Frey EIKE




Das Solardebakel von Calasparra

Das Glück schien es gut zu meinen mit uns. Nach Murcia lichtete sich die Wolkendecke, und als wir nach einer halbstündigen Fahrt durch blühende Obstplantagen in Calasparra eintrafen, war der Himmel knallblau. Verheis­sungsvoll glitzerte die Sonne in den Spiegeln, die das Solarkraftwerk Puerto Errado* aufheizen. Auf einer Fläche von 65 Hektaren, was etwa 84 Fussballfeldern entspricht, so erfahren wir im Hochglanzprospekt, wird hier sauberer Strom für 15 400 Haushaltungen produziert. Den Treibstoff liefert, gratis und franko, die Natur. Was will man mehr.

Das vermeintliche Glück erweist sich indes, wie so vieles, was wir in diesen zwei Tagen in Calasparra erleben, als hinterhältiger Irrtum. Leider, so erklärte uns Isaac Hernández, der Chef des Solarkraftwerks Puerto Errado, werde die Anlage heute nicht mehr in Betrieb genommen. Der Himmel über Calasparra war an diesem Tag die meiste Zeit bedeckt gewesen, und die zwei Stunden Abendsonne reichten nur knapp aus, um die Produktion hochzufahren. Weil Dampfturbinen aber schneller altern und revidiert werden müssen, wenn sie dauernd rauf- und runtergefahren werden, ­verzichte man auf den ohnehin geringen ­Rest-Ertrag.

Wir nutzen die Zeit also für eine ausgedehnte­ Besichtigung von Puerto Errado – einem ­Bijou deutscher und schweizerischer Inge­nieurs­kunst. Verstellbare Spiegel, die sich ständig nach dem Stand der Sonne richten, lenken die Strahlen auf Kollektoren, wo sie Wasser auf rund 280 Grad Celsius aufheizen. Über ein weitverzweigtes Leitungsnetz wird der Wasserdampf dann zu den beiden Dampfturbinen geleitet, welche die Generatoren antreiben. Das Prinzip hört sich simpel an, doch die richtige Temperatur und die richtige Konsistenz des Dampfes hinzukriegen, ist hohe Kunst, die ein komplexes computergesteuertes Netz an Reglern und Ventilen vollbringt.

Dampfturbinen haben etliche Vorteile ­gegenüber den marktüblichen Solarpanels, bei denen die Sonnenstrahlen direkt in Strom umgewandelt werden. Man braucht weniger und vor allem auch keine hochgiftigen Rohstoffe, was sich im Preis niederschlägt. Die Wärmekollektoren sind weniger kompliziert aufgebaut als Solarpanels und haben damit eine längere Lebenserwartung. Da sich der Dampf in Puerto Errado über rund zwanzig Minuten speichern lässt, wenn etwa eine Wolke über den Himmel zieht, ist die Stromproduktion weniger den Schwankungen ausgesetzt, die den Netzbetreibern bei der Fotovoltaik Kopfzerbrechen bereiten. In Calasparra, wo auch ein Fotovoltaik-Kraftwerk von einer vergleichbaren Grösse steht, lässt sich das am praktischen Beispiel zeigen: Bei einer bloss um 50 Prozent höheren Spitzenleistung produzierte das Solar-Dampf-Kraftwerk Puerto Errado im letzten Jahr etwa doppelt so viel Strom (41,4 GWh) wie sein fotovoltaischer Konkurrent (21,2 GWh).

Zum Vergleich: Das Wasserkraftwerk Mühleberg (Wohlensee) produzierte im gleichen Zeitraum 157 GWh Strom, also knapp das Vierfache, während das AKW Mühleberg rund 2600 GWh Strom lieferte. Oder andersherum: Wollte man das kleinste Schweizer AKW durch spanischen Solarstrom ersetzen, brauchte es 62 Anlagen in der Grösse von Puerto Errado 2. Nicht mit eingerechnet sind dabei allerdings die Verluste beim Transport durch eine 1400 Kilometer lange Überlandleitung, die es im Moment noch nicht gibt.

Und dann wäre da noch ein zweites Problem: Auch in Spanien scheint die Sonne vor allem im Sommer – doch wir brauchen den Strom vor allem im Winter.Die saisonalen Unterschiede sind auch im sonnenreichen Süden Spaniens drastisch. Im Spitzenmonat Juli produzierte Puerto Errado achtmal mehr Strom als im letzten Dezember.

Das hat mit dem Einstrahlungswinkel der Sonne und der Länge der Tage zu tun – und mit dem Wetter. Nehmen wir zum Beispiel die Woche vom 16. bis zum 23. Februar. Die ersten drei Tage­ stand das Werk still wegen schlechten Wetters. Der 19. war ein perfekter Sonnentag: Nach einer Aufheizphase von knapp zwei Stunden produzierte das Werk zwischen 10 und 17 Uhr auf einer Turbine (die zweite wird nur im Sommer zugeschaltet) die volle Leistung (15 Megawatt). Der 20. Februar lief gut an, bis gegen 15 Uhr der Himmel wieder zumachte. Auch am folgenden Tag war tote Hose, danach ging es wieder bergauf. Der 23. Februar wäre perfekt gewesen, leider etwas zu perfekt – wegen eines Überangebots an Windenergie im Netz musste Puerto Errado seine Tagesproduktion um 30 Prozent drosseln.

Werkchef Isaac Hernández vertröstet uns auf den nächsten Tag – «mañana» wird das Wetter freundlicher sein. Und tatsächlich, nach 8 Uhr verzieht sich der Morgennebel aus den blühenden Obstplantagen, die Puerto ­Errado umgeben. Die Solarspiegel gleissen in der milden Wintersonne, dass es eine Freude ist, und auch das Gesicht des Betriebschefs hat sich aufgehellt. Isaac – wir haben uns nach spanischer Sitte von Anfang an geduzt – brennt darauf, den Besuchern heute sein tadellos funktionierendes Hightech-Solarkraftwerk zu zeigen. Schweizer Elektrizitätswerke – die EBL und die IWB aus den beiden Basler Halbkantonen, das EWZ und die EKZ aus Zürich sowie die Berner EWB – haben für Puerto Er­rado immerhin den stolzen Betrag von insgesamt 180 Millionen Franken hingeblättert.

Bescheidener Ertrag – enormer Verschleiss

Früher arbeitete Isaac in einem der Gaskombikraftwerke, die man benötigt, um die Strom­engpässe bei Wind- und Sonnenflauten auszugleichen. Doch Puerto Errado ist für ihn mehr als ein Job: «Es ist doch schön, etwas Gutes für die Umwelt zu tun.» Isaac räumt ein, dass die Kapriolen des Wetters der grosse Haken an der Sache seien, den selbst die raffinierteste Technologie der Welt nicht aus der Welt schafft. ­Damit das Netz nicht zusammenbricht, muss man immer so viel Strom einspeisen, wie man rausnimmt – und das ist ziemlich schwierig, wenn man nie weiss, wie viel Strom gerade kommt. Eine einigermassen wirtschaftliche Möglichkeit, den Strom in grossen Mengen über längere Zeiträume zu speichern, ist leider nach wie vor nicht in Sicht.

Immerhin, so versichert Isaac, seien die meteorologischen Prognosen heute so verfeinert, dass man die Produktion danach richten und planen könne. Heute zum Beispiel, so steht es auf dem Plan, den er auf seinen Bildschirm zaubert, soll Puerto Errado volle Winterlast fahren. Doch es ist, als führte der Teufel Regie: Während uns Isaac die Vorzüge computer­gestützter Vorhersagen erklärt, haben graue Wolken den Himmel überzogen.

Vielleicht ist es ja bloss ein gemeiner Zufall, die Ausnahme, welche die Regel bestätigt. Doch auch an diesem Tag braucht Puerto Er­rado nur Strom, ohne selber welchen zu erzeugen. Etwas ratlos sitzen die Ingenieure im Kommandoraum herum. Und das ist nun keine­ Ausnahme.

Das Kraftwerk läuft im Jahr gerade mal während 1400 Stunden auf Volllast – während 7360 Stunden, also die meiste Zeit, produziert die teure Anlage nichts.

Dass die Ausbeute in der Schweiz noch viel schlechter wäre, ist ein schwacher Trost.

Für Puerto Errado II wurden 65 Hektar fruchtbares Kulturland geopfert. In der sonnenreichen und trockenen Region von Murcia gäbe es zwar Brachland in Fülle, doch es eignet sich selten für Solarkraftwerke. Um diese einigermassen effizient zu betreiben, braucht es eine leicht gegen Süden geneigte Hanglage mit einem Anschluss ans Wassernetz – und solche Lagen werden naturgemäss auch landwirtschaftlich genutzt. Der Wasserverbrauch wurde dank einer ausgeklügelten Luftkühlung zwar auf ein Minimum beschränkt, doch ohne geht es nicht, zumal die Solarspiegel mindestens zweimal pro Woche gereinigt werden müssen. Wo es trocken ist, da gibt es naturgemäss immer auch viel Staub.

Ohne staatliche Abnahmegarantie und – unabhängig von Angebot und Nachfrage – ohne einen garantierten Preis von knapp 30 Eurocent pro Kilowattstunde wäre Puerto Errado ein gewaltiges Verlustgeschäft.

Auf dem spanischen Markt wird mit einem durchschnittlichen Referenzpreis von 5 Eurocent pro kWh Strom gerechnet.

Die Differenz von 25 Eurocent wird über Zwangsabgaben beglichen.

Zwar prophezeit die Ökobranche seit drei Jahrzehnten den unmittelbar bevorstehenden Preiszerfall: Wenn der Ökostrom einmal in Massen produziert würde, so die Theorie, würde er auch billiger. Das mag auf den ersten Blick einleuchten. In der Praxis ging die Rechnung bislang nicht auf.

Denn dem relativ bescheidenen Ertrag von Sonne und Wind steht ein enormer Verschleiss an Ressourcen (Land, Arbeit, Infrastruktur) entgegen.

Und diese Ressourcen werden bei einer steigenden Nachfrage nicht billiger, sondern eher teurer. Kommt dazu, dass die ständig der Witterung ausgesetzten Wind- und Solaranlagen rapide altern und entsprechend schnell abgeschrieben werden müssen.

Spanien ist neben Deutschland der grösste Solarstrom- und Windstromproduzent Europas. Seit der Jahrtausendwende haben die Iberer­ den Ökostrom mit zweistelligen Milliardenbeträgen subventioniert.

2009 sorgte indes eine breitangelegte Untersuchung der Universidad Rey Juan Carlos in Madrid für ­einen Schock. Die Studie kam zum Schluss, dass der Ökoboom zwar vorübergehend und vor allem im Baugewerbe gegen 50 000 neue Arbeitsplätze geschaffen hatte – dass aber für jeden der hochsubventionierten green jobs 2,2 Stellen in der realen Wirtschaft verloren­gegangen waren.

Die Erklärung: Die massiv erhöhten Strompreise führten bei der Industrie, aber auch etwa im stromintensiven IT-Bereich zu einer Abwanderung ins Ausland. Wegen der witterungs­bedingten Unzuverlässigkeit des vermeint­lichen Ökostroms konnte Spanien seine Abhängigkeit von Öl- und Gasimporten zudem kaum reduzieren.

Ökostrom-Experiment ist gescheitert

Vom Atomausstieg redet in Spanien heute kaum noch jemand, die Laufzeiten der AKW wurden kürzlich auf unbestimmte Zeit verlängert.

Hingegen gibt es Pläne, die Subven­tionen für Ökostrom massiv abzubauen. Betreiber von Kleinstanlagen sollen sogar ganz auf Subventionen verzichten und darüber ­hinaus für die Regulierungskosten im Netz aufkommen. Die Lage ist ernst. Während die spanischen Stromgiganten auf einem Schuldenberg von 37 Milliarden Euro sitzen, sind die Staatskassen leer, siecht die Wirtschaft in der Euro-Krise vor sich hin.

Allein die Ankündigung des neuen Stromgesetzes liess den spanischen Ökoboom platzen wie eine Seifenblase. Noch ist nichts definitiv, kein Politiker wagt, den ersten Stein zu werfen, doch im Grunde wissen sie alle, dass das Experiment gescheitert ist.

Im municipio von Calasparra empfängt uns Bürgermeister Jesús Navarro. Die Gemeinde im Hinterland von Murcia wurde vom Zusammenbruch der Öko-Bonanza besonders hart getroffen. Neben der Landwirtschaft gibt es hier nicht viel – ausser eben Sonne und Wind in Hülle und Fülle. Im Vertrauen auf die Versprech­ungen der Regierung verschuldeten sich viele Bauern bis über die Ohren, um ihre Einkünfte als Wind- und Sonnenfarmer aufzubessern. Rund ein Drittel der 60 000 spanischen Klein­investoren, die auf Alternativenergie spekulierten, leben in der Gegend von Murcia. Und viele von ihnen stehen nun vor dem Ruin.

In Calasparra wurde eine Schule für Solar­installateure aus dem Boden gestampft, für ihre Pionierrolle wurde die Gemeinde mit Orden ausgezeichnet. Das ist nun alles Makulatur.

Jesús ist wütend – wütend auf die Regierung, die sich nicht an Versprechen hält, aber wütend auch auf die Elektrizitätsriesen, die den Strompreis in astronomische Sphären getrieben hätten. Hundert Euro bezahle eine durchschnittliche Familie hier monatlich für den Strom – und das ist in dieser Weltgegend eine Stange Geld. Achtzehn Cent kostet die Kilowattstunde mittlerweile. Den Einwand, dass die Verteiler denselben Strom den Solarfarmern für 30 Cent abkaufen müssten und dass diese Rechnung irgendwie nicht aufgehen könne, lässt Jesús nicht gelten. Die Stromgiganten seien politisch verfilzt und verdienten sich auf Kosten des Volkes eine goldene Nase.

Juan Ricardo Rothe, der mich als Projektleiter von Puerto Errado auf meinem Ausflug ins spanische Sonnenland begleitete, wirkt auf der Heimreise ziemlich nachdenklich. Das Solar-Dampf-Kraftwerk ist sein Kind. Im Auftrag der Elektra Baselland (EBL) leitete der sympathische Argentinier mit deutschen Wurzeln den Bau der Anlage, die im August 2012 planmässig ans Netz ging und seither ohne nennenswerte Pannen funktioniert. Darauf kann er stolz sein. Juan Ricardo brachte mir einen ganzen Stapel von Hochglanzprospekten über Puerto Errado mit. Doch die Realität, die wir vor Ort sahen, war etwas anders. Die Fragen, die mich interessieren, hatten die PR-Spezialisten der EBL sorgsam ausgeklammert.

Der 63-jährige Juan Ricardo Rothe befasst sich mit einer Reihe von Wind- und Solarprojekten in der europäischen Nachbarschaft, bei denen die EBL einsteigen möchte. Die Baselbieter liegen damit voll im Trend. Schweizer Elektrizitätswerke buttern seit Jahren diskret Hunderte von Millionen in ausländische Ökoprojekte. Das hat zum einen damit zu tun, dass die Schweiz wetterbedingt für Wind- und ­Solaranlagen denkbar ungeeignet ist. Auf der anderen Seite sind die Kassen voll. Und das ­Bedürfnis, etwas fürs Image zu tun, ist gross.

Die Realität hat keine Chance

Die massive Subventionierung der Alternativenergie ohne Rücksicht auf Angebot und Nachfrage hat zu einer übermässigen Stromproduktion und zu einem Zerfall der Marktpreise geführt. Darunter leidet vor allem die Wasserkraft. Neue Investitionen rechnen sich kaum noch.

Ein Beispiel dafür liefert das Projekt Chlus zwischen Küblis und Landquart im Bündner Prättigau. Mit Investitionen von 350 Millionen Franken liesse sich hier das Zehn­fache an Strom produzieren, der in Puerto Errado anfällt. Anders als in Spanien wäre die Produktion in den Bündner Bergen zuverlässig und sogar regulierbar. Staudämme und Stollen halten zudem Hunderte von Jahren und müssen nicht auf 30 Jahre abgeschrieben werden. Doch bei einem kalkulierten Preis von 12 Rappen pro kWh rechnet sich das Projekt Chlus einfach nicht – obwohl der heimische Wasserstrom dreimal günstiger zu haben wäre als der Solarstrom im fernen Spanien.

Als die Industriellen Werke der Stadt Basel (IWB) im letzten Herbst ihre finanzielle Beteiligung an Puerto Errado auf null abschrieben, flackerte am Rheinknie eine kurze Debatte über den Irrwitz der Strom- und Subventionspolitik auf. In der restlichen Schweiz schien sich indes keiner gross um das Thema zu scheren.

Das grüne Image des Ökostroms ist derart mächtig, dass die ernüchternde Realität dagegen keine Chance hat.

Vielleicht ist die Materie auch schlicht zu komplex, zu technisch, als dass man sich damit abmühen mag.

Juan Ricardo Rothe ist nicht nur ein erfahrener Ingenieur, sondern auch Ökonom. Er glaubt, dass der Wind- und Solarstrom durchaus einen Platz haben wird im Strommix und dass wir von den fossilen Brennstoffen wegkommen sollten. In Puerto Errado wird auch mit höheren Temperaturen experimentiert, die eine höhere Ausbeute brächten, aber auch mit Salzlösungen, in denen sich die Wärme etwas länger speichern liesse. Vielleicht wird dereinst sogar Solarstrom von Afrika nach Europa fliessen, wer weiss.

Aber selbst Rothe regt sich immer wieder auf über Politiker, die «hundert Prozent Ökostrom» verkünden und sich dabei keinen Deut um die Gesetze der Physik scheren.

Man kann es einem gewinnorientierten Unternehmen kaum verübeln, wenn es irrwitzige Subventionen abholt und dafür die von den Politikern gewünschten Systeme liefert, und mögen sie noch so ineffizient sein. Man kann sich allerdings fragen, ob es die Aufgabe von öffentlichen Schweizer Elektrizitätswerken ist, sich an solch spekulativen Auslandgeschäften zu beteiligen. Der spanische Traum vom garantierten Ökoprofit scheint vorerst geplatzt. Vielleicht wären die Investoren etwas vorsichtiger gewesen, wenn sie ein Wörterbuch in die Hand genommen hätten, bevor sie die Millionen nach Spanien schickten – Puerto Errado heisst auf Deutsch «falscher Hafen».

* Puerto Errado wurde von der deutschen Firma Novatec entwickelt. Der Prototyp «Puerto Errado 1» wird heute zu Forschungszwecken genutzt, die in der Reportage ­beschriebene Anlage heisst offiziell «Puerto Errado 2».

===================================================================

Anmerkung EIKE-Redaktion :

Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich:

Die Weltwoche, Ausgabe 10/2014   ; http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE für die Gestattung des ungekürzten Nachdrucks.

===================================================================




Das Rätsel der Eiszeiten – Teil XII: GCM V – Wie enden Eiszeiten?

Im Teil XI betrachteten wir das Ende der letzten Eiszeit. Hauptsächlich haben wir Shakun et al. (2012) begutachtet, die einige sehr interessante Daten über das Timing der Temperaturen in der Süd- und der Nordhemisphäre gezeigt haben – zusammen mit atmosphärischen CO2-Werten. Kurz gesagt: Die Südhemisphäre begann sich zu erwärmen, kurz danach stiegen auch die CO2-Werte, was zu einer positiven Rückkopplung des initialen Temperaturanstiegs führte, und die globalen Temperaturen folgten der Südhemisphäre:

Bildinschrift: CO2-Konzentration und Temperatur. a: Der globale Proxy-Temperaturblock (blau) als Abweichungen vom Mittel des frühen Holozäns (vor 11.500 bis 6500 Jahren), ein Komposit aus antarktischen Eisbohrkernen (rot) und die atmosphärische CO2-Konzentration (gelbe Punkte). Gekennzeichnet sind das Holozän, das jüngere Dryas (YD), Bølling-Alleröd (B-A), das Älteste Dryas (OD) und das Letzte Glaziale Maximum (LGM). Fehlerbalken, 1sigma (Methoden); parts per million by volume ppmv. b: Phasen der CO2-Konzentration und der Temperatur global (grau), für die Nordhemisphäre (NH, blau) und die Südhemisphäre (SH, rot). Die Proxy-Blöcke basieren auf Verzögerungs-Korrelationen von vor 20.000 bis 10.000 Jahren in 1000 Monte-Carlo-Simulationen (Methoden). Das Mittel und die 1-Bandbreite werden gezeigt. Die CO2-Konzentration führt den globalen Temperaturblock in 90% der Simulationen und hinkt ihr hinterher in 6% aller Fälle (Aus Shakun et al. 2012, Abbildung 1).

Diese Studie in Nature enthielt auch einige Modellierungs-Arbeiten, die ich in mancher Weise kritisiert habe, aber die Modellierung stand nicht im Mittelpunkt der Studie. Eric Wolff, einer der führenden Komitee-Mitglieder bei EPICA, teilte diese Kritik an der Modellierung, die dann in der gleichen Ausgabe von Nature veröffentlicht wurde.

Im vorliegenden Artikel wollen wir das paper von He et al. (2013) betrachten, ebenfalls in Nature veröffentlicht. Dabei handelt es sich um eine Studie über die Modellierung der gleichen Vorgänge. Einer der Mitautoren ist Jeremy Shakun, der Leitautor unserer früheren Studie. Unter den Mitautoren waren auch Bette Otto-Bliessner, eine der Leitautorinnen im Kapitel zu Paläoklima im AR 5 des IPCC.

He et al. 2013

Leser, die diese Serie bis hier verfolgt haben, werden erkennen, dass das Abstract (aus dem wir unten zitieren) einige bekannte Features enthält:

Der Milankovitch-Theorie zufolge führten Änderungen der sommerlichen Einstrahlung in hohen nördlichen Breiten zu glazialen Zyklen infolge des Einflusses auf die Massenbilanz der Eisschilde. Statistische Analysen langer Klimareihen stützten diese Theorie, stellten aber auch eine substantielle Herausforderung dar, zeigten sie doch, dass Änderungen des Klimas auf der Südhalbkugel in Phase mit diesen auf der Nordhalbkugel waren oder diesen sogar vorausgingen.

Obwohl ein orbital getriebenes Signal auf der Nordhemisphäre irgendwie auf die Südhalbkugel hätte übergreifen können, kann der Strahlungsantrieb das lokale Klima der Südhemisphäre auch direkt beeinflussen, potentiell verstärkt durch Rückkopplungen mit dem Meereis. Dies würde zeigen, dass die beiden Hemisphären unabhängig voneinander auf verschiedene Aspekte orbitaler Antriebe reagieren. Das Aufspüren von Signalen in Klimaaufzeichnungen kann zwischen diesen Bedingungen allerdings nicht unterscheiden, weil die vorgeschlagenen Strahlungsantriebe im Wesentlichen eine identische Variabilität aufweisen. Hier verwenden wir transiente (transient = zeitlich veränderlich, Anm. der Redaktion) Simulationen mit einem gekoppelten allgemeinen Ozean-Atmosphäre-Zirkulationsmodell, um die Auswirkungen der Antriebe durch Änderungen des Orbits, der atmosphärischen CO2-Konzentration, der Eisschilde und der AMOC auf die hemisphärischen Temperaturen während der ersten Hälfte der letzten Deglaziation (vor 22.000 bis 14.300 Jahren) zu identifizieren. Obwohl nur auf einem einzelnen Modell basierend, stützt unsere Transient-Simulation mit ausschließlich orbitalen Änderungen die Milankovitch-Theorie, zeigt sie doch, dass die letzte Deglaziation durch zunehmende Einstrahlung im Frühjahr und Sommer in mittleren und hohen nördlichen Breiten initiiert worden ist sowie durch terrestrische Schnee-Albedo-Rückkopplung.

Weiter heißt es im Abstract:

Die Simulation mit allen Antrieben reproduziert am besten das Timing und die Größenordnung der Temperaturentwicklung auf der Südhalbkugel in den Proxy-Aufzeichnungen aus dieser Zeit.

Dies ist ein Modellergebnis ähnlich dem der Studie im Teil IX, in der das gleiche Verfahren individueller „Antriebe“ und eine Simulation mit allen „Antrieben“ kombiniert angewendet wird. Ich habe „Antriebe“ in Anführungszeichen gesetzt, weil die Antriebe (Eisschilde, Treibhausgase und Schmelzwasserflüsse) tatsächlich Rückkopplungen sind, die zu simulieren die GCMs jedoch nicht in der Lage sind. Änderungen der AMOC, die mit einem orbital induzierten Rückzug der nordhemisphärischen Eisschilde verbunden sind, sind die plausibelste Erklärung für die frühe Erwärmung der Südhemisphäre und deren Führungsrolle über die Temperatur der Nordhemisphäre; der darauf folgende CO2-Anstieg bedeutete die kritische Rückkopplung der globalen Deglaziation.

In dieser Studie gibt es die folgenden GCM-Simulationen:

• ORB (vor 22.000 bis 14.300 Jahren), getrieben nur durch kurzlebige Variationen der orbitalen Konfiguration

• GHG (vor 22.000 bis 14.300 Jahren), getrieben nur durch kurzlebige Variationen atmosphärischer Treibhausgas-Konzentrationen

• MOC (vor 19.000 bis 14.300 Jahren), getrieben nur durch kurzlebige Variationen von Schmelzwasserflüssen aus den Eisschilden der Nordhemisphäre und der Antarktis

• ICE (vor 19.000 bis 14.300 Jahren), getrieben nur durch quasi-kurzlebige Variationen der Orographie der Eisschilde sowie deren Ausdehnung aufgrund der ICE-5G (VM12)-Rekonstruktion.

Und dann gibt es da die ALL-Simulation, also eine Kombination all dieser Antriebe. Das verwendete GCM ist CCSM3 (CCSM4, eine aktualisierte Version von CCSM3, haben wir bereits im Part X – GCM IV dieser Reihe kennen gelernt). Der Idee dieser Studie ist es, ein paar Kernfragen zu beantworten. Eine davon lautet: Falls Änderungen der solaren Einstrahlung in hohen Breiten der Nordhemisphäre der Schlüssel zum Verständnis von Eiszeiten sind, warum hat sich dann die Südhemisphäre zuerst erwärmt? (Um diese Frage war es auch in Shakun et al. 2012 gegangen). Eine weitere Absicht dieses papers ist es, den tatsächlichen Temperaturanstieg während der jüngsten Deglaziation sowohl in der Nord- als auch in der Südhemisphäre nachzuvollziehen und zu simulieren.

Schauen wir mal.

Ihre erste Abbildung ist etwas schwierig zu lesen, aber die Essenz ist, dass blau das Modell mit ausschließlich orbitalem Antrieb (ORB) ist. Rot ist das Modell mit ALLEN Antrieben, und schwarz ist die Proxy-Rekonstruktion der Temperatur (an verschiedenen Stellen).

Bildinschrift: a. Einstrahlung am 21. Juni auf 60°N und atmosphärische CO2-Konzentration.. b. Eustatischer Meeresspiegel. Zeitfehler-Balken ± 2s.d. c. Schmelzwasserflüsse der Nordhemisphäre (NHMW) in Metern pro Anstieg des Meeresspiegels in 1000 Jahren. d. Verhältnis Pa/Th bei Bermuda als Proxy für den AMOC-Export und Modell-Maximum des AMOC-Transports (unter 500 m). Sv Sverdrup (…) e. Grönland-SAT auf der Grundlage des GISP2-Eisbohrkerns und aus Simulationen (Modell-Offset durch -4,5°C) f bis i Regionale Wassertemperaturen im Südatlantik (f), dem Indischen Ozean (g), dem Südpazifik (h) und dem Ozean der Südhemisphäre (i). J Regionale SAT über der Antarktis. In d bis j: Schwarz: Rekonstruktion, Rot: Simulation ALL, blau: Simulation ORB (10-Jahres-Mittel). LGM = letztes glaziales Maximum. (Aus He et al. 2013, Abbildung 2).

Wir können sehen, dass der orbitale Antrieb allein fast keinen Einfluss auf irgendeinen der Haupt-Temperatur-Parameter hat, und wir können sehen, dass es in Grönland und der Antarktis unterschiedliche Temperaturverläufe in dieser Periode gab.

• Wir können sehen, dass ihr ALL-Modell vernünftig gearbeitet hat bei der Rekonstruktion der wesentlichen Temperaturtrends.

• Wir können auch sehen, dass es kaum die Temperatur-Fluktuationen im Zeitmaßstab von Jahrhunderten bis zu einem Jahrtausend abbilden konnte, wenn diese auftraten.

Als Beleg folgt hier die Grönland-Aufzeichnung aus NGRIP von vor 20.000 bis 10.000 Jahren:


Abbildung 3: – NGRIP data

Wir erkennen, dass die Haupterwärmung in Grönland (zumindest an dieser Stelle in Nordgrönland) vor etwa 15.000 Jahren erfolgt ist, während die Antarktis schon vor 18.000 Jahren eine signifikante Erwärmung erfuhr (vergleiche Abbildung 1 aus Shakun et al.). Das paper zeigt im Grunde, dass es infolge von zwei separaten Effekten zwei wesentliche Temperaturtrends erfassen kann:

1. Die „Abkühlung“ in Grönland von vor 19.000 bis 17.000 Jahren mit einer Erwärmung der Antarktis im gleichen Zeitraum – wegen der MOC.

2. Die fortgesetzte Erwärmung von vor 17.000 bis 15.000 Jahren in beiden Regionen infolge von Treibhausgasen.

Man beachte, dass meine eigenen NGRIP-Daten und ihre GISP-Daten einen unterschiedlichen Temperaturtrend zeigen, und ich weiß nicht warum. Zum Verständnis dessen, was das Modell zeigt – diese Daten stammen aus ihren Ergänzungs-Daten, gefunden auf der Website von Nature: Vor 19.000 bis 17.000 Jahren gab es in der Antarktis (AN) eine signifikante Erwärmung, während es in Grönland (GI) zu einer größeren Abkühlung gekommen war von vor 17.300 und 16.700 Jahren.

Bildinschrift: Abbildung S25: genau wie Abbildung 59, nur diesmal mit Temperaturänderungen von vor 19.000 und 17.000 Jahren. SAT-Unterschiede und deren Unsicherheiten (eine Standardabweichung) werden abgeleitet von vor 17.300 bis 16.700 Jahren für 17.000 Jahre; vor 19.300 und 18.700 Jahren für 19.000 Jahre für Proxies und die Simulationen ALL, ORB und GHG sowie zwischen vor 19.000 und 18.400 Jahren für 19.000 Jahre für die Simulationen ICE, MOC und SUM. Alle Modellvariablen sind jährliche Mittelwerte (Abbildung 4).

Man beachte, dass die MOC (gelb) die Simulation ist, die die Änderung sowohl in GI als auch in AN erzeugt. (SUM sind die addierten Werte der individuellen Läufe, während ALL die Simulation mit der Kombination aller Treiber ist). Zweitens, vor 17.000 bis 15.000 Jahren setzt sich die Erwärmung in der Antarktis fort, und auch in Grönland wird es wärmer:

Bildinschrift: Abbildung S27: Wie Abbildung 59, jedoch für Temperaturänderungen von vor 17.000 bis 15.000 Jahren. SAT Differenzen und ihre Unsicherheiten (1 Standardabweichung) sind zwischen 17.300 und 16.700 Jahre vh. für 17.000 Jahre und für 14.700 für 15.000 Jahre abgeleitet. Alle Variablen wieder Jahresmittelwerte (Abbildung 5).

Man beachte, dass GHG (rosa) jetzt die Hauptursache für die Temperaturanstiege ist. Wir können die Temperaturtrends mit der Zeit als einen besseren Weg darstellen. Ich habe einige Anmerkungen hinzugefügt, weil das Layout sich mir nicht sofort erschlossen hat:

Bildinschrift: Abbildung 3: frühe deglaziale Erwärmung in Einzelantriebs-Transient-Simulationen. a-c. Grönland SAT (GISP2) (a), SHSST stack (b) und antarktischer SAT stack (c) in Simulation ORB. d-o, wie für a-c, aber für Simualtion ICE (d-f), GHC (g-i), MOC (j-l) und ALL/SUM (m-o). Alle Variablen in 10-Jahresmittel. Proxy reconstruktionen in schwarz. In a-l Simulationen in rot. In m-o Simulation ALL in rot und Simulation SUM in blau. LGM, Letztes glaziales Maximum (Abbildung 6).

Wie in Abbildung 1 können wir auch hier sehen, dass die Haupttrends ziemlich gut simuliert wurden, ohne das aber das Modell Variationen in kürzeren Zeiträumen erfassen konnte.

Die MOC kurz erklärt: Die MOC bringt warmes Oberflächen-Wasser aus den Tropen in hohe nördliche Breiten, die sich in der Folge erwärmen. Das kalte Wasser fließt in der Tiefe zurück, was eine wirklich große Zirkulation bildet. Wird diese Zirkulation gestört, fließt mehr warmes Wasser zur Antarktis und wärmt diese (Die Antarktis weist eine ähnliche großräumige Zirkulation von den Tropen an der Oberfläche und einem kalten Rückfluss in der Tiefe auf), während sich das Nordpolargebiet abkühlt. Man nennt dies die bipolare Wippe.

Wenn man ein extrem großes Fass Süßwasser in den hohen Breiten auskippt, verlangsamt sich die MOC oder kommt ganz zum Stillstand. Dies liegt an der geringeren Dichte des Süßwassers, das nicht absinken kann, was die Zirkulation verlangsamt. Kommt es also in hohen nördlichen Breiten zu massivem Abschmelzen, fließt Süßwasser in den Ozean, was die MOC verlangsamt und die hohen nördlichen Breiten abkühlt, während sich die Antarktis erwärmt. Das jedenfalls zeigen ihre Modelle. Die verfügbaren Daten hinsichtlich der MOC stützen diesen Gedanken; hier folgt Teil d aus ihrer Abbildung 1 – die schwarze Linie kennzeichnet die Proxy-Rekonstruktion:

 

Abbildung 7: Die Einheiten links sind Volumen-Raten des zwischen den Tropen und hohen nördlichen Breiten fließenden Wassers.

Was hat der orbitale Antrieb in den Modellen bewirkt?

Falls wir nochmals ihre Abbildung 1 (unsere Abbildung 2) betrachten, erkennen wir in nichts eine Änderung als Ergebnis der ORB-Simulation. Das Abstract scheint also etwas verwirrend zu sein, wenn ihre Studie zeigt, dass Einstrahlung, sprich die Milankovitch-Theorie, das ist, was die ganze Kette der Ereignisse auslöst. In ihrer Abbildung 2 zeigen sie eine geographische Ansicht der sommerlichen Temperaturänderungen in hohen Breiten und den Polargebieten als Ergebnis der ORB-Simulation. Die initiale Zunahme der Einstrahlung im Frühjahr und Sommer in den mittleren und hohen Breiten der Nordhemisphäre vor 22.000 und 19.000 Jahren war etwa dreimal so hoch wie in der Südhemisphäre (Abbildungen 2a und 2b). Außerdem führt die Abnahme der Oberflächen-Albedo durch das Schmelzen von Schnee auf dem Festland in der Nordhemisphäre zu zusätzlicher Gesamt-Absorption der Sonneneinstrahlung in der NH. Als Konsequenz werden die Sommer der Nordhemisphäre in der ORB-Simulation in der Arktis bis zu 2°C wärmer und bis zu 4°C wärmer in Eurasien, mit einem Gesamt-Mittelwert in der NH von 0,9°C in mittleren und hohen Breiten (Abbildungen 2c und 2e).

In ihrem Modell betrifft dies nicht Grönland (aus mir unverständlichen Gründen). Sie behaupten:

Unsere ORB-Simulation stützt folglich die Milankovitch-Theorie, zeigt sie doch, dass eine substantielle sommerliche Erwärmung in der NH zum Ende des Letzten Glazialen Maximums erfolgte als ein Ergebnis der größeren Einstrahlung im Frühjahr und Sommer in mittleren und hohen Breiten der NH sowie einer größeren Sensitivität der von Landmassen dominierten hohen nördlichen Breiten für den Antrieb durch Einstrahlung aus Schnee-Albedo-Rückkopplungen. Diese orbital induzierte Erwärmung löste möglicherweise den Rückzug der Eisschilde auf der NH aus und half, den Rückzug beizubehalten während des ältesten Dryas.

Analyse

1.Wenn wir die gleiche orbitale Simulation vor 104.000, 83.000 oder 67.000 Jahren laufen lassen (oder auch ein paar anderen Zeiten) – was würden wir bekommen? Hier folgen die Änderungen der Einstrahlung auf 60°N von vor 130.000 Jahren bis heute:

Abbildung 8.

Es ist keineswegs klar, was an dem Zeitraum von vor 21.000 bis 18.000 Jahren hinsichtlich der Einstrahlung so besonders ist. Es ist keine Überraschung, dass ein GCM einen lokalen Temperaturanstieg erzeugt, wenn lokal die Einstrahlung zunimmt.

2. Der in das Modell eingebrachte Schmelzwasser-Impuls ist nicht abgeleitet aus einer Berechnung irgendeiner Eisschmelze als Folge gestiegener Sommertemperaturen über Eisschilden, sondern ein künstlich angebrachter Antrieb. Unter der Bedingung, dass die Eisschmelze die MOC verlangsamt und daher die Temperatur in hohen Breiten abnimmt, sollte die MOC als eine negative Rückkopplung auf jedes Schmelzen von Schnee und Eis agieren.

3. Die Studie von Smith und Gregory (2012) [SG 2012], die wir in Teil IX besprochen haben, zeigt vielleicht andere Auswirkungen durch individuelle Antriebe als jene bei He et al. Weil der Zeitraum von vor 20.000 bis 15.000 Jahren bei Smith und Gregory etwas komprimiert ist, bin ich da nicht sicher. Man betrachte beispielsweise die Auswirkung allein auf Eisschilde während dieser Periode. Bei SG2012 zeigt sich ein deutlicher Effekt (gelb) über Grönland; bei He et al. zeigt sich gar nichts (Abbildung 6 oben)

 

Bildinschrift: Temperaturunterschiede in der Ostantarktis (oben) und Grönland (unten) zur präindustriellen Zeit (Aus Smith & Gregory 2012, Abbildung 9).

Schlussfolgerung

Es ist eine interessante Studie, die zeigt, dass Änderungen der großräumigen Meeresströme zwischen den Tropen und den Polen (die MOC) als Ursache für eine Abkühlung in Grönland und eine Erwärmung in der Antarktis in Frage kommt, was in etwa auf einer Linie mit den Proxy-Aufzeichnungen liegt. Die meisten Beweislinien zeigen, dass ein großräumiges Abschmelzen von Eis ein Faktor ist, der die MOC unterbricht.

Vielleicht waren es Änderungen der Einstrahlung in hohen Breiten, die vor etwa 20.000 Jahren zu einer massive Eisschmelze führten, was die MOC verlangsamte, was wiederum die Antarktis erwärmte, was (durch unbekannte Prozesse) zu einer starken CO2-Zunahme mit einer positiven Rückkopplung auf den Temperaturanstieg und damit dem Ende der letzten Eiszeit führte. Vielleicht nahm das CO2 gleichzeitig mit der Temperatur in der Antarktis zu (siehe den kurzen Abschnitt zur Studie von Parrenin et al. (2013) in Teil XI, was zu der Frage nach Ursache und Wirkung führt.

Um über Klima sinnvoll zu reden, müssen wir verstehen, warum:

a) höhere Einstrahlung in hohen Breiten zuvor nicht zur gleichen Abfolge der Ereignisse geführt hat

b) frühere Temperaturänderungen in der Antarktis nicht die gleiche Abfolge der Ereignisse ausgelöst haben

c)  die in der ORB-Simulation erzeugten Temperaturänderungen ausreichen, um genug Eis schmelzen zu lassen, um die MOC zu verändern (und welche Rückkopplungen dabei auftreten)

Und natürlich müssen wir verstehen, warum das CO2 zum Ende der letzten Eiszeit so stark zugenommen hat.

Link: http://scienceofdoom.com/2014/01/16/ghosts-of-climates-past-twelve-gcm-v-ice-age-termination/

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/

Teil VIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-8-global-circulation-models-ii/

Teil IX: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-9-global-circulation-models-iii/

Teil X: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-10-global-circulation-models-iv/

Teil XI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xi-das-ende-der-letzten-eiszeit/




Na sowas! Linke „Magazine“im WDR eifern gegeneinander

Fräck ju, Panorama!

Im öffentlich-rechtlichen Bezahlfernsehen geschah unlängst Unerhörtes. Zwei Politmagazine, zwischen die ideologisch normalerweise keine Telefonbuchseite passt, kabbelten sich über das so genannte Fracking. Beim Fracking handelt es sich um eine in den USA weit fortgeschrittene Technologie der Schiefergasgewinnung aus großen Tiefen. Sie hat dafür gesorgt, zusammen mit anderen Umständen, dass trotz des Chaos im Nahen Osten und in der Ukraine Öl und Gas derzeit nicht teurer, sondern etwas billiger werden. Daher gibt es gegen das Fracking erbitterten Widerstand aus der grünen Szene. In Deutschland, wo seit 1961 in geringem Umfang gefrackt wird, wollen Energiefirmen jetzt größere Gasmengen fördern. Das geht natürlich gar nicht.

Monitor und Frau Kemfert sagen uns wie es beim Fracking läuft. 

Sämtliche Umweltverbände und viele Medien spielen das Lied vom Tod. Verseuchtes Wasser, einstürzende Neu- und Altbauten, und aus dem Wasserhahn strömt Gas. Rumms! Bude platt. Und das alles wegen Fracking. Doch war es ausgerechnet das für gewöhnlich stramm rotgrüne NDR-Magazin „Panorama“, welches am 4. September einen 11-Minuten-Beitrag sendete, der die deutschen Fracking-Gegner auf die Palme brachte (in „Panorama – Die Reporter“ auf NDR III als halbstündige Version zu sehen). Der Autor stellte in seiner Sendung anhand von Expertenaussagen und Grafiken die meisten Argumente der Fracking-Gegner als wissenschaftlich unhaltbar dar. „Maßlos übertrieben“ würden die Risiken der Schiefergasgewinnung, so Panorama auf seiner Website.

Panorama Sendung vom 2.9.14 über das Fracking

Vor allem entzauberte Panorama den publikumswirksamsten Bluff der Antifracker. Denn das Gas, das im US-Frackinghorrorfilm „Gasland“ aus einem häuslichen Wasserhahn strömte und zur Explosion gebracht wurde, stammte mit großer Sicherheit aus oberfächennahen Erdschichten. Mit Fracking hatte das Ganze nichts zu tun. Panorama ließ sich einen ähnlichen Effekt an einem holländischen Fluss vorführen. Auch in dessen Wasser befinden sich leichtentzündbare Gase. Obwohl weit und breit nicht gefrackt wird.

Einen Monat später sendete das WDR-Magazin „Monitor“ eine Art Gegendarstellung zum Panorama-Bericht. „Es geht um den ganz großen Profit!“ warnte Monitor. Schließlich mische beim Fracking der Energiekonzern Exxon Mobil kräftig mit. Ja, wer denn sonst als ein Konzern, der in Energie macht? Einem Gutachter für das Umweltbundesamt, der bei Panorama die Risiken des Fracking für beherrschbar erklärt hatte, wurden im Monitor-Bericht angebliche frühere Verbindungen zur erdöl- und gasfördernden Industrie angekreidet. Ein Lobbyist also, untauglich als Zeuge?

Dumm nur, dass bei Monitor die allgegenwärtige Prof. Claudia Kemfert gegen Fracking in Stellung gebracht wurde. Eine Frau, die wie Jack aus der Box springt, sobald es gilt, „Erneuerbare Energien“ hochzureden. Kemfert erklärte erwartungsgemäß, man solle sich in Deutschland energiepolitisch doch lieber „auf andere Beine stellen.“ Wie die ausschauen, kann man auf der Homepage der Dame besichtigen. Die bestens vernetzte Frau Kemfert tanzt auf so ungefähr jeder Party, wo Lobbyarbeit für Wind- und Sonnenstrom gemacht wird. Selbstredend wurde sie in Monitor nicht als Lobbyistin vorgestellt, sondern als „führende Energieexpertin“. Soviel zum Stand des Kölner Recherchierjournalismus.

Der Monitor-Beitrag wurde von den Anti-Fracking-Aktivisten beglückt aufgenommen, waren doch durch Panorama hässliche Zweifel an ihren Parolen gesät worden. Besonders ärgerlich, weil die Berichte des NDR-Magazins in rotgrünen Milieus als sakrosankt gelten. Die Gegen-Bulle aus dem Hause WDR wird seit Wochen auf Websites und in den Netzwerken der Anti-Fracking-Front fleißig verlinkt und geteilt. Der Bruderkampf im Hause ARD befördert so nebenbei die Quote von zwei TV-Formaten, deren beste Zeiten längst passé sind.

Wovon in Monitor natürlich nicht die Rede war (übrigens auch bei Panorama nicht): Hinter den bundesweiten, gut geölten Stopp-Fracking-Kampagnen stehen nicht zuvörderst „spontan besorgte Bürger“, die fürchten, ihre Wasserleitungen könnten explodieren oder ihre Häuschen einstürzen. Diese aufrichtig Verängstigten bilden bloß die Barfußtruppen für grüne Ideologen und EEG-Absahner. Letztere rekrutieren geschulte Vortragsredner, die auf Bürgerversammlungen Stimmung gegen das Fracking machen.

„Gasland“, ein unterhaltsamer Agitprop-Streifen in der Tradition von Michael Moore, dient dabei als Türöffner. Der Film wird bei Protestmeetings rituell gezeigt; nie verfehlt er seine Wirkung. Die Legende vom Wasserhahn, aus dem dank Fracking Flammen schossen, ist einfach genial. Wenn es um clever geschürte Naturängste geht, ist Aufklärung sinnlos.

Ob im Fracking tatsächlich eine Chance liegt, Deutschland von Gasimporten unabhängiger zu machen? Darf man wohl bezweifeln. Das Land ist vergleichsweise klein. Überall gibt es Natur- und Wasserschutzgebiete. Wo wäre der Raum für eine Schiefergasrevolution wie in den USA?

Doch offenbar wähnt die Wind- und Solarindustrie ihre Pfründe schon durch den Versuch bedroht, ein paar fossile Quellen anzuzapfen. Der ökoindustrielle Komplex mag keine Konkurrenz, die billigere Energie verspricht. Auch für die grünen Politiker geht es um viel, nämlich um ihr Leuchtturmprojekt: Deutschland als Vorreiter der „Sanften Energien“, an denen die Welt genesen soll.

Für dieses Ziel muss jede Form von Energiegewinnung sabotiert werden, welche nicht auf subventionierten Windrädern, Solarpanelfeldern oder Maisgasfabriken basiert. Würde jemand morgen einen Plan vorlegen, wie man mit Hundescheiße energieautark werden könnte – auch der hätte prompt den Zorn leicht entflammbarer Wutbürger an der Backe.

„Stop Kacking“! Gründe werden sich schon finden.

http://www.ardmediathek.de/tv/Panorama-3/Das-schlechte-Image-von-Fracking/NDR-Fernsehen/Video?documentId=23268100&bcastId=14049184
http://www.youtube.com/watch?v=Bt1dkJGo8SY&sns=em 
http://www.claudiakemfert.de

&




Ozeanversauerung: Der böse kleine Bruder der Klimaerwärmung

Es handelt sich dabei um die nicht ganz unbekannte angebliche “Ozeanversauerung”, die vom AWI  in einer Pressemitteilung vom 8. Oktober 2014 zu einer neuen globalen Gefahr erhoben wurde wurde: einschließlich “dramatischer Auswirkungen” ,”Milliardenkosten” und die Behauptung, dass der pH-Wert heute 10mal schneller sinken würde als in der Vergangenheit. Kein Wort davon, dass die Ozeane tatsächlich keineswegs “sauer”, sondern mit pH-Werten zwischen 7,8 bis 8,1 eindeutig basisch sind. Das ist eine klare Verfälschung wissenschaftlicher Fakten (die Bürger werden es wohl schon nicht merken). Wenn überhaupt, dann handelt es sich objektiv gesehen um eine Verringerung der Alkalizität und hat mit einer “Versauerung” nichts zu tun, die erst unterhalb von 6,9 beginnen würde.

Abbildung rechts: CO2-Anteil in der Atmosphäre in den letzten 300 Millionen Jahren (Retallack) – ganz ohne anthropogenen Einfluss

Dabei ist die Behauptung der angeblichen pH-Wert-Reduzierung eine nicht minder unseriöse Behauptung. Denn es gibt kein globales pH-Messnetz, das es erlauben würde, eine solche Behauptung zu belegen. Lokale Messreihen zeigen eine Schwankung der pH-Werte um +/- 0,1 Punkte. Belegt ist jedoch die Tatsache, dass in der Erdgeschichte zu 90% der Zeit die CO2-Anteile in der Atmosphäre wesentlich höher waren als die bescheidenen 400 ppm von heute. Der Durchschnitt der letzten 300 Millionen Jahre lag bei 2000 ppm (siehe das Diagramm von Retallack, das auf der Veränderung der Stomata-Öffnungen von Gingko-Pflanzen basiert). Weder das wesentliche höhere CO2-Niveau der Erdgeschichte, noch die Maxima bis zu 6000 ppm haben eine “Versauerung der Ozeane” bewirkt.  Wenn die Behauptungen über einen schädlichen Einfluss auf die Korallen stimmen würden, hätten die Korallen schon vor vielen Millionen Jahren mehrfach aussterben müssen.

Wo sollte auch heute eine Versauerung herkommen? Es wird die CO2-Aufnahme von ca. 11 Gt CO2 (ein Drittel der anthropogenen Emissionen) in die Ozeane angenommen, aber ignoriert, dass mindestens die gleiche Menge (es gibt auch Schätzungen bis 20 Gt CO2 pro Jahr) als CaCO3 am Meeresboden abgelagert werden. Der komplette CO2-Kreislauf in den Ozeanen ist alles andere als bekannt: Grosse Mengen an CO2entstammen den hunderten von Unterwasser-Vulkanen entlang der tektonischen Plattengrenzen; ohne diesen Nachschub ist die Deckung des großen CO2-Bedarfs der Unterwasser-Vegetation (angeblich mehr als auf dem Festland) nicht vorstellbar. Die minimalen pH-Werte treten auch nicht etwa an der Oberfläche auf, wie dies bei einem atmosphärischen Einfluss der Fall sein müsste (und so im IPCC-Bericht fälschlicherweise angenommen), sondern in ca. 1000 m Tiefe.

An der Oberfläche werden die niedrigsten pH-Werte nur in den Bereichen gemessen, wo Tiefenströmungen an die Oberfläche kommen. Die CO2-Aufnahme aus der Atmosphäre, die angeblich eine “Versauerung” verursachen soll, muss auch im Zusammenhang mit der Gesamtmenge von etwa 39.000 Gt CO2 gesehen werden, die in den Ozeanen gelöst sind. Da sind ca. 11 Gt CO2 pro Jahr gerade einmal 0,028 % !  Da kann bereits der natürliche Einfluss der jährlichen ENSO-Aktivität und der Meeresströmungen mit Temperaturänderungen wesentlich größer sein.

Hoffen wir, dass der vom AWI gezeugte “kleine böse Bruder” bald wieder in der Versenkung verschwindet und die Forschung auf dem Gebiet der Ozeanforschung wieder seriös wird.

Der Beitrag erschien zuerst auf Die kalte Sonne hier