1

Schneller Anstieg des Meeresspiegels: Paper von Rahmstorf, Kemp & Mann erneut zweifelhaft

Also was gefällt uns nicht an diesen jüngsten Erkenntnissen von Kemp and Michael Mann?

Figure 1. Kemp Fig. S2 (A) (Zur Quelle

Ich habe den Teil der Grafik von 1650 weiter digitalisiert, um ihn mit jüngeren Beobachtungen zu vergleichen. Abb. 2 zeigt die Ergebnisse:

Abb. 2. Der von Kemp 2011 rekonstruierte Anstieg des Meeresspiegels, 1650-2000 

Zunächst erscheint merkwürdig, dass sie behaupten, es hätte global ein Meeresspiegelanstieg von 200 mm in den vergangenen fünfzig Jahren (1950-1999) gegeben. Ich kenne niemanden sonst, der das behauptet. Church and White schätzen den Anstieg von 1950-2000 auf 84 mm, und Jevrejeva sagt 95 mm. Also, ihre Rekonstruktion beträgt mehr als das Doppelte der allgemein akzeptierten Schätzungen.

Das nächste Problem zeigt sich, wenn man die Rate des Anstiegs betrachtet. Abb. 3 zeigt die Ergebnisse aus der Kemp (2011) Studie, zusammen mit dem durchschnittlichen Meeresspiegelanstieg wie von Jevrejeva und Church & White aufgrund weltweiter Pegelanzeigen geschätzt.

Abb. 3. Die von Kemp 2011 rekonstruierte Rate des globalen Meeresspiegelanstiegs von 1650-2000. Dazu die Beobachtungen von Jevrejeva (rote Kreise) und Church and White (violette Quadrate).

Kemp et al. sagen, dass die globale Rate des Meeresspiegelanstiegs seit 1870 ständig höher geworden sei, dass sie 1950 mehr als 3 mm pro Jahr betragen und seitdem ständig zugenommen hätte. Im Jahre 2000 wären es fast 5 mm/Jahr gewesen.

Jevrejeva und Church & White dagegen sagen, dass sie niemals über 3 mm/Jahr gelegen hätte und dass sie im zeitlichen Verlauf rauf und runter ginge. Im Jahre 2000 hätte sie ~ 2 mm/Jahr betragen. Mit anderen Worten, die Behauptungen stimmen überhaupt nicht mit den Beobachtungen überein.
Darüber hinaus zeigen die Ergebnisse von Kemp 2011 eine Zunahme der Rate des Meeresspiegelanstiegs, beginnend etwa 1700 … Wieso denn das? Und die Anstiegsrate hätte sich seitdem ohne Pause erhöht.

Daher können wir mit diesen beiden Hauptpunkten anfangen — die Schätzungen von Kemp et al. für die Höhe und den Anstieg des Meeresspiegels sind sehr verschieden von den Schätzungen der auf diesem Forschungsfeld anerkannten Experten. So etwas haben wir schon einmal erlebt, als Michael Mann behauptete, dass die Temperatur-Geschichte der vergangenen tausend Jahre ganz anders als die damalige anerkannte Meinung gewesen wäre. In keinem der Fälle gab es irgendwelche Hinweise auf außergewöhnlicher Belege, um die merkwürdigen Behauptungen zu stützen.

Mit dem Papier gibt es noch weitere Probleme, nachfolgend nicht in besonderer Reihenfolge aufgeführt:

1. Ungewissheiten. Wie sind sie berechnet? Sie [die Autoren] behaupten eine Gesamtgenauigkeit bei der Abschätzung des Meeresspiegels bei Tump Point von ± 40 mm. Sie sagen, dass ihre “Transferfunktion” eine Fehlerbreite von ± 100 mm hat. Weil die Transferfunktion nur ein Teil ihrer gesamten Transformation ist, wie kann das Endprodukt so genau sein?

2. Ungewissheiten. Die Ungewissheiten in ihrer Abb. S2 (A) (schattiert dunkel und hellrosa in obiger Abb. 1) sind über der Zeit konstant. Mit anderen Worten, sie sagen, dass ihre Methode zur Vorhersage des Meeresspiegels von vor 2000 Jahren so gut ist, wie für heute … das scheint zweifelhaft zu sein. 

3. Ungewissheiten. In Abb. 4(B) des Hauptpapiers zeigen sie die Zusammenfassung ihrer Rekonstruktion nach GIA-Anpassung [Glacial-Isostatic Adjustment] mit den gleichen Fehlerbändern (dunkelschattiert und hellrosa) wie in der oben gezeigten Abb. S2 (A). Aber getrennt davon zeigen sie in Abb. 4(B) eine viel größere Weite von Unsicherheiten wegen der GIA-Anpassung. Sicher, diese beiden Fehler addieren sich mit der Quadrierung und ergeben schließlich ein weitere Gesamtbandbreite für die Fehler.

4. Tidenhub. Wenn der Tidenhub sich mit der Zeit verändert hat, müsste er sich in ihre Berechnungen als ein Nebenanstieg oder Fall in den Ergebnissen zeigen. Sie sehen das mögliche Problem, aber sie meinen, es könnte nicht eintreten aufgrund der Computer-Modellierung. Sie wären dennoch besser beraten gewesen, auf die Daten zu achten, anstatt närrischerweise den auf Sand gebauten Modellen zu vertrauen. Der Tidenhub bei der Oregon Inlet Marina, in kaum 16 Km Abstand von ihrer Sand Point Hauptörtlichkeit, ist mit einer Rate von 3 mm pro Jahr angestiegen. Das ist schneller als der von Kemp rekonstruierte Meeresspiegel-Anstieg in Sand Point. Weil wir mit Sicherheit wissen, dass Änderungen im Tidenhub stattfinden, klingt ihre computerisierte Zusicherung von der Unmöglichkeit mehr als nur ein wenig hohl. Das gilt ganz besonders angesichts der großen Veränderungen in der örtlichen Unterwasser-Geographie bei Sand Point. Abb. 4 zeigt einige dieser Veränderungen:

Bild 4. Die Veränderungen im Kanal zwischen Roanoke Island und dem Festland, von 1733 bis 1990.

Man beachte die Untiefen zwischen dem Festland und der Südspitze von Roanoke Island 1733, die bis 1870 auf Karten verzeichnet sind. Sie sind seitdem langsam verschwunden. Man sieht auch zwei Zuflüsse durch die meerseitig vorgelagerten Barriere-Inseln (Roanoke Inlet und Gun Inlet), die sich seit 1733 völlig aufgefüllt haben. Die Veränderungen an diesen Zuflüssen könnten für die Veränderungen der Tiefen südlich Roanoke Island ursächlich sein, weil das bedeutet, dass die Fläche zwischen Roanoke und dem Festland sich nicht mehr wir früher durch den Roanoke Inlet an der Nordspitze der Insel entleeren kann. Ihre [der Autoren] Behauptung, dass Veränderungen in dieser Größenordnung den Tidenhub nicht verändern würden, erscheint höchst unwahrscheinlich. 

5. Unterschiedliche Auffassungen in Bezug auf lokale Trends beim Meeresspiegelanstieg. Die nächstgelegene Pegelmessstation in Wilmington zeigt keine statistisch signifikante Änderung beim Trend der mittleren Meereshöhe (Mean Sea Level – MSL) seit 1937. Kemp et al. behaupten, der Anstieg sei in diesem Zeitraum von 2 mm/Jahr auf 4,8 mm pro Jahr hochgegangen. Wenn dem so wäre, warum hat sich das nicht in Wilmington (oder in anderen benachbarten Orten) gezeigt?

6. Und wieder Ungewissheiten, wenn man genau auf die Rechnungen schaut. Sie sagen, der Fehler der mittleren Quadratwurzel RMS (root mean square) ihrer Transferfunktion betrüge 26% des gesamten Tidenhubs. Sie haben aber nicht den gesamten Tidenhub angegeben. Darauf komme ich gleich zurück.  Wenn 26% der durchschnittlichen Quadratwurzelfehler ist, dann ist der 2-Sigma-Fehler doppelt so groß, oder 50% des Tidenhubs. Das halte man sich kurz vor Augen. Die Transferfunktion ist auf die Ansammlung von Foraminfera auf mittlere Meereshöhe bezogen, aber der Fehler beträgt die Hälfte des Tidenhubs. Daher kann ihre Methode im besten Falle noch nicht einmal sagen, ob die Ansammlung von oberhalb oder unterhalb der mittleren Meereshöhe stammt…

Weil die Gezeiten innerhalb der Barriere-Inseln so komplex und so schlecht dokumentiert sind benutzen sie das VDatum-Werkzeug von der NOAA, um den mittleren Tidenhub an ihren Örtlichkeiten abzuschätzen. Das Werkzeug wird aber in der Dokumentation für das Gebiet innerhalb des Pamlico SOund als ungenau bezeichnet. Laut Dokumentation beruhen die Schätzungen für Pamlico SOund auf einem „hydrodynamischen Modell“, anders als bei allen anderen Stationen, wo der Tidenhub anhand von Pegelstandsmessungen abgeschätzt wird.

Sie behaupten auch, dass ihre Transferfunktion für jede Abschätzung „unter 100 mm“ die “speziellen vertikalen Fehler” angäbe. Das bedeutet, dass ihr 2-Sigma-Fehler 100 mm betrug. Verbindet man das mit der Vorstellung, dass ihr VLSI Fehler bei 50% des Tidenhubs liegt, so impliziert das einen Tidenhub von nur etwa 200 mm an der SAND POINT Örtlichkeit. Das stimmt mit der Abschätzung des VDatum überein. Er beträgt fast genau 200 mm.

Die Gezeiten im Gebiet sind extrem ortsabhängig. Der Tidenhub kann innerhalb weniger Meilen um 100% schwanken. Und das bedeutet, dass sich die Spannweite der örtlichen Tidenhube (er ist stark ortsbezogen und extrem abhängig von der lokalen Geographie) sehr wahrscheinlich im Laufe der Zeit  verändert hat. Unglücklicherweise werden derartige lokale Variationen nicht vom VDatum-Werkzeug erfasst. Dieses kann man von hier zusammen mit den Daten herunterladen. Beim Vergleich mehrerer Örtlichkeiten wird man feststellen, dass VDatum im PAMLICA SOUND ein sehr grobes Instrument ist.

Für die gleiche VDatum-Örtlichkeit im Pamlico Sound ergeben sich 2-Sigma-Fehler (mit 95% Zuverlässigkeitsintervall) beim Umrechnen von mittlerer Meereshöhe auf mittlere obere Fluthöhe mit 84 mm, und für mittlere untere Ebbe mit 69 mm. Die Schwierigkeit ergibt sich weil die Spanne des Tidenhubs so klein ist. Alle ihre Daten sind auf einen Standardisierten Wasserhöhen-Index (Standardized Water Level Index – SWLI) umgerechnet. Dieser drückt die Meereshöhe als einen Prozentsatz vom Tidenhub aus, von 0 bis 100. Null bedeutet, dass die Höhe auf der Höhe von mittlerer unterer Ebbe liegt, 100 bedeutet, dass sie auf der Höhe der mittleren oberen Flut liegt. Der Tidenhub wird mit 200 mm angegeben… weil er klein ist und die Fehler groß sind, beträgt das Zuverlässigkeitsintervall bei diesem Tidenhub 90 mm bis 310 mm, eine Spannweite der Veränderung von mehr als drei zu eins.

Sie berechnen den Standardisierten Wasserhöhen-Index (SWLI) wie folgt:

SWLI = (Sample Elevation – MLLW) / (MHHW – MLLW) x 100     (Gleichung 1)
[Standardized Water Level Index    -> standardisierter Wasserhöhen-Index
 Mean Lower Low Water (MLLW)    -> mittlere Höhe der Ebbe
 Mean Higher High Water (MHHW) -> mittlere Höhe der Flut]

Beim Addieren und Subtrahieren von Werten addieren sich die Fehler quadratisch. Der Höhenfehler beim Beispiel (aus der Transferfunktion) ist ± 100 mm. Die MLLW und MHHW 2-Sigma-Fehler sind jeweils 69 mm and 84 mm.

Nun denn … wir können ein paar Zahlen in die Gleichung 1 einsetzen. Zur Vereinfachung des Berechnens nehmen wir einmal an, für ein Beispiel sei die Höhe 140 mm, MLLW sei 0 mm, und MHHW sei 200 mm. Die mittlere Meereshöhe sei halbwegs zwischen Hoch und Niedrig, also etwa 100 mm. Die Fehler berücksichtigen wir (als “±” Werte dargestellt). Beim Einsetzen der Werte (in mm) in Gleichung 1 erhalten wir den Zähler:

(Sample Elevation – MLLW) = (140 ± 100 – 0 ± 69) 

Die Fehler addieren sich quadratisch (der zusammengefasste Fehler ist die Quadratwurzel der Summe der Quadrate der einzelnen Fehler). Wir erhalten als Nenner 140 ± 122 mm

Der Nenner ist beim Einsetzen der quadrierten Fehler von Gleichung 1:

(MHHW – MLLW) = (200 ± 84 – 0 ± 69) = 200 ± 109 mm

Beim Dividieren oder Multiplizieren von mit Fehlern behafteten Zahlen muss man zuerst die Fehler in Prozent des Betrags des Bezugswerts angeben, und diese dann im Quadrat addieren. So erhalten wir:

(140 ± 87%) / (200 ± 55%) *100

Das ist gleich (.7 ± 103 %) x 100, oder 70 ± 72, wobei beide Zahlen Prozentwerte des Tidenhubs mal 100 sind. Da der Tidenhub 200 mm beträgt, bedeutet das für unser Beispiel eine Gesamt-Ungewissheit von etwa 72 Prozent, oder ± 144 mm. Am Schluss all ihrer Transformationen ist die Ungewissheit bei der Höhe des Beispiels (± 144 mm) größer als die Höhe des Beispiels selbst (140 mm).

Bei all dem ist natürlich die Annahme, dass ich ihre sehr unklaren Aussagen über die Ungewissheiten in ihrer Studie richtig interpretiere. Auf alle Fälle ist ein großes Geheimnis, wie sie für Tump Point einen 2-Sigma-Fehler von etwa 40 mm aus all dem erhalten.

Das sind die Probleme, die ich mit der Studie habe. Sowohl der Umfang wie auch die Rate ihres rekonstruierten Meereshöhen-Anstiegs während der vergangenen Jahre sind viel größer als die Beobachtungen; die Gezeitenhöhen schwanken in dem betroffenen Gebiet ständig, sie haben auch sehr wahrscheinlich in der Vergangenheit geschwankt, trotz der Behauptung der Autoren, dass dem nicht so gewesen wäre. Schließlich unterschätzen ihre Methoden zur Abschätzung der Fehler die Gesamt-Ungewissheit grob.

Weitere Punkte. In Bezug auf die C14 Datierung sagen sie:

C14-Altersdaten mit hoher Genauigkeit (8) wurden erhalten durch Bildung von doppelten oder dreifachen Proben aus dem gleichen Tiefenintervall und durch Benutzung eines „gepoolten Mittelwerts“ („pooled mean“ (Calib 5.0.1 software program)) für die Kalibrierung.

Das klang wie ein völlig logisches Verfahren … bis ich auf die Daten schaute. Abb. 5 ist ein Plot der einzelnen Daten, er zeigt Alter versus Tiefe, aus Supplementary Tables DR3 und hier. Sie haben das  “pooled mean” von drei Proben aus 60 cm Tiefe benutzt und drei Proben aus 80 cm Tiefe.

 

Abb. 5. Alter und Tiefe für die Sand Point Proben im oberen Meter des Bohrkerns. Rote Quadrate zeigen C14 Daten. Horizontale schwarze Balken zeigen die 2-Sigma Ungewissheit (95% Zuverlässigkeits-Intervall).

Sehen Sie sich die 60-cm-Tiefe an. Die drei getesteten Proben beziehen sich auf 1580, 1720, und 1776. Keiner der Fehlerbalken überlappt, also haben wir es klar mit drei Proben zu tun, die nachprüfbar unterschiedliche Alter haben.

Also, bevor wir deren Mittelwerte bilden und sie zur Kalibrierung der Alters/Tiefen-Kurve benutzen würde es da nicht Sinn machen, kurz nachzudenken, warum zwei Proben aus der genau gleichen 1-cm-dicken Scheibe des Bohrkerns nahezu zweihundert Jahre im Alter auseinander sind?

Das gleiche gilt für die 80-cm-Tiefe, wo das Alter von 1609 bis 1797 geht. Das sind wieder beinahe zweihundert Jahre Zeitunterschied.

Was übersehe ich hier? Macht es Sinn, diese ungleichartigen Daten zu mitteln, ohne zuvor darüber nachgedacht zu haben, was damit los ist?

Beitrag von Willis Eschenbach vom 26. Juni 2011

Die Übersetzung besorgte Hellmut Jäger EIKE

 (1) Reduce your CO2 footprint by recycling past errors!

(2) “Climate related sea-level variations over the past two millennia




Brainstorming zur „Energiewende“

Mein Name ist Ralf Sträter. Ich bin ein Kind des Ruhrgebiets, zudem Elektroingenieur der Automatisierungstechnik und arbeite für einen großen Automobilzulieferer in Niedersachsen. Mein Wissen über Energieerzeugung im allgemeinen und Kernenergie in besonderem ist nur beschränkt, hauptberuflich beschäftige ich mich mit anderen Dingen. Dennoch raufe ich mir die Haare wegen der energiepolitischen Entscheidungen der vergangenen Wochen. Ich möchte einige dieser Gedanken hier ‚zu Papier / Bildschirm‘ bringen und diese zur Diskussion stellen:

Ist unsere Existenzgrundlage bedroht?

Verlässliche Zahlen fehlen mir – und meines Wissens nach jedem anderen auch. Unübersehbar ist aber, daß sich elektrische Energie massiv verteuern wird. Man spricht in absoluten Zahlen davon, daß Änderungen der Versorgungsinfrastruktur etwa 170 Mrd. Euro kosten werden. Das gesamte Steueraufkommen Deutschlands (Bund, Länder und Gemeinden) macht etwa 600 Mrd. Euro aus, 170 Mrd. sind etwas weniger als 30% dessen. Die von mir geschätzte FAZ spricht in einem Bericht über erwartete Strompreissteigerungen ‚zwischen 0,5 und 5 Cent / kWh‘, also für den Haushaltskunden also zwischen 2.5 und 25%. In der freien Wirtschaft wir jeder gefeuert, der eine Entscheidung trifft von der er sagt "wieviel es kostet weiß ich nicht". Ich persönlich halte selbst die 25% untertrieben, da alle Schätzungen die ich bislang las m.E. die zu installierende Leistungsreserve / die erforderliche Energiespeicherung entweder unter den Tisch fallen ließen oder sehr niedrig ansetzten. Die Speicherung von einer kWh Strom in Batterien kostet überschlägig 50 Cent, die in Pumpspeicherkraftwerken etwa 4 Cent.

Abgesehen von dieser Betrachtung werden die Augen davor verschlossen, wofür der in Deutschland benötigte Strom verbraucht wird, 75% des Stroms nämlich wird eben nicht dafür benötigt ‚essen zu kochen‘ und ‚abends den Fernseher anzuhaben‘, diese 75 % werden von industriellen Verbrauchern aufgezehrt. Eine etwas kurzsichtige Betrachtung ist es zu sagen ‚dann soll die Industrie halt bezahlen‘, vielmehr ist es so, daß wir alle bezahlen, da wir alle direkt oder indirekt von der Industriellen Produktion in Deutschland abhängen. Deutschland machte sich erhebliche Sorgen um Bankenkrisen, Bankenkrisen sind nichts gegen eine Krise der Industrie. Die meisten Arbeitsplätze Deutschlands sind von der Industrie abhängig und eine erhöhte Arbeitslosigkeit müßte teuer finanziert werden; selbst Banken sind von der Industrie stark abhängig, da diese Anlageninvestitionen vorfinanzierten; wenn auf diesen Anlagen nicht mehr produziert wird ist auch dieser Kredit weg.

Persönlich habe ich große Angst um den Industriestandort Deutschland, wir sägen an dem Ast auf dem wir alle sitzen.

Deutschland geht es so gut, da Deutschland einen massiven Außenhandelsüberschuss hat, durch die massive Verteuerung von Energie wird es den nicht mehr lange geben.

Wie gefährlich ist Kernenergie?

Die ‚Energiewende‘ wird damit begründet, daß Kernenergie gefährlich sei. Diese Erkenntnis wird damit begründet, daß man aus Fukoshima gelernt habe. Tschernobyl wird auch immer noch sehr gerne angeführt. Was passierte in Fukoshima; was in Tschernobyl vor 25 Jahren?

In Fukoshima gab es ein heftiges Erdbeben, mit anschließender Tsunamiwelle. Diese setzte die Notstromversorgung des Kraftwerks außer Gefecht, mit den bekannten Folgen, daß die erforderliche Kühlung des Kraftwerks ausgefallen ist und die Kernbrennstäbe überhitzten bis sie zum Teil schmolzen. Dadurch daß zum Teil über Ventile der hohe Druck im Sicherheitsbehälter

kontrolliert abgelassen wurde kam es zu Wasserstoffexplosionen innerhalb der unkritischen Außenhülle des Kraftwerks, das Kraftwerk Fukoshima verfügt augenscheinlich nicht über Wasserstoffrekombinatoren die soetwas verhindern. Zudem wurde sowohl beim Druckablassen als auch beim improvisiertem Notkühlen radioaktives Material freigesetzt. Etwa 10 Menschen kamen ums Leben, wohl keiner ‚durch Radioaktivität‘ aber ‚in Folge des Kraftwerksunglücks‘ bei Aufräumarbeiten, die naturgemäß gefährlich sind – vergleichbar der Arbeit eines Feuerwehrmanns beim Löschen. Der Großteil des Freigesetzten radioaktiven Materials verteilte sich im Pazifik und ist inzwischen auf den natürlichen Anteil radioaktiver Stoffe im Meerwasser herunterverdünnt, im Engeren Radius um das Kraftwerk werden einige langlebige Radioaktive Stoffe zu finden sein (diese sind allesamt sehr schwer und kommen in der gegebenen Situation nicht weit) kurzlebige radioaktive Stoffe wird es in einem größeren Radius verteilt haben.

Bei dem zweiten immer angeführten großem Kraftwerksunfall Tschernobyl wurde ein ohnehin bewußt heikel gebautes Kraftwerk (man wollte auf einfachem Wege Plutonium für Atombomben produzieren) außerhalb der zulässigen Spezifikationen betrieben. Bei der darauf folgenden Explosion und dem Brand von erheblichen Mengen Graphits wurde Radioaktives Material in große Höhen getragen und verteilte sich über weite Teile Europas. Die Sowjetunion begann mehrere Tage nach dem Unfall (den man zunächst komplett zu vertuschen versuchte) mit der Evakuierung der näheren Umgebung. Es ist strittig wieviele Menschen durch diesen Unfall starben, je nach Quelle zwischen 5.000 und 50.000. Um wie viele weniger es gewesen wären, wenn die Sowjetunion rechtzeitig evakuiert hätte kann man erst recht nicht sagen.

Wenn man diese beiden Ereignisse zusammenfaßt und bewust die höheren Opferzahlen zu Grunde legt kann man sagen "Durch die Nutzung der Kernenergie kamen bislang 50.000 Menschen ums Leben." Dies muß man in Relation setzen, zu dem

1.) was die Nutzung der Kernenergie bringt

2.) wieviele Todesopfer andere Techniken fordern

Ich führe Pkt. 1 anhand der Naturkatastrophe in Japan aus. Japan ist ein hochtechnisiertes Land, nicht zuletzt durch die Nutzung von Kernenergie. Das dicht besiedelte Land Japan wurde von einem starken Erdbeben und einem Tsunami heimgesucht, es kamen 25.000 Menschen ums Leben. In dem nicht so dicht besiedeltem Haiti kamen ein Jahr zuvor bei einem schwächerem Erdbeben ohne Tsunami 250.000 Menschen ums Leben. Die nun verhältnismäßig geringe Opferzahl des Erdbebens in Japan ist hauptsächlich der guten Infrastruktur die auf der Nutzung von Kernenergie beruht geschuldet, wäre Japan auf dritte Welt Status wären die Folgen des Bebens verehrender gewesen als die des Bebens in Haiti.

Unter Berücksichtigung der beobachteten 25 Jahres Frist könne wir zu Pkt. 2 sagen, daß Kernenergie maximal 2000 Todesopfer je Jahr forderte, der Straßenverkehr fordert je Jahr weltweit etwa 600.000 Tote.

Setzen wir Nutzen und Risiken in die richtigen Relationen?

Die meisten von uns setzen sich täglich ins Auto um zur Arbeit zu fahren und dann einer potentiell gefährlichen Arbeit nachzugehen. Dies wird unter bewußter Einschätzung der doch noch recht ungefährlichen Fahrt und der recht ungefährlichen Arbeit gemacht, um Geld zu verdienen und ein auskömmliches Leben zu haben. Hier nimmt man das Risiko in Kauf um im Gegenzug Vorteile zu haben. Mein aus den vorher aufgeführten Gedanken resultierender Appell an Medien und Politik ist doch bitte mit kühlem Kopf zu berichten und entscheiden. Panik und Aktionismus waren noch nie in der Geschichte nützlich und werden es auch in der Energiepolitik niemals sein.

Ralf Sträter 3. Juli 2011

    




Experte im „Klartext“ beim MDR: Energiewende macht Strom immer teurer!

Seit langem ist es kein Geheimnis, dass die deutsche Energiepolitik zu einer immer rascheren Erhöhung der Kosten für die Elektroenergieversorgung führt. Nicht zuletzt EIKE (z.B. hier, hier oder hier und hier) hat immer wieder darauf aufmerksam gemacht! Ursachen sind die Außerbetriebnahme der Kernkraftwerke, die nach wie vor zu den kostengünstigsten Versorgern zählen, der starke Ausbau von regenerativen Energiequellen wie Wind- und Solaranlagen, die Einführung des CO2-Emissionsrechtehandels, die Energiebesteuerung („Ökosteuer“) u. a. Gerade die Wind- und Solaranlagen, deren Ausbau politisch und wirtschaftlich von der Bundesregierung gefördert wird, weisen die höchsten Kosten auf. Diese bestehen nicht nur in den unmittelbaren Erzeugungskosten, die so hoch sind, dass sie mit Hilfe des „Erneuerbare-Energien-Gesetzes“ – „geschont“ von den Regeln der rauen Marktwirtschaft – durch alle Bürger zwangsweise subventioniert werden, und darüber hinaus noch das Privileg eines gesetzlich verbrieften sicheren Absatz besitzen.

Zusatzinfo:

Hier können Sie Ihre Meinung zum Energiekonzezpt samt Abstimmung kundtun. Bundesregierung: "Diskutieren Sie Thesen zur Zukunft der Energie" (Hier anklicken)

Professor Joachim Weimann in Klartext vom MDR: Strom wird immer teurer! sowie Ausschnitte einer PHOENIX Diskussion zwischen G. Ederer und H.U. Jörges 

Einschub der Redaktion:  Frau Dr. Merkel am 17. Juni 1997 in der „Frankfurter Rundschau“:

„Energie ist heute zu billig… Es müssen aus meiner Sicht gezielt die Steuern auf Energie angehoben werden, sei es über Mineralöl, Heizgas oder Strom.“

Verprochen und geliefert, auch wenn´s 14 Jahre dauerte

Kostentreibend bei Wind- und Photovoltaikanlagen ist außerdem ihre nicht planbare Erzeugung, weil  Windgeschwindigkeit und Sonneneinstrahlung nicht exakt vorhersagbar sind. Daher muss für diese „Kraftwerke“ eine praktisch hundertprozentige Reserve in konventionellen Kraftwerken oder in Form von Energiespeichern, die allerdings weder heute noch morgen zur Verfügung stehen, vorgehalten werden.

Man sollte sich stets vor Augen halten: Ein Fahrrad-Dynamo ist ein zuverlässigeres „Kraftwerk“ als ein Windrad oder eine Solarzelle, denn der liefert die erforderliche Elektroenergie immer genau zu dem Zeitpunkt, in dem sie benötigt wird!

Der Übergang von der verbrauchernahen Elektroenergieerzeugung, wie sie in Deutschland seit mehr als hundert Jahren praktiziert wird, zur stark zentralisierten, verbraucherfernen Erzeugung in Nord- und Ostsee-„Windparks“ erfordert den Bau von tausenden Kilometern 380-kV-Leitungen. Diese stoßen nicht nur auf starken Bürgerwiderstand, sondern sind extrem teuer, nicht zuletzt deshalb, weil infolge der niedrigen Volllaststundenzahlen der Windenergieanlagen ihre Auslastung nur relativ gering sein kann.

Die deutsche Bundesregierung, gestützt auf die Haltung aller Bundestagsparteien, hat ohne zwingende Notwendigkeit die „Energiewende“ ausgelöst und damit eine unabsehbare Kostenlawine in Gang gesetzt. Eine erste Auswirkung sind Strompreiserhöhungen, die vor allem Menschen mit kleinem und mittlerem Einkommen treffen. In einem MDR-Interview machte der Volkswirtschaftler Prof. Dr. Joachim Weimann von der Otto-von-Guericke-Universität Magdeburg die Politik für die steigenden Energiepreise verantwortlich. (s.o.) Er belegte zugleich, dass die Preise weiter steigen werden – bisher haben wir nur den Anfang erlebt! Alle Beteuerungen unserer Politiker, dass es infolge der „Energiewende“ nur zu minimalen Preissteigerunge kommen würde, entspringen entweder aus (nicht verzeihbarer) Unwissenheit oder aus einer bewussten Irreführung der Bürger! Fakt ist: Der vorgesehene Verzicht auf die Kernenergienutzung und der politisch „gewünschte“ Ersatz durch „erneuerbare“ Energien wurden handstreichartig in Gang gesetzt, ohne dass die ökonomischen Konsequenzen vorher bedacht, viel weniger durchgerechnet, wurden!

Die Verfahrensweise der Bundesregierung erinnert an einen alten DDR-Witz: Zwei Hasen am Waldrand sehen ein Auto kommen. Da sagt der eine Hase: „Pass auf, da kommen Leute aus der Staatlichen Plankommission; die schneiden jedem Hasen ihr fünftes Bein ab!“ Der andere meint: „Da kann mir nichts passieren, denn ich habe nur vier Beine.“ „Vorsicht,“ erwidert der erste, „die schneiden erst und zählen dann!“

Bei der „Energiewende“ handelt es sich – leider! – um keinen Witz. Ihre Konsequenzen gehen auch weit über die Strompreiserhöhungen hinaus: Deutschland wird nicht nur wissenschaftliche, technische und wirtschaftliche Kompetenz verlieren, es werden auch unzählige Arbeitsplätze verloren gehen, weil – nicht nur stromintensive – Industrien aus dem Strom-Hochpreisland Deutschland abwandern werden. Deutlich erkennbare Anfänge gibt es schon!  

Mit seiner Energiepolitik schadet sich Deutschland nicht nur selbst, sondern fügt der Wirtschaft der gesamten Europäischen Union erhebliche Schäden zu: Das Fehlen Tausender Megawatt zuverlässiger Kraftwerksleistung im europaweiten Verbundnetz führt unweigerlich nicht nur zu höheren Strompreisen, sondern auch zur sinkenden Versorgungszuverlässigkeit!

Ausgangspunkt des MDR-Beitrages war die Situation der Hartz-IV-Empfänger, deren Bezüge infolge der steigenden Preise für Elektroenergie eigentlich angehoben werden müssten. Völlig grotesk ist es, dass viele Kommunen alles tun, um die Kosten der Stromversorgung zu erhöhen. So werden im Namen des „Klimaschutzes“ beispielsweise in Leipzig (wie in anderen Kommunen auch) sog. Bürger-Solarkraftwerke errichtet, die nichts weiter bewirken, als den Strom teurer zu machen: Finanzkräftige schröpfen die Allgemeinheit! Und Leipzig treibt die Strompreise in die Höhe, sieht sich aber zugleich außerstande, die Stromkosten seiner Hartz-IV-Empfänger ordentlich zu begleichen! Und keiner merkt es!

Dr. Dietmar Ufer  EIKE

mit Dank an R. Hoffmann für die Videoerstellung




BP, Greenpeace und der „Big Oil“ Jackpot

Es ist schon be­lus­ti­gend, dass die Öl­ka­ta­stro­phe im Golf von Me­xi­ko den Blick auf die enge Part­ner­schaft zwi­schen den Kli­ma­wan­del-Ak­ti­vis­ten und BP (Bri­tish Pe­tro­le­um) lenkt – eine Fir­ma, auf die der Name "Big Oil" si­cher passt.

Der Wa­shing­ton Post  zu­fol­ge, hat die Grü­ne Grup­pe Na­ture Con­ser­vancy – sie er­mu­tigt Nor­mal­bür­ger, sich per­sön­lich zum Kampf ge­gen den Kli­ma­wan­del zu ver­pflich­ten – "na­he­zu $10 Mil­li­o­nen in bar und Zu­wen­dun­gen an Län­de­rei­en von BP und von mit BP ver­bun­de­nen Fir­men er­hal­ten."

O weh, hat nicht Green­peace eine kom­plet­te ExxonSe­crets Web­sei­te zu­sam­men­ge­baut, um die an­geb­lich teuf­li­sche Tat­sa­che zu ver­öf­fent­li­chen, dass Exxon­Mo­bil wäh­rend neun Jah­ren (1998-2006) ins­ge­samt $2,2 Mil­li­o­nen an ein kon­ser­va­ti­ves In­sti­tut be­zahlt hat?

$10 Mil­li­on ge­gen $2 Mil­li­o­nen! Wer hat denn nun die en­ge­re Be­zie­hung mit Big Oil?

Doch es geht wei­ter. Die Wa­shing­ton Post meint, dass Con­ser­va­ti­on In­ter­na­ti­o­nal $2 Millionen an Zu­wen­dun­gen von BP über die Jah­re er­hal­ten hat. Das ist eine wei­te­re Grü­ne Grup­pe, die den Kli­ma­wan­del seit Jah­ren als "ernst­haf­te Be­dro­hung" dar­stellt und die mit BP in meh­re­ren Pro­jek­ten zu­sam­men­ge­ar­bei­tet hat.

Ist doch lus­tig, dass Green­peace da­rü­ber nicht spricht und das Fol­gen­de auch nicht er­wähnt:

°       BP fi­nan­ziert For­schun­gen zur "Be­kämp­fung des Welt-Kli­ma­prob­lems" an der Prin­ce­ton Uni­ver­si­ty mit im gan­zen $2 Mil­li­o­nen seit 15 Jah­ren,

°       BP fi­nan­ziert ein Ener­gie-For­schungs­in­sti­tut, und zwei wei­te­re US Uni­ver­si­tä­ten mit im Gan­zen $500 Mil­li­o­nen – mit dem Ziel "neue Ener­gie­quel­len zu ent­wi­ckeln und die Aus­wir­kun­gen des Ener­gie­ver­brauchs auf die Um­welt zu ver­min­dern."

°       Exxon­Mo­bil hat $100 Mil­li­on der Stan­ford Uni­ver­si­ty zu­ge­wen­det, da­mit For­scher "Mög­lich­kei­ten fin­den zur De­ckung stei­gen­der Ener­gie­nach­fra­ge ohne ne­ga­ti­ve Aus­wir­kun­gen auf die glo­ba­le Er­wär­mung."

Die ein­zi­gen ge­nann­ten Dollar­be­trä­ge in der von Green­peace ver­öf­fent­lich­ten Er­klä­rung für den Start von  ExxonSecrets sind die mick­ri­gen $2,2 Mil­li­o­nen. Da­ge­gen ste­hen 10 + 2 + 30 + 500 + 100.

Schau­en wir mal, wozu sich das auf­sum­miert …$642 Mil­li­o­nen!

Wenn man die Welt in zwei Sei­ten teilt – in eine, die den Kli­ma­wan­del für ein erns­tes Prob­lem hält und in eine an­de­re, die den Ein­fluss des Men­schen auf das Kli­ma für so ge­ring hält, dass er nicht er­kenn­bar ist – dann hat [bild­lich ge­spro­chen] die eine Sei­te eine Bank be­raubt, wäh­rend die an­de­re vor ei­nem Schnaps­la­den um mil­de Ga­ben bet­telt.

In dem glei­chen Do­ku­ment, in dem Green­peace über das Geld von Exxon­Mo­bil re­det, be­haup­tet man be­ru­hi­gend, dass die „Kli­ma­wan­del-Leug­ner" nicht das Recht auf freie Mei­nungs­äu­ße­rung hät­ten.

War­um das?

Weil  "das Recht auf freie Mei­nungs­äu­ße­rung nicht für Fehl­in­for­ma­ti­on und Pro­pa­gan­da gel­ten wür­de“.

Tat­säch­lich aber ha­ben die Geis­tes­grö­ßen zu die­sem The­ma kon­sis­tent das Ge­gen­teil ver­tre­ten. John Stu­art Mill war glas­klar mit sei­ner An­sicht, dass nie­mand das Recht hät­te, für an­de­re zu ent­schei­den, was Pro­pa­gan­da ist und was nicht. Wür­de er sich Green­peace ge­nau an­se­hen, wür­de er den Green­peace-Leu­ten sa­gen, dass sie auf­hö­ren soll­ten, ihr ei­ge­nes Ur­teil für un­fehl­bar zu hal­ten.

Über hun­dert Jah­re spä­ter hat Noam Chomsky deut­lich er­klärt, dass, wer nicht an die Frei­heit des Wor­tes auch für nicht ge­teil­te An­sich­ten glaubt, über­haupt nicht an die Frei­heit glau­be.

Falls  Green­peace ein ernst­haf­tes Ge­spräch da­rü­ber füh­ren möch­te, wer ei­gent­lich die Fehl­in­for­ma­ti­o­nen he­rum­streut – wozu ich ger­ne be­reit bin – weil un­wi­der­leg­bar er­sicht­lich ist, dass der Big Oil Haupt­ge­winn an die Green­peace-Sei­te der De­bat­te ge­gan­gen ist.

Die Tat­sa­che, dass die Kli­ma­wan­del-Ak­ti­vis­ten ei­nen der­art mäch­ti­gen Finan­zie­rungs­vor­teil ha­ben, und den­noch da­rauf be­har­ren, dass das ge­naue Ge­gen­teil der Fall wäre, ist be­sorg­ni­ser­re­gend. Es sagt eine Men­ge über ihre in­tel­lek­tu­el­le Red­lich­keit aus und über ih­ren Cha­rak­ter und ihr Ver­mö­gen, Fak­ten von Fik­ti­o­nen zu un­ter­schei­den.

Wenn es denn wirk­lich eine Kli­ma­kri­se gäbe und eine Ge­fähr­dung der Zu­kunft un­se­rer En­kel, wä­ren die­se Men­schen nicht die Rich­ti­gen, aus der Ge­fahr he­raus zu füh­ren.

Donna Framboise am 4.6.11

Den Originalbeitrag finden Sie hier

Die Übersetzung besorgte Helmut Jäger EIKE




Falscher PIK-Alarm beim Meeres-Spiegel: Neue Satelliten-Daten zeigen keinen Grund für Alarmismus!

Es gibt neue Satelliten-Auswertungen, welche ganz klar zeigen:

Seit Anfang des Jahres 2010 bis Juni 2011 gibt es ein Absinken des Meeres-Spiegels im globalen Mittel.

Die Abbildung 1 zeigt eine Auswertung des Instituts AVISO :

Abbildung 1

Steigen (Transgression) und Rückgang (Regression) des Meeres-Spiegels wird von etwa einem Dutzend natürlicher Faktoren beeinflusst, von denen die wesentlichen sind:

Tabelle: Faktoren Meeres-Spiegel

Von den mindestens 10 Faktoren, welche den Meeresspiegel beeinflussen, können lediglich die Komponenten "Eis" und "Thermische Effekte" in den Klima-Modellen berücksichtigt werden, und selbst diese nur unzureichend und unsicher. Das liegt in der Natur der Szenarien-Rechnerei. Selbst die globale Eisbilanz unterliegt komplizierten Rückkoppelungen und ist ein Prozeß der Jahrhunderte und Jahrtausende: 

"Die Daten von Nord- und Südpol widerlegen düstere Prophezeiungen, der Meeresspiegel könne in kurzer Zeit um mehrere Meter ansteigen. "Bis das Grönlandeis schmilzt, vergehen mehr als tausend Jahre“, versichert Miller, “denn es war in der Vergangenheit auch deutlich wärmer als heute, ohne dass die riesigen Gletscher verschwanden.“ 

Und nochmals das Alfred-Wegener-Institut: 

"Selbst wenn es in Zukunft im Bereich der Antarktis deutlich wärmer werden würde, sind keine wesentlichen Schmelzprozesse zu erwarten. Ein wärmeres Klima in der Antarktis könnte jedoch zu mehr Schneefall führen. Der antarktische Eispanzer würde dann bei einer Erwärmung eher wachsen als schmelzen. Der weltweite Anstieg des Meeresspiegels könnte durch die Antarktis sogar gemindert werden."

Der wesentliche Faktor für den nach-eiszeitlichen Meeres-Anstieg war die Schmelze der riesigen kontinentalen Eismassen etwa im Zeitraum 15 bis 5 Tausend Jahre vor heute. Auch danach stieg und steigt der Meeres-Spiegel immer weiter, unterbrochen von einigen wenigen insgesamt unbedeutenden Regressionen. Dieser bis heute anhaltende Anstieg über die vergangenen Jahrtausende und Jahrhunderte ist durch die w.o. tabellarisch aufgezeigten vielfältigen Ursachen zu erklären, die regional sehr unterschiedlich wirken. Daher gibt es global immer gleichzeitig Regionen mit steigendem bzw. sinkendem Meeres-Spiegel:

 

Abbildung 2

Die Geologen und Geophysiker kennen alle diese Zusammenhänge recht gut, die Klima-Alarmisten anscheinend nicht. Wie sonst ist es zu erklären, daß die Propagandisten des IPCC ("Klimarat") als Ursache des derzeitigen und künftigen Meeres-Anstieges nahezu ausschließlich die Erderwärmung benennen !? Und dabei wird noch – unbewiesen – vorausgesetzt, diese Erwärmung des 20. Jahrhunderts sei "anthropogen". Aus alledem wird der abenteuerliche und absurde Schluß gezogen: ‚Der Mensch verursacht eine dramatische Beschleunigung des Meeres-Anstieges.‘

Alleine schon die Meßwerte der Satelliten und der Küsten-Pegel widerlegen das! Zusätzlich zu Abbildung 1 zeigt eine weitere Auswertung der Satelliten-Daten nahezu das gleiche Ergebnis: 

Abbildung 3

Seit 2010 gibt es insgesamt einen abnehmenden Trend. Dabei ist selbstverständlich anzumerken, daß es auch schon in früheren Jahren und Jahrhunderten immer wieder solche natürlichen Schwankungen und Schwingungen gegeben hat. 

A l l e r d i n g s –  eines zeigen und beweisen die Abbildungen 1 bis 4 gleichermaßen:

Eine säkulare oder dekadische Beschleunigung des Meeres-Anstieges existiert nicht !

Das gleiche Ergebnis dokumentiert die REKLIM-Studie 2010/11 für säkulare Pegel-Messungen :

Abbildung 4

Ausgewertet wurden für den Zeitraum 1843-2008 insgesamt 15 Pegel aus der Deutschen Bucht.

E r g e b n i s :

Eine Beschleunigung des seit Jahrhunderten andauernden Meeres-Anstieges existiert nicht !

Der Trend geht weiter linear aufwärts. Weiterhin muß man berücksichtigen, daß in der Deutschen Bucht noch eine postglaziale Küstenabsenkung stattfindet, deren Ausmaß allerdings unklar ist. Unabhängig vom Ausmaß dieser Küsten-Absenkung: Eine solche führt immer zu einem relativen Meeres-Anstieg. Das bedeutet, daß der maritime Effekt des Meeres-Anstieges in der Deutschen Bucht sich verlangsamt!

F a z i t :

Behauptungen, es gäbe global – oder in der Deutschen Bucht regional – einen beschleunigten Meeres-Anstieg , und ein solcher sei gar "anthropogen", sind frei erfunden. Einer wissenschaftlichen Nachprüfung halten solche Alarm-Meldungen nicht stand !

1 PIK, Presse-Mitt. 20.06.2011, Meeresspiegel steigt heute schneller als je zuvor in den letzten 2000 Jahren

 2 Das Institut AVISO hat seinen Sitz in Ramonville St-Agne, Frankreich. AVISO erfasst und verteilt u.a. Daten der Satelliten-Altimeter-Systeme TOPEX, POSEIDON, Jason 1+2, ERS 1+2, und EnviSat ("Aviso distributes satellite altimetry data from Topex/Poseidon, Jason-1, Jason-2, ERS-1 and ERS-2, and EnviSat…").

3 Prof. Dr. H. Miller, Alfred-Wegener-Institut : Bohrer im Eis, DIE ZEIT, 06.06.2007 , S.40

4 Alfred-Wegener-Institut, Schmilzt die Antarktis?, Poster, 2009

5 REKLIM, Unser Klima, 2010/2011, S.9, Abb.2.4 6 “Anthropogener“ Meeresspiegelanstieg – vom Konstrukt zur Panik ? Naturw. Rdsch. 61 (2008), H.11, S.566-574 

Klaus-Eckart Puls,  EIKE

Der Aufsatz kann als pdf Datei im Anhang herunter geladen werden.

Anmerkung der Redaktion:

Spiegel Online macht derzeit mit der Meldung Furore: 

Klimarat feilscht um Daten zum Meeresspiegel-Anstieg

und leitet dann wie folgt ein:

…Viele Milliarden Euro stehen auf dem Spiel: Ein Uno-Gremium entscheidet über die Prognose zum Anstieg der Ozeane – sie bestimmt, wie viel Steuergeld  die Staaten in den Küstenschutz pumpen müssen. Hunderte Studien werden verhandelt, es geht zu wie auf einem Basar.

Das ist postmoderne Wissenschaft: Bildung tut not

Dieser Beitrag im SPON hat Prof. Rahmstorf nicht ruhen lassen, deswegen hier sein Gegendarstellung auf "Wissenslog" Mit Dank an Spürnase T.L.

Related Files




CRU-ClimateGate Verwicklung: Geschäftsführer einer PR-Firma für verdeckte Operationen verhaftet.

Im vergangenen Jahr wurde Wallis ‚Partner bei Outside Organisation, Alan Edwards, brachte in Music Week eine Geschichte, die wie folgt beginnt:    

Sagt den Verschwörungstheoretiker nichts. Aber ein PR-Unternehmen stand im Mittelpunkt der Michael Jackson Beerdigung, von  Climategate und dem Naomi Campbell Auftritt beim Charles Taylors Prozess in Den Haag.

Edwards gilt als "Mann, der auch geholfen hat, die Karriere von Amy Winehouse, Blondie, The Rolling Stones, Jimmy Cliff, David Bowie, Spice Girls, David Beckham, P Diddy, Kevin Pietersen und Shayne Ward" zu formen und ist auch der Mann, der den beschrieben PR Auftritt für Naomi Campbell organisierte. Outside Organisations- Mithilfe bei der Bearbeitung des Climategate Problems für die CRU wurde als "mehr verdeckt" beschrieben. 

Weniger offensichtlich ist seine Arbeit in Unternehmensbereichen, wo ihre Aktivitäten tendenziell eher verdeckt sind.    

"Wir werben nicht viel mit dem, was wir tun", sagt Edwards, der in der University of East Anglia geheuert wurde, als Climategate losbrach. "Das war wirklich interessant. Es ist auf sehr hohem Niveau, und man ist sehr viel mehr im Hintergrund bei diese Art von Dingen. "    

Die Universität von East Anglia mit ihrer Climatic Research Unit CRU wollte Outside Organisation veranlassen, mal einige Schüsse im Namen der Wissenschaftler zurück zu schießen, nachdem die durchgesickerten E-Mails  den  Klimaskeptikern reichlich Munition gab und zu einer Lawine von negativer Presse darüber führte, ob die globale Erwärmung eine reale Möglichkeit sei.

Steve Mc Intyre: Aus Climate Audit hier

Weitere Details hier: Neil Walllis von Outside Organisation wurde heute im Zusammenhang mit Murdochs News of the World Skandal festgenommen

und mehr dazu bei Climate Audit unter HadSST3




Klimaforscher und Kanzlerinberater Prof. Schellnhuber erneut widerlegt. Kein völkerrechtsverbindliches 2 ° Ziel vereinbart

Diese Behauptung reiht sich in eine Fülle weiterer Desinformationen ein, die das Potsdam Institut für Klimafolgenforschung PIK in jüngster Zeit verbreitet. Wir haben dazu schon des öfteren Stellung dazu genommen, (z.B. hier und hier und hier) Jetzt greift auch die FAZ dieses Verhalten auf und veröffentlicht dazu einen Leserbrief des Geologen Prof. Ewert. Sie finden ihn unten.

Videoaufzeichnung der Äußerung von Prof. Schellnhuber. Info über Ehrung von Frau Espinosa z.B. hier

Update: Soeben gefunden: Schellnhuber: Nicht kleckern sondern klotzen: 

Temperatures may rise 6-8 degrees by the year 2300; sea levels may rise 70 (yes, 70) meters 

 Aus  Interview mit Prof. Hans-Joachim Schellnhuber

Und dazu ein Leserbrief von Prof. Dr. F.k-Ewert in der FAZ vom 6.07.11

Was es mit "unserem Kohlendioxid" auf sich hat

Zu "Meeresspiegel steigt so stark wie nie zuvor" (F.A.Z. vom 21. Juni): Das Potsdam-Institut für Klimafolgenforschung (PIK) hat offiziell erklärt:

"Infolge der Erderwärmung steigt der Meeresspiegel heute schneller als je zuvor in den vergangenen 2000 Jahren. Seit Beginn der Industrialisierung geht die Kurve ,steil nach oben‘."

Das PIK bezieht sich dabei auf Wissenschaftler, die an der Atlantikküste der Vereinigten Staaten Ablagerungen untersucht haben, wie diese Zeitung kürzlich berichtet hat. Widerspruch ist nötig, denn die Erklärung des PIK ist sachlich falsch.
Richtig ist, dass Wissenschaftler das Gegenteil festgestellt haben: Das "Journal of Coastal Research" berichtet im Heft 27/3 (Mai 2011) auf den Seiten 409 bis 417 (sinngemäß übersetzt):

"Die weltweite Temperaturerhöhung hat während der vergangenen hundert Jahre den Meeresspiegelanstieg nicht beschleunigt, tatsächlich ist er langsamer geworden." Es gibt einen einfachen Beweis für die Unrichtigkeit der Feststellung des PIK, der Meeresspiegel sei heute "schneller gestiegen als in den vergangenen zweitausend Jahren"

Sowohl im Großen Barriere-Riff als auch an den Küsten karibischer Inseln findet man trockengefallene Korallenriffe, die bis etwa 3,5 Meter über den heutigen Meeresspiegel hinausragen. Als sie sich bildeten, war der Meeresspiegel entsprechend höher. Wie schnell der Meeresspiegel in der Zeit davor gestiegen ist, ist unbekannt.

Am 23. Juni teilte das PIK in einer Presseerklärung mit, dass der Eisschild in der Westantarktis bereits gekippt sein könnte, wie im Detail in seiner Publikation "Kipp-Elemente im Klimasystem: Forscher verfeinern ihre Einschätzung", erschienen in der Fachzeitschrift Climatic Change, erläutert wird: Der

". . . gegenwärtige Zustand von sechs potentiell instabilen Regionen im Klimasystem mit großen direkten Auswirkungen auf Europa . . ." wird dort behandelt, denn "Die Wahrscheinlichkeit des Kippens dieser Elemente steigt im Allgemeinen mit dem Anstieg der globalen Mitteltemperatur, als Folge des von Menschen verursachten Ausstoßes von Treibhausgasen."

Für die PIK-Autoren ist dieser kausale Zusammenhang offensichtlich unbezweifelbar, obwohl er nie bewiesen wurde und nicht beweisbar ist, während es für das Gegenteil – die Menschheit verursacht den Klimawandel nicht – belastbare Indizien und Beweise gibt – beispielsweise die, dass es wieder kühler wird und der Kohlendioxid-Gehalt trotzdem noch steigt. Dazu keine weiteren Einzelheiten, nur noch so viel: Die PIK-Erklärung liest sich wie eine Übung im Gebrauch des Konjunktivs.

Das Publikum wird mit der Nachricht geängstigt, dass das letzte Jahrzehnt das wärmste seit Beginn der Aufzeichnungen sei – selbstverständlich als Folge der von uns verursachten Erderwärmung. Die Detailauswertung der Temperaturdaten ergibt ein völlig anderes Bild: Seit 1700 findet in vielen Regionen der Erde eine Rückerwärmung nach der Kleinen Eiszeit statt, die ihren bisherigen Höhepunkt etwa Mitte der neunziger Jahre hatte. In dieser Zeit sind abwechselnd mehrere Erwärmungs- und Abkühlungsphasen aufeinandergefolgt, die früheren waren oft stärker; die letzte markante Erwärmungsphase fand in der ersten Hälfte des zwanzigsten Jahrhunderts statt, also vor der vom Menschen verursachten Produktion von CO2; und seit etwa 1998 hat in den meisten Regionen der Erde eine neue Abkühlungsphase begonnen, die noch andauert und zum Teil sehr kräftig ausfällt. Die Auswertungsergebnisse werden nach Abschluss einer umfangreichen Analyse publiziert. "Unser CO2" hatte auf diese Entwicklungen keinen bestimmenden Einfluss.

Professor Dr. Friedrich-Karl Ewert, Bad Driburg

Text: F.A.Z., 06.07.2011, Nr. 154 / Seite 15




Erneuerbare: Zu grün um zu versagen? Die US-Energiepolitik ist bei Leistungstests durchgefallen

Steve Hargreaves, einem leitenden Autor für Beiträge auf CNNMoneyline.com zufolge, kosteten die Subventionen für erneuerbare Energien einschließlich Steuernachlässe für die Industrie und direkte Anleihen die US-Regierung (=den US-Steuerzahler) im vergangenen Jahr etwa 11 Milliarden Dollar. Darin enthalten waren schätzungsweise 5 Milliarden Dollar für die Stromerzeugung durch Sonne und Wind und etwa 6 Milliarden für Ethanol. Obwohl ursprünglich beabsichtigt war, diesen Industrien zu einem sprunghaften Start zu verhelfen, haben diese Geschenke lediglich zu Ansprüchen und Abhängigkeiten geführt.

Ethanol zum Beispiel erhielt bevorzugte Unterstützung seit 1978 unter der Prämisse, dass es zu einem wettbewerbsfähigen Treibstofferzeuger innerhalb weniger Jahre werden würde. Während es nie dazu gekommen ist, erfordern die von der US-Bundesregierung und den US-Bundesstaatenverordneten Verbrauchsquoten jedes Jahr einen höheren Verbrauch, unabhängig vom hohen Preis, negativen Auswirkungen auf die Nahrungsmittelpreis oder auf die Umwelt und mieser Effizienz. Ethanol erhält auch o,45 Dollar pro Gallone [ca. 4 Liter] an Nachlass bei den Verbrauchssteuern (alias „Steuernachlass der Beimischer“). Dieses Gesetz wurde nach den Wahlen, aber vor Konstituierung des neuen Senats durch eine von den Demokraten in letzter Stunde in den eigentlich nicht mehr handlungsfähigen Senat eingebrachte getarnte Eingabe für ein weiteres Jahr verlängert. Damit haben sich die geschätzten kumulierten Kosten für den Steuerzahler seit 1980 auf 41 Milliarden Dollar erhöht. Die Industrie hat eine fünfjährige Auszeit gefordert, was zusätzliche Kosten in Höhe von 30 Milliarden Dollar zur Folge hat.

Da die Windindustrie alles andere als profitabel ist, hängt sie von Zuwendungen aus Steuergeldern ab, und zwar jährlich in Höhe von 3 Milliarden Dollar aus einem öffentlichen Förderungsprogramm für Projekte der erneuerbaren Energie (im neuen Steuergesetz verlängert für ein weiteres Jahr). Zusätzlich haben die Wind- und Solarindustrie mehr als 30 Milliarden Dollar als Anreize erhalten, was bedeutet, dass die Steuerzahler für etwa 30% aller Kosten der erneuerbaren Energien aufkommen müssen. Die Betreiber der Wind- und Solarenergie profitieren auch in großem Umfang von den vom Renewable Portfolio Standard (RPS) verordneten Verbrauchsquoten, die von vielen US-Bundesstaaten festgesetzt worden sind. Stromverbraucher in Haushalten und Industrie werden bestraft durch die daraus resultierende Preisinflation.

Ohne all diese Hilfen hätten Wind- und Solarenergie nicht überlebt, und sehr wahrscheinlich würden sie auch in Zukunft ohne diese Hilfen nicht überleben. Im Wall Street Journal stand zu lesen, dass das geschäftsführende Vorstandsmitglied (CEO) der American Wind Energy Association (AWEA), Dennis Bode, warnend darauf hingewiesen hat, dass ohne die Verlängerung des staatlichen (Förderprogramms) 1603 der Umsatz der Windindustrie „flach“ verlaufen oder abwärts führen würde.

Und doch, trotz all dieser Unterstützung ging die Zahl neu installierter Windkraftanlagen während der ersten Hälfte des Jahres 2010 um 57% und im Zeitraum 2008 und 2009 um 71% zurück – im Zeitraum 2006 bis 2009 um 72%. Und während das EPA [die amerikanische Umweltbehörde] alles getan hat, um die Kohle zu verbannen, hat die Kohleindustrie während der ersten neun Monate des Jahres 2010 fast dreimal so viel elektrische Kapazität beigesteuert wie die Windindustrie (39% zu 14%).

Dies alles trotz der Tatsache, dass einer Studie der EIA (Energy Information Administration) aus dem Jahr 2007 zufolge (dem letzten Jahr, für das  sie Statistiken lieferten) die Windindustrie 53 mal mehr Subventionen von der Regierung erhalten hatte als die konventionelle Kohleindustrie (23,37 Dollar pro Megawattstunde {MWh} zu 0,44 Dollar pro MWh). Dies summiert sich auf mehr als 20 mal mehr Subventionen als für die mittlere erzeugte Energiemenge durch Kohle und Erdgas, während aus Kohle 50 mal mehr Elektrizität in den USA erzeugt wird als durch Wind. Die Solarindustrie erheilt sogar noch etwas mehr (Solar received even slightly more), nämlich 24,34 Dollar pro MWh.

Offensichtlich reicht diese Hilfe immer noch nicht aus. Die AWEA leistete harte Lobbyarbeit für einen staatlich legitimierten Elektrizitätsstandard aus erneuerbaren Energien, dem der von den Demokraten kontrollierte Kongress 2009 zustimmen sollte. Obwohl dieses Gesetz im Senat gestoppt worden ist, treibt die Industrie dessen Verabschiedung im nächsten Kongress voran. Die Industrie drängt auch die EPA dazu, die Kosten für die kohlebasierte Energieerzeugung zu erhöhen.

Mehr staatliche Hilfe könnte inzwischen auf den Weg gebracht werden, und zwar durch eine regulatorische Umgehung  des Kongresses und der Verbraucherinteressen. Am 16. Dezember 2010 hat der Chef der Federal Energy Regulatory Commission (FERC) [etwa: staatliche Kommission zur Energiezuteilung], Jon Wellington, seine Pläne verkündet, einen Steuerzuschlag in Höhe von 300 bis 500 Millionen Dollar auf die Gas-, Wasser- oder Stromrechnung zu erheben, der die Kosten der Errichtung von Überlandleitungen für die aus erneuerbaren Quellen erzeugte Energie in 13 Bundesstaaten des Mittleren Westens decken soll. Jene Regeln, zu denen man die Zustimmung bis Mitte 2012 erwartet, stellen eine weitere Bevorzugung von Windenergie durch Subventionen dar, die den Strompreis für jedermann steigen lassen wird, egal ob man nun von dieser Art Energie abhängig ist oder nicht.

Diese neue Entwicklung ist ohne Präzedenz. Traditionell und auch durch das Gesetz war die FERC verpflichtet, die Strompreise nach der von den Verbrauchern genutzten Stromquelle und der Menge des verbrauchten Stromes festzusetzen. Seit mindestens 65 Jahren haben Gerichte entschieden, dass die Bezahlung durch die Nutzer der „Prüfstein in jeder gesetzlichen Analyse der von der FERC festgesetzten Bezahlungsschemata ist“ (wie es das Berufungsgericht in [Washington] D. C. beschreibt). Jetzt hat die FERC die Absicht, auf dem Erlasswege eine nationale Energiepolitik zu etablieren, die der Kongress nicht will. Die Ablehnung war klar zu erwarten, nachdem der Kongress gegen den Gesetzvorschlag zum Standard erneuerbarer Energien der Obama-Administration gestimmt hat, weil er die Energiekosten aufblähen würde

Es hört aber nicht mit Obamas Weißem Haus auf. Stephen Power berichtete in einem Artikel des Wall Street Journal, dass der Zeitung ein internes unter Spitzenberatern kursierendes Memorandum vom 25. Oktober zugespielt worden ist,  des Inhalts, dass trotz besserer Verwendung der Zuwendungen für ein Programm staatlicher Anleihegarantien  für Erneuerbare Energien das Wegnehmen der Gelder mächtige Verbündete im Kongress verprellen und das Scheitern eines Gesetzespakets zur Wiederbelebung der Wirtschaft signalisieren würde das zuvorderst von der Regierung so dargestellt wurde“. Die Berater, darunter der scheidende Direktor des National Economic Council [etwa: nationaler Wirschaftsrat] Lawrence Summers, die Zarin der Energiepolitik Carol Browner und der Leiter des Büros von Vizepräsident Joe Biden Ron Klain, stellten speziell die Logik der Subventionierung eines großen Windparks in Oregon in Frage, den Energieminister Steven Chu als „Teil der Bemühungen der Regierung, die erneuerbare Energieerzeugung bis 2012 zu verdoppeln“ angepriesen hat.. Sie glaubten, dass das Projekt, gesponsert von Caithness Energy LLC und General Electric, „wahrscheinlich auch ohne die Anleihegarantie machbar wäre“. Sie fügten hinzu, dass die private Industrie „in diesem Spiel nur wenig zu verlieren hätte (Kapital etwa 10%)“, wenn die Regierung eine „signifikante Subvention (65%)“ garantieren würde.

Das Programm garantierter Staatanleihen, das in diesem Papier diskutiert worden ist, erlaubt es dem Energieministerium, Projekte wie z B. elektrische Übertragungssysteme und Biotreibstoff-Initiativen zu finanzieren, deren Bau nicht später als am 30. September 2011 beginnt. Der Kongress bewilligte dafür 2009 ursprünglich 6 Milliarden Dollar, doch kürzte er das Programm später drastisch durch das Setzen anderer Prioritäten wie z. B. das „Geld-für-Schrottkarren“-Programm. Übrig blieben 2,5 Milliarden Dollar.

Das Memorandumg der Experten schlug vor, dass der Präsident „mit dem Kongress zusammenarbeiten sollte, um“ das übrig gebliebene Geld „um zuverteilen“, und zwar so, dass es den Entwicklern erneuerbarer Energie erlaubt sein sollte, ihnen zustehende Steuergutschriften in Barzuschüsse zu wandeln. Sie hatten Bedenken, dass sie „scheitern könnten, in Bezug auf die Erneuerbaren voranzukommen“ und dass dies den Vorsitzenden des Senate Energy and Natural Resources Committee [etwa: Energie- und natürliche Ressourcen-Komitee], Senator Jeff Bingaman sowie die scheidende Sprecherin Nancy Pelosi erzürnen könnte. Beide sind starke Befürworter für staatlich garantierte Anleihen. Sie bemerkten,  dass Senator Bingaman „das Programm als ‚sein Programm‘ ansähe“ und dass er „strikt dagegen“ wäre, es zu kürzen. Vertreter des Weißen Hauses sagten später, dass die Regierung die Finanzierung des Programms nicht kürzen wollte.

Lassen Sie mich abschließend dieses ganz klar sagen! Das Geld, das wir Steuerzahler und Verbraucher zahlen, um jedwede Energieindustrie zu bezahlen, gehört weder Senator Bingaman noch Nancy Pelosi noch irgend Jemandem im Weißen Haus oder im Kongress – welcher  Fraktion auch immer. Wenn wir dafür bezahlen, gehören diese Programme uns, den Sponsoren, und wir haben jedes Recht, über deren Nutzen und Schicksal zu bestimmen.

Während einer Rede auf dem G20-Gipfel im  September 2009 sprach sich Präsident Obama dafür aus, Subventionen der Regierung für die Treibhausgas ausstoßenden fossilen Brennstoffe zu stoppen, und zwar mit dem Statement: „Ich werde mit meinen Kollegen auf dem G20-Gipfel dafür arbeiten, Subventionen für fossile Energien zu streichen, damit wir besser auf den Klimawandel reagieren können“. Machen wir ihm einen besseren Vorschlag! Warum stellt man nicht alle Subventionszahlungen ein? Ist es nicht an der Zeit, sich klar zu machen, dass wir alle verlieren, wenn wir zulassen, dass die Regierung bestimmte Energieerzeuger als Gewinner willkürlich auswählt?

Autor: Larry Bell

Link: http://blogs.forbes.com/larrybell/2011/03/01/too-green-to-fail-energy-policies-flunk-achievement-tests/

Übersetzt von Chris Frey für EIKE unter Mithilfe von Helmut Jäger




Science Magazin: Verwechslung von Zahlenkunde mit Mathematik

Einem Online-Bericht auf ‚Nature Climate Change’ vom 29. Mai zufolge werden 1.211.287 Quadratkilometer arktischer Gebiete, die nur über Eisstraßen zugänglich sind, bis 2050 unerreichbar sein, ein Rückgang um 14%.

Ich habe laut aufgelacht. Manchmal sind die Versuche der AGW-Befürworter, den Klimaalarmismus wieder aufzublasen, eine absurde Burleske der wissenschaftlichen Methode.

Man kann dieses Zeug nicht wirklich ernst nehmen. Ich liebe es, wenn sie behaupten, mit einer Genauigkeit von einem Quadratkilometer zu wissen, a) die gegenwärtige Größe der über Eisstraßen zu erreichenden arktischen Gebiete und b) wie sich diese Größe während der nächsten 40 Jahre verändern wird.

Die Leute wundern sich weiterhin, dass das, was sie die „wissenschaftliche Botschaft der Gefahren der Klimaänderung“ nennen, nicht die US-amerikanische Öffentlichkeit erreicht. Wieder und immer wieder wird das auf ein Kommunikationsproblem geschoben… was, wie ich annehme, sogar stimmen könnte, aber nur, wenn man „Kommunikation“ als das Kurzwort ansieht für „versuchen, uns zum Schlucken einer weiteren unglaublichen Behauptung zu bringen“.

Der Gedanke, dass eine hypergenaue Behauptung wie diese nicht nur in einem begutachteten Journal erscheint, sondern auch in einem anderen begutachteten Journal erwähnt wird, enthüllt nur, wie niedrig die Schranke der Klimawissenschaft dieser Tage liegt. Frau Henniger, meine Wissenschaftslehrerin an der High School, hätte vor dem ganzen Klassenraum laut gelacht über eine solche Behauptung. „Aussagekräftige Ziffern!“ würde sie gerufen haben. „Was sagen eure Bücher über aussagekräftige Ziffern?“

 „Das Ergebnis einer mathematischen Operation kann keine aussagekräftigeren Ziffern haben als die kleinste Anzahl aussagekräftiger Ziffern in irgendeiner der Eingangsgrößen“, würde jemand sagen, und die Klasse würde grinsen.

Dieses Winken mit unechter Akkuratesse ist jedoch in einer Hinsicht nützlich. Wenn jemand das tut, ist es ein wertvoller Hinweis darauf, die Brieftasche zu untersuchen – man kann ziemlich sicher sein, dass man versucht, Ihnen etwas zu verkaufen.

Weil wissenschaftliche Studien gezeigt haben, dass wenn jemand mit solchen hyperakkuraten Zahlen als Ergebnis aufwartet,  in 94,716% aller Fälle das, was sie verkaufen wollen, genauso schwindlerisch ist wie die von ihnen behauptete Genauigkeit.

Willis Eschenbach

Link: http://wattsupwiththat.com/2011/06/28/mistaking-numerology-for-math/

Übersetzt von Chris Frey für EIKE




Energieexperte Alt zum Energiekonzept der Bundesregierung!

Ein Strandgespräch im März 2011 mit Prof. Dr. Alt Energieexperte der FH Aachen

Alle Videos von EIKE finden Sie hier




Wie das Märchen vom gefährlichen Ozonloch entstand! Die Vorlage für das Kyotoprotokoll

Und Schuld an diesem sich ausweitenden Ozonloch sollten die Fluor-Chlor-Kohlenwasserstoffe (FCKW) haben, die in großen Mengen als Treib- und Isoliergas weltweit erzeugt wurden. Dieses FCKW, an dem Chemigigant Dupont weltweit die Patente hielt, wurde mit dem Montreal Protokoll 1989 (1) weltweit verboten. Der Nobelpreis für Chemie wurde 1995 an den Meteorologen Paul Crutzen vergeben, der glaubte, den Nachweis für diese gefährliche atmosphärische Reaktion des FCKW in der Atmosphäre gebracht zu haben.  Das Montreal Protokoll war wohl die Blaupause für das spätere Kyotoprotokoll und basierte auf genauso fragwürdigen Erkenntnissen. (Lesen Sie hier Näheres zum Ozonloch von unserem leider verstorbenen Mitglied Ernst Georg Beck,oder schauen Sie im "Handbuch der Klimalügen" nach Details) Hier der Bericht, wie das Märchen vom Ozonloch gemacht wurde:

Ein junger Physiker benötigte für seine Forschungsarbeiten in der Spektralanalyse einen neuen Laser, den es so in der Wirtschaft nicht zu kaufen gab. Er besuchte Konferenzen auf denen er Informationen über den Lasertyp erhielt. Dabei wurde er Zeuge, – so ganz nebenbei – wie das Märchen vom sich durch FCKW ausweitenden Ozonloch – und den damit verbunden Gefahren geschaffen wurde:

Hier sein Bericht

In den späten 70er Jahren besuchte ich eine Konferenz in Dallas.

Ich war damals am Bau eines "Spin-Flip-Raman-Lasers" interessiert.

Das ist ein furchtbar aufwendiges Ding. Braucht supraleitende Magneten mit Helium Kühlung. Das aktive Medium muss ebenfalls nahe am absoluten Nullpunkt ( <1°K ) gehalten werden etc. Aber es gab für den von mir gewollten Spekralbereich keine anderen Lasertypen.

Bei der Wellcome-Veranstaltung am Sonntag Abend vor Konferenzbeginn kam ich mit zwei amerikanischen Kollegen ins Gespräch, die auch so ein Ding bauen wollten. Wir tauschten technische Details über Probleme aus und ich fragte später, wofür sie den Laser benutzen wollten. Antwort war: wir wollen den auf einem Stratosphärenballon fliegen, um die Auswirkungen der FCKW auf das Ozon zu messen zu versuchen.

Ich fragte dann, warum sie so ein kompliziertes, anfälliges, und vor allem schweres Ding fliegen wollten, wo doch nach meinem Verständnis ein einfaches Spektrometer ( Schuhkarton-gross. Gewicht vielleicht 1 -2 kg, statt mehreren 100 kg für den Laser ) für den Zweck völlig ausreichend war.

Darauf ein Schmunzeln. Die Arbeit wird durch Fa. Dupont finanziert, Und die habe zur Auflage gemacht, es müsste etwas Spektakuläres gemacht werden, und man habe sich darauf geeinigt, diesen Super-Duper-Big-Science Laser zu fliegen. (Grinsen,  vermutlich dachten sie: "Dupont ist schon ganz schön pfiffig und wir sind´s auch, da wir das Geld an Land gezogen haben ).

Dann vertrauten mir die Kollegen noch den Grund für die Mittelvergabe durch Dupont an: die FCKW Patente von Dupont laufen um 1980 aus. Man hat deshalb sich die (etwas weniger effizienten) FKW (ohne Chlor) als Kältemittel patentieren lassen.

Damit die Konkurrenz FCKW nicht benutzen kann, muss gezeigt werden, dass die FCKW die Ozonschicht zerstören. Dann könnte man FCKW vielleicht verbieten lassen, Und hätte weiterhin das Monopol auf Kältemittel.

Ich traf die Kollegen bei der Konferenz im folgenden Jahr wieder. Fragte: Habt Ihr was messen können? Antwort: Nichts Richtiges. Erklärung: Ist ja auch schwierig. 700 mal mehr Chlor ( welches ja die Ozonzerstörung bewirken soll ) dampft aus dem Meer, als das was die FCKW in die Stratosphäre bringen. Und so ein kleiner Effekt… ist natürlich schwierig zu messen.

Und ohne Resultat gibt’s wohl kein Geld mehr von Dupont? Lachen: Nein, aber jetzt haben wir ja das Ozon-Loch und das Geld fließt reichlich z.B. von der NSF. Und sie erklärten mir: Natürlich war das Ozonloch schon immer da und hat mit dem ungefähr Tausendstel Chlor durch FCKW nichts zu tun (das ist schon seit 1950 bekannt als es noch gar keine FCKW gab. Und ausgerechnet am Südpol wo wohl die FCKW Emission besonders hoch ist(??) )

Nachspiel:

Paul Crutzen bekam dann den Nobelpreis für Chemie für seine besondere Leistung beim Aufklären der Prozesse mit denen FCKW die Ozonschicht zerstören. 2010 konnte man in deutschen Zeitungen von Veröffentlichungen chinesischer Chemiker über genauere Untersuchungen lesen, die zeigten, dass FCKW eigentlich nichts mit Ozonabbau zu tun haben können.

Der Kommentar des Instituts in Mainz, dessen Direktor Crutzen ist, sei gewesen: "Jetzt muss die Chlorchemie der Ozonschicht neu geschrieben werden."

2011, 20 Jahre nach Beendigung der FCKW Produktion, wuchs das Ozonloch plötzlich auf eine Stärke wie nie zuvor an, sogar über dem Nordpol war eine Ozonverminderung zu messen. Kommentar des Instituts: Das sei durch noch in der Stratosphäre vorhandene FCKW Reste bewirkt.

Das war dann wohl die Blaupause für den Versuch der USA, sich die Industrie-Konkurrenz durch Europa, Indien, China etc. durch das CO2 Märchen vom Halse zu halten… Immer nach dem gleichen Schema: Bin ich durch etwas reich geworden, und will verhindern dass meine Konkurrenz es genauso macht, dann muss ich erklären, die weitere Nutzung würde die Welt in eine Katastrophe stürzen.

Was dabei noch auffällt: Offenbar kann man Nobelpreise in Auftrag geben:

( man sehe Gore, IPCC, Obama (Rockefellers Mann, so sagt man), und Crutzen.. vielleicht noch andere? )

Autor Prof. Dr. Carl-Otto Weiss ; Direktor und Professor an der Physikalisch-Technischen Bundesanstalt Braunschweig,i.R.

(1) Das Montreal Protokoll wurde am 16. September 1987 von den Vertragsparteien des Wiener Übereinkommens zum Schutz der Ozonschicht angenommen und ist eine Konkretisierung dieses Abkommens. Es trat am 1. Januar 1989 in Kraft.




Was uns die Grünen sagen: „Wissenschaft ist immer politisch“

Den Anfang der Podiumsdiskussion (Vorbericht bei EIKE hier) machte Bärbel Höhn mit der Aussage, dass „Wissenschaft immer politisch ist“ (Da offenbart sie schon ihre Ablehnung einer Wissenschaft, die ergebnisoffen, unbeeinflusst, objektiv und neutral zu sein hat). Weiter: bis 2050 soll der CO2-Austoß um 90% sinken. Heute hätten wir kein „CO2-Gleichgewicht“. Der Begriff „CO2-Gleichgewicht“ wurde nicht näher erläutert. Ziel müsse die Transformation der Gesellschaft sein. (So: nun habe ich das mal selbst gehört, welches also die noch fast unbekannten Fernziele sind, CO2 soll offensichtlich der Hebel – besser die Brechstange – dazu sein). Klimaskeptiker – hier KS genannt – gebe es besonders in den USA, wo sie gezielte Desinformationskampagnen betrieben. Damit alle das verstünden, sollte man es stark vereinfachen, um in der Öffentlichkeit anzukommen. Dann, nach ca. 15 min. verließ Frau Höhn den Saal. Anwesend waren ca. 100 Personen.

Stephan Rahmsdorf hielt sozusagen die Hauptrede. Zunächst widersprach er energisch der Behauptung von Fritz Vahrenholt in der WELT, dass die Temperaturen fast gleich bleiben würden. Begründung: keine. Er meinte, seit 1850 würden die Erdtemperaturen steigen, ebenso der Meeresspiegel. Seit 1970 ca. 6 cm. Dass die Sonne das Klima präge, sei eine Fiktion. Der RTL-Film “Der Klimaschwindel“ sei von KS gemacht. EIKE wurde als kleine Lobby-Gruppe bezeichnet und auf meine Frage, wer denn dahinterstehe, antwortet er, Geldgeber oder Firmen könne er nicht nennen. EIKE arbeite mit argumentativen Tricks. Man wolle Laien für dumm verkaufen. Herr Lüdecke erinnere ihn mit der „deutschen Physik“ an das Dritte Reich (zu „deutscher Physik“ hier).

Update der Redaktion 19.7.11 : Widerruf von Dr. Kanno

Soeben erreicht uns die Nachricht, dass Professor Rahmstorf den Berichterstatter Dr. Kanno unter Fristsetzung bis heute 19.7.11 15:00 Uhr bei Androhung einer Strafanzeige und Strafantrag wegen übler Nachrede  aufgefordert hat den Satz  „Herr Lüdecke erinnere ihn mit der „deutschen Physik“ an das Dritte Reich“  zu widerrufen.

Dr. Kanno bat uns in einer Mail unseren Lesern mitzuteilen, dass er diesen Satz widerruft. Er tut dies allein aus rechtlichen Gründen,  obwohl er meint ihn vernommen zu haben und dies auch Prof. Rahmstorf in seiner Antwort-Mail mitteilte. Er sei derzeit während seines Urlaubs nicht in der Lage die rechtlichen Möglichkeiten zu prüfen, um seine Rechte fristgemäß wahrzunehmen.

Zusätzlich bat er uns der Forderung von Professsor Rahmstorf nachzukommen den vollen Widerruf – wie ihn Prof. Rahmstorf wünscht- zu veröffentlichen. Wir kommen dem hiermit nach.

„Meine Behauptung, Herr Rahmstorf habe Herrn Lüdecke mit der     „deutschen Physik“ und dem Dritten Reich verglichen, war falsch.

Vielmehr hat Herr Rahmstorf ein Zitat von Herrn Lüdecke vorgelesen, wo Lüdecke ihn in einem Schreiben an das ZDF vom Dezember 2010 mit    der  „deutschen Physik“ und dem Dritten Reich vergleicht. Ich bedaure die Unannehmlichkeiten, die Herrn Prof. Rahmstorf durch meine falsche Aussage entstanden sind.“

Ende des Updates

Rahmsdorf weiter: das Meer würde versauern mit einen PH-Wert von 30% in den sauren Bereich. Ein Zuhörer bemerkte, dass er einem Chemiker über die Übersäuerung des Meers durch CO2 berichtet habe. Dieser habe sich daraufhin vor lachen gebogen mit der Bemerkung: “Was sind denn das da für Wissenschaftler?“ Ein weiterer Zuhörer meinte, im Vortrag sei vieles weggelassen worden, so z.B. dass in der Antarktis die Eismassen zunähmen. Ein andere: der Strahlungsantrieb der Sonne sei nicht erwähnt worden, ebenfalls nicht die massive Abholzung des Regenwaldes sowie die Auswirkungen der Vulkane. Rahmstorfs Vortrag wurde, wohl auch nicht zuletzt wegen der vielen kritischen Anmerkungen aus dem Publikum, nur mit müdem Beifall quittiert.

Dieter Plehwe von „Lobby-Control“ hielt ebenfalls einen recht matten Vortrag, wobei die USA immer wieder kritisiert wurden, Russland, China, Indien blieben außen vor. (Also: auch der Antiamerikanismus war dabei, woraus man dann seine politischen Rückschlüsse ziehen kann). Dann kam EIKE noch mal dran: man könne keine klaren Schlüsse ziehen, denn „die legen ihre Finanzen nicht offen“. Die Stockholm-Institute seien mit „dubiosen Geldern“ finanziert. Der tschechische Präsident Vaclav Klaus wurde wegen seiner „klimaskeptischen“ Meinung kritisiert. Übrigens: die eigenen Leute wurden mit Doktor und Professor betitelt, die der Skeptiker-Kontrahenten nicht. Ein Zuhörer meinte ganz offen, dass es die Aufgabe von IPCC sei, die CO2-Theoerie zu propagieren, nicht die Rolle des CO2 zu erforschen.

Tim Nuthull sagte dann, dass viele die Grünen als Kommunisten sähen, die auf die Leute einhämmerten. Man würde sie mit Wassermelonen vergleichen, nämlich außen grün und innen rot. Darauf allgemeine Heiterkeit und Beifall! Daraus war ersichtlich, dass die KS ziemlich zahlreich anwesend waren, jedenfalls mehr als es die Veranstalter wohl eingeplant hatten. Nuthull forderte, den KS mehr Raum zu Diskussionen zu geben! Meine Frage: warum denn nicht schon früher? Diese Bemerkung überging der Veranstalter Ott mit Schweigen.  Auch wurde der EU-Kommissar Oettinger zitiert mit dem Satz: “Industrie heißt auch CO2, sonst Deindustriealisierung!“. Darauf Tim Nuthull: “Oettinger ist sicher ein Opfer von Einflüsterungen geworden“.

Jemand fragte, ob sich Rahmsdorf schon mal überlegt hätte, wann seine Arbeit entbehrlich sei. „Wenn sie bemerken, dass CO2 nicht schuld ist oder Ihre vorgeschlagenen Maßnamen zwecklos sind, hören Sie dann auf mit der Forschung?“. Plehwe: man kann das Thema politisch oder wissenschaftlich sehen. Jedenfalls soll weiterhin die Rolle des CO2 geklärt werden „soweit wie möglich“. (Also: wenn nicht möglich, dann bleibt man bei dem jetzigen pseudowissenschaftlichen Hokuspokus, so wie einst unter Stalin „Wissenschaft“ betrieben wurde). Jemand fordert eine einfache, verständliche CO2-Temperatur-Kurve zwecks besserer Anschauung und fragt, warum diese nicht längst existiert und publiziert ist.

Jemand anderes meinte, dass die grüne Lobby doch gar keine Angst zu haben brauche, denn sie sei stark, gut finanziert und habe einen großen Teil der Medien auf ihrer Seite (Wer weiß denn schon, dass Österreich Öko-Strom exportiert und im Gegenzug Atomstrom aus Tschechien importiert? Jedenfalls nicht durch die Medien). Die KS seien schwach und würden von den Medien wenig wahrgenommen. „Warum denn dann diese künstliche Dramatik“? fragte der Zuhörer. (Recht hat er. Und ich füge hinzu: Wir müssen raus aus unserem Schneckenhaus. Wir müssen uns in der Öffentlichkeit deutlicher artikulieren, sonst werden wir nicht wahrgenommen, verächtlich gemacht und überrollt.)

Und dann wieder gegen EIKE: Plehwe wörtlich:“ EIKE ist Lobbyverein egal wer dahintersteckt“. Dienstag, 16 Uhr 44, Plehwe zum Schluss: „Der Emmissionshandel soll eine internationale Verteilungsgerechtigkeit schaffen zu Gunsten der Entwicklungsländer“ (UNO-gesteuert). Auf meine Frage, wer denn den teuren Ökostrom bezahlen soll, etwa der Hartz IV-Bezieher, antwortet mir Ott: “Nein, nicht der, sondern Sie und ich“ (Na, das „Ich“ können wir wohl weglassen bei diesen Politheuchlern…Also auch Umverteilung „innen“ zwangsweise, was ja dem Grundgesetz widerspricht mit dem Schutz des Eigentums). Mein rechter Nachbar Dipl.-Ing. Klaus G. Krämer würdigte diese Aussage in dem Sinne, dass das Gesagte schon ein Fall für den Staatschutz sei! (Also, liebe Freunde, so plump, drastisch, aber auch entwaffnend ehrlich habe ich das noch nie gehört. Tun wir was! Das Falscheste wäre nichts zu tun. Diese Leute sind gefährlich, denn sie kommen auf leisen Sohlen, von der breiten Öffentlichkeit, auch von ihren Wählern, fast unbemerkt)

Dr. Michael Kanno, Berlin

Dem Kanno-Bericht spricht für sich. Besonders erschreckend ist die Aussage von Bärbel Höhn „Wissenschaft ist immer politisch“. Dies trifft vielleicht für Diktaturen oder die Zeit vor der Aufklärung zu, in einer freiheitlichen Demokratie verbieten sich solche Ansichten. Wer eine Partei wählt, deren Führungspersonal derartig undemokratischen Vorhaben anhängt, darf sich über die Folgen nicht wundern. Politiker, die für ihre Zwecke die Wissenschaft beeinflussen wollen, verlassen demokratisches Terrain. Und Wissenschaftler, die sich von politischen oder ideologischen Vorgaben leiten lassen, sind Experten-Knechte, keine Wissenschaftler.

Bei all diesem traurigen grünen Unsinn, der Humor bleibt uns noch. Wie sagte der bekannte Kabarettist Dieter Nuhr so schön: „Ich lasse mich ja gerne von der Politik veräppeln, aber bitte mit mehr Niveau!“. Seinen Wunsch verstehen wir nun besser.

Prof. Dr. Horst-Joachim Lüdecke, EIKE-Pressesprecher

Michael Limburg, EIKE-Vizepräsident




Die große Luftnummer!

"Alle Parteien der Industriestaaten, ob rechts oder links, werden die CO2-Erderwärmungstheorie übernehmen. Dies ist eine einmalige Chance, die Luft zum Atmen zu besteuern. Weil sie damit angeblich die Welt vor dem Hitzetod bewahren, erhalten die Politiker dafür auch noch Beifall. Keine Partei wird dieser Versuchung widerstehen."

Dies prophezeite mir schon 1998 Nigel Calder, der vielfach ausgezeichnete britische Wissenschaftsjournalist, jahrelanger Herausgeber vom "New Scientist" und BBC-Autor. Zusammen mit den dänischen Physikern Hendrik Svensmark und Egil Friis-Christensen vom renommierten Niels-Bohr-Institut hatte er 1997 das Buch "The Manic Sun – die launische Sonne" veröffentlicht, in dem sie anhand von Forschungen die Sonne für unser Klima verantwortlich machen.

Er hat mit seiner Einschätzung der Parteien recht behalten. Die Ergebnisse der Forscher, die wissenschaftliche Arbeiten über die Auswirkungen der Sonne und der Strahlungen aus dem Weltall auf unser Klima beinhalten, aber werden weitgehend totgeschwiegen. Damit können die Politiker nichts anfangen. Das würde bedeuten, dass die Flut von Gesetzen, mit denen die Bürger zu immer neuen Abgaben und Steuern gezwungen werden, um die Welt zu retten, nicht mehr zu rechtfertigen wäre. Weder Glühbirnenverbot noch die gigantischen Subventionen für die sogenannte erneuerbare Energie würden einen Sinn machen. Statt mit Steuern den Klimawandel zu beeinflussen, müssten sie sich mit den Folgen des natürlichen Klimawandels beschäftigen.

Eine Debatte über die Ursachen für den Klimawandel gibt es im politischen Deutschland nicht. Da wird einfach erklärt: "Der Ausstoß von Treibhausgasen führt zur Erderwärmung, das ist weitgehend unstrittig", so Ottmar Edenhofer, der Chefökonom und Vizedirektor des Potsdamer Instituts für Klimafolgeforschung ("Müllhalde Atmosphäre" in der "Welt" vom 4.7.). Sein Kollege Stefan Rahmstorf hat die Debatte über die Ursachen des Klimawandels einfach für beendet erklärt. Die Partei der Grünen, die die von Menschen gemachte Klimahybris zum Parteiprogramm erhoben hat, empörte sich in einer Anfrage an die Bundesregierung, ob sie wisse, dass Klimaleugner in den Räumen des Bundestags sprechen durften. Auf Einladung des FDP-Abgeordneten Paul Friedhoff referierte der Begründer der Nasa-Meteorologie und vielfach ausgezeichnete US-Wissenschaftler Fred Singer über seine Forschungsergebnisse. Schon wer sich unabhängig mit dem Klimadiktat auseinandersetzt, wird der Häresie angeklagt. Doch was als unerschütterliche Wahrheit daherkommt, kann als geschickte, ja geniale Propaganda enttarnen, wer sich nicht nur einseitig informiert. Es gibt aus den letzten Jahren circa 800 wissenschaftliche Veröffentlichungen, die die CO2-Treibhausthesen widerlegen. Der Hauptunterschied zu den Klimamodellierern: Sie legen Versuche mit Messungen vor, während die vom IPCC (der gern als "Weltklimarat" bezeichneten internationalen Behörde) veröffentlichten Studien auf Computermodellen und Berechnungen basieren. Auf einen kurzen Nenner gebracht, lautet der Gegensatz: Fakten gegen Berechnungen. Wenn aber die Fakten nicht von der Öffentlichkeit wahrgenommen werden, haben sie in der politischen Entscheidungsfindung auch keinen Einfluss.

Dabei sollte die immer wieder vorgetragene Behauptung der Klimamodellierer schon misstrauisch machen: "Die wissenschaftliche Debatte über den menschengemachten Klimawandel ist beendet." Das ist an Hybris und Arroganz nicht zu überbieten und widerspricht jeglicher Definition von Wissenschaft. Als Beleg für die endgültige Treibhausgastheorie wird immer wieder vorgebracht: 97 Prozent der Wissenschaftler seien sich einig. Nachzulesen im "Spiegel", wiederholt im ZDF in "Frontal 21" und von Guido Knopps "History". "97 Prozent!" – da müssten doch alle journalistischen Warnsignale aufleuchten. Zum Beispiel: 97 Prozent von wie vielen Wissenschaftlern? Und welche Wissenschaftler zählen dazu? Wer hat sie ausgewählt? Zweimal in den letzten beiden Jahren haben sich in Berlin die kritischen Wissenschaftler aus aller Welt getroffen, um ihre Forschungen vorzustellen, die zu anderen Ergebnissen kommen als die IPCC-Macher und ihre Gläubigen. Doch dann glänzt das Potsdamer Institut durch Abwesenheit, kaum ein Bundestagsabgeordneter und kaum ein Journalist machen sich die Mühe, sich zu informieren.

Ein weiterer Trick, der die Debatte ersticken soll, ist die Behauptung, dass der Einfluss des CO2 auf das Klima schon seit 150 Jahren bekannt sei. Damit wird auf den schwedischen Chemiker und Allroundwissenschaftler Svente Arrhenius verwiesen, der rein hypothetisch, ohne Beweise, davon ausging, dass CO2 das Klima erwärmen würde, was er allerdings für einen großen Segen für die Menschheit hielt. Außer Hochrechnungen haben die CO2-Klimaerwärmer bis heute nichts Handfestes zu bieten. Die Basiszahlen für die Berechnungen des IPCC sind im federführenden britischen Institut der Universität Norwich vernichtet worden. Für seine die Welt aufrüttelnden Beispiele in seinem Film "Eine unbequeme Wahrheit" hat sich das Büro Al Gores entschuldigt. Die Zahlen und Daten seien ungeprüft von der Münchner Rückversicherung übernommen worden, schrieb Roger Pielke jr. in der "New York Times" vom 23. Februar 2009. Der Film ist wegen seiner Fehler übrigens vom High Court in England und Wales für den Schulunterricht verboten, wenn er ohne Berichtigungen gezeigt wird. In Deutschland ist er immer noch Unterrichtsstoff.

Gleichwohl baut die Bundesregierung samt Opposition auf dem Modell eines menschengemachten Klimawandels eine preistreibende Energiepolitik auf, die die deutsche Volkswirtschaft dreistellige Milliardenbeträge kostet. Dass sie damit zunehmend allein in der Welt steht, macht ihr nichts aus. Von der deutschen Öffentlichkeit fast unbemerkt haben sich beim letzten G-8-Gipfel in Deauville Kanada, Japan, Russland und Frankreich versichert, dass sie an keinen Konferenzen mehr für ein Kyoto-Nachfolgeprotokoll teilnehmen werden. Die USA wollen nur noch Beobachter schicken. Während die Berater der Kanzlerin in Klimafragen vom Potsdamer Institut noch an Szenarien basteln, wie in Zukunft das CO2 durch eine weltumspannende Behörde gerecht verteilt werden kann, was natürlich die wirtschaftliche Wettbewerbsfähigkeit eines jeden Landes mitbestimmt, verabschiedet sich der Rest der Welt so langsam aus diesem neuen babylonischen Turmbau, der die Zentrale Planungsbehörde der UdSSR marginalisiert hätte. In den USA ist die CO2-Börse geplatzt, in Asien wurde sie gar nicht erst eingeführt, in Australien stürzen darüber Regierungen – nur in Europa und unter der Führung Deutschlands soll CO2 einen Preis haben. Es ist eine echte Luftnummer. Tragisch nur: Selbst wenn keiner mehr mitmacht, so sind die deutschen Parteien trotzdem entschlossen, die Bepreisung von CO2 durchzuziehen. Als Vorbild für die ganze Welt. Mit Energiewende und Umweltschutz hat das alles nichts zu tun.

Nigel Calder hatte dafür 1998 auch schon eine Begründung. "Am Anfang war die CO2- und Erderwärmungstheorie eine angelsächsische Erfindung, die nicht zuletzt von der Nuklearindustrie gefördert wurde, die für sich eine Wiederbelebung erhoffte. Aber dann wurde daraus mehr und mehr ein Szenarium für den Weltuntergang, und das widerstrebt den nüchternen Angelsachsen. Da erinnerte man sich im IPCC: The Germans are best for doomsday theories!" Wenn es um den Weltuntergang geht, sind die Deutschen am besten. So wurde die Klima-Treibhaus-Untergangstheorie den Deutschen übergeben. Ich fürchte: Nigel Calder hat hier auch wieder recht

Günther Ederer,

Der Originalbeitrag erschien am 5.7.11 in "Die Welt" mit freundlicher Genehmigung.

Der Autor (70) ist Wirtschaftsjournalist, Filmemacher und Publizist. In seinem 2011 erschienenen Buch "Träum weiter, Deutschland!" kritisiert er die deutsche Staatsgläubigkeit in Bereichen wie Bildung, Klimawandel und Staatsverschuldung. Der Text von Ottmar Edenhofer, auf den Günter Ederer hier antwortet, lässt sich im Internet nachlesen unter www.welt.de

(1) Müllhalde Atmosphäre von Ottmar Edenhofer PIK hier

Update:

Wie recht Günter Ederer hat, zeigt eine Zusammenstellung im Anhang von repräsentativen Temperaturverläufen ausgewählter Säkularstationen weltweit. Die Zusammenstellung ist von Prof. Dr. F.-K. Ewert EIKE 

Related Files




Voll-Versorgung mit Photovoltaik? Ein Scenario!

Hier ein Beispiel vom Januar 2010 für die Erzeugung einer Photovoltaikanlage mit einer

1.Nennleistung 10,8kWp.

2.Die Spitzenleistung 7,3kW

3.Mittelwert im Monat 0,218kW

4.kleinste Leistung war 0kW

5.Erforderliche Fläche 100 m²

Die jetzt folgenden Berechnungen beziehen sich auf den Januar 2010.

Um eine Nennleistung von 1kWp zu installieren braucht man eine PV-Fläche von 10m². Deutschland braucht aber im Jahre 2050 80.000.000kW. Es ist also diese Leistung mit 10 zu multiplizieren um die erforderliche Fläche zu errechnen. Das ergibt dann eine Fläche von 800.000.000m2. Das sind dann 800 km², damit könnten wir eine Stadt wie Köln zudecken, hätten aber eine installierte Leistung von 80GW. Aus dem Betriebshandbuch der PV-Anlage erfahren wir das mit einem Nutzungsgrad  von 10% im Jahresmittel gerechnet werden kann. Wir erreichen im Januar nur 2% also 1,6 GW. Die Nächte sind lang und bei Tag ist schlechtes Wetter. Wie bei den WKA müsste der Strom der oberhalb der roten Mittelwertlinie dargestellt ist gespeichert werden und dann die weissen Flächen unterhalb der roten Linie füllen. Und tätsächlich bieten die Hersteller Batterieanlagen an mit denen sich das machen lässt. Aber was für eine Batterie könnte denn  benutzt werden. Beispiel : Autobatterie

Die zu speichernde Arbeit ist ca. 47,1kWh. Entspricht der weissen Fläche auf die der Pfeil zeigt.

0,218kW * 24h * 9Tage=47.1kWh

Eine gängige Autobatterie von 12V 35 Ah hat eine Kapazität von 0,42 kWh.Um 47,1kWh abzudecken muss man 112 Autobatterien aufstellen und das dazugehörige Lademanagementsystem. Das wird teuer. Aber der Sonnenbauer braucht sich darum nicht kümmern. Das muß per Gesetz der Netzbetreiber regeln und müsste das mit Pumpspeicherwerken realisieren. Auch über diese Kosten mache ich mir keine Gedanken. Die werden über das EEG an den Stromverbraucher weitergegeben. Null Problemo !!!!

Wir haben aber dann in diesem Monat eine kontinuierliche Leistungsabgabe 0,218kW bei einer Installierten Leistung von 10,8kWp. Der Nutzungsgrad liegt wegen der Jahreszeit bei ca. 2%.

Nutzungsgrad=0,218kW / 10,8kW * 100

Das Netz fordert aber als Spitzenlast 80.000.000 kW. Um diese Leistung zu erzeugen brauchen wir im Januar 2050 mehr  Anlagen der Grösse der Wittumschule.

80.000.000kW / 0,218kW = 366.972.477Anlagen

Ich wiederhole : 366.972.477 Anlagen.

Die benötigte PV-Flache ist dann 36.697.247.700 m². Das sind mit 36.697km² etwa 10% der Fläche Deutschlands. Utopisch, aber die mittlere Leistung der Photovoltaikanlagen ist jetzt 80 GW. Man kann also Deutschland nicht mit Photovoltaik allein versorgen, es müssen wieder die guten alten fossil- oder nuklear befeuerten Dampfkraftwerke ran. Oder man nimmt 140 gasgefeuerte GuD-Kraftwerke. Einen Haken hat die Sache. Dieser Zustand gilt für einen Nutzungsgrad von 2%. In Deutschland kann man im Jahresmittel aber 10% erreichen. Dadurch reduziert sich die erforderliche Anlagenzahl im Sommer auf  73.394.495 und die erforderliche Fläche auf 7339 km². 140 GuD-Kraftwerke braucht man weiterhin. Ein Teil davon steht nur im Wartestand und kostet Geld. Das es so nicht geht ist offensichtlich. Beschränken wir uns also auf folgende Eckpunkte:

1. Installierte PV-Leistung 80GWp mit Batteriepufferspeicher

1a.Nutzungsgrad 10%

1b.Benötigte Fläche 800km²

2. Maximale PV-Leistung Sommer 8GW

3. Minimale PV-Leistung Winter 0GW

4. Maximale Netzlast 80GW

5. Installierte GuD-Leistung 80GW

6. Installierte GuD-Kraftwerke 140

Halt ! Batteriespeicher hat doch niemand gebaut !

1. Installierte PV-Leistung 80GW

1a.Nutzungsgrad 10%

1b.Benötigte Fläche 800km²

2. Maximale PV-Leistung Sommer 80GW

3. Minimale PV-Leistung Winter 0GW

4. Maximale Netzlast 80GW

5. Installierte GuD-Leistung 80GW

6. Installierte GuD-Kraftwerke 140

Wer Lust hat kann ja mal die benötigte Stahlmenge für PV ausrechnen.Vorsicht! Da bleibt einem die Spucke weg.

Der gute Ökofritze will ja nun den Ausgleich  der PV-Erzeugungsschwankungen mit GuD-Kraftwerken ausführen. Nehmen wir einen schönen Wintertag mit 80GW Spitzenlast, nur klarer Himmel, mit 80GW PV-Leistung. Abends geht die Sonne unter, dh. innerhalb einer kurzen Zeit müßten dann 140 GuD-Kraftwerke anfahren und auf volle Leistung gehen. Das ist doch kaum vorstellbar. Dann müßten ja alle zugehörigen Dampfkesselanlagen für Warmstart unter Druck bereitstehen und alles muss klappen. Wer soll das bezahlen?

Wenn man jetzt die Ungleichförmigkeit der Stromerzeugung mit Pumpspeicherwerken glätten will ohne GuD-Kraftwerke, was ist dann an Anlagen aufzuwenden ? Ich nehme wieder den schon genutzten schönen Wintertag mit 8 Stunden Helligkeit und 16 Stunden Dunkelheit. Bei einem Nutzungsgrad von 100% für 8 Stunden müssen wir die PV-Leistung von 80 GWp aufteilen um mit Beginn des Sonnenscheins die aktuelle Netzlastspitzenlast von 80GW zu 1/3 für 8 Stunden abdecken zu können, gleichzeitig müssen während dieser Zeit die Pumpspeicherwerke für die folgenden 16 Stunden Dunkelheit mit 2/3 der PV-Leistung aufgeladen werden. Die GuD-Kraftwerke müssen während dieser Zeit die Differenz zwischen PV-Leistung und Netzlast abdecken.

Wir brauchen Pumpspeicherwerke für eine Pumpleistung von 53.3 GW und eine Generatorleistung von 26,6GW.  Das ist 53 mal Goldisthal fürs Pumpen und 26 mal Goldisthal für den Generatorbetrieb.  Das Pumpspeicherwerk Goldisthal  ist das grösste in Deutschland. Es hat eine Leistung von 1,05GW und kann  ca. 8 Stunden laufen. Und falls das mal nicht klappen sollte brauchen wir dringend die 140 GuD-Kraftwerke. Aber ganz fix. Über die Kosten mache ich mir keine Gedanken. Die werden über das EEG an den Stromverbraucher weitergegeben. Null Problemo !!!!

Wenn man weiss, das PV-Anlagen weder die Netzspannung noch die Netzfrequenz regeln können fragt man sich :

Wie kann man denn jetzt ein solcherart gespeistes Netz anfahren ?

So startet man ein PV-Teilnetz.

Um ein solches Netz anzufahren braucht man ein schwarzstartfähiges Kraftwerk. Schwarzstartfähig heisst: Dieses Kraftwerk kann ohne Einspeisung von fremden Strom anfahren, z.B. Pumpspeicherwerke im Bergland oder Luftspeicherwerke im Flachland oder ein  im Eigenbedarf laufendes Dampfkraftwerk. Diese Kraftwerke haben die Fähigkeit, durch ihre grosse Kurzschlußleistung, ein kleines Teilnetz auf Nennspannung und Nennfrequenz zu ziehen. Eine solche Maschine schaltet man auf das Netz. Wenn das Teilnetz wieder stabil ist können sich die Photovoltaikanlagen ankoppeln und Leistung übernehmen. Dazu brauchen sie die Netzspannung und eine niedrige Netzimpedanz die Ihnen anzeigt das ein großes Netz stabil vorhanden ist in das sie einspeisen können. Es gibt für so kleine Anlagen wie die Wittumschule keine zentrale Leittechnik über die man eingreifen könnte. Diese Anlagen können die Frequenz und die Netzspannung nicht regeln. Sie sind darauf ausgelegt im Sonnenbetrieb die höchstmögliche Leistung abzugeben. Das tun sie in dem sie einen sinusförmigen Strom ins Netz geben, der phasengenau mit der Netzspannung geführt wird. Die Regelung übernimmt ein Wechselrichter, in diesem Fall Inverter genannt. Dessen Hauptaufgabe  ist es das Produkt aus Photozellenstrom und Photozellenspannung auf dem für die Sonnenverhältnisse geltenden Höchstwert zu halten und damit auf dem höchsten Ertrag für den Sonnenbauern. Treten Störungen in der Netzimpedanz  auf oder steigt die Frequenz auf über 50,2Hz werden die PV-Anlagen sofort abgeschaltet. Im Netz auftretenden Blindstrom, das ist ein Strom variabler Größe dessen Phasenlage um 90Grad gegen die Netzspannung versetzt ist, muss das Kraftwerk übernehmen. Moderne PV-Inverter können auch Blindstrom liefern, reagieren aber nicht auf veränderliche Anforderungen des Netzes, also konstanter cos phi. Blindstrom entsteht beim Betrieb induktiver oder kapazitiver Betriebsmittel wie Motoren oder Stromsparlampen. Blindstrom belastet die Kabel und verkleinert die Transportkapazität für Wirkstrom.

Falls man mit einer Speicheranlage gestartet ist, ist zu bedenken, dass die Speicheranlage nicht in der Lage ist lange zu laufen. Man muss also zusehen so schnell wie möglich ein Dampfkraftwerk anzufahren, dass dann die Netzführung übernimmt. Dann schaltet man die Speichermaschine ab. Wenn in dieser Situation bei Sonnenschein zuviele PV-Anlagen ans Netz gehen steigt die eingespeiste Energie und damit die Frequenz unaufhörlich an. Das drehzahlgeregelte Kraftwerk nimmt daraufhin seine Leistung zurück, um die Netzfrequenz zu halten, bis die Leistung null ist. Dann kehrt sich der Energiefluß um in Richtung Netz zum Generator. Diesen Zustand nennt der Kraftwerker Rückwatt. Nach kurzer Sperrzeit öffnet der Generatorschalter und das Kraftwerk läuft auf Eigenbedarf ohne Netz weiter, versorgt sich selbst mit Strom. Da jetzt die Führungmaschine nicht mehr die Netzspannung führt kommt es im Netz zu chaotischen Spannungssprüngen. Das bedeutet, dass der Vectorsprungschutz der PV-Inverter anspricht und sie sofort abschaltet. Das Netz ist wieder schwarz. Dann kann nur noch das im Eigenbedarf laufende Dampfkraftwerk die Rettung bringen. Im Text springen wir jetzt zurück nach : So startet man ein PV-Teilnetz.

Wie man aus der bisherigen Schilderung ersehen kann ist ein Betrieb von Photovoltaikanlagen in der benötigten Anzahl eine reine Utopie. Photovoltaik kann nur auf einen kleinen Teil des Strombedarfs ausgebaut werden und braucht ebenso wie die  Windkraft Speicherwerke, Ersatzkraftwerke für die Grundlast, die Mittellast und die Spitzenlast auf der Basis von fossilen oder nuklearen Brennstoffen. Zusätzlich muss immer mindestens eine rotierende Maschine die Netzspannung und Netzfrequenz führen. Diese Leistung wird Regelleistung genannt. Deutschland ist in vier Regelzonen aufgeteilt, in denen jeweils ein Übertragungsnetzbetreiber die Verantwortung für das Gleichgewicht von Ein- und Ausspeisungen im Stromnetz hat. In Deutschland werden insgesamt 7000 Megawatt positiver Regelleistung (zusätzliche Leistung für den Engpassfall), und 5500 Megawatt negativer Regelleistung (Senkung der Produktion bzw. künstliche Erhöhung des Verbrauchs) vorgehalten. Die Kosten dafür betragen etwa 40 Prozent des gesamten Übertragungsnetzentgeltes. Mit dem weiteren Ausbau der PV werden auch hier die Kosten stark ansteigen, denn die erforderliche Regelleistung wird stark ansteigen. PV kann man eigentlich nur als lästiges Anhängsel mit wenig Effizienz betrachten, ist aber gut für den Besitzer. Dem ist für 20 Jahre eine Rendite seines eingesetzten Kapitals durch das EEG verbrieft. Derzeit trägt die Photovoltaik mit 1,9% zur deutschen Stromversorgung bei. Die Kosten dafür werden über das EEG auf die Stromkunden abgewälzt.  Zurzeit 3,5 Cent/kWh.  Im Jahr ca.14 Mrd.€ . Null Problemo !!!!

 

Bild entnommen aus:

http://www.bürger-für-technik.de

Da ich jetzt soweit gekommen bin mit meinen Überlegungen kommt mir wieder der Gedanke  :  Photovoltaikanlagen haben ja nur eine Lebensdauer von 20 Jahren. Wir brauchen dann ein Management für Neubau und Abriss von Photovoltaikanlagen, den wir müssen ja im 20 jährigen Turnus die PV-Anlagen austauschen. Da kommen Ewigkeitskosten, wie im Ruhrgebiet fürs Pumpen, auf uns zu, nur in gigantischem Ausmass. Das Gleiche wie bei der Windkraft. Aber diese Sache schafft wenigsten Arbeitsplätze. Leider die meisten in China. Da kommen die meisten Sonnenpaneele her. Null Problemo!

Michael Treml für EIKE

Prozessleittechiker und Windkraftkenner mit 40 jähriger Erfahrung in Kraftwerkstechnik

jetzt im Ruhestand

Der Beitrag kann als pdf Datei abgerufen werden

Related Files




Umweltaktivist und US Exsenator Tim Wirth über die Erfindung der Klimakatastrophe: Geben Sie es zu, Herr Wirth – eine Herausforderung!

Ich erhielt die e-mail über diesen Teil der hässlichen Seite der Klimadebatte gerade nach dem Abendessen am Freitag Abend. Ich konnte nicht darauf reagieren, weil ich gerade von Sacramento nach Hause fuhr, und das war auch gut so, denn ich war ziemlich wütend. Die stundenlange Fahrt gab mir Gelegenheit, darüber nachzudenken und mich daran zu erinnern, wie die Welt aussah, bevor die globale Erwärmung das Wetter vermeintlich schlechter machte.

Lassen Sie mich zunächst rekapitulieren, wer der frühere Senator Tim Wirth ist. Dafür müssen wir bis Juni 1988 zurück gehen. Dr. James Hansen bereitet sich darauf vor, vor dem Senat auszusagen, was er über das seiner Ansicht nach ernste Problem der globalen Erwärmung denkt. Der Sponsor für Dr. Hansen? Senator Tim Wirth.

Bild rechts: Dr. James Hansen sagt zur globalen Erwärmung aus, Juni 1988

Wenn wir hier aufhören, gäbe es wirklich nichts weiter zu sagen außer der Tatsache, dass er derjenige war, der Hansen vor den Senat und das Ganze ins Laufen gebracht hat. Aber Senator Wirth hat sich schuldig gemacht, dem Senat etwas vorzuflunkern, damit dieser das Problem in Gestalt einer gut gespielten Lüge „fühlen“ kann.

Falls irgendjemand von Ihnen jemals während des Sommers in Washington war, werden Sie in der Lage sein, zu verstehen, worauf sich das Folgende bezieht. Senator Wirth hat sich versichert, dass es im Raum „brodelte“. Der folgende Auszug stammt aus der Serie Frontline des Fernsehsenders PBS, welcher im April 2007 ein special gesendet hatte. Hier gibt er seine Schauspielerei in seinen eigenen Worten zu:

TIMOTHY WIRTH: Wir riefen im Wetteramt an, um zu fragen, welcher Tag in der Historie der heißeste Sommertag war. Nun, das war am 6. oder am 9. Juni oder so. Also setzten wir die Anhörung für diesen Tag fest, und bingo! es war der jemals beobachtete  heißeste Tag in Washington, oder fast der heißeste.

DEBORAH AMOS (vor der Kamera): Haben Sie an jenem Tag auch die Temperatur im Raum der Anhörung verändert?

TIMOTHY WIRTH: Ich gebe zu, dass wir in der Nacht zuvor alle Fenster geöffnet haben, so dass die Air Condition im Raum nicht ansprang. Und so, als die – als die Anhörung begann, war es nicht nur drückend, sondern wirklich heiß. (Kameraschwenk auf die Zuhörer).

Sehen Sie das Video von Frontline hier. (UPDATE: Das Video von Frontline ist verschwunden, aber hier ist es auf YouTube):

http://www.youtube.com/watch?v=wXCfxxXRRdY&feature=player_embedded

Also erhebt sich die Frage: Wenn die Angelegenheit, die Dr. Hansen dem Senat vortragen wollte, wirklich so brennend war, warum bedurfte es dann dieser billigen Tricks von Senator Wirth?

Und, warum sollte noch irgendjemand den heutigen Ansichten dieses Mannes zum Klima trauen, wenn man das weiß?

Nun, gestern hat der frühere Senator das jüdische Volk brüskiert mit dem alten „Leugner”-Etikett, dann hat er seinen Fuß ins Feuer gesetzt, dann hat er sich nicht entblödet zu sagen, dass er der Hälfte der US-Bevölkerung (jüngsten Umfragen zufolge) „nachstellen“ will, nur weil sie nicht seine Meinung teilt.

Von CNS News stammt eine außergewöhnliche Reportage von einer UN-Pressekonferenz, an der Wirth teilgenommen hatte. Hier folgen die relevanten Ausschnitte:

Früherer Senator der Demokraten: Die Klimaänderung führte in den USA zu Überschwemmungen und Bränden; wir brauchen eine ‚aggressive Kampagne, um die Leugner zu verfolgen’

Von Michael W. Chapman

Sen. Wirth sagte: “Nun, Barbara, zurück zu der wesentlichen Frage, über die wir hier reden. Erstens, Sie und ich wissen, dass man nicht genau aus den Klimamodellen ablesen kann, was wirklich passiert. Aber wir wissen, dass der Trend alles in allem zu zunehmender Dürre, zunehmenden Überschwemmungen und Zunahme der Anzahl von Flächenbränden geht – und wir erleben genau das heute in den USA mit zunehmenden Überschwemmungen im vergangenen Jahr; mit den Bränden, die sich durch Arizona sowie die westlichen Gebiete von New Mexico und Texas gefressen haben, die Sorte dramatischer Klimaauswirkungen, die wir in den USA schon erlebt haben. Langsam aber sicher setzen die Leute das Puzzle zusammen. Sie verstehen, dass dies genau die Art signifikanter Änderungen ist, die vorhergesagt worden waren und die wir langsam aber sicher erleben.

Glücklicherweise gibt es Leute wie die Wetterprognostiker, die sich in einer großen Gruppe zusammen gesetzt haben, um die Auswirkungen zu besprechen und zu verstehen, und zwar in ihren Ansagen in den Abendnachrichten, wo die meisten Amerikaner ihre Informationen beziehen. Das wird eine Zeitlang ein extrem wichtiger Schritt sein.

Wir haben auch etwas Besseres zu tun, nämlich der wissenschaftlichen Gemeinschaft zu erklären, was sie tun und wie sie es tun und warum sie es in sehr eindeutiger Weise tun, so dass es für 300 Millionen Amerikaner verständlich ist.

Drittens müssen wir, wie ich glaube und es früher schon einmal vorgeschlagen habe, ein aggressives Programm auflegen, um jene Leugner zu verfolgen, die diese Unwahrheiten verbreiten, um sie für das, was sie tun, zur Rechenschaft zu ziehen. Sie hatten eine ganze Menge Freiheiten bisher, und das muss ein Ende haben!“ [Hervorhebung im Original]

Hier folgt der Audioclip, Wirth’s Bemerkungen finden sich etwa an der 3-Minuten-Marke:

http://www.youtube.com/watch?v=hyfk_0_dZwM&feature=player_embedded

========================================================== Meine erste Reaktion ist nicht druckreif.

Zunächst zu den von Wirth aufgestellten Behauptungen von „zunehmenden Dürren, Überschwemmungen und Buschfeuern“.

Um das zu tun, müssen wir vermuten, dass sich seine Behauptungen auf die Warnung von Dr. Jim Hansen aus dem Jahr 1988 bezieht, die da lautete, dass die Zunahme des atmosphärischen CO2-Gehaltes von damals 350 ppm auf jetzt 390 ppm zu „zunehmenden Dürren und Überschwemmungen sowie Flächenbrände“ führen würde.

Wirth sind möglicherweise die technologischen Revolutionen nicht bekannt, die weltweit Berichte über ein fast augenblickliches Ereignis ermöglichen. Ich spreche dies hier an: Why it seems that severe weather is “getting worse” when the data shows otherwise – a historical perspective [etwa: Warum es so aussieht, als ob extremes Wetter „schlimmer wird“, wenn die Daten etwas anderes zeigen – eine historische Perspektive].

Es scheint, als ob wir mehr dieser Dinge erleben, weil Nachrichten- und soziale Medien sowie Leute mit Photoapparaten und Handys überall sind. Nehmen wir als Beispiel das Zugunglück in der Wüste östlich von Reno, Nevada, welches hauptsächlich durch die Anwohner des Unfallortes bekannt gemacht wurde.

Update: Nach der Wahl des Zitats der Woche für diese Woche (siehe hier) kam ich zu der Überzeugung, dass der frühere Senator Wirth geistig nicht in der Lage ist, das Ganze auf vernünftige Weise zu diskutieren; er würde wahrscheinlich nicht antworten, und so gibt es keinen Grund, diesen Spitzenbeitrag zu halten. – Anthony Watts

Den Originalbeitrag finden Sie hier

Die Übersetzung besorgte Chris Frey EIKE