1

Und immer wieder grüßt der Eisbär – ZDF geht WWF Aktivistin auf den Leim

Zur Lügenpresse kann man das ZDF nicht zählen. Doch nicht deshalb, weil es uns Zuschauer, besonders in der Klimafrage, immer wieder desinformiert, sondern allein wegen der Tatsache, dass es diese Desinformation nicht als Druckerzeugnis, sondern in elektronischer Form an den Mann/die Frau bringt.

Video der WWF Direktorin „Species Program“ Sybille Klenzendorf (mit Dank an R. Hoffmann)

Wie z.B. vor einigen Tagen, als das ZDF der  „Expertin“ Frau  Dr. Sybille Klenzendorf in der Sendung „volle Kanne“ (hier ein Blick auf die Vorschau) ausführlich Gelegenheit gab, uns zu erzählen, dass der Eisbär durch den Klimawandel auf Schwerste gefährdet sei.  Zwar gäbe es noch rd 25.000 Tiere, aber die Zukunft sähe sehr düster aus. Die Robben blieben weg, bzw. dank des bröckelnden Packeises wären die Eisbären kaum noch in der Lage diese zu jagen und müssten verhungern. 

Obwohl auch das ZDF längst wissen müsste, das der Eisbär mehrere Warmzeiten überlebt hat, seine Population, durch Einschränkung der Bejagung, sich auf die Rekordzahl von ca. 25.000 Exemplaren erhöht hat und das arktische Eis ganz natürlichen Schwankungen unterliegt, tischt man uns beim ZDF immer wieder und unverdrossen diese Märchen auf. Es lässt sich halt so schön mit dem Mitleid der Zuschauer mit den armen Eisbären spielen und der böse (menschgemachte) Klimawandel muss natürlich daran schuld sein. Das bleibt hängen, denkt man wohl in den Redaktionen dieser öffentlich rechtlichen Anstalt

Besonders auffällig jedoch ist, dass in der Sendung keinerlei Hinweis darauf erfolgte, dass die ach so besorgte Wildtier-Biologin Sybille Klenzendorf als WWF Aktivistin an vorderster Front, für die Verbreitung des Märchens vom anthropogen induzierten Klimawandels kämpft. Frau Klenzendorf ist nämlich Direktorin des WWF „Species Program“. Unser Leser Rainer Hoffmann, dem wir dafür danken, sandte uns dazu das obige Youtube Video.

Hatte der WWF es bisher schon geschafft die Führungsgremien des IPCC zu unterwandern, ja tlw. zu übernehmen, wie die Journalistin Donna Laframboise herausfand (hier und hier), so sind nun offensichtlich die Fernseh-Sender dran. Und diese halten es natürlich nicht für nötig uns diese Tatsache wenigstens noch mitzuteilen.

Da erinnern wir uns doch mal an die beschwörenden Aussagen des ZDF Anchormannes Claus Kleber, der 2009 behauptete, dass die ZDF „heute“ Redaktion alles daran setzen würde, ihre Glaubwürdigikeit beim Publikum nicht zu verlieren. Das sei alleroberste Prioriät. Nun ja, bei der Lügenpresse würde man sagen: „Papier ist geduldig“. Aber dazu gehört das ZDF ja nicht, wie eingangs festgestellt.

Video wie Claus Kleber das Ringen um Glaubwürdigkeit beim ZDF beschwört




Entwicklung der Wind- und Solarenergie bis einschließlich März 2015

Entwicklung der Solarenergie von 2011 bis März 2015.

Die installierte Leistung basiert auf den Monatsmeldungen Solarenergie der Bundesnetzagentur. Die Grafik zeigt die Verdoppelung der  Leistung vom 1.Jan 2011 mit 17.579 auf 38.458 MW im Februar 2015. 

Der tägliche Zubau im März wird von mir niedrig geschätzt und in späteren Fortschreibungen entsprechend dem tatsächlichen Zubau korrigiert.

Bild 1: Entwicklung der Solarenergie in Deutschland 2011 bis März 2015

Entwicklung der Windenergie von 2011 bis März 2015.

Die installierte Leistung der Windenergie entwickelte sich von 27.073 MW im Januar 2011 auf 41.337 MW  Ende Februar 2015 und übertrifft mittlerweile die Nennleistung der Solarenergie.

Der Zubau im März wird von mir niedrig eingeschätzt und später korrigiert.

Bild 2: Entwicklung der Windenergie in Deutschland 2011 bis März 2015

Dieses Bild zeigt die Entwicklung der installierten Leistung der Windenergie ab Januar 2014

Bild 3: Entwicklung der Anlagenanzahl und installierte Nennleistung Windenergie

Entwicklung der Summenleistung von Wind.- und Solarenergie:

Addiert man die Einspeiseleistung und die Nennleistung von Wind.- und Solarenergie ergibt sich folgendes Bild:

 

Bild 4: Entwicklung der Addition von Wind.- + Solarenergie in Deutschland 2011 bis März 2015

Man erkennt eine jahreszeitliche Abhängigkeit der Einspeisung mit einem Schwerpunkt der Solarenergie im Sommerhalbjahr und dem Schwerpunkt der Windenergie im Winterhalbjahr.

Die Grafik und die Tabelle weiter unten, bestätigt  die Aussage:

Anstieg der Leistungsspitzen aber keine Sockelbildung der Einspeisung.

Dividiert man die tägliche installierte Leistung durch die Einspeiseleistung von Wind und Solar ergibt sich das unten gezeigte Bild. Für mich ist erstaunlich, dass wir einen negativen Trend erkennen können.

  

Bild 5: Äquivalent der Addition von Wind.- + Solarenergie in Deutschland 2011 bis März 2015

Aus diesem Grunde habe ich mir eine Datenbankabfrage erstellt, mit der ich die Minimal.- und Maximalwerte des jeweiligen Jahres ermittelt habe.

Es ist zu erkennen, dass der Minimalwert keinen positiven Trend erkennen lässt, wo hingegen die Maximalwerte enorm angestiegen sind.

Das Jahr 2015 ist noch jung und die windstillen Nächte kommen noch.

Wer aber auf Grund dieser Zahlen noch behauptet, es käme zu einer Glättung der Einspeisung, sollte seinen akademischen Titel zurückgeben.

Rolf Schuster , im April 2015 




Medien ignorieren Klimarealisten

[*Etwa: Berichterstattung zur globalen Erwärmung in zweifelhaften Zeiten: Umweltreporter im neuen Medien-Ökosystem“]

Skeptiker ,allgemein irrelevant‘

Die George Mason-Studie zitiert einen Reporter mit den Worten: „Unter den Medien der USA ist allgemein verstanden, dass dies real ist, wirklich ist, stattfindet und dass wir dafür verantwortlich sind. Diese Debatte ist abgeschlossen. Folglich ist es heutzutage allgemein irrelevant, Klimaleugner (sic) in einem Artikel zum Klimawandel noch zu Wort kommen zu lassen“.

Der Studie zufolge ermutigen Nachrichten-Editoren die Reporter zu leugnen, dass die Debatte um die Rolle der Menschheit bzgl. des Klimawandels immer noch in vollem Gange ist. Journalisten (die ihren Namen in der Studie nicht genannt sehen wollten) berichteten: „Diese Praxis, die Skeptiker zu ignorieren, wurde weitgehend von deren Managern und Herausgebern unterstützt. Tatsächlich hat die Nachrichten-Agentur eines Reporters jüngst eine explizite Politik seitens der Herausgeber entwickelt, der zufolge Reporter davon abgehalten werden sollen, Klimawandelleugner bei der Berichterstattung über Umwelt und Wissenschaft zu zitieren“.

L. A. Times bestätigt den Bias

Ein Kommentar in der Los Angeles Times (vom 8. Oktober 2013) bestätigt die Ergebnisse der Studie. Paul Thornton, Editor zuständig für Briefe, erklärte die Entscheidung des Blattes, keine Leserbriefe zu veröffentlichen, die die Theorie der vom Menschen verursachten globalen Erwärmung in Frage stellen. Thornton räumte ein, dass er „kein Experte sei, wenn es um die komplexen Klimaprozesse des Planeten geht“. Stattdessen bekundete Thornton, dass er sich auf das IPCC der UN verlässt, welches er als „eine aus den weltweit führenden Klimawissenschaftlern bestehende Körperschaft“ bezeichnete. Thornton zufolge hat das IPCC jüngst festgestellt, dass es „zu 95% sicher war, dass wir fossile Treibstoffe verbrennenden Menschen die globale Erwärmung antreiben. Die Debatte dreht sich nicht darum, ob dieser Beweis existiert (was er eindeutig tut), sondern nur darum, was dieser Beweis für uns bedeutet“.

Thorntons Kommentar schloss mit den Worten: „Einfach gesagt, ich tue alles, was ich kann, um die Briefe dieser Leute von der Leserbrief-Seite fernzuhalten; falls doch mal einer durchrutscht, folgt sofort eine Korrektur. Die Aussage ,Es gibt keine Anzeichen dafür, dass Menschen den Klimawandel verursacht haben‘, ist keine Meinungsäußerung, sondern die Äußerung einer faktischen Unrichtigkeit“.

Hexenjagd

Jay Lehr, Wissensachaftsdirektor am Heartland Institute und Herausgeber von Environment & Climate News beschreibt es so: „In der Juristerei gibt es ein altes Sprichwort“, sagte Lehr. „Falls man Fakten auf seiner Seite hat, baue man auf die Fakten. Falls man das Recht auf seiner Seite hat, baue man auf das Recht. Falls man keines von beiden auf seiner Seite hat, schlage man auf den Tisch“. Lehr weiter: „was derzeit vor sich geht, ist eine Hexenjagd – und der beste Beweis dafür, dass es keinerlei unterstützende Fakten mehr gibt, die darauf hindeuten, dass die Menschheit irgendeine signifikante Rolle spielt bei der Beeinflussung des Klimas. Alles, was bleibt ist, die Opponenten zu diffamieren und zu verunglimpfen“.

Bonner R. Cohen, Ph. D. (read full bio), is a senior fellow at the National Center for Public Policy Research in Washington, DC.

Link: http://news.heartland.org/newspaper-article/2015/04/01/reporters-ignore-climate-change-skeptics

Übersetzt von Chris Frey EIKE




Das Rätsel der Eiszeiten: Teil XVI – Roe vs. Huybers II

Im vorigen Artikel betrachteten wir die Studie von Gerard Roe aus dem Jahr 2006 mit dem Titel In defense of Milankovitch. Wir verglichen die Rate der Änderung des Eisvolumens – wie im Huybers-Datensatz 2007 gemessen – mit der sommerlichen Einstrahlung bei 65°N. Die Ergebnisse waren interessant, korrelierten sie doch sehr gut während der ersten 200.000 Jahre, bevor sie außer Phase liefen. Als Folge davon war die (Pearson-)Korrelation über 500.000 Jahre sehr klein, aber ziemlich gut über die ersten 200.000 Jahre.

Ohne weitere Daten könnten wir vermuten, dass die Ergebnisse zeigen, dass sich der Datensatz ohne „orbitales Tuning“ – und dem Fehlen objektiver radiometrischer Datierungen – mit der Zeit immer mehr von der Realität entfernt und ein „orbital getunter“ Datensatz die beste Annäherung wäre. Wir würden definitiv erwarten, dass ältere Daten mehr Unsicherheiten aufweisen, da sich Fehler akkumulieren, wenn man irgendeine Art Modell benutzt. Allerdings haben wir in einem früheren Artikel objektivere Datierungen für Termination II betrachtet (und auch in den Kommentaren bei einigen früheren Terminationen). Diese Daten erhielten wir via radiometrischer Datierung an verschiedenen Orten und mit unterschiedlichen Methoden. Also fragte ich mich:

Was passiert, falls wir einen Datensatz wie Huybers 2007 nehmen und diesen mittels Altersmarkierungen erneut kartieren?

Auf diese Weise wurden alle Eisbohrkern-Datensätze grundlegend konstruiert, obwohl die Verfahren ausgereifter sind (siehe Anmerkung 1).

Für meine erste grobe Annäherung zog ich einfach einen Satz mit Terminations-Zeitpunkten heran (etwa aus der Mitte des Zeitraumes zwischen maximaler Vereisung und Höhepunkt der Zwischeneiszeit), und zwar sowohl von Huybers als auch von Winograd et al. 1992. Dann habe ich die Zeitbasis der bestehenden Proxydaten von Huybers zwischen jedem Satz von Altersmarkierungen erneut geplottet. Möglicherweise ist es einfacher, einen Vergleich davor ↔ danach zu zeigen als das Verfahren noch weiter zu erklären. Man beachte den Tiefpunkt zwischen von 100.000 und 150.000 Jahren. Dieser korrespondiert mit weniger Eis, es handelt sich um das Interglazial:

 

Figure 1

Das Verfahren ist im Grunde eine lineare Neukartierung. Ich bin sicher, dass es bessere Wege gibt, aber ich erwarte nicht, dass diese das Ergebnis wesentlich verändern würden. Ein wichtiger Punkt (mit meiner sehr einfachen Methode) ist, dass der älteste Datenzeitpunkt, den wir betrachten, eine Inkonsistenz verursachen kann (da es nichts gibt, um die Daten zwischen der letzten Altersmarkierung und dem Enddatum zu belegen). Darum geht der erste Datensatz unten über 270.000 Jahre.

T-III wird von Winograd 1992 datiert als vor 253.000 Jahren eingetreten. Also habe ich einen Zeitpunkt kurz danach gewählt. Hier folgt der Vergleich der Änderungsrate des Eisvolumens mit der Einstrahlung mit den gleichen Rahmenbedingungen wie im letzten Artikel. Man erkennt, dass alles sehr gut anti-korreliert ist:

 

Figure 2 – Click to Expand (nur in der englischen Originalversion)

Zum Vergleich: Das Ergebnis im vorigen Artikel von 0-200.000 Jahren ohne Neukartierung des Proxy-Datensatzes. Man erkennt, dass alles sehr gut korreliert ist:

 

Figure 3 – Click to Expand (nur in der englischen Originalversion)

Für die neu kartierten Daten: Korrelation = -0,30. Dies ist genauso negativ korreliert mit dem Einstrahlungswert wie LR04 (eon orbital getunter Datensatz) positiv korreliert ist. Interessehalber machte ich das Gleiche mit einer Zeitbasis von vor 0 bis 200.000 Jahren. Dies bedeutet: alles von vor 140.000 bis 200.000 Jahren wurde nicht durch einen überarbeiteten T-III-Zeitpunkt belegt. Ergebnis: Korrelation = 0. Die Interpretation ist einfach – die älteren Daten wurden infolge einer späteren objektiven T-III-Datierung nicht verschoben, daher gibt es hier ein besseres Zusammenspiel zwischen Einstrahlung und der Änderungsrate des Eisvolumens für diese älteren Daten.

Schlussfolgerung

Gibt es eine Schlussfolgerung? Sie starrt uns sicher ins Gesicht, bleibt also als Übung für interessierte Studenten im Raum stehen.

Ich habe Kopfschmerzen.

Articles in the Series

References

In defense of Milankovitch, Gerard Roe, Geophysical Research Letters (2006) – free paper

Glacial variability over the last two million years: an extended depth-derived agemodel, continuous obliquity pacing, and the Pleistocene progression, Peter Huybers, Quaternary Science Reviews (2007) – free paper

Datasets for Huybers 2007 are here:
ftp://ftp.ncdc.noaa.gov/pub/data/paleo/contributions_by_author/huybers2006/
and
http://www.people.fas.harvard.edu/~phuybers/Progression/

Continuous 500,000-Year Climate Record from Vein Calcite in Devils Hole, Nevada, Winograd, Coplen, Landwehr, Riggs, Ludwig, Szabo, Kolesar & Revesz, Science (1992) – paywall, but might be available with a free Science registration

Insolation data calculated from Jonathan Levine’s MATLAB program

Anmerkungen

Anmerkung 1

Hier folgt ein Auszug aus der Studie von Parennin et al. 2007: The EDC3 chronology for the EPICA Dome C ice core:

In diesem Artikel präsentieren wir EDC3, den neuen Altersmaßstab von 800.000 Jahren aus dem Eisbohrkern EPICA Dome C. Er wird gebildet aus einer Kombination verschiedener Altersmarkierungen und einem glaziologischen Modell. Er wird in drei Schritten erzeugt.

Erstens, eine Altersskala wird erzeugt durch die Anwendung eines Eisfluss-Modells am Dome C. Unabhängige Altersmarkierungen werden verwendet, um viele kaum verstandene Parameter in diesem Modell zu kontrollieren (wie z. B. die Bedingungen an der Gletschersohle) durch ein inverses Verfahren.

Zweitens, die Altersskala wird synchronisiert mit der neuen grönländischen GICC05-Altersskala über drei Zeiträume: die letzten 6000 Jahre, die letzte Deglaziation und das Laschamp-Ereignis (vor etwa 41.000 Jahren).

Drittens, die Altersskala wird in den unteren rund 500 m korrigiert (korrespondierend mit dem Zeitraum von vor 400.000 bis 800.000 Jahren), bei dem das Modell nicht in der Lage ist, die komplexe Verteilung der Eisflüsse zu erfassen.

From Parennin et al 2007

Link: http://scienceofdoom.com/2014/02/03/ghosts-of-climates-past-sixteen-roe-vs-huybers-ii/

Link: http://scienceofdoom.com/2014/02/02/ghosts-of-climates-past-fifteen-roe-vs-huybers/

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/

Teil VIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-8-global-circulation-models-ii/

Teil IX: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-9-global-circulation-models-iii/

Teil X: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-10-global-circulation-models-iv/

Teil XI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xi-das-ende-der-letzten-eiszeit/

Teil XII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xii-gcm-v-wie-enden-eiszeiten/

Teil XIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-xiii-terminator-ii/

Teil XIV: www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-xiv-konzepte-und-daten/

Teil XV: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xv-roe-vs-huybers/




Vom Sturmwind verweht – Orkan Niklas stellt Energiewendelügen bloß!

Bild rechts:Ein Orkan wie Niklas knickt selbst kräftige Bäume wie Streichhölzer

Im Zusammenhang mit dem ständigen Zubau von Wind- und Solarkapazitäten in Deutschland hatte der Verfasser vor kurzem im Rahmen eines Leserkommentars bei EIKE darauf hingewiesen, dass damit Zeiten näher rücken, in denen die Netze an Tagen mit entsprechenden Wetterlagen so mit „erneuerbarem“ Strom verstopft werden, dass auch das Dumping der Überproduktion im Ausland nicht mehr ausreicht, um ökologisch eigentlich sinnvolle Stromerzeuger wie Wasserkraftwerke oder Kraft-Wärme-Kopplungskraftwerke vor erheblichem wirtschaftlichem Schaden zu bewahren. Dieser Hinweis erboste einen der besonders aktiven Trolle mit dem Pseudonym Holger B. dermaßen, dass es ihm augenscheinlich den Schlaf raubte und er am 29.3. morgens um 0.16 Uhr die spöttisch gemeinte Frage stellte, „welche Konstellation von Hoch- und Tiefdruckgebieten sich einstellen muss, das gleichzeitig über ganz Deutschland Sturm weht und Sonne von blauen Himmel scheint“ [BUROW].

Wenn Wind und Sonne gleichzeitig verrückt spielen

Nun, zur Kenntnis des verehrtesten Herrn Holger B. und seiner Spießgesellen, er hätte in dieser Nacht besser daran getan, auf die bereits deutlich erkennbaren und auch schon hörbaren Vorzeichen des heraufziehenden Orkans Niklas zu achten. Bereits am gleichen Tag wurde diese Frage eindeutig, aber ganz und gar nicht in seinem Sinne beantwortet: Es gab mit dem Sturm jede Menge Windstromproduktion, aber zugleich dank streckenweise blauen Himmels auch einen kräftigen Schub an Solarstrom.

Dazu meldete die FAZ am 3.4. unter der Schlagzeile „Stromnetz Orkan kostet Stromkunden mehrere Millionen“ [FAZ], dass die Orkan-Tage die Netzbetreiber einen zweistelligen Millionenbetrag gekostet hätten, der zu Lasten der Verbraucher gehe. Die Lage sei so brenzlig gewesen, dass Hunderte Windräder einfach abgeschaltet werden mussten.

In der gleichen Meldung wird hervorgehoben, dass wegen des starken Windes und einer parallel hohen Solareinspeisung auch ein neuer „Ökostromrekord“ erzielt worden sei. Nach Auswertung aller Daten habe Agora Energiewende für 14.15 Uhr eine Wind- und Solareinspeisung von rund 44.000 Megawatt ermittelt, was der Leistung von 31 Atomkraftwerken entspreche.

Nach den Statistiken, die EIKE-Autor Rolf Schuster in bewundernswerter Fleißarbeit regelmäßig auswertet und der Öffentlichkeit zugänglich macht, waren Ende Februar 2015 in Deutschland insgesamt 78.000 MW Wind- und Solarstromkapazität installiert, davon 40.000 MW Wind und 38.000 Solar. Verrechnet man dies mit den Angaben im FAZ-Artikel, so haben die Windenergieanlagen mit bis zu 75 % ihrer Kapazität eingespeist, während die Solaranlagen immerhin noch auf bis zu 37 % ihrer Nennkapazität kamen. Letzteres ist angesichts des Ende März noch recht niedrigen Sonnenstandes eine beachtliche Zahl. Hätte uns Niklas im Hochsommer erwischt, so hätten wir mit vermutlich mehr als 10.000 MW zusätzlicher Solareinspeisung zu kämpfen gehabt. Die Folgen von Niklas für die Börsenstrompreise verdeutlicht die von R. Schuster ermittelte Tabelle 1.

Tabelle 1: Nominelle Börsenverluste durch Negativstrompreise am 29.und 30.3. Hinweis: Jede Zahl unter 50 €/ MWh bedeutet in Wirklichkeit, dass die meisten konventionellen Kraftwerke bereits Verluste einfahren (Zahlen EEX: Tabelle Rolf Schuster)

zahlt der Stromverbraucher nochmal obendrauf

Nach diesen Daten musste aufgrund der Wetterlage allein am 29.3. und 30.3. Strom im Wert von fast 3 Mio. € zu Negativpreisen ins Ausland d.h. unter Zuzahlung „verschenkt“ werden. Doch das war nur ein kleiner Teil der tatsächlich anfallenden Verluste, die von den Netzbetreibern auf einen „unteren bis mittleren zweistelligen Millionenbetrag“ (also irgendwo zwischen 10 und 60 Mio. € für gerade einmal 3 Tage) geschätzt wurden. Den Angaben im FAZ-Artikel zufolge mussten insgesamt 20.300 Megawatt an Netzreserven (6.700 MW) und zusätzlichen Kraftwerkskapazitäten (13.600 MW) zur Stabilisierung der Stromversorgung in Süddeutschland eingesetzt werden. Zudem seien Hunderte Windräder mit 2.300 Megawatt Leistung zwangsweise abgeschaltet worden. Dies bedeutet, dass die Windbarone noch Geld dafür bekamen, dass sie keinen Strom produzierten, weil sonst das Netz zusammengebrochen wäre. Die den Netzbetreibern durch den unsinnigen „EE-Strom“ insgesamt entstandenen Kosten, die eigentlich der Energiewende zugeordnet werden müssten, finden sich jedoch nur zum geringsten Teil auf dem EEG-Konto wieder, sondern werden zum größten Teil über die Netzkosten versteckt auf die Strompreise umgelegt.

Et hätt noch emmer joot jejange – wirklich?

Diesmal haben die Netze der Belastung noch standgehalten. Doch wer jetzt glaubt, man könne sich trotz des weiter anhaltenden Zubaus von Wind- und Solarkapazitäten im Rahmen der „Energiewende“ aufatmend zurücklehnen und darauf vertrauen, dass sie auch künftig solch außergewöhnliche Belastungen unbeschadet überstehen werden, dem sei gesagt, dass dem beileibe nicht so ist. Das „Rheinische Grundgesetz – Et hätt noch emmer joot jejange" mag in der Kölner Politik Geltung haben, doch für die Physik der Stromversorgung gilt dies mitnichten. In Deutschland sollen im Rahmen der „Energiewende“ bis 2050 rund 330.000 MW Windenergiekapazität und möglicherweise bis zu 100.000 MW Solarkapazität installiert werden. Das Resultat wird sein, dass unsere Netze schon an mäßig windigen Schönwettertagen völlig mit „Ökostrom“ überflutet werden, für den es mangels geeigneter Speichertechnologien keine Verwendung gibt. Das wird zwangsläufig zum Zusammenbruch der Stromversorgung führen. Da würde uns auch keine der „Stromautobahnen“ helfen, die uns die gewissenlosen Profiteure der Energiewende und ihre Speichellecker als angebliche Wunderwaffe gegen die Folgen ihrer eigenen Politik andrehen wollen.

Fred F. Mueller

Quellen

[BUROW] http://www.eike-klima-energie.eu/climategate-anzeige/sonnenfinsternis-was-haben-mister-spock-und-agora-energiewende-gemeinsam/

[FAZ] http://www.faz.net/aktuell/wirtschaft/orkan-kostet-stromkunden-mehrere-millionen-13520933.html




Kollektive Weltuntergangs-Neurose

Nüchterne, sachliche und kompetente Wissenschaftler haben kaum eine Chance, sich dagegen zu artikulieren. Für manche bleibt dann nur die Glosse. Hier publizieren wir auf der EIKE-Homepage zwei Beiträge des Konstanzer Physikprofessors Gerd Ganteför. Er hält zwar einige Aussagen des IPCC für vertretbar, aber ähnlich wie EIKE wendet er sich gegen Politiker, Aktivisten und Experten, welche die Angst der Bürger zur Durchsetzung ihrer Ziele nutzen.
(Vorbemerkung der EIKE-Redaktion).

(1) Kollektive Weltuntergangs-Neurose

Die Deutschen müssen ständig die Welt retten, denn aus allen Richtungen droht der Weltuntergang. Jede Partei, jede Sekte und jeder Aktivist droht den Bürgern mit einem baldigen Desaster. Als erste entdeckten die Schamanen und Medizinmänner die Angst der Unwissenden als Werkzeug zum Machterhalt. In der modernen Zeit war der Weltuntergang zunächst ein Monopol der Grünen, aber nun haben auch die bürgerlichen Parteien dieses unwiderstehliche Machtinstrument entdeckt. Über die Deutschen ergießt sich eine Flut von Weltuntergangs-Szenarien und der Satz „koste es was es wolle“ ist zum Markenzeichen deutscher Politik geworden.

Angefangen hat es mit Umweltproblemen. Das Klima-Problem müssen die Deutschen lösen, indem sie ihr Land mit Solar- und Windparks pflastern und auf Elektroautos umsteigen. Das kostet ein wenig, aber damit retten sie die Welt. Der Wassermangel droht die Welt auszutrocknen und die Deutschen müssen deshalb auf sparsame Waschmaschinen umsteigen. Das kostet ein wenig, aber damit retten sie die Welt. Der Plastikmüll vernichtet alles Leben im Meer und deshalb müssen die Deutschen auf Plastiktüten verzichten. Das kostet fast nichts, aber damit retten sie die Welt. Die Müllberge drohen die Welt zu ersticken und deshalb müssen die Deutschen den Müll trennen. Das kostet ein wenig, aber damit retten sie die Welt. Die Kernkraft wird die Erde verstrahlen und deshalb müssen die Deutschen aus der Kernenergie aussteigen. Das kostet ein wenig, aber damit retten sie die Welt. Die Banken müssen gerettet werden, denn sonst droht der Untergang der Wirtschaft. Das kostet ein wenig, aber damit retten die Deutschen die Reichen. Der Euro muss gerettet werden, denn sonst droht der Untergang des Abendlandes. Das kostet ein wenig, aber damit retten sie das Abendland.

Kein anderes Land trennt den Müll, außer vielleicht Österreich. Kein anderes Land schaltet die Kernkraftwerke ab, außer vielleicht Österreich. Kein anderes Land steigt auf Elektroautos um, nicht einmal Österreich. Kein andres Land sorgt sich um das Abendland, nicht einmal Griechenland. Trotzdem darf die Entschlossenheit der Deutschen nicht wanken und jeder Zweifel wird im Keim erstickt.

Das kostet viel. Es kostet die Freiheit.

==================================================================

(2) Der Klima-Prophet

Schon morgens beim Frühstück wird man nicht in Ruhe gelassen. Aber ich hätte den Fernseher ja auch nicht einschalten müssen. Im Morgenmagazin wurde ein asketisch aussehender älterer Herr mit strenger Miene interviewt. Ein Klima-Forscher. Die junge Dame, die ihn interviewen sollte, machte den Eindruck einer schlecht vorbereiteten Studentin. Sie verhaspelte sich und in einer Prüfung bei dem Herrn wäre sie wohl durchgefallen. Aber sie machte tapfer weiter.

Videoausschnitt der MoMa Sendung vom 30.5.13

Der Klimaforscher wandte sich unvermittelt an uns und ich vergaß zu kauen. Wenn wir nicht sofort unsere Lebensgewohnheiten drastisch änderten und auf unseren Komfort verzichteten, würde die Welt untergehen. Unser maßloser Konsum produziere zu viel Kohlendioxid und das bewirke die Erderwärmung. Ich blickte schuld-bewusst auf das Brötchen. Wie viel Kohlendioxid war wohl für seine Herstellung freigesetzt worden? Ich beschloss, morgens nur noch Müsli zu essen.

Nun tadelte der Klimaforscher unseren hohen Energieverbrauch für das Heizen und das Autofahren. Da hatte er Recht, aber was sollte ich tun? Ohne Heizung ist es kalt und ohne Auto komme ich nicht zur Arbeit. Die Moderatorin wagte es, den Propheten zu unterbrechen. Sie wies darauf hin, dass es in den letzten 15 Jahren gar nicht mehr wärmer geworden sei

Nach der Miene des Propheten zu schließen war ihr mit dieser Frage ein Langzeit-Aufenthalt in der Hölle der Klimaforscher sicher.

Der Prophet knurrte, dass es das Klima auf die Dauer nicht wagen würde, von seinen Vorhersagen abzuweichen. Es würde bald auf den rechten Weg zurückfinden, und dann würde es sehr warm werden.

Jetzt konzentrierte er sich wieder auf mich, so schien es mir jedenfalls. Es ginge uns viel zu gut, donnerte er, und wir müssten vom Luxusleben abschwören. Klimaschädliches wie Autos, Fernseher und Plastiktüten müssten vernichtet werden. Die Stimme hypnotisierte mich und die Umgebung verschwamm. Auch bunte Kleider seien nicht klimagefällig.

Klimagefällig? Oder hatte er gerade gottgefällig gesagt? Die Reichen müssten gezwungen werden mit ihrem klimaschädlichen Tun aufzuhören. Er habe daher eine Klimapolizei gegründet, die in den Häusern der Reichen nach Klimaschädlichem suchten.

Den Bürgern, die nicht genau wüssten, was klimaschädlich sei und was nicht, könne er mit einer einfachen Regel helfen:

Alles, was schön ist und Spaß macht, sei klimaschädlich.

Auch Lachen erhöhe die Kohlendioxid-Produktion.

Er schaute böse auf die junge Interviewerin, aber sie hatte gar nicht gelacht.

Der Prophet erklärte weiter, dass nun auch die Häuser der Armen durchsucht werden müssten, denn auch dort habe man bei Stichproben Klimaschädliches entdeckt. Die eingesammelten Güter wurden auf dem Marktplatz gesammelt und nach einigen Wochen entstand ein beindruckend großer Scheiterhaufen. Am Nationalfeiertag sollte alles verbrannt werden und so geschah es auch. Die meisten Reichen hatten die Stadt verlassen und plötzlich gab es viele Arbeitslose. Eine Hungersnot brach aus. Die Armen wurden nachdenklich. So hatten sie sich das nicht vorgestellt. Der Prophet war indessen zufrieden, denn nun lebten alle Menschen ein klimagefälliges Leben ohne Treibhausgasemissionen.

Dem Volk jedoch gefiel es nicht.

In den Nachbarstädten ging es den Leuten viel besser und dort feierten sie bis in die Nacht in hell erleuchteten Sälen. Helle Lichter hatte der Prophet schon ganz am Anfang verboten. Und weil sie gerade so geübt waren im Verbrennen, verbrannten sie nun den Propheten. Danach wurde das Leben wieder fröhlicher.

Ich wachte auf und inzwischen lief Werbung.

Irgendwie hatte ich im Traum unseren gestrengen Herrn Klimaforscher mit der Titelfigur meiner Seminararbeit, Giralomo Savonarola, vermischt.

Herr Savonarola war vor 500 Jahren ein Bußprediger im Florenz. Für einige Jahre herrschte er über den reichen Stadtstaat und prangerte das verschwenderische Leben der Adeligen und Kaufleute an. Die Häuser wurden durchsucht und alle Reichtümer auf einem Scheiterhaufen verbrannt. Nach wenigen Jahren seiner Herrschaft gab es eine Wirtschaftskrise und eine Hungersnot. Der Spuck war zu Ende, als das Volk schließlich den Bußprediger verbrannte. Wie konnte ich das nur durcheinanderbringen?

Hinweise des Autors :

Ähnlichkeiten mit real existieren Personen oder Institutionen sind rein zufällig. Insbesondere besteht keinerlei Bezug zu dem Interview mit Herrn Schellnhuber vom Potsdam Institut für Klimafolgenabschätzung im Morgenmagazin des ARD am 30.05.2013 .

Girolama Savonarola ist eine historische Persönlichkeit. Er hat tatsächlich die Reichtümer der Stadt Florenz verbrennen lassen und wurde später selber verbrannt.

===================================================================

Hinweis der EIKE-Redaktion: Die vorstehenden Artikel sind zuerst erschienen auf

http://www.faszinationphysik.ch/sites/satire.php ;

Dort sind auch viele weitere Artikel zu „Klima & Energie“ zu finden. Wir danken Prof. Ganteför für die Genehmigung zu ungekürztem Nachdrucks.

=====================================================




Wissenschaftlich erwiesen: windradgenerierter Infraschall ist gesundheitsschädlich!

Viele Bürger beklagen, dass sie durch den beim  Betrieb von WKAs erzeugten  Infraschall Gesundheitsschäden wie Schlaflosigkeit, Angst, Schwindel, Kopfschmerzen, Tinnitus, Übelkeit, Herzbeschwerden, Gleichgewichts-störungen bis hin zu Depressionen erlitten hätten. Die zuständigen Behörden wiesen entsprechende Stilllegungsanträge mit der Standardbegründung, Infraschall sei unschädlich, da unhörbar, zurück. Klagen vor Verwaltungsgerichten scheiterten, da als geltende Rechtsnorm die TA Lärm nicht verletzt sei, die implizit auf der obigen Standardbegründung beruht.

Für die Öffentlichkeit völlig überraschend verzichtete jedoch das Bundesumweltamt in einer, im Juni 2014 erschienenen, umfangreichen Literaturrecherche /1/ auf das Argument, Infraschall sei unschädlich, da unhörbar. Dagegen hatte sich der baden-württembergische Umweltminister  im April  2014 – zu diesem Zeitpunkt war die Machbarkeitsstudie behördenintern bereits bekannt – in einer Erwiderung auf eine Anfrage im Stuttgarter Landtag vermutlich wider besseren Wissens auf dieses Argument  gestützt und  sogar noch Ende August 2014 bestritt das Landratsamt Breisgau-Hochschwarzwald die Möglichkeit einer Gesundheitsgefährdung durch Infraschall, indem es immer noch dieses fadenscheinige Argument benutzte.

Obwohl mit dem Erscheinen der Machbarkeitsstudie der einzige belastbare Einwand gegen die Behauptung zahlreicher Bürger, sie seien durch windradgenerierten Infraschall gesundheitlich schwer geschädigt worden, entfiel, sah sich keine Behörde zum Handeln veranlasst, vielmehr erlaubten sie im letzten Jahr die Inbetriebnahme einer ungewöhnlich großen Zahl von WKAs. Auch die Zahl der Genehmigungen neuer Anlagen erreichte Rekordwerte, wobei es unerklärlich bleibt, auf welcher Grundlage die Abstände der WKAs von Wohngebäuden vorgegeben wurden, denn in der Machbarkeitstudie wurde ausdrücklich festgestellt, dass die Ausbreitung von Infraschall nicht prognostizierbar sei.

Wenn es überhaupt noch eines Beweises erforderte, dass Infraschall  gesundheitsschädlich sei, so hat diesen der australische Akustiker Steven Cooper /2/ erbracht, indem er vor kurzem ein verblüffend einfaches Experiment durchführte: er schaltete ein Windrad an und aus und stellte dabei fest, dass das zeitliche Auftreten von Beschwerden wie Schlaflosigkeit, Druckgefühle im Kopf, im Ohr oder in der Brust, Tinnitus und Herzrasen streng mit den Einschaltperioden des Windrades korreliert war. Den Probanden war natürlich jeder Sichtkontakt zum  Windrad  verwehrt. Man beachte, dass dabei zumindest der Befund Herzrasen mit einem Langzeit-EKG objektiv dokumentierbar ist, also nicht von Selbstauskünften der Probanden abhängt. Weiterhin konnte er zeigen, dass  nur der schmalbandige (tonhaltige, linienhafte, harmonische) Anteil des Infraschallspektrums zu den Beschwerden korreliert war. Dies bestätigt Aussagen, die in der Machbarkeitsstudie zu finden sind. Schließlich beobachtete Cooper einen extrem niederen Schwellenwert von 50 dB , der vermutlich durch das niedrige  Rauschniveau in den ländlichen Gegenden Australiens ermöglicht wurde. Linienstrahlung muss das Rauschniveau übersteigen, um nachweisbar zu sein.

Ich habe seit in einem Leserbrief (zusammen mit Dr. R. Bauert), in zahlreichen Eingaben bei Ministerien und Umweltämtern  und in zwei im Internet veröffentlichten Studien immer wieder darauf hingewiesen, dass die gesamte Problematik schon vor 13 Jahren in der Diplomarbeit /3,4/ der Münchner Meteorologin E. Wanka fast erschöpfend behandelt wurde. Sie zeigte darin, dass schmalbandiger, föhngenerierter Infraschall in München zu einer Verdreifachung der durch schwere Depressionen, durch Suizidversuch und Suizid bedingten täglichen Rettungsdiensteinsätzen führt. Mit den Daten von Frau Wanka lässt sich abschätzen, dass jedem 2MW-Windrad mindestens ein Suizid während einer 30-jährigen Standzeit anzulasten ist.

Mit den Versuchen von Cooper und Wanka ist die ganze Kaskade gesundheitlicher Beschwerden von Schlaflosigkeit bis zu schwersten Depressionen hinreichend abgedeckt und der wissenschaftliche Beweis erbracht, dass Infraschall gesundheitsschädlich ist. Man fragt sich daher, warum in Deutschland das für jedermann verständliche Coopersche Experiment nicht schon längst durchgeführt wurde.  An Windrädern mangelt es hierzulande nicht. Warum begründet ein Minister oder eine Landrätin noch immer Entscheidungen mit längst widerlegten Argumenten? Warum wird die Windkraftindustrie als Verursacher nicht gezwungen, die Unschädlichkeit des Infraschalls zu beweisen? Warum wird die Not von Epileptikern um ein Vielfaches vergrößert? Und warum müssen unsere Kinder Schulen besuchen, in denen windradgenerierter Infraschall jede Aufmerksamkeit  zunichtemacht? Insbesondere aber: nach welchen Kriterien werden die Grenzen eines Vorranggebietes festgesetzt, wenn die Abnahme des Infraschalls mit der Entfernung nicht mehr berechnet werden kann und wenn von einem Schwellenwert schädlichen Infraschalls ausgegangen werden muss, der nicht mehr  bei einer Schmerzgrenze von ca. 130 dB,  sondern bei 50 dB liegt?

Man kann es drehen oder wenden wie man will: die Hypothese, windradgenerierter Infraschall sei gesundheitsschädlich, hat längst den Status einer gesicherten wissenschaftlichen Erkenntnis erreicht. Der Genehmigungspraxis für Windräder sind daher die wissenschaftlichen Grundlagen entzogen worden. Das Bundesumweltamt hat sich durch geschickte Formulierungen in der Machbarkeitsstudie jeder Verantwortung entzogen, dabei die Entscheidungsträger der unteren Verwaltungsebenen im Regen stehen lassen. Als juristischer Laie kann ich nicht beurteilen, ob die geschilderten Tatbestände als vorsätzliche Körperverletzung, ggf. mit Todesfolge, zu bewerten seien, oder als Kollateralschaden, der in Abwägung der Interessen der Energiewende dem Bürger zuzumuten sei.  Letzten Endes werden die Bürger, sei es als Betreiber oder als Erdulder von WKAs, die straf-und haftpflichtrechtlichen, insbesondere aber die gesundheitlichen Konsequenzen zu tragen haben.

Referenzen:

/1/ Krahe, D., Schreckenberg, D., Ebner, F., Eulitz, C., Möhler, U.,  Machbarkeitsstudie  zu
Wirkungen des Infraschalls ,
(2014), www.umweltbundesamt.de (PDF)

/2/ Cooper, S., The results of an accoustic testing program – Cape Bridgewater wind farm (hier)

/3/  Wanka, R., Messung und Analyse niederfrequenter Luftdruckschwankungen in München Diplomarbeit LMU München (2003)

/4/ Wanka, R. and P. Höppe, Human biometeorological relevance of low frequency air pressure oscillations, MeteorologischeZeitschrift, 14, 279 -284 (2005)

*Anschrift: Dr. Joachim Schlüter, Hohlenweg 8, 79410 Badenweiler, e-mail: schlueter-j@gmx.de 




Video: Woran die Windkraft scheitern wird

Dr. Detlef Ahlborn hat diese Zusammenhänge in einem Video am Beispiel der geplanten Energieversorgung durch Windkraft in Hessen erläutert.

Dr.-Ing. Detlef Ahlborn ist stellvertretender Vorsitzender der Bundesinitiative Vernunftkraft. Hier erklärt er, woran die Windkraft scheitern wird. Unser Dank gilt Herrn Jürgen Falkenberg, der den Vortrag grafisch und akustisch überarbeitet hat.

 




Besuch im Kernkraftwerk Leibstadt/Schweiz

Auch von Deutschland aus ist der gewaltige Kühlturm mit der noch gewaltigeren Dampfwolke darüber von weitem zu sehen. Sicherlich zum großen Ärger der Baden-Württemberger „Grünen“. Zum Kühlturm fallen einem gleich zwei Fragen ein, erstens, warum dort, und zweitens, warum überhaupt. Das Kraftwerk liegt am hier schon recht mächtigen Rhein; würde der nicht zur Kühlung reichen? Schon, aber nicht für 2 Kraftwerke, und ein zweites war geplant.

Man ging nicht nach der Regel vor, wer zuerst kommt, kühlt zuerst, sondern errichtete den Kühlturm und wollte den Rhein dann dem zweiten Kraftwerk überlassen, das aber nie gebaut wurde. Rheinwasser braucht das Kraftwerk trotzdem, denn die gewaltige Dampffahne trägt viel Wasser aus, das ersetzt werden muss.

Aber warum überhaupt werden zwei Drittel der erzeugten Energie im Kühlturm verschwendet, und nur ein Drittel wird zu elektrischer Energie? Als die ersten Dampfmaschinen mit ihrem kläglichen Wirkungsgrad gebaut wurden, haben manche Techniker vielleicht gehofft, den Wirkungsgrad immer weiter steigern zu können, bis sich schließlich die Wärme fast vollständig in nützliche Arbeit umwandeln ließe. Diesen Zahn hat ihnen schon 1824 ein damals erst 28 Jahre alter Franzose gezogen, mit Namen Sadi Carnot. Er konnte rein theoretisch beweisen: Ein höherer Wirkungsgrad als (T1 – T2): T1 ist nicht möglich. T bedeutet absolute Temperatur, also Celsiusgrade +273°, T1 ist die Frischdampf- und T2 die Kondensatortemperatur. Z.B. hat man bei einer Dampftemperatur von T1 = 600 K = 327°C und einer Kondensatortemperatur von 300 K = 27°C einen Wirkungsgrad von 0,5. Dazu kommen noch technische Verluste, daher der bescheidene Wirkungsgrad des KKW Leibstadt von 0,35. Carnots Formel zeigt: Heißer wäre besser, das traut man sich bei Kohlekraftwerken.

Wer an einer Gruppenführung durch ein Kraftwerk teilnimmt, an sich keine Ahnung hat, aber vor den anderen Teilnehmern als Experte erscheinen möchte, sollte die Angabe über die erzeugte elektrische Leistung in Frage stellen: „Es stimmt doch nicht, dass Sie so viel Energie ins Netz einspeisen!“ Dann gibt ihm die Führerin bzw. der Führer Recht, tatsächlich muss der erhebliche Eigenverbrauch abgezogen werden. Der ist, ob Kern- oder Kohlekraftwerk, immer enorm. Im KKW Leibstadt sind es 55 MW (Megawatt), damit würde eine Kleinstadt auskommen. Es bleiben für das Netz aber 1200 MW. Was ist das in Geld? 1.200 MW sind 1.200.000 kW. Das Kraftwerk erhält für die Kilowattstunde etwas über 5 Rappen, also grob 5 Cent. Das sind dann 6.000.000 Cent = 60.000 € pro Stunde! Kein Wunder, dass man unsere Besuchergruppe ordentlich bewirten konnte, zumal dieser Geldsegen 24 Stunden pro Tag und bis auf eine kurze Unterbrechung an jedem Tag des Jahres anfällt.

„Grüne“ behaupten, das wären bei weitem nicht die wahren Erzeugungskosten, die Volkswirtschaft würde enorm durch verdeckte Kosten belastet. Dank der Österreicher lässt sich diese Behauptung leicht überprüfen. Ihr einziges KKW haben sie nie in Betrieb genommen und sind damit die ideale Vergleichsgruppe.

Die Schweiz ist bezüglich Wind- und Solarstrom noch nicht sehr geschädigt. Daher kann das Kraftwerk ständig mit voller Leistung laufen, es gibt nichts auszuregeln. Zusätzlichen Strom nach Bedarf liefern die Wasserkraftwerke. Man hat sich das früher noch idealer vorgestellt: Kernenergie würde auch Wasserkraft überflüssig machen. So gut ist die Überflutung von Alpentälern nämlich nicht. Aus meiner Schulzeit ist mir eine eindrucksvolle Geschichte in Erinnerung, die wir im Deutschunterricht gelesen haben. Die Überflutung wurde da als großes Unglück dargestellt, vor allem für den Bauern, der in diesem Tal seinen abgelegenen Hof bewirtschaftet hatte. Die großzügige Abfindung konnte ihn nicht trösten, er nahm sich das Leben. Seine Leiche wurde an der Staumauer angeschwemmt, zusammen mit den vielen ertrunkenen Tieren.

Ich bin kein Kerntechniker und kann daher nichts zu der Frage sagen, welcher Reaktortyp der Geeignetste ist. Vom Standpunkt meines Faches, Radioaktivität und biologische Strahlenwirkungen, erscheint mir der Siedewassertyp in Leibstadt nicht als der Beste. Der Dampf aus dem Reaktor strömt direkt durch die Turbinen und bringt einiges an Radioaktivität mit. Es sind nicht immer alle Brennstäbe ganz dicht und der gewaltige Neutronenfluß erzeugt weitere radioaktive Stoffe, Cobalt 60 zum Beispiel, und vor allem macht er aus dem Wasserstoff im H2O das radioaktive Tritium. Somit gehört das Maschinenhaus zum radioaktiven Bereich, was beim Druckwasserreaktor nicht der Fall ist.

Aber das Kraftwerkspersonal kommt mit dieser Situation gut zurecht. Nach Strahlenschutzverordnung darf die Dosis beruflich strahlenexponierter Personen höchstens 20 Millisievert (mSv) pro Jahr betragen. So viel bekommen die Bewohner von Menzenschwand im Schwarzwald von Natur aus ab, und an vielen Stellen der Welt noch wesentlich mehr. Im Kernkraftwerk Leibstadt hat man den Wert noch halbiert und 10 mSv als eigenen Grenzwert eingeführt, weil die Leute auch damit ihre Arbeit machen können.

Für die Schweiz ist das Kraftwerk ein Segen, noch mehr für die Menschen in der unmittelbaren Umgebung, und auch für die Deutschen, welchen unsere Strahlenhysterie ihre hiesigen Jobs gekostet hat, die jetzt aber im KKW Leibstadt ihr Brot und noch einiges mehr verdienen.

Die Besichtigung war leider, aber doch verständlicherweise, nur im inaktiven Bereich. Als zweiten Programmpunkt hielt Herr Dr. Rüegg einen hervorragenden Vortrag mit dem Titel: „Radioaktivität – überschätzte oder unterschätzte Gefahr?“ Ausarbeitungen dieses Vortrages werden über das Internet verbreitet.

Hannover, den 30.03.2015




Argumente der Messgenauigkeit des pH-Gehaltes der Ozeane wird von 80 Jahre langen instrumentellen Daten in Frage gestellt

Dieses geheime Ersetzen von Daten durch ein Modell hat nur wenige Präzedenzfälle dieses Ausmaßes. Schon jetzt wurde dies von einigen Medien in Schlagzeilen als „pHraud“ bezeichnet (3). Wie auch immer man das nennt, es bleibt die fundamentale Frage, ob diese Auslassung jemals korrigiert werden wird oder nicht. Gegenwärtig scheint das größte Hindernis für eine Korrektur ein Konsens unter den Mächtigen zu sein, dass der ozeanische pH-Wert niemals instrumentell gemessen werden kann (und auch nie gemessen werden wird) mittels irgendwelcher vorstellbarer Mittel für irgendeinen vorstellbaren Ozean durch irgendeinen vorstellbaren Wissenschaftler. Daher setzen die Machthaber effektiv voraus, dass die Welt Erwartungen hinsichtlich Datenverfügbarkeit und Transparenz aufgeben und die Modelldaten der von den PMEL-Autoren vorgenommenen heimlichen Ersetzung der realen Daten als die alleinige gesamte Wahrheit der ozeanischen pH-Werte in der Vergangenheit akzeptieren muss.

Ich selbst wurde auf die Auslassung der Ozean-pH-Werte im Rahmen meiner Forschungsaktivitäten aufmerksam, welche mich zur persönlichen Kommunikation mit den Autoren der Auslassung veranlasste (4). Durch zwei dieser Autoren habe ich einige Fakten bezüglich der Ursprünge, Verbreitung und Struktur der Auslassungen erfahren.

Ursprünglich hatte ich einfach gehofft, irgendwo eine vollständige grundlegende pH-Zeitreihe aus Instrumentenmessungen zu bekommen, um damit andere mich interessierende Ozean- und Klima-Indizes zu vergleichen. Obwohl es bzgl. meiner primären Forschung ein Umweg war, hielt ich es für erforderlich, meine eigene Zeitreihe und raumbezogene [geospatial] Produkte zu konstruieren, und zwar auf der Grundlage der neuen Informationen, auf die die PMEL-Autoren am Ende unserer Kommunikation indirekt meine Aufmerksamkeit gelenkt hatten.

Ich habe dann mit stochastischen Evaluierungen der tatsächlich ausgelassenen instrumentellen Daten weitergemacht (5). Ich denke, dass diese Information großenteils für sich selbst spricht, und daher habe ich einige jener Evaluierungen für die anhängende Graphik übernommen. Zusätzlich habe ich einige der OA-Referenzen zurückverfolgt, um mich auf die wahrscheinlichsten Gründe für die bestehenden Nicht-Zusammenhänge [disconnects] zwischen der Gemeinschaft der OA-Forschungen und dem Rest der die Ozean-pH-Werte messenden Gemeinschaft zu konzentrieren.

Einer der größten Nicht-Zusammenhänge bezieht sich auf die Frage der instrumentellen Messgenauigkeit. In meinen Diskussionen mit den Autoren von FEEL2899 vom Pacific Marine Environmental Laboratory (PMEL) haben diese vermutet, dass instrumentelle pH-Messungen vor etwa dem Jahr 1988 nicht hinreichend genau waren (4).

Abbildung 1a enthält einen Ausschnitt der FEEL2899-pH-Zeitreihe als dicke rotbraune Kurve. Einige Aspekte der NOAA World Ocean Database (WOD; 6) der globalen ozeanischen pelagialen [?] pH-Daten (GOPpH) sind im gleichen Zeitrahmen geplottet. Diese enthalten u. A. das zehnjährige gleitende Mittel in blau sowie eine gerundete Version davon als grüne Kreise. Man beachte, dass sich hier kein klarer Trend nach oben oder unten zeigt. Vielmehr zeigen beide WOD-basierten Kurven ein oszillierendes Verhalten während der gezeigten Zeitperiode.

Die WOD-pH-Daten der NOAA werden normalerweise bis auf zwei Dezimalstellen gezeigt. Dies vermutlich wegen der Genauigkeit von 0,01 pH-Einheit der verwendeten Messgeräte. Diese Genauigkeit ist auch der Standard für viele heutige moderne Glas-Elektroden-pH-Messgeräte (GEpH). Außerdem können sich die natürlichen globalen Ozean-pH-Werte (GOpH) in allen Tiefen über eine Bandbreite von 4 vollen pH-Einheiten erstrecken. Dies ergibt mindestens 400 einheitliche Möglichkeiten entlang einer durchgehenden Ozean-pH-Kurve, die genau identifiziert werden kann mit jedem pH-Meter seiner Zeit. Selbst eine Messung mit einer Genauigkeit von nur einer Dezimalstelle bietet 40 mögliche Punkte entlang dieser Kurve. Jede dieser Genauigkeiten sollte mehr als geeignet sein für initiale und veröffentlichungswürdige GOpH und/oder GOpH Trendanalysen.

Als eine grobe Illustration habe ich die grünen Kreise in Abbildung 1a eingefügt. Sie sind lediglich die Daten der blauen Kurve gerundet zur nächsten 0,1-pH-Einheit. Die offensichtlich oszillatorische Form der verfeinerten Zeitreihe bleibt erhalten. Dies ist auch dann noch der Fall, obwohl ich schon die pH-Bandbreite dieser Daten erheblich eingegrenzt habe mit dem 10-Jahre-Mittelungsfilter.

Die echten Daten erfahren zusätzliche Bestätigung. Beispielsweise habe ich äußere natürliche Indizes profiliert, welche mit dem WOD GOPpH-Datensatz zu korrelieren scheinen (5). Darunter sind die Pazifische Dekadische Oszillation PDO und Pegel des Otowi-Flusses im Südwesten der USA. Das habe ich in Abbildung 1b dargestellt (7): Wie man sieht, zeigt meine Konstruktion der GOpH-Zeitreihe eine höhere Korrelation mit einem primären kontinentalen Flusspegel (am Otowi-Fluss des oberen Rio Grande im Südwesten der USA) als Korrelationen mit diesem Pegel mit ENSO, der AMO und des atmosphärischen CO2-Gehaltes (vom Mauna Loa-Obersvatorium).

Für mich ist das interessant. Ich weiß, dass die Korrelation zwischen GOPpH und dem Otowi-Pegel nicht stark genug ist, um selbst für Vorhersagezwecke dienen zu können. Und doch würde es mehr als gerechtfertigt erscheinen als ENSO oder CO2, obwohl diese als Antriebe verwendet werden, um Behauptungen über die Hydrologie dieser Region aufzustellen.

Angesichts dieser reproduzierbaren und stochastisch interessanten Ergebnisse für GOPpH – warum bestehen OA-Forscher unverdrossen darauf, dass GEpH-Meter nicht hinreichend genau sind für irgendeine denkbare Verwendung in der ozeanischen Hydroklimatologie? Warum behaupten sie auch, dass nur spektro-photometrisch (SP) basierte pH-Meter die behauptete Genauigkeit bieten können?

Diese Vermutungen scheinen großenteils auf unzulässigen Verweisen (8, 9) auf ein Dokument zu basieren, das unter der Bezeichnung „SCOR Working Group 75″ (SCOR75) bekannt ist. Der SCOR75-Bericht widerspricht jenen Behauptungen, stellt er doch eindeutig fest, dass „der absolute pH-Wert bestenfalls innerhalb einer 0,01 pH-Einheit bekannt ist“. Außerdem scheint es so, dass die Validität der SP-basierten pH-Messungen nur gestützt wird durch jene Messungen von GEpH-Messgeräten. Tatsächlich hat einer der FEEL2899-Autoren an einem Report mitgearbeitet, in dem diese GEpH-Spezifizierung oft wiederholt wird (8).

Vielleicht werden selbst diese Inkonsistenzen durch ein weiteres Problem überschattet: warum erfordern SP-basierte pH-Messungen zusätzlich die konventionelle Färbung als pH-Indikator? Anders als typische SP-Anwendungen wird die Emission oder Absorption der Ziel-Ionenart (Hyronium H3O in diesem Zusammenhang) nicht direkt gemessen. Vielmehr erscheinen die SPs in diesem Zusammenhang nichts weiter zu sein als teure, exotische Titrierungs-Kolirimeter [?].

Für die Nicht-OA-Gemeinschaft könnte es vorteilhaft sein, von dieser schädlichen Begrenzung zu wissen, der alle Ozean-Wissenschaftler unterliegen. Es ist denkbar, dass – falls es nur um die Konsistenz geht – die Behörden bald Druck auf den Rest von uns ausüben werden, GEpH-Messinstrumente beiseite zu schieben zugunsten einer Technologie, die nicht genauer, dafür aber exponentiell teurer und zeitaufwändiger ist.

Zweifellos gibt es auch bei mir Verzerrungen, aber ich glaube, dass sich der wissenschaftliche Konsens schließlich um die ausgelassenen WOD GOpH-Daten der NOAA konzentrieren wird, sind diese doch die praktischste und nützlichste Grundlage für jede glaubwürdige und vollständige Analyse von Ozean-pH-Zeitreihen. Sie sind erfreulich umfassend und informativ und scheinen zu vielen unabhängigen hydroklimatologischen Verteilungen und Erwartungen zu passen.

Die Auslassung der pH-Daten war ein beispielloser und verstörender Vorfall in der Geschichte der hydrologischen Wissenschaft. Nur die NOAA kann dies wahrscheinlich korrigieren, weil nur diese die Quelle des Problems besitzt (die FEEL2899-pH-Zeireihen) ebenso wie dessen Lösung (die WOD-Datenbasis). Um diese paralysierende Unordnung lösen zu helfen könnten Wissenschaftler und Andere sich dazu aufraffen, eine Petition zu unterzeichnen, die ich in (11) vorgestellt habe. Sie mag übertrieben verordnend daherkommen, aber im Grunde fordert sie nur, dass die Auslassungen der pH-Daten von der NOAA korrigiert werden, und dass GOpH-Messungen den eigenen, von der OA festgesetzten Richtlinien folgen.

———————————–

REFERENCES

  1. Feely, R.A., C.L. Sabine, and V.J. Fabry, 2006, CARBON DIOXIDE AND OUR OCEAN LEGACY http://www.pmel.noaa.gov/pubs/PDF/feel2899/feel2899.pdf

  2. American Clean Energy and Security Act of 2009 U.S. House of Representatives Rept. 111-137 Part 1. 111th Congress. CRPT-111hrpt137.pdf

  3. For example: Noon, M. 2014 article at:http://www.cfact.org/2014/12/22/what-if-obamas-climate-change-policies-are-based-on-phraud/

  4. Wallace, M., 2013 PMEL & Pew Charitable Trust Communications transcript compiled by Wallace. https://dl.dropboxusercontent.com/u/100449329/June2013WallaceResponseToFeel2899EmailString.pdf

  5. Wallace, M. 2014 – present, pH and Ocean Acidification (13 posts), http://www.abeqas.com

  6. NOAA NODC Ocean Climate Laboratory http://www.nodc.noaa.gov/OCL/

  7. Wallace, M. 2014 draft paper parked at: https://www.academia.edu/9071357/The_Relative_Impact_of_the_Pacific_Decadal_Oscillation_Upon_the_Hydrology_of_the_Upper_Rio_Grande_and_Adjacent_Watersheds_in_the_Southwestern_United_States._3_4_5

  8. Dickson, A.G., Sabine, C.L. and Christian, J.R. (Eds.) 2007. Guide to best practices for ocean CO2 measurements. PICES Special Publication 3, 191 pp.

  9. Aßmann S., C. Frank, and A. Kortzinger, 2011, Spectrophotometric high-precision seawater pH determination for use in underway measuring systems. Ocean Science 7, 597-607

  10. Final Report of SCOR Working Group 75, 1992, Methodology for oceanic CO2 measurements. UNESCO technical papers in marine science

  11. http://www.ipetitions.com/petition/restore-the-worlds-ocean-ph-measurements

Link: http://wattsupwiththat.com/2015/03/31/ocean-ph-accuracy-arguments-challenged-with-80-years-of-instrumental-data/

Übersetzt von Chris Frey EIKE




Cook-Studie: Konsens-Behauptung ist nicht haltbar

Konsens hat in der Wissenschaft nichts zu suchen. Akademiker stimmen in vielen Dingen überein, aber das macht diese Dinge noch nicht automatisch zur Wahrheit. Selbst wenn es eine Übereinstimmung gibt, dass der Klimawandel real und vom Menschen verursacht ist, sagt uns dies noch gar nichts darüber aus, ob die Risiken des Klimawandels höher zu bewerten sind als die Risiken von Klimapolitik. Aber in unseren Zeitalter der Pseudo-Erleuchtung ist der 97%-Konsens von Forschern auf seiner Seite eine mächtige rhetorische Waffe, um politische Gegner zu marginalisieren. Aber die Chancen stehen gut, dass die Opposition an Macht gewinnen wird lange, bevor das Klimaproblem gelöst ist. Polarisierung funktioniert kurzfristig, ist aber langfristig kontraproduktiv.

In ihrer Studie argumentieren Cook et al., dass 97% der relevanten wissenschaftlichen Literatur bestätigen, dass die Menschen zum beobachteten Klimawandel beigetragen haben. Das ist nicht bemerkenswert. Es folgt direkt aus Forschungen im 19.Jahrhundert von Fourier, Tyndall und Arrhenius. In der öffentlichen Diskussion jedoch werden Cooks Ergebnisse oft falsch interpretiert. Die 97% beziehen sich auf die Anzahl der Studien, nicht auf die Anzahl der Wissenschaftler. Der vermeintliche Konsens betrifft die Rolle des Menschen bzgl. des Klimawandels, aber nicht, ob die Rolle dominant ist, und es geht um Klimawandel und nicht um die Gefahren, die daraus erwachsen könnten.

Obwohl es große Bereiche substantieller Übereinstimmung gibt, ist die Klimawissenschaft alles andere als ,settled‘. Man betrachte nur die zu Dutzenden vorliegenden Erklärungen des gegenwärtigen, nunmehr 18 Jahre langen Stillstands der Erwärmung. Die Debatte darum, wie ernst der Klimawandel ist oder was in Bezug auf ihn getan werden muss, ist sogar noch heftiger.

Die Cook-Studie ist jedoch hinsichtlich ihrer Qualität bemerkenswert. Cook et al. untersuchten etwa 12.000 Studien, haben diese jedoch nicht darauf abgeklopft, ob sie für die wissenschaftliche Literatur repräsentativ sind. Das ist nicht der Fall. Ihre Schlussfolgerungen beziehen sich auf die Studien, die ihnen zufälligerweise unter die Augen gekommen sind, und nicht auf die Literatur allgemein. Versuche, ihre Stichprobe zu reproduzieren schlugen fehl: Eine ganze Reihe von Studien, die man hätte analysieren müssen, wurden nicht analysiert, ohne dass dafür Gründe erkennbar sind.

Die Stichprobe enthielt viele irrelevanten Studien. Ein Artikel über die TV-Berichterstattung zur globalen Erwärmung wurde als Beweis für die globale Erwärmung verkauft. Tatsächlich gab es in drei Vierteln aller Studien, die als Bestätigung gezählt worden sind, überhaupt keine Aussagen zum Gegenstand der Untersuchung.

Cook listete eine kleine Gruppe von Umweltaktivisten, um die Behauptungen der ausgewählten Studien zu bewerten. Cook behauptet, dass diese Bewertungen unabhängig vorgenommen wurden, aber die Bewerter haben über ihre Arbeit frei diskutiert. Es gibt unter den Bewertern systematische Differenzen. Obwohl sie die gleichen Abstacts gelesen hatten, haben die Bewerter bemerkenswert unterschiedliche Schlussfolgerungen daraus gezogen – und einige Bewerter gingen häufig in die gleiche Richtung in die Irre. Cooks handverlesene Bewerter waren sich uneins in etwa 33% der Zeit. In 63% aller Fälle waren sie uneins hinsichtlich der Aussage der Studie mit den Autoren der Studie.

Die Begutachter der Studie haben diese Dinge außen vor gelassen. Der Herausgeber lobte die Autoren sogar für ihre „exzellente Datenqualität“, obwohl weder er noch andere Begutachter die Gelegenheit hatten, die Daten zu checken. Und außerdem, der gleiche Herausgeber glaubt, dass der Klimawandel so etwas wie der Aufstieg von Nazi-Deutschland ist. Zwei Jahre nach der Veröffentlichung hat Cook selbst eingeräumt, dass die Datenqualität wirklich schlecht ist.

Auf Anfragen bzgl. der Daten wurde mit Ausflüchten und Zeit schinden reagiert, ein klarer Bruch des Anspruches des Herausgebers auf eine Politik der Validierung und Reproduktion. Außerdem verteidigte das Redakteursgremium des Journals die Studie als einen „exemplarischen wissenschaftlichen Prozess“.

Cook hoffte, einige Daten zurückhalten zu können, aber seine Sicherheit im Umgang mit dem Internet ist genauso schlecht wie seine statistischen Fähigkeiten, und der vermeintliche Hacker war nicht betroffen von den legalen Bedrohungen der University of Queensland. Cooks Arbeitgeber argumentierte, dass die Veröffentlichung der Identitäten der Bewerter ein vertrauensvolles Übereinkommen verletzen würde. Aber dieses Übereinkommen existiert nicht.

Cook hat anfangs argumentiert, dass eine Veröffentlichung der Zeitmarken keinen wissenschaftlichen Zwecken dienen würde. Das ist seltsam. Cooks Bewerter haben im Wesentlichen einen riesigen Fragebogen ausgefüllt. Begutachter der Bewertung sammeln routinemäßig Zeitmarken, was Cook auch getan hat. Die Interviewten ermüdeten manchmal und wollten die letzten Fragen so schnell wie möglich hinter sich bringen. Die Zeitmarken enthüllen dies.

Später hat Cook behauptet, dass diese Zeitmarken nie erfasst worden sind. Wurden sie aber doch. Sie zeigen, dass einer von Cooks Bewertern 675 Abstracts innerhalb von 72 Stunden inspiziert hatte, das sind Anstrengungen nach Art von Superman.

Die Zeitmarken zeigen auch noch etwas sehr viel Ernsteres. Nachdem man 8 Wochen Daten gesammelt hatte, folgten 4 Wochen der Datenanalyse, gefolgt von weiteren 3 Monaten der Datensammlung. Es waren die gleichen Personen, die die Daten gesammelt und analysiert haben. Nach weiteren Analysen wurden das Klassifizierungs-Schema geändert und noch mehr Daten gesammelt.

Folglich hat Cook eine der Grundregeln wissenschaftlicher Datensammlung gebrochen: Beobachtungen sollten niemals nach den Schlussfolgerungen erfolgen. Man kann nicht die Methode der Datensammlung ändern, egal wie sehr, nachdem man die Ergebnisse gesehen hat.

Cooks Team kann, vielleicht unabsichtlich, auf eine gegebene Schlussfolgerung hingearbeitet haben. Und tatsächlich sind die Beobachtungen signifikant und materiell unterschiedlich zwischen den drei Phasen der Datensammlung. Die gesamte Studie sollte daher verworfen werden.

Dies wäre eine amüsante Geschichte für unsere Studenten gewesen, wie man es nicht macht. Aber die Studie von Cook ist eine der einflussreichsten Studien der letzten Jahre. Die Studie wurde energisch verteidigt von der University of Queensland (Cooks Arbeitgeber) und den Herausgebern der Environmental Research Letters, wobei das Institute of Physics (der Veröffentlicher) sich in lautes Schweigen hüllte. Inkompetenz wurde ummantelt mit Verschleierung und Selbstgefälligkeit.

Der Klimawandel ist eines der beherrschenden Themen unserer Zeit. Wir haben ein unkontrolliertes, kaum beobachtetes Experiment. Wir können die Zukunft nicht beobachten. Klimawandel und Politik sind zu komplex, um von einer einzelnen Person verstanden zu werden. Bei der Klimapolitik geht es darum, eine Zukunft vor einer anderen auszuwählen. Diese Auswahl kann nur aufgrund der Beurteilung von Experten vorgenommen werden – und wir müssen diesen Experten hinsichtlich ihres Wissens und ihrer Absichten vertrauen können.

Die Klimaforschung hat ihre Aura der Unparteilichkeit nach der nicht autorisierten Veröffentlichung der E-Mail-Archive der CRU verloren. Die Achtung vor deren Kompetenz wurde geschreddert, nachdem die Klimagemeinde die betrügerischen Arbeiten von Michael Mann gefeiert hatte. Die Unschuld war dahin nach den Vorwürfen sexuellen Missbrauchs gegen Rajendra Pachauri und dem gefälschten Memo von Peter Gleick. Cooks 97%-Studie zeigt, dass die Klimagemeinschaft immer noch einen langen Weg vor sich hat, schlechte Forschung und schlechtes Verhalten auszumerzen. Falls man glauben möchte, dass Klimaforscher inkompetent, verzerrt und heimlichtuerisch sind, ist Cooks Studie in dieser Hinsicht exzellentes Anschauungsmaterial.

Übersetzt von Chris Frey EIKE




Energiewende: Die Kostenspirale dreht sich weiter

Die miserable Wirtschaftslage der deutschen Energieriesen sei selbstverschuldet, sagt Greenpeace und stützt sich auf eine Analyse  von Heinz-Josef Bontrup und Ralf-Michael Marquardt von der Westfälischen Hochschule in Recklinghausen. Auslöser der prekären Lage sei nicht die Energiewende, sondern vielmehr gravierende und anhaltende Managementfehler der Stromriesen.

Was haben die schlechten Manager der bösen Konzerne falsch gemacht? Kurz gesagt: Statt auf Erneuerbare Energie zu setzen, damit die Strompreise noch weiter in die Höhe zu treiben und satte Profite zu machen, haben die Konzerne versucht, ihre bestehenden Kraftwerke weiter zu nutzen, um bedarfsgerecht preiswerten Strom zu liefern. Schön doof. Und selbst schuld, sagt Greenpeace.

Was tun? Greenpeace nennt in der Zusammenfassung der Studie zwei „Auswege“. Der erste bestehe in „Desinvestition und Rationalisierung, um die dringend benötigten finanziellen Mittel für einen Neuanfang zu mobilisieren.“ Mit anderen Worten: Kraftwerke verkaufen, um an Geld für Investitionen in Erneuerbare zu kommen. Bleibt die Frage, an wen RWE oder EnBW ihre Kohlekraftwerke verkaufen sollen. Welche andere Firma sollte sie in Deutschland wirtschaftlich betreiben können?

Der zweite Ausweg bestehe darin, für das Wegbrechen des Kerngeschäftes der konventionellen Stromerzeugung einen adäquaten Ersatz zu finden. Hier bestätigt Greenpeace den Konzernen, es richtig zu machen: „Alle Big 4 setzen in diesem Kontext auf den Ausbau der Erneuerbaren Energien inklusive der dazugehörigen Infrastruktur und auf das Geschäftsfeld der Energiedienstleistungen.“

Für diese Schlussfolgerung hätte es keiner 300-seitigen Studie bedurft. Da es aufgrund der politischen Vorgaben keine andere Wahl gibt, müssen alle das Spiel mitspielen. Die Konzerne werden tun, wofür es im staatlich regulierten System Profite gibt. Und die Verbraucher werden bezahlen.

Die Kosten der Energiewende

Wie entwickeln sich die Stromkosten in Deutschland und was treibt die Verteuerung? Im Jahr 2000 betrug der durchschnittliche Strompreis für deutsche Haushalte knapp 14 Cent pro Kilowattstunde, heute sind es rund 29 Cent. Der Strompreis für die Industrie lag bei etwa 6 Cent, heute sind es 15. Die Gesamtbelastung durch Steuern und Abgaben lag im Jahr 2000 bei knapp sieben Milliarden Euro, heute sind es über 35 Milliarden.

Die Behauptung, der private Verbraucher müsse bluten, weil Teile der bösen Wirtschaft entlastet werden, ist aus zwei Gründen haltlos. Erstens zahlen die privaten Haushalte nur rund 35% der EEG-Umlage in Höhe von 23,6 Mrd. Euro, 53% kommen von der Wirtschaft, der Rest von öffentlichen Einrichtungen (Zahlen für 2014).] Zweitens ist es für den Verbraucher egal, ob er die Kosten direkt über die Stromrechnung zahlt oder indirekt über verteuerte Brötchen und U-Bahn-Fahrscheine oder Steuern, aus denen öffentliche Einrichtungen finanziert werden. Entscheidend ist die Gesamthöhe der Belastung, die der Volkswirtschaft entsteht. Und diese Belastung beschränkt sich keineswegs auf die EEG-Umlage.

Eine weitere Behauptung besagt, durch das hohe Angebot von Erneuerbaren werde der Preis an der Strombörse gedrückt und somit würden die Erneuerbaren nicht zu einer Preissteigerung, sondern zu einer Kostensenkung beitragen. „Verbraucher würden ohne Wende gleich viel bezahlen wie mit, aber die Industrie wesentlich mehr. Das liegt an den billigen Börsenstrompreisen und diese sind preiswertem Solar- und Windstrom geschuldet. Sonne und Wind schicken keine Rechnung“,erfahren wir von Ökostromguru Franz Alt. Mit der Realität hat diese Vorstellung sehr wenig zu tun. Wahr ist, dass in Zeiten mit hoher Wind- oder Solarstromeinspeisung der Preis am sogenannten Spotmarkt tatsächlich sinkt. Denn auch hier gilt grundsätzlich, dass Preise sinken, wenn das Angebot höher ist als die Nachfrage. Konkret passiert dann Folgendes: Der Bedarf wird so gedeckt, dass zunächst der gesamte Ökostrom gekauft werden muss, dann die billigsten konventionellen Anbieter liefern, dann die etwas teureren, usw.. Alle konventionellen Erzeuger erhalten am Ende den Preis, der den Grenzkosten des bis dahin teuersten Anbieters entspricht. Wenn so viel Strom aus Erneuerbaren da ist, dass der ganze Rest durch billigen Atom- bzw. Kohlestrom gedeckt werden kann, bleibt der Börsenpreis auf dem niedrigen Niveau des Kohlestroms. Alle Kraftwerke, die nicht zum Zug kommen, müssen abschalten bzw. außer Betrieb bleiben. Das trifft insbesondere moderne, saubere Gaskraftwerke und Pumpspeicherkraftwerke.

Der Verbraucher merkt von diesen gedrückten Preisen leider aus zwei Gründen kaum etwas. Erstens macht die Stromerzeugung weniger als ein Viertel des Strompreises aus, da ja über 50 Prozent aus Steuern und Abgaben bestehen und der Rest aus den Netzkosten resultiert, die unabhängig davon sind, woher der Strom ursprünglich kommt. Zweitens machen die Beschaffungskosten am Spotmarkt einen relativ geringen Anteil aus, da dieser von den Stromanbietern hauptsächlich für den Ausgleich kurzfristiger Bedarfsschwankungen oder kurzfristige Anpassungen im Beschaffungsportfolio genutzt wird. Der überwiegende Teil des Stroms wird bereits im Voraus am Terminmarkt beschafft.

Der Preisverfall am Spotmarkt führt vor allem dazu, dass konventionelle Kraftwerke immer unrentabler werden, weil sie mit sinkender Auslastung und somit ineffizienter arbeiten müssen. So entstehen weitere volkswirtschaftliche Kosten. Es trifft über schwindende Dividenden und drastische Kursverluste zunächst einmal die Aktionäre. Letztlich werden aber wir alle darunter zu leiden haben. Schadenfreude, weil sich die Stromkonzerne nun keine goldene Nase mehr verdienen, hilft hier nichts. Fehlende Gewinne bedeuten auch fehlende Investitionsmöglichkeiten.

Aus unternehmerischer Sicht müssten die Stromerzeuger ihre nicht mehr ausgelasteten Gas- und Kohlekraftwerke, die Verluste schreiben, stilllegen. Das wird jedoch in der Regel nicht gestattet. Die Kraftwerke müssen als so genannte Netzreserve in Betrieb bleiben, die Betreiber erhalten eine Kostenerstattung.

Kosten der Versorgungssicherheit

Wie kann trotz immer größerem Anteil an stark fluktuierendem Ökostrom die Versorgungssicherheit gewährleistet werden? Grundsätzlich werden verschiedene Optionen diskutiert, die letztlich alle auf erhebliche Überkapazitäten angewiesen sind. Eine Möglichkeit wäre ein Kapazitätsmarkt. Wir zahlen einen Marktpreis dafür, dass die Kraftwerke in Bereitschaft bleiben und bei Bedarf hochgefahren werden. Das Produkt, das gehandelt wird, ist also nicht Strom, sondern Lieferbereitschaft. Diesen Ansatz hat Sigmar Gabriel mit der Bemerkung abgelehnt, es dürfe nicht auf „Hartz-IV für Kraftwerke“ hinauslaufen: „Nicht arbeiten, aber Geld verdienen.“ Die andere Option wäre ein reiner Marktmechanismus. Das bedeutet, dass der Strompreis bei entsprechender Nachfrage beliebig steigen darf. Ein Gaskraftwerk könnte dann die meisten Ziel des Jahres ungenutzt herumstehen und nur liefern, wenn es wolkig und windstill ist. Dann dürfte die Gigawattstunde statt 50 Euro auch 5000 Euro kosten, letztlich eben so viel, dass das Kraftwerk auch rentabel betrieben werden kann, wenn es 98 Prozent des Jahres stillsteht. Das ist der Politik auch nicht geheuer, würde aber nur funktionieren, wenn eine freie Preisbildung wirklich garantiert würde.

Eine weitere Möglichkeit, Versorgungssicherheit zu verbessern, ist der Stromtransport über lange Strecken. In Deutschland geht es bekanntlich darum, den Windstrom aus den Norden in den Süden zu bringen, wo die Industrie einen großen Bedarf hat. Das kann man machen. Es hat aber ebenfalls seinen Preis. Wenn Strom von Nord- nach Süddeutschland transportiert wird, gehen rund 10 Prozent verloren. Es müssen also nicht nur die Milliarden für den Bau und Unterhalt der Hochspannungsleitungen bezahlt werden, sondern auch Milliarden für die Transportverluste. Nochmal
teurer wird es, wenn die Leitungen, die sich ja bei den betroffenen Anwohnern keiner großen Beliebtheit erfreuen, unterirdisch verlegt werden.

Die vierte Option ist der Austausch mit den Nachbarländern. Das setzt aber voraus, dass dort keine Windräder stehen, sondern konventionelle Kraftwerke, die bedarfsgerecht liefern können. Damit die deutsche Energiewende gelingt, darf sie in den Nachbarländern nicht stattfinden. Fünftens gibt es noch Energiespeicher, die aber insgesamt im Vergleich zur Vernetzung als noch teurer gelten.

Die aktuellen Pläne von Sigmar Gabriel sehen eine Kombination verschiedener Maßnahmen vor. Neben dem Netzausbau soll die Netzreserve bestehen bleiben. Zusätzlich soll eine Kapazitätsreserve geschaffen werden. Hierfür „mietet“ der Staat alte Kraftwerke und hält diese für den Notfall in Bereitschaft. Was die Kosten anbetrifft, die am Ende der Stromkunde bezahlt, nimmt sich das alles nicht viel. Egal wie man es macht: Bei fortschreitender Energiewende wachsen die volkswirtschaftlichen Kosten der ganzen Angelegenheit. Mit den Kosten aus dem Erneuerbare-Energien-Gesetz, die alle früheren Prognosen längst gewaltig überschreiten, ist es nicht getan.

Energiewende als Selbstzweck

Nun könnten wir sagen: Die gute Sache ist es uns wert. Wäre da nicht jener Makel, der selbst die größten Befürworter der Energiewende etwas in Verlegenheit bringt. Es sollte ja eigentlich darum gehen, das Klima zu retten, indem der Ausstoß von CO2 verringert wird. Das hat bisher leider nicht hingehauen. Erstens, weil durch den europäischen Emissionshandel jede in Deutschland eingesparte Tonne Kohlendioxid eben anderswo in die Luft geblasen werden darf. Zweitens, weil die emissionsfreien Kernkraftwerke abgeschaltet werden. Und drittens, weil durch den Preismechanismus die Gaskraftwerke zugunsten der auch gerne „Dreckschleuder“ genannten Kohlekraftwerke aus dem Markt gedrängt werden.
Für dieses letzte Problem hat Gabriel jetzt eine kosmetische Lösung vorgeschlagen. Er möchte den Braunkohlestrom künstlich verteuern. Ab 2017 sollen die Betreiber älterer Kohlekraftwerke einen „Klimabeitrag“ bezahlen, damit letztlich unrentabel werden und verschwinden. Das kostet zwar wieder Geld und Arbeitsplätze, hat aber den Vorteil, dass wir dann stolz den Ausstieg aus der Braunkohleverstromung verkünden könnten. Der Nachteil: Fürs Klima macht es keinen Unterschied. Auf europäischer Ebene wird dadurch nicht weniger CO2 emittiert, denn am Emissionshandel ändert sich ja nichts. Global gesehen liegen die Emissionen der deutschen Stromerzeugung ohnehin unter einem Prozent.
Aus Sicht der Politik scheint es in Hinblick auf die zum Selbstzweck gewordene Energiewende nur eine Devise zu geben: Augen zu und schönreden!

Thilo Spahl ist Ressortleiter Wissenschaft bei NovoArgumente. Dort erschien dieser Beitrag zuerst.




Skeptische Dokumentation schlägt Alarmisten im Krieg um die globale Erwärmung

Aussagen dutzender Wissenschaftler, Regierungsberatern und anderer Klimaexperten einschließlich exklusiver Interviews mit den Gründern des Weather Channels und der World Rainforest Movement stellen den Mythos des „Konsens’“ bloß und bestätigen die Stärke wissenschaftlich skeptischer Argumente.

Es gibt so viel unfaire Berichterstattung seitens der Mainstream-Medien, und [das Gerede um den] Klimawandel wird immer mehr durch Politik als durch tatsächliche Klimawissenschaft beeinflusst“, sagte der Produzent Luke Dillard von South House Entertainment dem New American. „Ich wollte eine Dokumentation schaffen, die die tatsächliche Wissenschaft umreißt ohne all die politische Verdunkelung“.

[Hervorhebung vom Übersetzer]

Dillard hat sein Ziel sicherlich erreicht. Das Video beginnt mit einer Warnung aus dem Jahr 1961, ausgegeben vom damaligen Präsidenten Dwight Eisenhower – als Teil seiner Abschiedsrede an die Nation – über eine von der Regierung finanzierte „wissenschaftlich-technologische Elite“. Seine Worte bereiten den Weg für die 88 Minuten lange Dokumentation, unterteilt in 14 gut durchdachte Kapitel, die alle Aspekte der Debatte um den Klimawandel ansprechen. Mittels modernster Graphiken und der Hilfe von Experten und Profis in verwandten Bereichen zeigt und erklärt jedes Kapitel Daten und Forschungsergebnisse, die weit verbreitete Fiktionen widerlegen. Die Eisbären sterben nicht aus, die Eiskappen schmelzen nicht, Temperaturen schrauben sich nicht himmelwärts, die Anzahl von Extremwetterereignissen explodiert nicht – kurz gesagt, der Himmel fällt uns nicht auf den Kopf.

Aber das ist nur die Spitze des Eisbergs. Das Video enthüllt auch bürokratische Schikanen maskiert als Umweltschutz, welche die Grundlage sind für eine wirtschaftlich und sozial destruktive Politik in den USA und weltweit. Es empfiehlt die dringende Notwendigkeit, die Öffentlichkeit von ihren tief verwurzelten Wetter-Phobien zu befreien.

Dillard möchte mit seiner Dokumentation Leben ändern, indem er die Wahrheit aufdeckt. „Ich hoffe, dass sie die UN veranlasst, ihre Vorschriften und Sanktionen gegen verarmte Nationen abzuschwächen“, schrieb er in einer E-Mail an den New American. „Menschen in Armut sind diejenigen, die am dringendsten des Zugangs zu elektrischem Strom bedürfen, aber man sagt ihnen, dass sie diesen nicht haben dürfen wegen der pseudowissenschaftlichen Hypothese der globalen Erwärmung“.

The Global Warming War gewann im vorigen Jahr 2014 den Preis für den besten Dokumentationsfilm auf dem Big Easy International Film Festival, eine bedeutende Anerkennung, wenn man bedenkt, dass die Organisation selbst sich als „grün“ geriert. Die Dokumentation erhielt auch noch andere Würdigungen: eine Silbermedaille bei den International Independent Film Awards 2014 und den Royal Reel Award auf dem Canada International Film Festival 2015, zusammen mit offiziellen Nominerungen bei fünf weiteren US-Filmfestivals. Das Video kann über die Website www.theglobalwarmingwar.com bezogen werden. Hier ist der Trailer dazu:

Full story

Link: http://www.thegwpf.com/sceptical-documentary-outguns-alarmists-in-the-global-warming-war/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Von den im letzten Absatz genannten Film-Festivals habe ich durchweg noch nie etwas gehört. Das besagt allerdings noch nicht viel, denn cineastisch bin ich ein Banause.

Aber es wäre doch interessant, wenn es in deutschen Medien irgendeinen Hinweis darauf gibt. Das Gegenstück, nämlich die Hetzpropaganda von Al Gore ist ja auch ‚rauf und ‚runter durchgekaut worden.

C. F.




Falschmessung des windradgenerierten Infraschalls durch die Landesanstalt für Umwelt, Messungen und Naturschutz Baden-Württembergs (LUBW)

Der baden-württembergische Umweltminister hat schon einmal die Unwahrheit gesagt, als er im April 2014 im Stuttgarter Landtag auf  eine Anfrage hin erklärte, der von Windräder emittierte Infraschall sei gesundheitlich unschädlich, da unhörbar. Zu diesem Zeitpunkt war behördenintern bereits bekannt, dass sich das Umweltbundesamt  von dieser These distanziert hat und stattdessen in der Machbarkeitsstudie zu Wirkungen von Infraschall eine Arbeit ausführlich besprochen hat,  die die Wahrnehmbarkeit des Infraschalls weit unterhalb der Hörschwelle wissenschaftlich bewiesen hatte. Damit war implizit der Bewertung der Schallimmission von WKAs durch die TA Lärm  die wissenschaftliche Grundlage entzogen worden, denn in den gesetzlichen Vorschriften wird der unterhalb 8 Hz liegende Infraschall nicht berücksichtigt, da man bei der Abfassung der entsprechenden Verordnungen davon ausging, dass Infraschall unterhalb der Schmerzgrenze nicht hör- oder wahrnehmbar sei.

Noch kritischer dürfte für die Genehmigungspraxis der Zulassungsbehörden die Feststellung in der  Machbarkeitsstudie sein, dass die Ausbreitung von Infraschall nicht prognostizierbar sei. Es ist also nicht mehr möglich, vorab die Grenzen von Konzentrationsflächen entsprechend dem Windenergieerlass von BW festzulegen.

Um zu retten, was nicht mehr zu retten ist, behauptet der Minister zusammen mit der Präsidentin der LUBW am 12. 2.15 auf dem Internetportal seines Ministeriums

dass der Pegel in der Umgebung von Windkraftanlagen bereits im Nahbereich zwischen 150 und 300 Meter deutlich unter der menschlichen Wahrnehmungsschwelle liegt …  und

….dass sich beim Einschalten einer in 700 Metern Abstand befindlichen Windenergieanlage    der gemessene Infraschall-Pegel nicht mehr nennenswert erhöht.

Diese Aussagen beruhen auf Messungen, die die LUBW kurz zuvor in einem Zwischenbericht /1/ veröffentlicht hat. Die erste Aussage wiederholt die eingangs erwähnte wahrheitswidrige These. Der zweiten  Aussage könnte man zustimmen, wenn der Ausdruck   Infraschall-Pegel ersetzt würde durch  Infraschall-Rausch-Pegel. Allerdings besitzt jedes windradgenerierte Infraschallspektrum auch eine diskrete Komponente, die sogenannten Flügelharmonischen bei den blade passing frequencies, deren Grundharmonische nahe bei einem Hertz liegt. Ceranna /2/ wies bereits 2006 nach, dass die zweite Flügelharmonische eines 200kW-Windrades  bei 2 km in einem Hintergrundrauschen von 50dB versinkt, die eines 2MW-Windrades aber erst bei ca. 20 km. Dagegen wurden die von der LUBW gemessenen Spektren durch eine viel zu breitbandige Apparatefunktion so stark geglättet, dass die Flügelharmonischen nur bei sehr kleinem Abstand vom Windrad nicht im Rauschen versanken. Aber gerade diese schmalbandigen Infraschallsignale werden für Gesundheitsstörungen bis hin zu schwersten Depressionen einschließlich Suizid verantwortlich gemacht. Auch die Machbarkeitsstudie erwähnt nachdrücklich, dass schmalbandiger, tonhhaltiger Infraschall besonders belästigend wirke.  Es ist daher unverständlich, warum die LUBW eine experimentelle Technik angewandt hatte, mit der der schmalbandige Anteil des Infraschalls bei größeren Entfernungen wegretuschiert wurde, obwohl man durch eine einfache Kopie der Anordnung von Ceranna /2/ dies mühelos hätte vermeiden können.

An mindestens sechs Stellen in dem Zwischenbericht finden sich Hinweise, dass der LUBW diese experimentellen Mängel bekannt waren. Es ist zu vermuten, dass die Präsidentin der LUBW den Umweltminister  vor den möglichen und dann tatsächlich auch erfolgten  Fehlinterpretationen  gewarnt hat. Denn in der ministeriellen Behauptung, die bisherigen Untersuchungen der LUBW belegen, dass das Thema Infraschall dem Ausbau der Windkraft nicht entgegensteht, signalisiert die Einschränkung bisherig, dass allen Beteiligten bewusst war, dass den retuschierten Messungen des Zwischenberichtes eben kein schlüssiger Beweis für die Unschädlichkeit des windradgenerierten Infraschalls zu entnehmen ist.

/1/ Ratzel, U. et al., Tieffrequente Geräusche und Infraschall von Windkraftanlagen und anderen Quellen, LUBW  (2015) PDF (pdf ist hier beigefügt)  
/2/ Ceranna, L., G. Hartmann & M. Henger, Der unhörbare Lärm von Windkraftanlagen, Bundesanstalt für Geowissenschaften und Rohstoffe, PDF (pdf ist hier beigefügt)

Anschrift: Dr. Joachim Schlüter, Hohlenweg 8, 79410 Badenweiler; e-mail: schlueter-J@gmx.de

 

Die EIKE-Redaktion bittet herzlich alle Leser, denen Windrad-Bürgerinitiativen oder Kläger gegen Windrad-Installationen/-Planungsverfahren bekannt sind, diese von dem oben stehenden Text in Kenntnis zu setzen. Es wird höchste Zeit, dem gesundheitsschädlichen und vögelzerschreddernden Treiben von rücksichtslosen grünen Ideologen in Regierungsverantwortung (und ihren Unterstützern im deutschen Parteienspektrum) ein Ende zu setzen und wieder an Vernunft zu gemahnen. Die Pflicht jeden Volksvertreters, bei seinen Entscheidungen auf Unversehrtheit an Leib und Leben der Bürger zu achten, fordert der Amtseid, und der Tierschutz findet sich bereits im deutschen Grundgesetz. 

An dieser Stelle sei noch einmal auf das "Die Landesregierung nimmt die Sorgen der Bürgerinnen und Bürger im Zusammenhang mit dem Ausbau der Windenergie sehr ernst" eingegangen: In meinen zahlreichen  Sach-Vorträgen zu "Energiewende" und "Klima" vor Bürgerinitiativen, bei denen die Organisatoren stets und insbesondere auch Politiker einluden, hatte ich noch nie das Vergnügen einem dieser Eingeladenen in Rede, Antwort oder Sach-Diskussion gegenüberzustehen. Man fragt sich, ob diese Leute überhaupt noch wissen, mit welchen Verpflichtungen ihre verantwortliche öffentliche Stellung verbunden ist.

Man stellt sich aber auch die Frage nach der Intelligenz einer Wahlbevölkerung, die wieder einmal in der deutschen Geschichte durch eine von allen deutschen Medien unterstützte Ökopropaganda um den Verstand gebracht wurde. Diesmal lauten die Parolen der Rattenfänger: CO2 muss zur Verhinderung einer Klimakatastrophe um jeden Preis vermieden werden, Wind- und Sonnenstrom sind die Silberkugeln einer modernen Stromversorgung und Kernkraftwerke sind Teufelszeug. Die Ziele dieser Drahtzieher sind freilich nicht das Wohl der Bevölkerung sondern wie aus der Historie ablesbar stets ganz andere.

Prof. Dr. Horst-Joachim Lüdecke

EIKE-Pressesprecher

Related Files




Solarpaneel-Hersteller täuschen Hausbesitzer

Einen entsprechenden Brief hat der Republikaner Paul Gosar, ein Mitglied des Committee on Oversight and Government Reform zusammen mit 11 anderen Mitgliedern des Hauses im vorigen Dezember an die Federal Trade Commission [eine Art Handelskammer] gesandt. Einige dieser Käufer, die jetzt Mühe haben, ihre Häuser zu verkaufen, sind sich der „Klauseln dieses 20 bis 30 Jahre währenden Leasings“ nicht voll bewusst, zumal diese die Lebensdauer des Daches, auf dem die Paneele montiert sind, überschreiten.

Derartige Praktiken haben das U.S. Treasury Department veranlasst, Ermittlungen gegen SolarCity einzuleiten, dem größten Mitspieler in der Solarinstallations-Subventions-Industrie, und zwar wegen Falschaussagen über den „fairen Marktwert“ der Systeme und Serviceleistungen dieses Unternehmens.

Und doch versucht dieses Unternehmen, von dem erwartet wird, dass es im Laufe des Jahres 2016 über 1 Milliarde Dollar verlieren wird, immer noch, weitere Subventionen des Steuerzahlers abzugreifen im Rahmen des Recovery and Reinvestment Acts [ein entsprechendes Gesetz], welches die Industrie schon jetzt viel zu lang am Leben gehalten hat.

In einem Beitrag für das Magazin Newsmax hat Bradley Blakeman erklärt, wie dieser Betrug funktioniert; ein Betrug, bei dem nicht mit Solar befasste dritte Parteien auf die Hausbesitzer und kleine Familienbetriebe zugehen und ihnen bedeutende Energieeinsparungen versprechen durch Solarsysteme auf dem Dach mit dem verlockenden Angebot eines 20-Jahre-Leasings und geringen oder gar keinen Installations- und Betriebskosten. Die vermeintlichen Einsparungen basieren auf Schätzungen zukünftiger Verbrauchswerte, die unhaltbar sowie zu-gut-um-wahr-zu-sein sind.

Blakeman schreibt: „Und wie bei jedem Betrug müssen die Täter schnell agieren mit sehr druckvollen Verkaufstaktiken, um die potentiellen Käufer zur Auftragserteilung zu bewegen, bevor die Täuschungen in dem Leasingmodell offenbar werden. Im Kleingedruckten beispielsweise findet sich die Tatsache, dass die anfangs niedrigen Leasing-Zahlungen danach Jahr für Jahr steigen können. Schon bald könnten sich die Käufer in der Lage wiederfinden, mehr für Strom zu zahlen als sie ohne dieses ganze Brimborium hätten zahlen müssen“.

Auch sind sich Hausbesitzer normalerweise nicht des Umstands bewusst, dass die Ausrüstung versichert werden muss; die Solarinstallationen dürften die Versicherungskosten deutlich steigern. In einigen Fällen sind Verbraucher, denen die Ausrüstung nicht gehört, auch verantwortlich für die Wartung, die sie dann bezahlen müssen. Und während jeder zum Kauf entschlossene Hausbesitzer üblicherweise 1000 Dollar an Subventionen von anderen Steuerzahlern und Stromverbrauchern erhält, liegen die tatsächlichen Einsparungen hinsichtlich des Stromes gewöhnlich nicht einmal annähernd so hoch, um die Kosten für Material, Installation und Erhaltung zu decken.

Diese Pfandrechte können an andere Gläubiger stark diskontiert verkauft werden, was den Solarverbraucher ohne Gegenmittel zurücklässt, wenn der Profiteur pleite geht oder sich einfach aus dem Staub macht. Wenn dies passiert, birgt jede Weigerung zu zahlen – selbst aus legitimen Gründen – das Risiko potentieller Zwangsvollstreckung oder andere gerichtliche Schritte seitens des neuen Inhabers.

Hausbesitzer werden zum ersten Mal die Tücken der Pfandrechte-Transfers erfahren, wenn sie versuchen, ihr Eigentum an potentielle Käufer zu veräußern.

Viele bekommen es mit anderen unerwarteten Problemen zu tun, wenn sie ihr Eigentum verkaufen wollen. In einigen Fällen sind die Solarinstallationen defekt oder werden wegen mangelnder Wartung unbrauchbar. Die Entfernung kann zu schweren Schäden am Dach führen. Unsachgemäß befestigte und gewartete Paneele können zu Lecks im Dach und sogar Brandgefahr führen.

Und zusätzlich zu all dem werden die Mieter von Solarpaneelen zusammen mit anderen Zahlern von Stromrechnungen dazu gezwungen, für die Verluste von Energiedienstleistern aufzukommen im Rahmen eines „Net-Metering“-Schemas [?], was die Verbraucher dazu zwingt, Solarstrom zu aufgeblasenen, verlustreichen Kosten zu verbrauchen.

Dies alles erfolgt durch ein Hütchenspiel, wobei Kredite von den Stromrechnungen der Verbraucher für nicht aus dem Netz gekauften Strom abgezogen und einfach den insgesamt steigenden Raten zugeschlagen werden.

[Original: „This happens through a shell game whereby credits subtracted from customer utility bills for electricity not used from the electric grid are simply incorporated back into overall rate increases“.]

Im Rahmen des Energy Policy Act aus dem Jahr 2005 sind alle öffentlichen Unternehmen verpflichtet, den Verbrauchern auf Anforderung ,Net Metering‘ anzubieten. Gegenwärtig ist dies die Politik in 43 US-Staaten, dem District of Columbia [= die Hauptstadt Washington] sowie in vier US-Territorien. Zusätzlich gibt es in etwa der Hälfte aller US-Staaten „Standards erneuerbarer Energie“, welche die Unternehmen verpflichten, eine bestimmte Prozentzahl ihres Stromes aus Solar- und Windquellen zu beziehen zu Preisen, die höher als die Marktpreise liegen.

Link: http://www.cfact.org/2015/03/31/solar-panel-companies-deceive-homeowners/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Ich glaube, dass alles das, was Larry Bell hier beschreibt, in Deutschland ähnlich ist. Wo aber wird der deutsche Verbraucher auf so etwas aufmerksam gemacht?

Und ein Hinweis in eigener Sache: Dieser Text war für mich schwer zu übersetzen, weil mir viele Fachbegriffe aus der Wirtschaft einfach nicht geläufig sind. Wie bisher wäre es schön, wenn mir kompetentere Leser Vorschläge zur besseren Übersetzung bestimmter Passagen machen.

C. F.