1

Elektro-Träume zerplatzen: Was kommt als Nächstes auf die Autobauer zu?

Bild rechts: Reuters

Man wird immer mehr darauf aufmerksam, dass konventionelle Hybrid- und von kaum verkäuflichen Batterien angetriebene Autos nicht ausreichen, um die rigiden Emissions-Beschränkungen der EU einzuhalten.

Auf der Internationalen Automesse in Genf präsentierte VW seinen dieselelektrischen XL 1 – einen tief liegenden Zweisitzer, der weniger als einen Liter Treibstoff pro 100 Kilometer verbraucht – während PSA Peugeot Citroen ein Hybridfahrzeug mit komprimierter Luft zeigte.

Die Autobauer sind hinsichtlich der Begrenzung des CO2-Ausstoßes der Fahrzeuge von 130 Gramm pro Kilometer bis zum Jahr 2015 auf einem halbwegs guten Weg. Aber drastische Schritte sind erforderlich, um das bis zum Jahr 2020 gesetzte Ziel von 95 Gramm sowie potentiell noch strengere Ziele danach zu erreichen.

„Mit traditioneller Technologie können wir die nötigen Fortschritte nicht erreichen. Wir sehen einen echten Bruch mit der Vergangenheit“, sagte der Peugeot-Innovations-Vorstand Jean-Marc Finot in einem Interview.

Arthur Wheaton, Automobil-Experte an der Cornell University, fasste das Problem kurz und bündig zusammen. „Die Batterie-Technologie war nicht in der Lage, das Jahrhunderte alte Problem von zu viel Gewicht und begrenzter Reichweite zu lösen“.

Trotz der Milliarden, die Firmen wie Renault-Nissan für die Entwicklung von Elektroautos ausgegeben haben, hat sich der Optimismus hinsichtlich ihrer Zukunft „deutlich eingetrübt“, sagte KPMG bei einer Umfrage im Januar.

Kehrtwendungen

Der Weltführer Toyota, der seinen Pius Hybrid im Jahr 1997 eingeführt hat, ließ die Pläne für größere Verkaufsmargen des batteriebetriebenen eQ im September vorigen Jahres fallen mit der Begründung, dass man die Nachfrage falsch eingeschätzt habe.

Opel hat Pläne für den voll elektrisch betriebenen und für hohe Kosten sorgenden Adam Subcompact fallen gelassen, während VW-AUDI den elektrischen R8 auf die lange Bank schob und Nissan den Preis für seinen Leaf nach enttäuschenden Verkaufszahlen deutlich reduzierte.

„Die Nachfrage nach Elektroautos ist nicht dort, wo wir sie erwartet haben”, sagte Francois Bancon, der Entwicklungsdirektor bei Nissan. „Wir befinden uns in einer sehr ungewissen Phase, und jeder steht ein wenig verloren da“.

Autobauern, die vom ausgedehnten Markteinbruch in Europa bedrängt werden, bereiten die Investitionskosten große Sorgen. Viele haben sich zusammengetan, um neue Technologien zu entwickeln, die zumeist auf einen gewissen Grad von „Hybridisierung“ bei Verbrennungsmotoren und Strom hinauslaufen.

„Bis jetzt hätten wir einen auf reinen Elektroautos basierenden Standard, falls sich herausgestellt hätte, dass dies die Lösung ist“, sagte Guillaume Faury, Vizepräsident bei Peugeot für Forschung und Entwicklung. „Daher sehen wir so viele Mikro-Hybride, Voll-Hybride, wieder aufladbare Hybride und Batterieautos.“

Eine andere Antwort war, die Motoren zu verkleinern, Zylinder zu entfernen und Turbolader hinzuzufügen, um Pferdestärken zu gewinnen.

Der XL1 von VW, der stark aerodynamisch ausgerichtet ist, wird von einem 0,8 Liter Doppelzylinder-Motor angetrieben. Dies unterschreitet noch den Treibstoffverbrauch des 1 Liter verbrauchenden, mit einem 3-Zylinder-Motor ausgestatteten Mini, dem kleinsten und am billigsten herzustellenden Autos bisher.

Das Hybrid Air-System von Peugeot, entwickelt mit dem deutschen Erfinder Robert Bosch, wird einen separaten hydraulischen Motor haben, der von komprimiertem Stickstoff angetrieben wird mit Energie, die vom Bremsen umgewandelt wird.

Hoffnung Brennstoffzelle

Längerfristig könnte eine gewisse Erleichterung durch Autos eintreten, die von Wasserstoff-Brennstoffzellen angetrieben werden. Sie können viel größere Distanzen mit einer einzigen Tankfüllung überbrücken und sind außerdem schneller wieder aufladbar als Batterieautos.

Brennstoffzellen-Autos zusammen mit wieder aufladbaren Modellen wie dem Leaf von Nissan werden durch Elektromotoren angetrieben. Anstelle einer Batterie verwendet man jedoch einen „Stapel“ von Brennstoffzellen, in denen Wasserstoff mit Sauerstoff kombiniert wird, um den Strom zu erzeugen.

Daimler, Ford und Nissan haben Pläne verkündet, um bezahlbare, mit Brennstoffzellen betriebene Autos innerhalb der nächsten fünf Jahre auf den Markt zu bringen, während Toyota und BMW dies bis zum Jahr 2020 vorhaben.

Aber selbst wenn diese Ziele erreicht werden, dürfte das Verkaufsvolumen nicht ausreichen, einen signifikanten Beitrag zur nächsten Runde der von der EU verordneten CO2-Einsparungen zu leisten, sagen Experten.

Um in die Gänge zu kommen, haben die Autobauer kaum eine andere Wahl als noch mehr aus den bestehenden Motoren herauszuholen, da die Kosten und Risiken von Durchbruch-Technologien für die meisten zu hoch liegen, sagte Klaus Stricker, ein Berater bei der Bain & Company. „Ich erwarte während der nächsten 5 bis 10 Jahre keine große Neuerung“.

Die Stückzahl des XL1 – VW plant, in diesem Jahr 250 davon zu bauen – wird zu niedrig liegen, um im Emissionsszenario Deutschlands demnächst Spuren zu hinterlassen. Aber das Fahrzeug, von seinen Machern als das Treibstoff-effizienteste Auto der Welt angepriesen, könnte von VW benutzt werden, um bei der Europäischen Kommission „Superkredite“ zu bekommen.

Superkredite erlauben es den Herstellern, eine bestimmte Zahl von Autos zu bauen, die über das CO2-Ziel hinausgehen, wenn sie gleichzeitig Fahrzeuge mit sehr geringen Emissionen bauen. Deutsche Autobauer können davon am meisten profitieren, weil sie dadurch weniger Änderungen an ihren Luxusautos vornehmen müssen.

Ihre ärmeren Vettern auf dem Massenmarkt jedoch stehen vor einer fundamentaleren Herausforderung.

„Es gibt immer mehr Regulationen, aber die Verbraucher wollen immer weniger zahlen“, sagte Bancon von Nissan. „Also müssen wir die Preise reduzieren und die Technologie weiter entwickeln – das sind die Kopfschmerzen, mit denen wir uns derzeit herumschlagen“.

Mehr: http://www.foxbusiness.com/industries/2013/03/08/electric-dreams-shatter-what-next-for-carmakers/#ixzz2N8R4Noaj

Link: http://www.foxbusiness.com/industries/2013/03/08/electric-dreams-shatter-what-next-for-carmakers/

Übersetzt von Chris Frey EIKE




Der ständige Erweckungs-Tanz um das goldene Kalb „Globalklima“!

Alle Zweifel von Wissenschaftlern, die das CO2 nicht als „Klimagas“ und „Umweltgift“ ansehen, konnten bisher weitgehend in der Öffentlichkeit unterdrückt und somit von der Politik, die das alles mit inszeniert und finanziert hat, ferngehalten werden. Es ist eine raffinierte Arbeits- und Rollenverteilung. Wie geschickt dabei vorgegangen wird, zeigt ein neues Buch mit altem Inhalt von Hans von Storch und Werner Krauß „Die Klimafalle – Die gefährliche Nähe von Politik und Klimaforschung“.

„Wissenschaft ist nicht Fortsetzung der Politik mit anderen Mitteln“

So titelte die Frankfurter Allgemeine Zeitung am 9. März 2013 die Rezension der „Klimafalle“ von Ulf von Rauchhaupt. Das ist zwar richtig, aber da beginnt schon die Täuschung, denn die Klimawissenschaft ist nichts als Politik, der ein Wissenschaftsmantel umgehängt wurde. Das einzig Richtige ist die Feststellung, dass „mit Hans von Storch ein intimer Kenner der aktuellen Klimaforscherszene“ spricht. Dessen Pseudowarnung, dass die „Verwissenschaftlichung der Politik schnell in eine Politisierung der Wissenschaft“ umschlage mitsamt des Verweises auf die „Hockeyschläger-Kurve“, ist allerdings nur eine Bestätigung dessen, dass Politik und Wissenschaft von Anfang an Hand in Hand gingen und sich gegenseitig die Bälle zuspielten. Handlungsakteur war von Beginn an die Politik, die Vereinten Nationen. Die UNO veranstaltete 1972 in Stockholm die 1. Konferenz „Umwelt und Entwicklung“, sie lud 1979 in Genf zur 1. Klimakonferenz und 1992 in Rio de Janeiro zur 2. Konferenz „Umwelt und Entwicklung“ ein. Alle bisher 18 Weltklima- oder Rio-Nachfolgekonferenzen gehen auf Initiative der UNO zurück.

Das Urteil von Ulf von Reichhaupt, dass die Autoren die „Zunft von außen“ betrachten und „ihr die Leviten“ lesen, kann nicht nachvollzogen werden, ist Kriegsgesang, um Neugier auf eine interne Experten-Selbstzerfleischung zu wecken und den Buchabsatz zu fördern. Nichts davon ist wahr! Im Gegenteil, der „gelernte Physiker“ und „angesehene Klimastatistiker“ von Storch behauptet ohne auch nur eine Andeutung eines Beweises, dass es „an der Realität des menschengemachten Klimawandels keinen plausiblen Zweifel gibt“. Wirklich nicht? „Das Kohlendioxid aus unseren Schloten und Auspuffrohren ändert das Weltklima“, basta! Wer als Wissenschaftler so hart argumentiert, demonstriert seine Hörigkeit gegenüber der Politik. Auch von FAZ-Rezensenten kann verlangt werden, dass sie etwas Sachverstand und Kritikvermögen mitbringen und nicht ein Loblied singen, das fehl am Platz ist.

Hans von Storch kann gar nicht anders handeln, denn seine ganze wissenschaftliche Karriere, angefangen im Max-Planck-Institut für Meteorologie in Hamburg, verdankt er dem Schwindel mit dem angeblich „natürlichen Treibhauseffekt“. Diesen gibt es von Natur aus nicht, denn kein Körper kann sich, auch die Erde macht da keine Ausnahme, in einer kälteren Umgebung, dem Weltraum, mit der von ihm/ihr abgestrahlten Energie erwärmen. Hätte die Sonne nur die Kraft gehabt, die Erde auf eine „Globaltemperatur“ von -18° Celsius zu erwärmen, dann hätte das Leben auf der Erde keine Chance gehabt. Es hätte keinen blühenden „Garten Eden“ gegeben, in den der Mensch als „Adam und Eva“ gestellt wurde.

Klimawandel Wandelklima: Krisen als Chancen nutzen

Unter diesem Motto hatte das deutsche „Climate Service Center“, eine neue Einrichtung des Helmholtz-Zentrums Geesthacht, dem Prof. Dr. Hans von Storch vorsitzt, am 17./18. Januar 2013 zu seiner 3. Jahrestagung eingeladen. Die Veranstaltung fand im Hauptgebäude der Kreditanstalt für Wiederaufbau in Frankfurt am Main statt. Unter den Referenten finden sich alle, die Rang und Namen haben. Doch noch aufschlussreicher waren die drei Themenblöcke:

1. Die politische Ökonomie des Klimawandels;
 2. Innovationsmotor Klima;
 3. Nachhaltige und klimaschonende Finanzwirtschaft.

Bei Betrachtung der Blöcke wird mehr als nur offensichtlich, dass die ganze „Klimapolitik“ nichts mit dem weltweiten Wetter zu tun hat. Angeblich sollte der „Klimaschutz“ ja dazu dienen, Wetterextreme mittels der Reduktion der „Treibhausgase“ zu vermindern, das Wetter insgesamt in ruhigeres Fahrwasser zu lenken und Unwetter jeder Art zu verhindern. Doch das ist nur der äußere Schein. Daher waren Initiatoren von Anfang an bestrebt, dass niemand hinter die Kulissen schauen konnte, um zu erkennen, dass es handfeste machtpolitische Interessen ging, nämlich um eine globale Veränderung der Machtverhältnisse, der Fixierung und Konzentration des Klima- oder Neigungsgefüges hin auf eine Globalherrschaftsstruktur.

Die klimapolitischen Weichenstellungen scheinen soweit getätigt und gefestigt worden zu sein, dass man nun die Maske fallen lassen und die eigentlichen Absichten offenbaren kann. Da ist konkret von der „politischen Ökonomie des Klimawandels“ die Rede wie von „klimaschonender Finanzwirtschaft“, und zwar unverhohlen. Deutlicher kann auch den „Klimaexperten“ nicht gezeigt werden, dass sie in diesem Theater die Hampelmänner sind. Die Finanzoligarchie wie die Politik sind die eigentlichen Akteure, die die Marionetten tanzen lassen.

Die Klimapolitik hat inzwischen wie ein Krake mit seinen Armen auf fast alle Lebensbereiche übergegriffen. Im Forum der WELT vom 2. März 2013 hat Henryk M. Broder in dem Artikel „Im Paradies“ dazu Stellung genommen. Er meint: „Wir befinden uns auf dem Weg von der klassenlosen in die fleisch- und geschlechterlose Gesellschaft. Wer das nicht glaubt, ist selber schuld.“ Er vergaß leider, auch die „klimalose Gesellschaft“ zu erwähnen, denn „Donnerstag ist Veggie-Tag“.

Diese Initiative ist auf „Die Grünen“ zurückzuführen, die vor zwei Jahren ein „Positionspapier“ für eine Gesetzesinitiative „für mehr Klimaschutz und Ernährungssicherheit“ erarbeitet hatten. Wir sollten unseren „Lebens- und Konsumstil“ ändern, um den „Raubbau an Klima und Natur“ zu beenden. Broder meint, Deutschland ist geradewegs in die Erziehungsdiktatur: „Wir werden angehalten, unsere Wohnungen auf höchstens 18 Grad Celsius zu beheizen, öffentliche Verkehrsmittel auch dort zu benutzen, wo es sie nicht gibt, kein Übergewicht anzusetzen, weil das nicht nur ungesund, sondern auch sozialschädlich ist, und unseren Fleischkonsum zu reduzieren oder am besten ganz einzustellen. Hurra, wir retten die Welt!“ Dann seine Frage: „Was wären wir ohne … Wahnsinn?“

Sein Urteil: „Verglichen mit den Grünen und ihrem Hang zum Totalitarismus ist die katholische Kirche eine libertäre Organisation mit Sinn für menschliche Schwächen.“ Schon Friedrich Nietzsche (1844-1900) warnte vor den moralischen Jakobinern: „Und behüte dich vor den Guten und Gerechten“, den Selbstgefälligen und satten Grünen!

Schnellste Erwärmung aller Zeiten

So überschrieb Mail Michalski einen Bericht in der Wilhelmshavener Zeitung vom 14. März 2013 über einen Vortrag des Klimaforschers Prof. Dr. Jochen Marotzke, Direktor am Max- Planck-Institut (MPI) für Meteorologie in Hamburg. Für nicht genanntes „kleines Geld“ hatte die Oldenburgische Landesbank Marotzke zu ihrer Vortragsreihe „Forum“ eingeladen. „Knapp 300 Zuhörer lauschten….“

Marotzke bemühte sich um Spannung: „Der Klimawandel ist da. Die Weltgemeinschaft wird entscheiden müssen, wie viel Erderwärmung und deren Folgen sie bereit ist zu akzeptieren.“ Hört sich markig an, aber auch die „Weltgemeinschaft der nackten Affen“ konnte vor etwa 1 Million Jahren weder die folgenden fünf Eiszeiten noch das Verschwinden des Neandertalers verhindern.

Noch ein Versuch um Dramatik: „Fakt ist, die Erde wärmt sich derzeit so schnell auf wie in keiner Phase der vergangenen 800 000 Jahre.“ Nein Herr Professor! Fakt ist, dass wie kalter Kaffee die Erde immer wieder, nach jeder klaren und kalten Nacht, von der Sonne wieder erwärmt werden muss. Auch nach jedem Winter ist dies der Fall. Die Aussage ist auch deswegen nicht wahr, weil erst vor kurzer Zeit zum wiederholten Mal nachgewiesen wurde, dass die vorindustriellen Erwärmungen hin zur „römischen Warmzeit“ wie der „hochmittelalterlichen Warmzeit“ wesentlich stärker waren als derzeit. Die industrielle Erwärmung mit nur 0,7° C seit 1850 ist im direkten Vergleich recht schwächlich! Zudem hatte das MPI für Meteorologie 1995 offiziell verlauten lassen, dass in den 8000 Jahren vor 1800 der CO2-Gehalt der Luft konstant gewesen sei, d. h. alle Klimaschwankungen in diesen 8000 vorindustriellen Jahren mit dem CO2 nichts zu tun hatten.

Und dann der übliche faule Trick mit den ach so weisen „Klimamodellen“! Aber auf ihn fallen die 300 Zuhörer rein, lassen sich beeindrucken: „In einem weltweit vergleichbaren Experiment rechnen 32 Gruppen in 20 Ländern dieselben Parameter mit unterschiedlichen Klimamodellen durch. Ziel ist es, das Klima im Jahr 2100 voraussagen zu können.“ Was soll diese Angeberei? Das „Globalklima“ kann man ebenso wenig für 100 Jahren voraussagen wie die „Globalbörse“. Auch kein Hinweis, dass in einem vergleichbaren Experiment fast 200 staatliche Wetterdienste täglich mit numerischen Wettermodellen das Wetter für die nächsten ein bis 10 Tage berechnen, mit sehr unterschiedlichen Erfolgsquoten. Darüber hinaus lässt sich das Wetter partout nicht in die Karten schauen. Was ist also die Wahrheit? Klimamodelle rechnen keine Vorhersagen, sie spielen mit Szenarien, sagen aber nichts voraus, sind Wahrsagerei, Spökenkiekerei!

Wie der angebliche „Treibhauseffekt“ funktioniert

Hierzu gibt der Klimaforscher Professor Dr. Jochen Marotzke folgende „wissenschaftliche“ Erklärung, die offensichtlich die deutsche Vorreiterrolle in der Klimaforschung unterstreichen soll. Jochen Marotzke wortwörtlich: „Der Treibhauseffekt funktioniert wie eine durchsichtige Wolldecke, sie lässt die Sonne durch und hält die Wärme zurück.“ Hat der Herr Professor schon einmal an sich das Experiment gemacht? Hat er sich bei Sonnenschein mal eine „durchsichtige Wolldecke“ umgehängt, Wärme getankt und sich in der folgenden klaren frostigen Nacht mit der gespeicherten Wärme gewärmt? Das hat er nicht, denn das Experiment hätte ihn belehrt, dass so der „Treibhauseffekt“ mit absoluter Sicherheit nicht funktioniert.

Physikalisch ebenso unsinnig ist seine Aussage: „Wolken kühlen bekanntlich die Atmosphäre. Wahrscheinlich nimmt die Bedeckung der Erde mit Wolken ab und das heißt eine zusätzliche Erwärmung von null bis 2,5 Grad.“ Das ist nicht nur pure Spekulation, das ist auch physikalisch unhaltbar. Wolken entstehen durch Kondensation von Wasserdampf, und nicht anders. Dabei wird die bei der Verdunstung am Boden dem Wasserdampf zugeführte Verdunstungswärme nach gasförmigem Zwischenstadium als „latente Wärme des unsichtbaren Wasserdampfes“ bei der Kondensation wieder freigesetzt und der Luft zugeführt. Der Satz muss korrekt heißen: „Wolken erwärmen bekanntlich die Atmosphäre!“

Wolken, gleichgültig in welchem atmosphärischen Stockwerk, sind Kondensationsprodukte und bestehen aus unzähligen winzigen Wassertropfen. Schieben sie sich zwischen Betrachter und Sonne, so verhindern sie eine direkte Bestrahlung der Person wie des Bodens. So beschattet werden beide weniger erwärmt, denn die Sonne erwärmt nur minimal direkt die Luft, sondern die Gegenstände, auf die ihre Strahlen treffen. Und wie sieht es nachts aus? Ist der Himmel klar, also wolkenlos, dann verschwindet die Wärmestrahlung des Erdbodens ungehindert ins Weltall, mit Lichtgeschwindigkeit. Der Boden verliert Wärme, kühlt ab. Ziehen dann später nachts Wolken auf, dann absorbieren sie die Wärmestrahlung des Bodens. Diese gelangt nicht mehr ins Weltall. Die Wolken selbst haben eine Temperatur und strahlen als flüssige Körper ebenso wie die feste Erde Wärme ab. Hat nun die Wolke in 500 m Höhe eine höhere Temperatur als der unterkühlte Boden, so strahlt sie diesem mehr Wärme zu, als ihr der Boden zu strahlt. Die Abkühlung am Boden hört auf, seine Temperatur kann sogar steigen. Was passiert in diesem Fall? Die aufziehende Wolke erwärmt den Boden.

Die Kombination der Aussagen „Wolken kühlen die Atmosphäre“, „die Bedeckung der Erde mit Wolken nimmt ab“ und die Schlussfolgerung daraus, „dies führt zu einer Erwärmung bis 2,5 Grad“, ist logisch unkorrekt, Herr Marotzke. Weniger Wolken erlauben am Tage mehr Wärme- Einstrahlung und bei Nacht mehr Wärme-Ausstrahlung. Dies zeigt sich in den Wüstenregionen mit den extremen Unterschieden bei den Höchst- und den Tiefsttemperaturen. Im „Tagesmittel“ sind diese Regionen kälter als die Tropen mit viel Bewölkung und viel Niederschlag. Wie die Bilanz in mittleren und höheren Breiten aussieht, hängt mit den Jahreszeiten und Tageslängen zusammen. Weniger Wolken bei 16 Stunden Nacht bedeuten mit Sicherheit Abkühlung und nicht Erwärmung!

Dieses physikalische Basiswissen muss in einem „Max-Planck-Institut für Meteorologie“ präsent sein, wenn es sich auch, der Name Meteorologie trügt, ausschließlich mit numerischer Klima- Modellierung befasst. Die Abhängigkeit von staatlicher Finanzierung ist kein Freibrief, die Normen wissenschaftlicher Ethik über Bord zu werfen. Die Abhängigkeit darf auch nicht zu einer politischen Hörigkeit führen, die dazu führt, dass wissenschaftliche Fakten verkehrt und politisch korrekt umgedeutet werden. Wo ist die unabhängige Wissenschafts-Institution, die auf die Qualität wissenschaftlicher Institute achtet?

Ich wünsche Ihnen ein frohes und gesegnetes Osterfest wie immer auch das Wetter sein mag!

Dipl.-Met. Dr. phil. Wolfgang Thüne

P.S. Mein Buch „Propheten im Kampf um den Klimathron- Wie mit Urängsten um Geld und Macht gekämpft wird“ ist nun auch beim GRIN-Verlag oder über Amazon als E-Book für 19,99 € erhältlich (ISBN 978-3-656-38796-1).




Die Farbe GRÜN: Vergessen Sie Naturschutz, mit Umweltzerstörung und Vernichtung von Tieren liegen Sie richtiger!

Dr. Friedrich Buer spricht in seinem Aufsatz mit dem Titel

Fukushima des Naturschutzes Windräder töten Vögel und Fledermäuse, verteuern den Strom, bringen Unfrieden ins Land und sind überflüssig

deutliche Worte. Er bezeichnet insbesondere die feige zum Tiermord schweigenden und mit der herrschenden Politik kungelnden Vorstände von Naturschutzvereinen als Mitverantwortliche.

Grün ist heute definitiv nicht mehr die Farbe des Umweltschutzes, sondern umgekehrt die Farbe der konsequenten Umweltschädigung und Tiervernichtung. Windradschneisen in Naturschutzgebieten, gewaltige, nach Ende des Windradwahnsinns kaum mehr zu beseitigende Betonfundamente in Wäldern, Schädigungen von Windradanrainern durch Infraschall und Schattenwurf, wegschmelzende Häuserwerte in Nachbarschaft von Ungetümen mit Höhen des Ulmer Münsters, Betonverbauungen für Pumpspeicherwerke in von Naturliebhabern gesuchten Gebieten des Südschwarzwaldes, Maismonokulturen mit fatalen Auswirkungen auf Bodentiere und das Grundwasser, …… all diese Schädigungen sind Folgen einer deutschen Umweltpolitik, der alle großen Parteien die Hand reichen (nur die FDP Sachsen leistet offenen Widerstand, sie wird als einsame Ausnahme einmal in die deutschen Geschichtsbücher eingehen). Nach der Verspargelung der küstennahen Nordsee mit Windrädern müssen im Binnenland die betroffenen Anwohner mit der Errichtung von  Hochspannungsleitungen quer durch die deutsche Landschaft und über ihren Häusern rechnen. Das Ausmaß der für etwa 16% (fluktuierenden = weitgehend unbrauchbaren) Windstrom hingenommenen Landschaftsveränderungen ist seit den Verheerungen des 30-jährigen Krieges nicht mehr gesehen worden.

Energiegewinnung aus Windrädern ist ein technologisches Konzept des Mittelalters. Bis heute ist keine Begründung für die Umpflügung Deutschlands mit Windrädern bekannt, die auch nur im Ansatz die Bezeichnungen „sachlich begründbar“ oder gar „vorteilhaft für unsere Stromversorgung“ verdient. Es gab keinen vernünftigen Grund, von unserer ehemals besten funktionierenden, kostengünstigen Stromerzeugung abzugehen. Klimaschutz und Energiewende sind Aftergeburten von Ökoideologen, die jeder technisch-naturwissenschaftlichen Vernunft ermangeln. Der einzige Zweck dieser Leute ist die Gesellschaftsumformung, der Naturschutz ist ihnen völlig egal. Ihre Jahrzehnte andauernden Bemühungen haben es schließlich erfolgreich bis zum politischen Mainstream gebracht. Man kann nur gratulieren, für die Intelligenz unserer Nation ist es freilich ein Disaster.

Politiker aller Couleur fürchten, bewundern und beneiden diese erfolgreichen Ideologen, denen es gelang (kräftig unterstützt durch grün dominierte Medien wie die öffentlich rechtlichen Fernseh- und Rundfunkanstalten, die ZEIT, die Süddeutsche Zeitung und weitere mehr) die Bevölkerung nachhaltig aufs Glatteis zu führen. Aufs Glatteis führen ist ja bekanntlich das Kerngeschäft jeder erfolgreichen Politik. Orientierungslos ist nunmehr die Mehrheit der Deutschen dem Energiewendewahn verfallen. Schließlich geht es um die Rettung der Welt, den Klimaschutz und weitere Phantastereien von hohem Emotionsgehalt. Aus Energiewende und Klimaschutz ist zweifellos eine neue Religion erwachsen. Sachargumente werden nicht mehr akzeptiert, das frühere Beten in Kirchen ist durch demonstratives Lichtabschalten (Earth Hour des WWF) und ähnlichen Unsinn ersetzt worden.

Diese Entwicklung belegt zum wiederholten Male die deutsche Anfälligkeit für politische Manipulation. Sie zeigt das Fehlen von Vernunft und die Abwesenheit eines Gespürs für politische Rattenfänger. Da sich technische Regeln, Naturgesetze und betriebswirtschaftliche Kostenrechnung weder durch Politik noch durch religiösen Glauben aushebeln lassen, wird der Energiewendespuk in sich zusammenfallen. Mit Umweltschutz hatten Energiewende und „Klimaschutz“ ohnehin nie etwas zu tun.

Angesichts der bereits zur Hälfte aller Anlagen abgeschalteten deutschen Kernkraftwerke, die seit ihrem Betriebsbeginn noch nie einen Menschen verletzt oder gar getötet haben, angesichts eines Tsunami, der in Fukushima eine Kerkraftwerkshavarie ohne einen einzigen Strahlentoten verursachte und schlussendlich angesichts der jährlich rund 3000 deutschen Verkehrsopfer fragt man sich, warum die Bundesregierung ausgerechnet unsere weltweit sichersten Kernkraftwerke abschaltet und nicht besser gleich alle deutschen Kraftfahrzeuge beseitigt. Selbst die in Sicherheitsdingen mustergültigen und an die Zukunft ihrer Kinder denkenden Schweden geben die Kernkraft nicht auf.

Jedes Volk verdient das, was es sich aussucht. Die wenigen Zeitgenossen mit klarem, noch nicht ökologisch umnebelten Verstand, die einen echten Umweltschutz wünschen aber nichts weiter tun können, als vor der kommenden Energiewendekatastrophe zu warnen, hoffen, dass der Spuk an den Kosten, Umweltschäden und wohl unvermeidbaren Black-Outs schnell scheitert. Erst dann können wir in Deutschland wieder auf Rückkehr zu unserer ehemals kostengünstigen, sicheren und umweltfreundlichen Energieversorgung von weltweiter Spitzenstellung hoffen.

Die Nationen dieser Erde schauen besorgt, erheitert und schadenfroh dem deutschen Energiewende-Treiben zu. Alle kennen bereits das Ergebnis, deshalb war keine so dumm, den deutschen Weg mitzugehen.

Prof. Dr. Horst-Joachim Lüdecke

Nun der Beitrag von Dr. Friedrich Buer, 14.3.2013 unter dem Titel

Fukushima des Naturschutzes Windräder töten Vögel und Fledermäuse, verteuern den Strom, bringen Unfrieden ins Land und sind überflüssig

Aus der Ferne gesehen drehen sie sich langsam und friedlich. Und die sollen Vögel und Fledermäuse töten, Storchen- und Kranichhäcksler sein, wie Vogelfreunde behaupten, Eisbomben verschießen und Symbole des Versagens der Naturschutzverbände sein?

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/bild_1.jpg

Bild 1: Die friedliche Idylle täuscht. Windräder töten Vögel und Fledermäuse, gefährden Spaziergänger und machen krank. Sie ruinieren unsere Kulturlandschaft, entwerten Grund und Boden, verteuern den Strom und bringen friedliche Bürger gegeneinander auf. Sie sind Symbole des Versagens der Naturschutzverbände und der Politik.

Rotorspitzen über 400 km/h schnell

Tatsächlich fegen die Spitzen der Rotorblätter schon bei mäßigem Wind mit 170 km/h durch die Luft und laut älterer Informationstafel liegt ihre Spitzengeschwindigkeit bei 272,3 km/h. Neuere Anlagen erreichen über 400 km/h. Für Skeptiker zum Nachrechnen: Einfach die Rotorblattlänge in Metern mit 22,6 multiplizieren und durch die Zahl der Sekunden teilen, die das Windrad für eine Umdrehung braucht und man erhält die Geschwindigkeit der Rotorblattspitzen in km/h. Die meisten Rotorblätter sind zwischen 35 und 55 Meter lang, auf See sind Längen von 125 Metern geplant.

Sog und Turbulenzen ziehen Vögel und Fledermäuse an die Rotoren

Kommt ein Vogel oder eine Fledermaus auch nur in die Nähe eines Rotorblattes, saugen sie Unterdruck und Turbulenzen gegen das Rotorblatt und es ist um sie geschehen. Diese Phänomene entstehen durch die Luftströmungen an den Rotorblättern und schwanken, weil der Wind mal schneller oder mal langsamer weht und auch, weil sich ein Rotorblatt wegen seines hohen Trägheitsmomentes nur verzögert schneller oder langsamer drehen kann. Mit dem Unterdruck schwankt auch der Sog ständig. Verstärkt werden die Druckschwankungen durch den Turm-Effekt, weil immer dann, wenn ein Rotorblatt vor dem Turm vorbei saust, der Winddruck abfällt und deshalb das Rotorblatt vor und zurück springt. Das hört man als Wummern, weil der Mast periodisch von den nachlaufenden Luftströmungen des vor ihm vorbei sausenden Rotorblattes getroffen wird und sich seine Anströmrichtung und Anströmgeschwindigkeit kurzzeitig ändern. Hinzu kommt, dass der Wind mit der Höhe zunimmt. Dadurch werden die Rotorblätter mehr belastet, wenn sie oben als wenn sie unten stehen. Das führt zu weiteren Schwingungen.

Druckschwankungen sind kilometerweit zu hören

Obwohl sich die Druckwellen mit Schallgeschwindigkeit ausbreiten und sich dabei mit dem Quadrat der Entfernung abschwächen, hört man das Wummern kilometerweit. Das beweist die Wucht der Druckschwankungen und ihre Gefährlichkeit für Vögel und Fledermäuse. Auch der Infraschall wird durch Druckschwankungen ausgelöst. Wir Menschen können ihn wegen seiner tiefen Tonlage nicht hören. Trotzdem kann Infraschall krank machen, das berichten zahlreiche Patienten und ihre Ärzte. Vor Infraschall kann man sich nicht schützen, auch nicht durch Ohrenstöpsel. Hinzu kommt, dass Infraschall weiter reicht als der hörbare Schall. Elefanten verständigen sich mit Infraschall über 2,5 Kilometer.

Einfacher Versuch zu Sogwirkung

Die Sogwirkung der Rotorblätter zeigt ein einfacher Versuch. Hält man zwei Blatt Papier in geringem parallelen Abstand vor den Mund und bläst hindurch, so weichen sie nicht etwa auseinander, wie man vermuten könnte, sondern der Sog zieht sie aufeinander zu. Ersetzt man eines der beiden Blätter durch starren Karton, zieht der Sog das leicht bewegliche Papier auf den Karton. Der Karton entspricht dem starren Rotorblatt und das bewegliche Papier dem Vogel oder der Fledermaus. Jedoch pustet kein Mensch, sondern ein Tornado mit Windgeschwindigkeiten bis über 400 km/h. Ein solcher Sog ist tödlich, da gibt es kein Entkommen. Schon viel geringere Geschwindigkeiten wie bei Schiffsschrauben oder sich eng

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/bild_2.jpg

Bild 2: Schild warnt vor den Turbulenzen und dem Sog der Züge

begegnenden LKWs oder von vorbei fahrenden Zügen sind lebensgefährlich. Ein Hobbyfilmer wollte einen dramatischen Streifen drehen, stellte seine Kamera ganz dicht an die Bahngleise und filmte den herannahenden Zug. Er glaubte sich sicher, doch der Sog des Unterdruckes zog ihn an den Zug, er überlebte, seine Kamera nicht.

Ausweichen für Vögel und Fledermäuse unmöglich

Werden Tiere von einem Rotorblatt direkt getroffen, ist es erst recht um sie geschehen und die Wahrscheinlichkeit dafür ist groß. Denn jedes einzelne Rotorblatt wiegt 3,5 t und mehr und alle paar Sekunden kommt das Nächste mit einer Geschwindigkeit von bis zu 100 Metern pro Sekunde herangerast und wieder und wieder eines. Das ist der sprichwörtliche Kampf gegen Windmühlenflügel, den jeder Vogel und jede Fledermaus verliert.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/bild_3.jpg

Bild 3: Echte „Schlagopfer“ weisen häufig schwere Frakturen oder gar eine Zerteilung des Rumpfes auf, wie hier bei einem Weißstorch, dessen Einzelteile am Fundort zusammengesucht wurden (Foto: T. Dürr).

Tod auch ohne direkte Kollision

Doch selbst wenn die Opfer nicht vom Rotorblatt angesogen oder direkt getroffen werden, lösen die heftigen Druckschwankungen im Turbulenzbereich der Rotorblätter innere Verletzungen aus. Die Tiere sterben ohne Zeichen äußerer Verletzungen, was durchaus vergleichbar ist mit der Wirkung von Luftminen auf Menschen im 2. Weltkrieg. Die lösten ebenfalls heftige Druckschwankungen aus und zerrissen Menschen die Lungen, die sich im Bunker sicher glaubten. Diese als Barotraumen bezeichneten inneren Verletzungen betreffen nicht nur die Lungen. Bei Fledermäusen fand man sogar geplatzte Fettzellen (Current Biology 18, S. 695 – 696, 2008).

Hersteller fürchten die Folgen der Druckschwankungen

Die Hersteller wissen um die Druckschwankungen, die sich pausenlos wiederholen und die Rotorblätter zerstören können. Andererseits sind sie unverzichtbar, weil die speziellen Druck- und Strömungsverhältnisse das Windrad antreiben. Deshalb führen sie millionenteure Prüfungen durch, um zu testen, ob die Rotorblätter die Druckschwankungen aushalten. Vögel und Fledermäuse kommen in den Tests nicht vor. Und auch nicht, dass das Wummern und der Infraschall auf Menschen wie eine Folter wirken kann, besonders nachts, wenn der allgemeine Geräuschpegel niedrig ist. Das gilt auch für den Schattenwurf der Rotoren, der bei tief stehender Sonne weit ins Land hinein reicht. Den ständigen Wechsel zwischen hell und dunkel erträgt auf Dauer niemand.

Aber die Rotorblätter überstreichen doch nur eine kleine Fläche

Auch da täuschen wir uns gewaltig. Bei einem Durchmesser des Windrades von 72 Metern werden 4.000 Quadratmeter überstrichen und zur tödlichen, senkrecht stehenden Sperrzone im Luftraum. Die drei Windräder auf dem obigen Foto sperren dort zusammen den Luftraum auf einer Fläche von rund 15.000 Quadratmetern, was etwa 48 Baugrundstücken à 400 m2 entspricht. Dazu kommen  die Turbulenzzonen, die die Sperrfläche noch größer machen. Ich habe selbst gesehen, wie eine Feldlerche trällernd neben einem dieser Windräder aufstieg und deutlich oberhalb des Rotors offenbar in die Turbulenzen geriet und weggeschleudert wurde. Hier sieht man in einem Video wie ein Geier vom Windrad erschlagen wird. Inzwischen drehen sich in Deutschland über 21.600 Windräder und jetzt soll es mit dem Bau von noch größeren und noch höheren erst richtig los gehen. General Electric will Windräder mit Rotordurchmessern von 110 Metern in unseren Wäldern aufstellen und plant noch größere. An der Spitze liegt Vestas, deren Windrad-Rotoren für die Nordsee 250 Metern Durchmesser haben. Jeder davon überstreicht die kaum vorstellbare Kreisfläche von 49.000 Quadratmetern (= 4,9 Hektar oder 122 Baugrundstücke à 400 m2) und macht sie zur tödlichen Sperrzone für alles, was fliegt. Verglichen mit den Windrädern sind die kriminellen Vogeljäger im Süden Europas nur harmlose Lausbuben.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/bild_4.jpg

Bild 4: Auf den Stadtplan sind diejenigen Flächen projiziert, welche die Rotorblätter überstreichen. So groß sind die senkrecht stehenden tödlichen Sperrzonen für Vögel und Fledermäuse.

Auch Masten von Windrädern und still stehende Rotoren sind Todesfallen

Selbst wenn Windräder still stehen, töten sie Vögel. Sie stoßen gegen den Turm oder gegen die still stehenden Rotoren und fallen unmittelbar unter das Windrad (Der Falke 58, Seite 499 – 501, 2011). Deshalb sind sie vergleichsweise einfach zu finden. Offenbar können sie die tödlichen Hindernisse nicht erkennen, was aus evolutionsbiologischer Sicht verständlich ist. Denn Vögel gibt es seit vielen Millionen Jahren und sie haben sich optimal an ihre  Umwelt angepasst. Mit 100 bis 200 Meter hohen, frei stehenden Hindernissen mussten sie nie rechnen und deshalb rechnen sie auch heute nicht damit.

Aber warum findet man praktisch nie die Opfer? 

Das liegt daran, dass sie nur ausnahmsweise direkt unter das Windrad fallen, sondern meist von den Rotorblättern aus einer Höhe von bis zu 200 m mit Geschwindigkeiten bis zu 400 km/h  weggeschleudert werden und zwar bei Kollisionen oberhalb der Rotornabe nach der einen Seite und unterhalb der Rotornabe nach der anderen Seite. Außerdem werden sie je nach Windrichtung in andere Richtungen geschleudert, wobei sie der Wind zusätzlich ablenkt. So werden die Opfer durch die Rotoren auf einer Kreisfläche von mehreren Hektar verteilt und sind kaum zu finden. Bei noch höheren Windrädern wird die Suche noch schwerer und praktisch aussichtslos ist sie im Wald oder auf See. So erging es mir auch mit der Feldlerche. Ich fand sie nicht, aber ihr Trällern habe ich auch nicht mehr gehört. Bei Volltreffern kommt hinzu, dass von den Tieren kaum noch Erkennbares übrig bleibt.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/bild_5.jpg

Bild 5: Die Rotorblätter verteilen ihre Opfer auf einer mehrere Hektar großen Kreisfläche rund um das Windrad, entsprechend schwer sind sie zu finden.

Opfer „verschwinden“, weil andere Tiere sie fressen

Für Krähen, Elstern, Rotmilane, Bussarde, Turmfalken, Füchse, Katzen, Marder, Wiesel, Ratten und andere Tiere sind die Windradopfer eine bequeme und begehrte Nahrung. Sie alle warten geradezu auf die nächste „Fütterung“ und werden dabei oft selbst zu Opfern, wie die seit Jahren seltener werdenden Rotmilane. Auch Geier suchen als Aasfresser den Bereich von Windrädern ab und werden prompt erschlagen, wie es im oben genannten Youtube-Video zu sehen ist. Tote Eintagsküken, die man um ein Windrad herum abgelegt und sogar versteckt hatte, waren deshalb schon nach wenigen Stunden „verschwunden“ und so geht es auch den Opfern der Windräder. Deshalb werden sie so selten gefunden und die offiziellen Funddateien  bilden nur die Spitze des Eisberges ab, was allen Fachleuten bekannt ist. Im Internet und in ornithologischen Fachzeitschriften (u.a. Der Falke 6, 2011 und 8, 2011, Wiesenweihe, Rotmilan) gibt es dazu eine Vielzahl von Fallbeschreibungen und Informationen. Folgendes schrieb schon vor zehn Jahren der Präsident des Landesumweltamtes Brandenburg, Prof. Dr. Matthias Freude: „Im Sommerurlaub 2001 entdeckte ein Kollege aus der Staatlichen Vogelschutzwarte Brandenburg einige offensichtlich erschlagene Vögel unter holländischen Windrädern nahe an der Küste. Unerwarteterweise fanden sich bei einer Nachsuche im Brandenburgischen Binnenland ebenfalls tote Vögel unter den Windrädern. Seitdem wird zumindest stichprobenhaft von Ornithologen, Zivildienstleistenden und ehrenamtlichen Helfern unter Windkraftanlagen nach verunglückten Vögeln gesucht. Überraschenderweise fanden sich dabei auch erschlagene Fledermäuse. Umso genauer man suchte, desto mehr der im Gras und Gebüsch nur schwer aufzuspürenden Fledermausüberreste wurden entdeckt. Vögel und Fledermäuse werden häufig von den Windrädern regelrecht halbiert oder Teile abgeschlagen.“

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/bild_6.jpg

Bild 6: Der Rotmilan steht als Aasfresser an der Spitze der Fundstatistik. Selbst den 180 km/h schnellen Mauersegler erschlagen die Rotoren.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/bild_6A.jpg

Bild 7: Fast alle Arten von Fledermäusen werden Opfer von Windrädern, darunter viele ziehende Fledermäuse aus Ost-Europa

Aber Studien zeigen doch, dass es so schlimm nicht ist

Leider muss man heute auch bei wissenschaftlichen Gutachten und Publikationen fragen, wer dahinter steht und wer sie bezahlt hat. Gutachten und Gegengutachten sind zum Geschäft geworden, die die jeweiligen Auftraggeber für ihre Interessen nutzen wollen. Natürlich gibt es auch korrekte Gutachten, nur wie soll man die Spreu vom Weizen trennen? Außerdem hört man immer wieder von Fällen, in denen „nicht hilfreiche“ Gutachten unter Verschluss gehalten werden. Das erfährt man aber nur, weil es manchmal undichte Stellen gibt. Deshalb sind beschwichtigende Aussagen aus dem Bundesumweltministerium oder der Spitzenfunktionäre der Natur- und Umweltschutzverbände mit Vorsicht zu genießen. Sie alle setzen sich für den Bau der Windräder ein und haben ihre politische und berufliche Zukunft damit verbunden und es geht um sehr viel Geld.

Da ist jedes Argument recht. So versuchen der Verband Windenergie e.V. und Deutschlands größter Artenschutzverband NABU und der Vorsitzende des BUND, Hubert Weiger, sich mit dem Argument rein zu waschen, dass durch den Verkehr noch mehr Vögel umkämen. Mit dieser Ausrede könnten sich aber auch Europas kriminelle Vogelfänger reinwaschen. Als bei Freiburg unter den Windrädern immer wieder tote Fledermäuse, darunter 70 streng geschützte Zwergfledermäuse gefunden wurden, las man vom BUND: „Alles sieht danach aus, als würden dort Gegner der Ökoenergie tote Fledermäuse auslegen.“ (TAZ, 30. 7. 2005). Die wissenschaftliche Sektion ergab, dass die Fledermäuse durch die Druckschwankungen getötet wurden und zwar im Flug, denn sie hatten kurz vorher noch Insekten gefressen.

Rotmilane als unbestechliche Bio-Gutachter

Rotmilane fliegen auffällig oft in der Nähe von Windrädern. Als Greifvögel sehen sie schärfer als jeder Wissenschaftler und besonders scharf sehen sie ihre Nahrung und die ist Aas und das liefern ihnen die Windräder. Wenn da kein Aas wäre, warum sollten sie da immer wieder suchen? Ihr Unglück ist, dass sie bei ihrer Nahrungssuche von den Rotoren ebenfalls erschlagen werden, und da sie groß sind, werden sie häufiger gefunden. In der Statistik der Zufallsfunde stehen die Rotmilane an erster Stelle (Der Falke 12, S. 484-489, 2011). Inzwischen sieht man sie seltener in der Nähe von Windrädern, denn ihr Bestand ging seit den 90iger Jahren um ein Viertel zurück und sinkt weiter. Für das Sterben an den Windrädern sind Rotmilane unbestechliche Bioindikatoren, die sich von niemandem vor den Karren seiner Interessen spannen lassen.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/bild_7.jpg

Bild 8: Vom Windrad erschlagener Rotmilan

Wie könnte man die wirkliche Zahl der  Opfer finden?

Eine glaubwürdige und aussagekräftige wissenschaftliche Untersuchung des Problems von wirklich unabhängiger Stelle ist mir nicht bekannt. Wie könnte die aussehen? Man könnte  kreisförmig unter die zu prüfenden Windräder Netze spannen, die mögliche Opfer  auffangen, ihren Aufprall durch Sensoren rund um die Uhr, also auch nachts, automatisch registrieren und diese Rohdaten für jedermann zugänglich ins Netz stellen. Der Radius des Fangnetz-Kreises müsste so groß sein, dass auch weit weg geschleuderte Opfer aufgefangen werden. Eine solche Untersuchung würde zeigen, wie groß der Eisberg unter der Spitze der Zufallsfunde wirklich ist. Das ist wohl auch der Grund, warum es bis heute eine solche Untersuchung nicht gibt. Sie würde wahrscheinlich ein Debakel ans Licht bringen und da sie von denjenigen mit öffentlichen Mitteln finanziert werden muss, die immer mehr Windräder aufstellen wollen, werden wir wohl vergeblich darauf warten.

210 °C heiße Stromleitungen und die Vögel?

Das Stromnetz in Deutschland ist nicht für den Transport von Wind- und Solarstrom ausgelegt. Deshalb müssen viele Tausend Kilometer neue Fernleitungen gebaut werden. Doch gegen die gibt es massiven Widerstand und der Bau würde viele Jahre dauern. Aber man könnte die vorhandenen Fernleitungen so umbauen, dass sie doppelt so viel Strom leiten können. Das geht mit den derzeitigen Leiterseilen („Stromdrähten“) deshalb nicht, weil sie sich erwärmen und ausdehnen. Sie hängen durch und zwar umso tiefer, je mehr Strom durch geleitet wird und spätestens bei 80 °C ist Schluss.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/bild_8.jpg

Bild 9. Mit neuer Technik sollen 380 KV-Leitungen doppelt so viel Strom transportieren und sich dabei auf bis zu 210 °C erhitzen. Das wären dann elektrische Heizdrähte quer durch Deutschland. Und was ist mit den Vögeln, die sich auf die heißen Drähte setzen?

Doch es gibt neue Hochtemperatur-Leiterseile, die an der RWTH Aachen entwickelt wurden und die sich technisch bewährt haben. Sie können bis 210 °C aufgeheizt werden und dann doppelt so viel Strom transportieren. Greenpeace beschreibt sie in seinem Magazin (29.11.2011) und meint, mit ihnen könne man sich den Bau von 4.450 km neuer Stromtrassen ersparen. Dann hätten wir mit Wind- und Solarstrom betriebene elektrische Heizdrähte quer durch Deutschland. Unsinniger geht es kaum. Und was droht den Vögeln, die sich auf 210 °C heiße Leitungsdrähte setzen? Am 4. 12. 2012 wurden in Thüringen  die ersten 18 km mit Hochtemperatur-Leiterseilen eingeweiht. Fernsehen, Presse und Politiker lobten den Fortschritt. Von den Spitzenfunktionären der Naturschutzverbände waren keine Proteste zu hören.

Warum sind Windräder auch für Menschen lebensgefährlich?

Weil der Unterdruck an den Rotorblättern noch eine weitere Folge hat. Im Großen kennen wir den Effekt von den Tiefdruckgebieten. Das Wetter trübt sich ein, Wolken ziehen auf, es regnet oder schneit, denn bei fallendem Luftdruck kondensiert das Wasser, das in der Luft unsichtbar gelöst ist, zu Tröpfchen. Die sehen wir als Nebel oder Wolken. Vergleichbares löst der Unterdruck an den Rotoren aus. Die Wassertröpfchen aber können gefrieren und sich an den Rotorblättern als  Eiskrusten festsetzen. Das Risiko besteht das ganze Jahr über, besonders aber bei Nebel oder trübem Wetter um null Grad, aber auch bei Temperaturen über Null. Nach und nach werden die Eiskrusten dicker und schwerer. Zugleich zerren Fliehkräfte an ihnen und irgendwann lösen sie sich und schießen als Eisplatten wie Geschosse mit bis zu 400 km/h davon. Ihre Reichweite hängt von der jeweiligen Stellung des Rotorblattes und seiner Radialgeschwindigkeit zum Zeitpunkt der Ablösung ab. Deshalb können die Eisgeschosse unmittelbar am Turm einschlagen. Sie können aber auch an jedem anderen Punkt in einem Umkreis von einigen hundert Metern um das Windrad herum einschlagen, wobei der Wind sie zusätzlich ablenkt. Der TÜV Nord kommt in einer Untersuchung auf 600 m Reichweite. Und so können die Folgen aussehen:

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/bild_9.jpg

Bild 10: Eisgeschosse von einem 130 Meter entfernten Windrad haben drei Löcher in das Blechdach  geschlagen. Ein Schädeldach wurde zum Glück nicht getroffen

http://www.swp.de/ehingen/lokales/alb/Eisschlag-vom-Windrad;art5707,1220154

Die Hersteller fürchten die Vereisung der Rotoren aus anderen Gründen. Die entstehende  Unwucht kann das Windrad beschädigen. Das kennt man von einer falsch beladenen Wäscheschleuder. Deshalb bauen sie Sensoren ein, die eine Unwucht registrieren können und das Windrad stoppen. Gefährlich bleibt das Windrad trotzdem, denn meist vereisen alle Rotorblätter gleichmäßig und es entsteht keine Unwucht. Erst wenn sich Eis von einem der  Rotorblätter löst, entsteht Unwucht und erst dann können die Sensoren reagieren und das Windrad stoppen. Dann aber sind die Eisgeschosse schon unterwegs. Eiskrusten und Eisklumpen können sich auch an still stehenden Windrädern bilden. Das geschieht besonders bei Temperaturen um oder unter null  Grad. Sie lösen sich, wenn das Windrad wieder in Betrieb genommen wird und werden dann zu Geschossen. Und so wird vor den Eisgeschossen gewarnt:

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/bild_10.jpg

Bild 11: Warnung vor Windrad-Eisgeschossen

Es beginnt also der „Sicherheitsbereich“. In Wahrheit endet der Sicherheitsbereich und es beginnt der Unsicherheitsbereich, in dem lebensgefährliche Eisgeschosse drohen und zwar in einem Umkreis von einigen Hundert Metern und das auch bei Kälteperioden im Sommer. Solche Schilder beweisen, wie unaufrichtig die Informationen der Windradbetreiber sind und wie fahrlässig die genehmigenden Behörden handeln. Wer das weiß, der nähert sich Windräder nur noch mit einem mulmigen Gefühl. Sie machen ihre Umgebung zu No-Go-Area.

Verstoßen Genehmigungsbehörden und Betreiber gegen Gesetze?

Windräder töten massenhaft Tiere, die durch deutsche, europäische und internationale Gesetze streng geschützt sind. Das ist bewiesen, den Fachbehörden für Naturschutz bekannt und wird auch eingeräumt. Deshalb stellt sich die Frage, ob hier vorsätzlich gegen geltendes Recht verstoßen wird. Kann es sein, dass ein Privatmann, der eine Storch zerstückelt  bestraft wird, aber Genehmigungsbehörden und Betreiber von Windrädern ungeschoren davonkommen, wenn sie den massenhaften Tod streng geschützter Tier verursachen? Warum laufen die Natur- und Umweltschutzverbände nicht Sturm gegen Windräder und preisen sogar  Wälder, Landschaftsschutzgebiete und Naturparke als neue Standorte? Sie stecken in einer Zwickmühle. Jahrelang haben ihre Spitzenfunktionäre die  Angst vor einer drohenden Klimakatastrophe geschürt und als Rettung alternative Energiequellen wie Windräder, Solarstrom und Biogas gefordert. Ihre Forderungen hat eine professionell organisierte Lobby mit ganz anderen Motiven durchgesetzt und nun stehen sie vor einem ökologischen Scherbenhaufen. Sie haben das Gegenteil von dem erreicht, was man als Ziele ihrer Verbände in deren Satzungen nachlesen kann. Statt Vögel und Fledermäuse zu schützen, sorgen Spitzenfunktionäre der Naturschutzverbände dafür, dass Vögel und Fledermäuse durch Windräder vom Himmel geschlagen werden. Sie betreiben de facto Lobbyarbeit für die Windradindustrie und opfern dafür ein Herzstück des Naturschutzes. Dabei gibt es aus Deutschland seit Jahren Berichte über erschlagene Weißstörche, Schwarzstörche, Seeadler, Großtrappen, Kraniche und praktisch das gesamte Artenspektrum der Avifauna und über das Gemetzel an Fledermäusen. Und längst ist der ökologische Scherbenhaufen globalisiert. So werden allein im Altamont-Windpark in Kalifornien etwa 100 Steinadler und andere Greifvögel jährlich erschlagen.

Windräder machen unsere Kulturlandschaft zum Industriegebiet

Auch der Schutz unserer Kulturlandschaft gehört zum Markenkern des Naturschutzes und steht in den Satzungen ihrer Verbände. Windräder und neue Stromtrassen verkehren auch dieses Ziel in sein Gegenteil. Der Kölner Dom ist einzigartig und 157 m hoch. Windräder sind  200 m hoch und höher. 22.600 dieser Industriegiganten stehen bereits und es werden immer mehr. Sie degradieren unsere Kulturlandschaft zum Industriegebiet. Trotzdem fordern  Spitzenfunktionäre der Umweltschutzverbände den weiteren Ausbau. Jetzt geben sie auch noch die Wälder für Windräder frei, sogar in Landschaftschutzgebieten, in Naturparks und nahe an Naturschutzgebieten sollen Windräder hin. Gegen Geld verzichten sie auf ihr

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/bild_11.jpg

Bild 12: Für jedes Windrad werden 10.000 m2 Wald zerstört und das Umfeld dauerhaft biologisch entwertet

http://s822.photobucket.com/albums/zz148/Alanka/Windkraftanlagen%20im%20Wald/?start=all

Klagerecht, wie es unter anderem der NABU in Hessen getan hat. Sie verkaufen den Schutz von Natur und Landschaft.

Windräder sind Symbole des Versagens der Natur- und Umweltschutzverbände

In diese Lage haben uns die  Spitzenfunktionäre der Natur- und Umweltschutzverbände manövriert und das merken immer mehr Mitglieder, Ehrenamtliche und Spender. Die Funktionäre müssten ihren Irrtum einsehen und das Ruder herumwerfen. Sie tun aber das Gegenteil. Hubert Weinzierl ist der Präsident des Deutschen Naturschutzringes (DNR), der Dachorganisation von rund 100 Umweltschutzverbänden. Anfang September 2011 kommt er zur feierlichen Einweihung eines 3-Megawatt-Windrades. Es wurde mitten in einen Wald betoniert, der dafür auf 10.000 m2 gerodet wurde. Einwände von Anwohnern und lokalen Vogelschützern wurden weggewischt. Für den BUND-Vorsitzenden Hubert Weiger erscheint Sebastian Schönauer vom Bund Naturschutz Bayern als sein Vertreter. Der NABU und der Bayerischen Landesbund für Vogelschutz ist mit Ludwig Sothmann hochkarätig vertreten.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/bild_12.jpg

Bild 13: Unterm Windrad vereint: DNR-Präsident Hubert Weinzierl (l), Umweltminister Markus Söder (m) und Ludwig Sothmann (r) feiern die Einweihung eines Windrades im gerodeten Wald. Sebastian Schönauer, nicht im Bild, vertrat BUND-Chef Hubert Weiger. (Foto FLZ, September 2011)

Man hört, dass auch in Landschaftsschutzgebieten und Naturparks Windräder stehen sollen. Alle sind des Lobes voll für neue Windräder. Ludwig Sothmann spricht von einem „großen Sprung“. Sebastian Schönauer lobt: „Die Politik bewegt sich endlich.“ Und Hubert Weinzierl schwärmt: „Die Energiewende ist ein Geschenk. Konflikte um Windräder werden minimiert“. und „ Wir wollen auch zeigen, dass Windkraft auch im Wald genutzt werden kann“. Es sei durchaus möglich, in Bayern 1.500 Windkrafträder umweltverträglich unterzubringen. Vom gerodeten Wald, der neuen Zufahrtsstraße und von den massakrierten Vögeln und Fledermäusen oder den bedauernswerten Anwohnern spricht keiner dieser Natur- und Umweltschutzfunktionäre. Das Bild dieses Schwarzstorches zeigt, was sie anrichten:

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/bild_13.jpg

Bild 14: Am 10.Mai 2012 fand der Wurlitzer Jagdpächter Thomas Gläsel einen toten Schwarzstorch in der weiteren Umgebung der Windkraftanlagen bei Oberkotzau. Georg Nowak von der LBV-Kreisgruppe Hof stellte neben zerschmetterten Beinen, die nur noch an den Beinsehnen hingen, fest, dass das Becken des Vogels kurz vor dem Bürzel zerschlagen wurde. Auch vom Schwanzansatz fehlte ein Stück. Der Storch scheint nach der Notlandung noch eine gewisse Zeit gelebt zu haben, denn das Gras um den Vogel herum war niedergedrückt.

Und die Kirchen?

Auch sie versprechen sich Einnahmen aus dem Betrieb von Windrädern und der Verpachtung von Kirchenland für Windräder. Ich habe 16 Jahre im Umweltbeirat der Evangelischen Landeskirche in Bayern mitgearbeitet. Unser Leitmotiv war und ist: Bewahrung der Schöpfung. Und selbstverständlich habe ich in diesen Jahren von niemandem gehört, der das Erschlagen von Vögeln und Fledermäusen gut geheißen hätte. Bewahrung der Schöpfung – so jedenfalls sieht sie nicht aus.

Windräder spalten die Gesellschaft

Eigentlich möchten wir alle friedlich leben und arbeiten. Doch mit den Windrädern hat es die Politik geschafft, dass rechtschaffene Bürgerinnen und Bürger auf einander los gehen und das in ganz Deutschland. Da ist der Hotelier im Schwarzwald, der sein neues Wellness-Hotel bedroht sieht. Da ist der Häuslebauer, der ins Altersheim muss und dessen Haus und Grund niemand mehr kaufen will. Da sind die stromintensiven Aluminiumwerke, die sich im Ausland umsehen müssen. Da sind die verhunzte Landschaft, das Sterben von Vögeln und Fledermäusen, die drohenden Eisbomben, der wummernde Lärm, der Infraschall und der intermittierende Schattenwurf. Die neuen Stromtrassen will niemand vor der Haustür haben. Dafür darf sich eine winzige Minderheit von Bürgern auf Kosten aller anderen bereichern, was am härtesten die sozial Schwachen trifft. Und zu allem Überfluss brauchen wir bei Windstille wieder konventionelle Kraftwerke. Kein Wunder, wenn die Verdrossenheit auf diese Art von Politik wächst, wenn Bürgerinitiativen gegen Windräder im ganzen Land entstehen und bei Anhörungen und in Leserbriefen  Worte wie „Ökoterrorismus“ und „Ermächtigungs-Gesetze“ fallen. Schlechter kann Politik kaum noch werden.

Windräder sind überflüssig

Der Anteil der Windkraft am Primärenergieverbrauch in Deutschland liegt bei nur einem Prozent und mindestens das Doppelte ließe sich mit bekannter Technik einsparen. Nur weil das nicht geschieht, brauchen wir angeblich Windräder. Energiesparlampe, LED, Waschmaschine, Fernseher, Computer, E-Mail, SMS, digitale Fotos, Smartphone, Heizung, Wärmedämmung, Spritverbrauch, wohin wir auch sehen, immer sehen wir Einsparungen und das trotz gleicher oder mehr Leistung und oft gepaart mit ganz neuen Möglichkeiten, auch für den Export und ganz ohne Verzicht. Überflüssige oder veraltete Standby-Schaltungen vergeuden jährlich den Strom von zwei großen Kraftwerken. Noch mehr, nämlich 6.000 Megawatt, könnten allein bei Elektromotoren eingespart werden, wenn ihre Steuerung durch bewährte Technik verbessert würde. Es ist das tägliche Brot unserer Ingenieure, aus weniger Energie mehr zu machen. Das ist der bewährte Königsweg. Da sind umweltschädliche Windräder schlicht überflüssig. Ohne Windräder ist unsere Welt moderner, friedlicher, und schöner.

Anschrift des Verfassers:

Dr. Friedrich Buer, Georg-Vogel-Str. 6, 91413 Neustadt a. d. Aisch

dr.friedrich.buer@gmx.de

Der Autor ist freier Biologe und bekannt für seine Unabhängigkeit und seine Vorträge. Er war vor seinem Austritt sechzehn Jahre Kreisvorsitzender eines großen Naturschutzverbandes in Bayern und wurde für diese und weitere Engagements für den Naturschutz mehrfach ausgezeichnet.

Hinweis: Der Aufsatz von Dr. Buer wurde von EIKE mit dessen freundlicher Genehmigung hier übernommen. Er kann im Internet als pdf heruntergeladen werden (hier). Der gesamte Beitrag der EIKE-News: Artikel_als_pdf im Anhang. Wir verweisen insbesondere auch auf den Beitrag von Ulli Kulke in der WELT vom 30.März 2013

Öko-Strom vertreibt Vögel von deutschen Feldern

Related Files




Kernenergie: 100 Gründe und 100 gute Antworten, #1 bis #3

Unser Team KRITIKALITÄT fing damit an, in Stichproben die „Hundert guten Gründe” abzuklopfen, um eventuelle Fehler richtig zu stellen. Es zeigte sich aber schnell, dass „Fehler” hier eher die Regel waren. Überraschend war am Ende aber doch, dass sich kein einziger der „Hundert guten Gründe” (tatsächlich sind es 115) als korrekt herausstellte. Oft reichten sogar die von Michael und Ursula Sladek selbst angeführten Belege aus, um deren eigene Behauptungen zu widerlegen, manchmal musste man schon etwas tiefer in die Materie eindringen, um der Unwahrheit auf den Grund zu gehen.

Lassen Sie sich auf diesen Seiten in eine Kriminalgeschichte der Vernebelungen, Täuschungen, Falschzitate und Pseudowissenschaften entführen. Nehmen Sie sich die Zeit, unseren Belegen nachzugehen, und bilden Sie sich Ihr eigenes Urteil. Zu jedem der „Hundert guten Gründe” gibt es von unserem Team eine Antwort sowie die Möglichkeit, diese in unserem Forum öffentlich zu diskutieren.

So weit der Text „Motivation“ des Teams KRITIKALITÄT.

EIKE hat sich die 100 Gründe der EWS und die Antworten von KRITIKALITÄT sehr genau angesehen. Wir meinen, dass hier zum ersten Mal und in aller Vollständigkeit eine weitgehende Klärung der Standpunkte, Meinungen, Fakten und Mythen zum Thema der Kernenrgienutzung auf nachprüfbarer Faktenbasis erfolgte. Es bleiben so gut wie keine Fragen offen. Wer sich mit der Gegenüberstellung EWS vs. KRITIKALITÄT nicht ernsthaft auseinandersetzt (hiermit sind beide Seiten, Kernkraftgner und -Befürworter gemeint) gesteht damit indirekt ein, dass seine Motive ideologischer und nicht sachbezogener Natur sind.

Die Antwortenzusammenstellung von KRITIKALITÄT ist in die folgenden, von der EWS aufgestellte Kategorien unterteilt:

1. Brennstoff & Uranbergbau

2. Grenzwerte & Gesundheitsschäden

3. Unfall- und Katastrophenrisiko

4. Atommüll & Entsorgung

5. Klima & Strom

6. Macht & Profit

7. Freiheit & Demokratie

8. Krieg & Frieden

9. Energiewende & Zukunft

10. Bonusgründe

EIKE nennt die EWS-Argumente und die zugehörigen Antworten gemäß den aufgeführten Kategorien. Wir werden in regelmäßigen Zeitabständen Blöcke von 3 bis etwa 5 Argumenten/Antworten veröffentlichen, um unseren Kommentarblock ausreichend Diskussionszeit und -raum zu geben.

Zur Diskussion: Für die an fachlicher Klärung und Diskussion interessierten Leser ist die Originalwebseite KRITIKALITÄT das richtige Forum. Natürlich sind auch in dem EIKE Blog Kommentare möglich. Wir verfügen auch in EIKE über Kernenergie-Experten. Allerdings sind diese zum einen nicht so nahe am Thema wie das Team KRITIKALITÄT und zum anderen ist jede Antwort auf eine Leserfrage auch ein Zeitproblem. Daher nochmals: Fachfragen bitte auf der Seite KRITIKALITÄT stellen!

Prof. Dr. Horst-Joachim Lüdecke, EIKE Pressesprecher

Nachtrag 3.April 2013: Die Angabe der unzähligen Internet-Links führte zu Problemen mit unserem Server. Wir verzichten daher auch rückwirkend auf Links. Alle Links können den Originalartikeln entnommen werden, indem auf die entsprechenden Übersichten geklickt wird.

Kategorie Brennstoff und Uranbergbau

 #1: Abhängigkeit

Behauptung: Alles Uran muss importiert werden.

Die EWS behaupten

In ganz Europa fördern nur noch Bergwerke in Tschechien und Rumänien kleinere Mengen Uran. In Deutschland wird seit 1991 praktisch kein Uran mehr gefördert, in Frankreich seit 2001.

Atomstrom ist keine »heimische« Energiequelle. Sie macht vielmehr abhängig von Rohstoffimporten und von multinationalen Konzernen: Zwei Drittel der Welt-Uranproduktion liegen in der Hand von vier großen Bergbauunternehmen.

„Weiterführende Informationen” und Quellen der EWS

Richtig ist …

Im Gegensatz zu Kohle, Gas oder sogar „regenerativen” Energien lassen sich Kernbrennstoffe sehr einfach bevorraten, sogar um die Energieversorgung für Jahrzehnte sicherzustellen. Dies liegt an der extrem hohen Energieeffizienz von Uran verglichen mit fossilen Energieträgern. Für die gleiche Menge Strom wird 20 000 mal so viel Kohle wie Uran benötigt. Wegen der weltweit relativ hohen Uranreserven wird der Uran-Abbau immer auf die aktuellen Bedürfnisse der Nuklearindustrie abgestimmt. In Europa haben beispielsweise Schweden und die Ukraine große bislang ungenutzte Uranvorkommen, aber auch Deutschland verfügt noch über leicht zugängliche Reserven, die einige Jahre reichen, und über zugängliche Resourcen, die weitere Jahrzehnte reichen. Desweiteren liegen 60% der weltweiten Uranvorräte in politisch stabilen Ländern.

Außerdem kann jedes Land mit Zugang zum Meerwasser daraus Uransalz gewinnen. Der technische Aufwand ist zwar deutlich höher, aber mit geschätzten 250 Euro je Kilogramm verglichen mit heutigen 120 Euro je Kilogramm weiterhin bezahlbar. Das Oak Ridge National Laboratory (ORNL) hat die Technik hier so stark verbessert, dass die Kosten sich den heutigen Marktpreisen annähern könnten. Im Meerwasser befinden sich 4,5 Mrd. Tonnen Uran. Zum Vergleich: Ein großer Reaktorblock benötigt etwa 200 Tonnen Natururan pro Jahr.

Die Abhängigkeit von „multinationalen Konzernen“ ist bereits dadurch widerlegt, dass der Uranförderpreis nur 5% bis 10% der nuklearen Stromerzeugungskosten ausmacht. Bei zukünftigen Reaktorkonzepten mit vollständiger Nutzung des gesamten Urans, wie sie von der deutschen Atompolitik blockiert wurde und wird, verringert sich diese „Abhängigkeit“ weiter um einen Faktor 100, die Vorräte verlängern sich entsprechend. Die effektivere Brennstoffnutzung macht außerdem noch teurere Vorräte wirtschaftlich, wodurch sich die Reichweite weiterhin erhöht.

Unsere Quellen

#2: Vertreibungen

Behauptung: Uranabbau zerstört die Lebensgrundlagen von Zehntausenden.

Die EWS behaupten

Rund 70 Prozent der Welt-Uranreserven liegen auf dem Gebiet indigener Bevölkerungsgruppen. Der Uranabbau zerstört ihre Dörfer, raubt ihre Weide- und Ackerflächen, vergiftet ihr Wasser.

Allein die Regierung Nigers hat im Jahr 2008 ausländischen Investoren für ein riesiges Gebiet im Norden des Landes 122 Konzessionen zum Abbau von Uranerz erteilt – über die Köpfe der hier lebenden Tuareg hinweg. Wie in vielen Uranabbaugebieten droht auch ihnen Enteignung und Vertreibung. So wie am 26. Januar 1996 im indischen Chatijkocha: Assistiert von Polizeieinheiten walzten die Bulldozer des Bergbauunternehmens dort ohne Vorwarnung Hütten, Scheunen und Äcker platt, um weiteren Platz für die Uranmine zu schaffen.

„Weiterführende Informationen” und Quellen der EWS

Richtig ist …

Die meisten Uranreserven befinden sich nicht „auf dem Gebiet indigener Bevölkerungsgruppen”, sondern in hochzivilisierten Ländern wie Australien und Kanada, die aber auch Ureinwohner haben. Das Klischee von Eingeborenendörfer niederwalzenden Bulldozern kann hier also nicht bedient werden, denn beides sind zivile Rechtstaaten, in denen die Ureinwohner inzwischen hohe Rechte haben.

Niger als instabiles Entwicklungsland und einem Uranförderungsanteil von 8% ist nicht gerade repräsentativ für die gesamte globale Uranförderung, und der schon etwa 20 Jahre alte Vorfall in Indien (0,7% Uranförderungsanteil) schon gar nicht. Dass in solchen Ländern wie Niger Machtinteressen gegen die Bevölkerung leichter durchgesetzt werden können ist kein spezielles Merkmal der Uranförderung.

Die gemessene radioaktive Kontamination wäre, obwohl sie in Niger die extrem konservativen WHO-Grenzwerte überschreitet, nicht gefährlich, selbst wenn man ausschließlich dieses Wasser trinken würde – dies belegen ganz klar DNA-Studien im Niedrigdosisbereich. Von einer Vergiftung kann hier allenfalls durch Schwermetalle gesprochen werden, einem Problem, das bei jedem Bergbau anfällt und durch Aufbereitung behoben werden kann.

Unsere Quellen

#3: Wasserverschwendung

Behauptung: Uranabbau raubt kostbares Trinkwasser.

Die EWS behaupten

Um das Uran aus dem Erz herauszulösen, sind große Mengen Wasser nötig. Doch in vielen Uranabbaugebieten ist Wasser Mangelware.

Der namibische Wasserversorger NamWater rechnete unlängst vor, dass bei Inbetriebnahme der geplanten Uranminen in Namibia jährlich 54 Millionen Kubikmeter Wasser fehlen werden – elfmal so viel, wie sich im gesamten Omaruru-Omdel-Delta gewinnen lassen. Der enorme Wasserbedarf der Minen und Uranerz-Aufbereitungsanlagen steht in Konkurrenz zum Wasserbedarf von Menschen, Vieh und Landwirtschaft.

„Weiterführende Informationen” und Quellen der EWS

Richtig ist …

Die geplanten Uranminen benötigen zwar jährlich 54 Millionen Kubikmeter Wasser, es wird hier aber nicht erwähnt, dass für diesen Zweck vom Uranminenbetreiber eine eigene Meerwasser-Entsalzungsanlage errichtet werden soll. Weiterhin benennen die Autoren nicht, dass große Teile des so entsalzten Wassers als Trinkwasser eingespeist werden sollen. Dies ist alles in dem zitierten Zeitungsartikel beschrieben. Das Angebot an Trinkwasser würde sich in der wasserarmen Region dank der Uranförderung vervielfachen und die Bevölkerung wäre diese Sorge für immer los.

Wasser wird im übrigen nicht „verbraucht” sondern „gebraucht“. H₂O bleibt H₂O, sonst wäre die Menschheit schon längst verdurstet. Wie Trinkwasser kann man auch Brauchwasser mit moderatem Energieeinsatz aufbereiten/reinigen und somit zur Uranförderung nutzen – damit gibt es keine Konkurrenz zur sonstigen Trinkwassernachfrage. Dieser Umstand betrifft alle Bergbauaktivitäten, nicht nur die für Uran.

Unsere Quellen




„Es wird kälter, weil es wärmer wird“ – Die meteorologische Scheinwelt der Klima-Alarmisten

Zunächst die Fakten :

Die Winter in Nord- und Mitteleuropa und somit in Deutschland werden seit mehr als 10 Jahren wieder kälter (Abb. 1) :

Abbildung 1[1] Winter-Temperaturen 1998-2013 (Dez.-Feb.) in Deutschland

(Graphik J.KOWATSCH, Daten DWD)

Dieser Abkühlungs-Trend wird auch bei den Mittelwerten der Jahres-Temperaturen beobachtet, sowohl global („Stagnation“)[2], als auch in Deutschland (Abb. 2).

Abbildung 2: Seit 2001 fallen auch die Jahresmittelwerte der Temperaturen in Deutschland deutlich.(Quelle wie Abb. 1)

Nichts dergleichen haben die Klima-Modelle prognostiziert. Besonders peinlich ist es, daß noch vor 10 Jahren bei Interviews mit Klima-Forschern Schlagzeilen dieser Art gedruckt wurden[3]:

„Winter ade: Nie wieder Schnee? In Deutschland gehören klirrend kalte Winter der Vergangenheit an“.

Nun widerlegt die reale Natur alle bisherigen Modell-Prognosen zu Jahres- und Winter-Temperaturen. Und jetzt  – im Nachhinein – fallen den Alarmisten[4] „Erklärungen der dritten Art“ ein:

„Die vorliegenden Modellrechnungen zeigen, dass der Luftdruckgegensatz bei geringerer sommerlicher arktischer Meereisbedeckung im darauf folgenden Winter abgeschwächt wird, so dass arktische Kälte bis in die mittleren Breiten vordringen kann.“

Dazu ist nun aus der Sicht der Meteorologie eine ganze Menge zu sagen:

(1)

Nach einer solchen Kausalität – Wetter & Witterung einer Region für den kommenden Winter aus dem vergangenen Sommer ableiten  –  danach haben schon ganze Meteorologen-Generationen gesucht – vergeblich !! Das Problem der Langzeit-Prognose wäre dann endlich gelöst.

Aber auch die Klima-Alarmisten zweifeln offensichtlich an ihrer eigenen „Wunderwaffe“ noch ganz erheblich, denn der AWI-Autor Ralf Jaiser fügt relativierend hinzu [a.a.O.] : „Natürlich spielen im komplexen Klimasystem unserer Erde viele weitere Faktoren eine Rolle, die sich teilweise gegenseitig überdecken …  Weitere Mechanismen hängen beispielsweise mit der Schneebedeckung Sibiriens oder tropischen Einflüssen zusammen. Die Wechselwirkungen zwischen diesen Einflussfaktoren sind dabei Gegenstand zukünftiger Forschungsarbeiten und bilden so bislang eine Unsicherheit für Prognosen.“

An anderer Stelle heißt es dazu vom PIK-Forscher Gerstengarbe[5]:

„Die Untersuchungen zu dieser Entwicklung laufen noch, so dass man zurzeit noch keine gesicherte Aussage darüber treffen kann, ob wir in Mitteleuropa dadurch häufiger in den ‚Genuss‘ einer kalten Ostströmung kommen“.

F a z i t  :

Nicht Genaues weiß man nicht, aber die brav nach-plappernden Medien haben erst mal wieder Klima-Katatstrophen-Futter für die insbesondere zu Ostern gläubige Leser-Gemeinde.

(2)

W e n n  die neue Alarmisten-Hypothese schlüssig wäre, d a n n  müssten wir seit etwa 20 Jahren überwiegend kalte Winter haben,  d e n n  mindestens seit dieser Zeit haben wir eine relativ sehr geringe arktische Eisbedeckung – zumindest im Sommer (vgl.z.B. Abb. 3).

Abbildung 3[6] : Arktische Eis-Fläche

Jedoch: Eine Häufung kalter und schnee-reicher Winter haben wir erst wieder in den letzten 5 Jahren.

Dabei gehen die Alarmisten auf einen Gesichtspunkt „vorsichts-halber“ erst gar nicht ein:

Nach dem jährlichen sommerlichen Eis-Minimum erholt sich im folgenden Winter die Eisfläche stets wieder (Abb. 3), und liegt dann mit geringer Streuung um den langjährigen Mittelwert, z.B. derzeit (März 2013) sogar leicht darüber. Viel Eis „erzeugt“ viel Kaltluft, und die kommt infolge der stochastischen Schwingungen der Nordatlantische Oszillation (NAO) mal nach Mitteleuropa, und mal eben nicht (vgl. zu 3.). Nämlich: Die NAO entzieht sich bis heute jeglicher Vorhersage, einer Korrelation mit einer Klima-Katastrophe und mit CO2 schon ganz+gar !

F a z i t :

Unser Winter-Wetter wird immer noch im Winter gemacht, für eine gegenteilige Behauptung gibt es keinen Beweis !

(3)

D a s  entscheidende Argument gegen die neue „Warm-Kalt-Hypothese“ ist aber Folgendes

W e n n  diese Hypothese wissenschaftlich oder wenigstens statistisch schlüssig wäre,

d a n n  müsste der Index der Nordatlantischen Oszillation (Luftdruck-Gegensatz Island-Azoren) seit ca. 30 Jahren weitgehend negativ sein  – das Gegenteil ist der Fall, wie die Abb. 4 zeigt :

Abbildung 4[7]: Winter-Index der Nordatlantischen Oszillation

Tabelle NAO

D a s  bedeutet: Bei positivem NAO dominiert die West-Wind-Strömung über dem Nord-Atlantik mit milden Wintern in Europa, bei negativem NAO mäandern die Planetarischen Wellen über dem Atlantik, bis hin zum Stillstand, einer „Blockierung“ der Großwetter-Lage (vgl dazu ausführliche Erläuterung EIKE-Archiv 22.07.2010). In den letzten 5 Jahren haben wir auch d a n n  kalte Winter-Phasen mit Schnee und Kaltluft-Einbrüchen gehabt, wenn der NAO-Index insgesamt positiv war. Dabei kam die Kaltluft diesen Winter wie überwiegend auch in den voran gegangenen Wintern – im Gegensatz zu den Behauptungen der Klima-Alarmisten – keineswegs aus dem Norden, also nicht aus der Arktis, sondern weit überwiegend mit eisigen Ostwinden aus Russland und Südskandinavien!

Alleine das genügt zur Widerlegung der kruden These „Unsere Winter werden kälter, weil es in der Arktis im Sommer(!) wärmer wird“ !

Die Züricher Weltwoche[8] zitiert den PIK-Forscher Rahmstorf  : «Die eisfreien Gebiete des Ozeans funktionieren wie ein Heizkörper, da das Wasser wärmer ist als die arktische Luft darüber. Dies begünstigt die Bildung eines Hochdrucksystems, das kalte Luft nach Europa steuert.»“

D a s  steht in klarem Widerspruch zum meteorologischen und zugleich physikalischen Lehrbuch-Wissen : Über warmem Wasser entsteht kein Hoch, sondern ein Tief (!), „klassische“ Beispiele dafür sind die Tropische Stürme !

Außerdem: Im Winter besteht die Arktis nicht aus „eisfreien Gebieten“, sondern aus EIS(!), auch heutzutage (Abb. 3).

… und … (Zitat Rahmstorf a.a.O.) „… Ozeane funktionieren wie ein Heizkörper, da das Wasser wärmer ist als die arktische Luft darüber. Dies begünstigt die Bildung eines Hochdrucksystems…“ ;

Umgekehrt steht es in den meteorologischen Lehrbüchern :

Die winterlichen statischen Kälte-Hochs entstehen über einem kalten schnee-bedeckten Boden. Klassisches Beispiel dafür ist jährlich(!) das winterliche Kälte-Hoch über Sibirien und Rußland.

Mit anderen Worten:

Ein solches Hoch kann nicht über „warmem“ Arktis-Wasser entstehen. Ausnahme: Es entsteht dynamisch durch Konvergenzen in Planetarischen Wellen in der mittleren Atmosphäre. Solche Hochs sind in aller Regel nicht sehr ortsfest, die (selteneren) thermischen statischen Hochs dagegen sehr wohl. Dieser Winter 2012/13 mit den sich über Monate immer wieder regenerierenden Kälte-Hochs über Russland und Skandinavien beweist das!

Auch einigen Medien[9] fällt mittlerweile auf, daß Erklärungen der etablierten Klimaforschung zu Entwicklungen, die ihren Modellen und Vorhersagen widersprechen, immer erst hinterher kommen:

„…sind drei kalte Winter (Anm.: 2008-2010/11) … zufällig?“ … „Solche Winter sind unangenehm, nicht nur für diejenigen, die frieren, sondern auch für diejenigen, die wegen des CO2-Ausstoßes wärmere Temperaturen angekündigt haben“ … „Die Realität sei, schrieb der amerikanische Klimaforscher JUDAH COHEN, daß wir nicht trotz des Klimawandels frieren, sondern wegen ihm“ … „Überzeugend wäre eine solche Erklärung aber nur, wenn sie nicht erst im Nachhinein käme. Stattdessen wurde jahrzehntelang das Gegenteil verkündet. Man erinnere sich an DAVID VINER von der britischen Climat Research Unit. Im Jahre 2000 hatte VINER gesagt, Schneefall in Großbritannien werde in wenigen Jahren sehr selten und eine Sensation sein. Kinder werden bald nicht mehr wissen, was Schnee ist.“

Allerdings – auch einige Medien werden ob all dieser Widersprüche offensichtlich mißtrauisch, wenn sie titeln[10]:

„Klimaprognosen auf dem Prüfstand ; Extremkälte im März:

Führt die globale Erwärmung zu einer neuen Eiszeit ?“

….oder[11]

„Wissenschaftler warnen vor Eiszeit“ !

Warten wir es ab. Eines scheint mittlerweile immerhin klar zu sein :

Die Erderwärmung ist vorbei[12] !

Klaus-Eckart Puls, EIKE

Weiterführende Links:

Auch die TAZ entblödet sich (natürlich) nicht ins selbe Horn zu stoßen. Dort liest man  verblüfft:

UNERWARTETE FOLGEN DES KLIMAWANDELS

Schnee und Kälte dank Erderwärmung

Den gesamte Beitrag von Klaus Puls können Sie auch als pdf im Anhang herunterladen


[1] http://www.eike-klima-energie.eu/news-cache/die-winter-werden-in-deutschland-seit-einem-vierteljahrhundert-deutlich-kaelter/ ; 02.03.2013

[2] http://www.eike-klima-energie.eu/news-cache/klima-skepsis-erreicht-auch-die-deutschen-medien/ ; 30.01.2013

[3] http://www.spiegel.de/wissenschaft/mensch/0,1518,71456,00.html ; 01.04.2000

[4] AWI, Presse-Mitteilung, Potsdam/Bremerhaven, den 26.  Januar 2012

[5] http://www.focus.de/wissen/klima/klimaprognosen/tid-30294/klimaprognosen-auf-dem-pruefstand-fuehrt-die-globale-erwaermung-zu-einer-neuen-eiszeit_aid_948360.html  ;  26.03.2013

[6] http://www.ijis.iarc.uaf.edu/en/home/seaice_extent_prev.htm

[7] http://www.cru.uea.ac.uk/~timo/datapages/naoi.htm

[8] Eiszeit, WELTWOCHE, Zürich; 09.02.2012, S. 9-10

[9] WELTWOCHE, Frostbeulen der Erderwärmung, 1/2011, S.40

[10] http://www.focus.de/wissen/klima/klimaprognosen/tid-30294/klimaprognosen-auf-dem-pruefstand-fuehrt-die-globale-erwaermung-zu-einer-neuen-eiszeit_aid_948360.html ; 26.03.2013

[11] http://www.welt.de/print/die_welt/vermischtes/article114733276/Wissenschaftler-warnen-vor-Eiszeit.html

[12] http://www.dailymail.co.uk/news/article-2294560/The-great-green-1-The-hard-proof-finally-shows-global-warming-forecasts-costing-billions-WRONG-along.html#ixzz2O4zs7Pvw

Related Files




Schon wieder ein Hockeyschläger?

Dieser quasi-religöse Glaube an die katastrophale AGW ist immer noch eine Voraussetzung für die Mitgliedschaft in wissenschaftlichen und medialen Elitekreisen, selbst angesichts des Scheiterns früherer (Modell-)Vorhersagen hinsichtlich der Apokalypse und dem Bekenntnis eines Apostels, dass es während der letzten 17 Jahre keine globale Temperaturzunahme gegeben hat – im Gegensatz zu den Projektionen jedes einzelnen Klimamodells.

Wie andere religiöse Fanatiker auch treibt das Scheitern die Gläubigen nur dazu, frühere Behauptungen zu recyceln. Vorige Woche habe ich bei The Anatomy of Climate Science Hype die Art der Zusammenarbeit dieser unheiligen Drefaltigkeit behandelt: Ambitionierte Wissenschaftler; ein Wissenschaftsjournal, das ängstlich auf Publicity bedacht ist und die alte graue New York Times, die nur darauf wartet, alles zu veröffentlichen, was das Credo bestätigen könnte. In einer anderen Story der NYT (am 7. März) durch den Wissenschaftsreporter Justin Gillis wurde eine Studie (vom 8. März) in dem einst angesehenen Journal Science begutachtet.

Inzwischen haben viele von uns Skeptikern (eine Ehrenbezeichnung in der langen Historie wissenschaftlichen Fortschritts) Gelegenheit gehabt, diese Studie selbst zu begutachten. Es ist eine sehr detaillierte und schwierige Studie, dessen Leitautor Shaun Marcott von der Oregon State University (OSU) offensichtlich darauf abzielt, das nächste Aushängeschild des von den UN gesponserten IPCC zu werden. (Ich merke an, dass die OSU-Studie gerade noch vor Redaktionsschluss des IPCC-Berichtes dieses Jahres erschienen ist).

Nach umfangreichen Arbeiten bzgl. der Analyse von Proxies (historisch, nicht Thermometer-basiert) der letzten 11300 Jahre, dem Beginn des gegenwärtigen warmen Interglazials (Holozän) schlussfolgern die Autoren, dass die „gegenwärtige Erwärmung beispiellos“ ist. Das ist sie nicht – aber egal jetzt. Die gleiche Behauptung hat zuvor (in einer in Nature 1998 veröffentlichten Studie) Michael „Hide-the-Decline“ Mann mit seiner berüchtigten Hockeyschläger-Kurve aufgestellt, die inzwischen als „nicht nur falsch, sondern grundsätzlich wertlos“ überführt worden ist – um ein berühmtes Zitat von einem meiner Lehrer zu übernehmen, Wolfgang Pauli.

Das IPCC riss die Hockeyschläger-Kurve im Jahr 2001 an sich als seine Hauptstütze seiner Behauptungen bzgl. AGW. Er verschaffte einem frischen Doktoranden [PhD student] zu internationalem Ruhm – oder vielleicht Berüchtigtheit [notoriety]. Man kann alles über seinen tiefen Fall aus dem Buch von Andrew Montford The Hockey Stick Illusion: Climategate and the Corruption of Science erfahren. Die Klimagate-Kapitel, basierend auf Tausenden im November 2009 durchgesickerten (gehackten? Gestohlenen? Hängt davon ab, mit wem man redet) E-Mails beziehen sich auf die ganze erbärmliche Geschichte einer Bande von IPCC-Wissenschaftlern, hauptsächlich aus UK und den USA, die konspirativ zu kontrollieren gedachten, was Eingang in die IPCC-Berichte und die wissenschaftlichen Veröffentlichungen finden sollte.

Das IPCC glaubt nicht mehr an die Hockeyschläger-Kurve und brachte in seinem Bericht 2007 ein anderes Argument, um AGW zu stützen. Dieses Argument scheitert auch gerade, aber das IPCC gibt nicht auf. Eventuell werden sie irgendwann entdecken, dass AGW unwichtig und kaum erkennbar ist. Aber bis dahin wird man viel Geld verschwendet haben, um „die Klimaänderung zu bekämpfen, den Meeresspiegel daran zu hindern zu steigen und die Erde zu heilen“.

Die Science-Studie

Die vier Autoren, drei von der OSU und einer von Harvard, bleiben ziemlich unscharf bei der Definition des Wortes „kürzlich“ [recent]. Aber dann fügen sie eine gigantische Temperaturzunahme über das gesamte 20. Jahrhundert hinzu. Das ist die Krux ihrer Behauptung, aber auch ihr schwächster Punkt: Die einzige nachgewiesene Erwärmung fand von 1910 bis 1940 statt. Obwohl diese Erwärmung sicherlich wahr ist, glauben nur wenige fanatische Wissenschaftler, dass sie vom Menschen verursacht worden ist. Nicht einmal das IPCC betrachtet die Erwärmung bis 1940 als anthropogen.

Andererseits könnte die große behauptete Erwärmung von 1979 bis 2000 nicht einmal existieren. Über diese wichtige Frage sind die Meinungen geteilt. Die Erwärmung konnte in Satellitendaten sicherlich nicht nachgewiesen werden, und das ist die beste globale Beobachtung der Temperatur, die wir haben.

Natürlich ignorieren die Autoren die Tatsache, dass es seit mindestens einer Dekade gar keine Erwärmung gegeben hat – während die anthropogenen Treibhausgase immer schneller zugenommen haben. Philip Jones zufolge, dem Guru des IPCC hinsichtlich der globalen Temperatur, gab es keinerlei signifikante globale Erwärmung seit 17 Jahren!

Noch seltsamer mutet ihre Vorhersage für die Zukunft an – die vollständig auf nie validierten Computermodellen basiert. Sie schreiben: „Bis zum Jahr 2010 werden die globalen Temperaturen möglicherweise 5 bis 12 Sigma-Abweichungen [?] über dem Mittel des Holozäns liegen“. In einfachen Worten, dies bedeutet eine gewaltige Zunahme; aber die Wahrscheinlichkeit eines großen Temperaturanstiegs ist praktisch Null. Natürlich lassen sie sich viele Hintertürchen offen, indem sie mindestens ein halbes Dutzend Projektionen zeigen, abhängig vom jeweiligen angenommenen Szenario.

Verstecken der Datenmischung

Was hinsichtlich dieser jüngsten Bemühungen zur Behauptung einer ungewöhnlichen Erwärmung im 20. Jahrhundert und eines impliziten menschlichen Beitrags charakteristisch ist, ist deren Präsentation. Der Original-Hockeyschläger, erstmals 1998 veröffentlicht, erklärte genau und detailliert, dass die modernen instrumentellen (Thermometer-)Aufzeichnungen einfach einer Jahrhunderte langen Reihe von Proxy-Daten aufgepropft worden sind (nicht Thermometer-basiert); die OSU-Studie lehnt es ab, die Leser über diesen wichtigen Sachverhalt zu informieren.

Als Begutachter der IPCC-Berichte erinnere ich mich gut an die Bemühungen, das Vermengen von Proxy- und Thermometerdaten zu verschleiern: Im dritten IPCC-Zustandsbericht (2001) erschienen die Proxy-Temperaturreihe als schwarze Linie und die Temperaturen des 20. Jahrhunderts als blaue Linie. Ich habe mich darüber beschwert, dass dies sehr schwer unterscheidbar ist – vor allem in einer Xerox-Schwarzweißkopie. Seitdem haben das IPCC und alle anderen eine deutliche rote Farbe für die instrumentellen Daten verwendet. Diese Art der Darstellung fehlt allerdings in der gegenwärtigen OSU-Studie.

Es gibt eine Analogie aus neuester Zeit: Es ist so, als ob man Pferdefleisch in schwedische Hackbällchen füllt und diese als Rindfleisch anpreist. Im Falle der Hackbällchen hat der DNA-Beweis das mit dem Pferdefleisch überführt. Hier ist es die Tatsache, dass man am Ende der Aufzeichnung abrupte Temperaturänderungen erkennt – trotz der Feststellung des Autors, dass sie die Rohdaten einer 100-jährigen Glättung unterzogen haben. Mit so langen Glättungszeiten wie einem Jahrhundert kann man nicht erwarten, Temperaturspitzen zu erkennen, die nur etwa ein Jahrzehnt gedauert haben.

Was haben sie also wirklich gemacht? Ich habe den Verdacht, dass die Studie eine Auffrischung von Marcotts These aus seiner Doktorarbeit ist. Er hat auch erst vor Kurzem seinen PhD erhalten (2011) und hat das Schwein gehabt, dass der Hockeyschläger Nr. 2 nicht nur veröffentlicht, sondern auch international beworben worden ist. Alles darin basiert auf 73 Beispielen von Sedimenten aus den Tiefen der Ozeane, Korallen, Muscheln usw. Da gibt es nichts wirklich Neues: 1996 hat Lloyd Keigwin (von der Woods Hole Oceanographic Institution) eine solche Analyse in Science veröffentlicht. Er fand heraus, dass es vor 1000 Jahren wärmer war (während der Mittelalterlichen Warnzeit) – und erheblich wärmer vor 3000 Jahren und noch früher.

Warum also haben die Herausgeber von Science der OSU-Studie eine solche ‚Spezial’-Berhandlung zukommen lassen, Presseerklärungen verbreitet und Interviews usw. arrangiert? Vielleicht waren sie von der Behauptung der Autoren eingelullt, dass „der Planet heute wärmer ist als während 70 bis 80% der Zeit der letzten 11300 Jahre“. Aber wie der britische Klimaexperte David Whitehouse hervorhebt: „Natürlich kann man dies auch anders ausdrücken, nämlich dass die gegenwärtigen Temperaturen kälter sind als während 28% des Holozäns. Dieser Forschung zufolge liegen die Temperaturen des 20. Jahrhunderts etwa beim Mittelwert des Holozäns“.

Dieser ganze Fall illustriert ein weiteres Mal, wie ein einstmals angesehenes wissenschaftliches Journal einen bevor stehenden Artikel hochjubelt, indem es vorab Presseerklärungen an ausgewählte Journalisten schickt, die dann eine Sensations-Story daraus machen. Das kann Laien beeindrucken, aber es wird keine signifikanten Auswirkungen auf die Diskussion über AGW in der wirklichen Wissenschaft haben. Sein Einfluss auf die Politik ist Null – oder sollte es zumindest sein.

S. Fred Singer

S. Fred Singer is professor emeritus at the University of Virginia and director of the Science & Environmental Policy Project.  His specialty is atmospheric and space physics.   An expert in remote sensing and satellites, he served as the founding director of the US Weather Satellite Service and, more recently, as vice chair of the US National Advisory Committee on Oceans & Atmosphere.  He is a Senior Fellow of the Heartland Institute and the Independent Institute.  He co-authored the NY Times best-seller “Unstoppable Global Warming: Every 1500 years.”  In 2007, he founded and has since chaired the NIPCC (Nongovernmental International Panel on Climate Change), which has released several scientific reports [See www.NIPCCreport.org]. 

For recent writings see http://www.americanthinker.com/s_fred_singer/ and also Google Scholar.

Link: http://wattsupwiththat.com/2013/03/14/another-hockey-stick/

A. d. Übers.: Auch von Steve McIntyre liegt hierzu etwas vor. Er präsentiert ein paar erhellende Graphiken:

Kein Aufwärtstrend in Marcotts Doktorarbeit

Ein Leser lenkte mein Augenmerk auf Marcotts Dissertation (siehe Kapitel 4 hier*). Marcotts Dissertation enthält eine Reihe von Diagrammen von identischem Stil wie der Science-Artikel. Die Proxy-Datensätze sind identisch.

[*Der Link hat das System regelmäßig zum Absturz gebracht. Man wechsle zum Original, um den Link anzukicken. A. d. Übers.]

Wie allerdings Jean S aufmerksam beobachtete, fehlt in den Diagrammen der These der abschließende Kick nach oben. Andere Aspekte der Modernen Zeit unterscheiden sich ebenfalls dramatisch.

Hier folgt Abbildung 1 aus dem Science-Artikel:

Und hier das korrespondierende Diagramm der These:

Die Unterschiede werden jedem sofort auffallen. Zusätzlich zu diesem Unterschied beim abschließenden Aufwärtstrend zeigten Versionen wichtiger Rekonstruktionen negative Werte zum Ende der Graphik der These, während sie zum Ende der Graphik in Science positive Werte aufweist.

Ich frage mich, wie dieser Unterschied zustande kommt.

Ein ähnliches Phänomen zeigt sich beim Simulations-Diagramm, das zur Unterstützung des Hockeyschlägers weit verbreitet worden ist. Hier folgt eine Vergrößerung des Abschnitts aus jüngerer Zeit in Sciencemag:

Und hier die korrespondierende Vergrößerung der These:

Steve McIntyre

Link: http://climateaudit.org/2013/03/14/no-uptick-in-marcott-thesis/ Übersetzt von Chris Frey EIKE




Wie Greenpeace Glück definiert

„Lasst uns am Internationalen Tag des Glücks mal gar nichts kaufen”, schrieb er. Ihm zufolge gibt es „nichts Grüneres als nichts zu konsumieren!“

Was für ein törichter Unsinn!

Nachdem ich 30 Jahre lang in der Innenstadt von Toronto gewohnt habe, bin ich vor Kurzem in eine kleine Stadt umgezogen. Eine der Top-Adressen dort ist eine spektakuläre Französische Bäckerei. Die Croissants sind knusprig, die Baguettes köstlich. Der Zimt-Brioche am Samstag Morgen ist ein Geschenk des Himmels, die Windbeutel und Eclairs sind göttlich.

Gestern Nachmittag bin ich durch Treibschnee und bitterkalten Wind zu dieser Bäckerei gelaufen. Ich gab der Frau hinter der Theke Geld, und sie gab mir dafür einen Pave du Roy zum Mitnehmen. Köstliche dunkle Schokolade und noch mehr Schokolade. Mein Mann und ich haben uns das am Abend geteilt. Es machte uns beide wirklich sehr glücklich!

Das junge Paar, dem die Bäckerei gehört, sind unsere Nachbarn und Freunde. Vorgestern war es kalt, dunkel und windig. Das Geschäftsleben lag auf unterstem Niveau. Was bedeutet, dass zwar die Bäckerei die normale Menge frischen Brotes und Kuchen produziert, aber weniger als normal verkauft hat. Es kann sein, dass ein Tag finanziell gesehen die ganze Woche für die Bäckerei verdorben hat.

Mr. Greenpeace nun denkt, dass ich meinen Teil zur Not der Bäckerei hätte beitragen sollen. Er denkt, dass ich diese großartige Schokoladen-Konfektion nicht hätte kaufen sollen. Seine unsinnige Logik geht so:

● Es ist der Tag des Glücks.

● Glück = grün sein

● grün sein = nichts kaufen

Ein Boykott dieser Bäckerei wegen des Tages des Glücks würde sechs Tage die Woche hart arbeitende Menschen, denen diese Einrichtung gehört, nicht glücklich machen. Es würde sie schädigen.

Zum Glück von meinem Mann und mir würde es nicht im Mindesten beigetragen haben, wenn wir uns diese Köstlichkeit vorenthalten hätten. Der Regierung die Steuern zu verweigern, die ich dafür bezahlt habe, würde uns nicht geholfen haben, unserer Verpflichtung der Gemeinde gegenüber nachgekommen zu sein.

In welchem verdrehtem Universum also machen diese Greenpeace-Gedanken auch nur den Hauch von Vernunft?

Selbst wenn ich das gewollt hätte – es wäre mir unmöglich gewesen, gestern nichts zu konsumieren. Essen – diese buchstäblichste Form des Verbrauchens – ist nur der Anfang.

Die Heizung abzustellen war keine Option. Auch nicht das Ausschalten des Stromes. In dem Teil der Welt, in dem ich lebe, gehen Menschen, Tiere und Pflanzen ohne diese Dinge ein. Während ich dies schreibe, verharrt die Temperatur unter Null und es schneit immer weiter [genau das war zum Zeitpunkt dieser Übersetzung auch hierzulande der Fall! A. d. Übers.].

Hätte ich gestern auch nicht duschen sollen? Schließlich verbraucht man dabei Wasser – und die Qualitätskontrolle des Wassers verbraucht Energie (ebenso wie die sichere Entsorgung des Abwassers).

Sagen wir es direkt: Die einzigen Menschen, die gar nichts verbrauchen, sind die Toten.

Greenpeace sagt, dass es „nichts grüneres gebe als nichts zu verbrauchen“. Greenpeace zufolge wäre die Welt also ein grünerer Ort, wenn Sie, ich und die Eigentümer dieser sensationellen Bäckerei alle in unseren Gräbern liegen würden.

Dank an Tom Nelson

Link: http://nofrakkingconsensus.com/2013/03/21/how-greenpeace-defines-happiness/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Von diesem „Day of Happiness“ habe ich noch nie etwas gehört, aber das besagt nicht allzu viel. Mir ging es hauptsächlich darum, an einem Beispiel aufzuzeigen, wie Greenpeace wirklich tickt, und das hat Donna Laframboise mit diesem Artikel in sehr aufschlussreicher Manier getan. Darum habe ich ihn übersetzt.

C. F.




Die Welt nach Fukushima – Teil 2: Undemokratische Berufe

Zur Zeit der Reaktorkatastrophe von Fukushima war Naoto Kan Premierminister in Japan. Seine Analyse in „Die Welt nach Fukushima“ hat mir klar gemacht, dass die Kernenergie auch ein demokratisches Desaster ist.

Der japanische Soziologe Eiji Oguma erklärt, der Mensch könne die Kernenergie nur schwer beherrschen, es sei vielleicht nicht unmöglich, aber unvereinbar mit der Demokratie. “Das funktioniert nur mit großer Macht. Mit einer Macht, die über alle Gesetze hinausgeht.”

Anschließend erklärt Naoto Kan, wenn man die Kernenergie weiter betreibe, sei das, als würde man von Leuten verlangen, ihr Leben für ihr Land zu opfern. Während der Katastrophe waren die Mitarbeiter von Tepco bereit, vor Ort zu bleiben und wenn nötig bis zum Außersten zu gehen. Vielleicht hätte er den Mitarbeitern von Tepco gegen deren Willen befehlen müssen in Fukushima zu bleiben. Dies wäre undemokratisch gewesen. 

Natürlich! Warum bin ich da nicht selbst drauf gekommen? Im Falle einer Reaktorkatastrophe, müssen Menschen vielleicht gezwungen werden ihr Leben zu opfern für das Leben anderer Menschen. Zwar ist bis heute, weder bei der Bevölkerung noch bei den Angestellten von Fukushima, ein einziges Todesopfer durch Strahlung zu beklagen- aber das hätte ja passieren können! Wenn das nicht undemokratisch ist, was denn dann?

In einem Kernkraftwerk ist im extrem seltenen Katastrophenfall damit zu rechnen, dass Mitarbeiter ihr Leben riskieren und es vielleicht verlieren. Doch das ist nicht das einzige Beispiel in unserer Gesellschaft, in der im Katastrophenfall Menschen für andere Menschen ihr Leben lassen müssen. Unser Staat hat es zugelassen, dass eine geldgierige Lobby in Deutschland eine Hochrisikotechnik etabliert hat, die sich demokratischer Kontrolle vollständig entzieht. Obwohl die Gefahren dieser Technologie hinreichend bekannt sind, tut der Staat nichts gegen diese Technologie. Vertreter, Anhänger und Nutznießer ziehen sich sogar bis in die höchsten Kreise der Politik. Zum Schutz der Bevölkerung vor den Gefahren dieser infernalischen Technologie unterhält der Staat eigens eine Einrichtung, in der Menschen ausgebildet und angestellt werden, um leichtsinnig und absichtlich ihr Leben zu geben für den Fall katastrophaler und unvermeidlicher Unfälle. Der Staat nennt diese Einrichtung euphemistisch Feuerwehr.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/FirePhotography.jpg

Bild 1: Sogenannte Feuerwehrleute riskieren ihr Leben für die Hochrisikotechnologie Architektur

Diese sogenannte Feuerwehr hat nur den einzigen Zweck, Menschen vor den Gefahren der Architektur zu beschützen. Die Architektur ist eine Hochrisikotechnologie, aus der wir so schnell wie möglich aussteigen müssen.

Jedes Jahr sterben in Deutschland Feuerwehrleute in Ausübung ihrer undemokratischen Pflicht, unschuldige Menschen vor den unverantwortlichen Gefahren der Architektur zu bewahren. Und selbst das gelingt ihnen nicht immer. Immer wieder sterben Unschuldige in den Flammen. Der Machbarkeitswahn der Architekten führte zur Illusion einer sicheren Technologie, doch ein Restrisiko bleibt.

Und als sei diese staatlich organisierte Selbstaufopferungsmaschine noch nicht genug, pflegen unzählige Städte und Dörfer die verhängnisvolle Tradition der freiwilligen Feuerwehren, wo junge Menschen (sogar Minderjährige) darin unterrichtet werden ihr Leben für die technologischen Risiken der Architektur hinzugeben.

Um die unschuldigen Opfer dieser Gehirnwäsche in die Gefühlslage zu bringen, die für solch einen Einsatz nötig sind, werden sie durch exzessiven Alkoholgenuss bei sogenannten Feuerwehrfesten gefügig gemacht.

Dabei liegen die Alternativen auf der Hand: Blechhütten brennen nicht, und mit dem richtigen Willen ist es möglich, sämtliche Haushaltsgegenstände feuerfest zu machen. Wir müssen zu einer Architekturwende in Deutschland kommen. Die Maßnahmen sind einfach: Verbot eines Neubaus potentiell brennbarer Häuser und der Produktion brennbarer Einrichtungsgegenstände. Förderung des Baus feuerfester Gebäude aus Stahl, Blech und Aluminium.

Hinzu kommt die ungelöste Endlagerproblematik der Baumaterialien. Während Gebäude aus 100% Metall eingeschmolzen und somit nachhaltig wiederverwetet werden können, ist die Entsorgung von Bauschutt ein kompliziertes und umweltschädliches Verfahren.

Deutschland muss notfalls als Vorbild in der Welt vorangehen.

Die mächtige Baulobby, unterstützt von der mafiösen Abrisslobby wird Widerstand leisten, doch eine Architektonisch-Wirtschaftliche Wende ist unumgänglich um unsere Demokratie zu retten. Mit der richtigen Einstellung, können wir unsere Städtelandschaft bis 2040 demokratisieren und gegen die Gefahren der Architektur wappnen.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Aliwal_North_-_Dukatole_-_03.05_-_Shack.jpg

Bild 2: Das Haus der Zukunft. Für dieses gemütliche Heim muss kein Feuerwehrmann sein Leben riskieren.

Der Originalaufsatz (hier).




Das große Kontra gegen grün Nr. 1: Der hieb- und stichfeste Beweis, der zeigt, dass die Vorhersagen zur globalen Erwärmung, die Sie Milliarden kosten, von Anfang an FALSCH waren

Die Mail on Sunday präsentiert heute den unwiderlegbaren Beweis, dass die offiziellen Vorhersagen der globalen Klima-Erwärmung katastrophal daneben lagen.

Die Graphik rechts zerbläst die ‚wissenschaftliche Basis’ dafür, dass die gesamte Wirtschaft in UK umgekrempelt wird und dass Milliarden Steuergelder und Subventionen ausgegeben werden, um die Emissionen von Treibhausgasen zu reduzieren. Die entsprechenden Maßnahmen haben die Stromrechnungen für jeden Haushalt schon jetzt um 100 Pfund pro Jahr steigen lassen.

Bild rechts: Graphik der globalen Erwärmung

Die stetig steigenden Bänder in orange und rot in der Graphik zeigen die Computervorhersagen der Temperaturen der Welt, die offiziell vom IPCC verwendet werden.

Die Schätzungen – angegeben mit 75 Prozent und 95 Prozent Sicherheit – zeigen nur eine Chance von fünf Prozent, dass der tatsächliche Temperaturverlauf aus diesen beiden Bändern herausfällt.

Aber wenn man die jüngsten offiziellen Temperaturangaben des Met. Office über diese Vorhersagen legt, zeigt sich, wie falsch die Schätzungen waren – bis hin zu dem Punkt, an dem der Temperaturverlauf ganz aus dem ‚95-Prozent-Band’ herausfällt.

Die Graphik zeigt unwiderlegbar detailliert, wie sehr die Geschwindigkeit der globalen Erwärmung überschätzt worden ist. Und doch hatten diese Vorhersagen einen ruinösen Einfluss auf die Rechnungen, die wir zahlen, vom Heizen bis zum Benzin und den gewaltigen Summen, gezahlt von Gremien zur Reduktion von Kohlenstoff-Emissionen.

Die Ökodebatte war im Endeffekt durch falsche Daten gekapert worden. Die Vorhersagen haben auch Arbeitsplätze ins Ausland vertrieben, da die Hersteller zu Orten ohne Emissionsziele umsiedeln.

Eine Version der Graphik erscheint im durchgesickerten Entwurf zum 5. Zustandsbericht des IPCC, der später in diesem Jahr veröffentlicht werden soll. Die Graphik kommt zu einem Zeitpunkt, an dem Klimawissenschaftler einzuräumen beginnen, dass ihre schlimmsten Befürchtungen hinsichtlich der globalen Erwärmung nicht eintreten werden.

Akademiker überdenken ihre Ansichten, nachdem sie die Fehlkalkulation erkannt haben. Vergangene Nacht sagte Myles Allen, Professor der Geosystem Science an der Oxford University, dass er bis vor Kurzem auch noch geglaubt habe, dass sich die Welt auf dem Weg zu einem katastrophalen Temperaturanstieg um mehr als fünf Grad in diesem Jahrhundert befindet.

Aber jetzt sagt er: „Die Chancen sind geringer geworden“ – und fügt hinzu, dass die Erwärmung signifikant niedriger ausfallen werde. Er sagt, dass höhere Schätzungen ‚zweifelhaft daherkommen’.

Die Graphik bestätigt, dass es keine statistisch signifikante Zunahme der mittleren Temperatur der Welt seit Januar 1997 mehr gegeben hat – wie diese Zeitung als erste im vorigen Jahr bekannt gegeben hat.

Ende vorigen Jahres hat das Met. Office seine Zehn-Jahres-Prognose revidiert, der zufolge es eine ganze Reihe von Jahren mit neuen Wärmerekorden geben müsste. Es sagt jetzt, dass die Pause der Erwärmung mindestens bis zum Jahr 2017 dauern wird. Ein Blick auf die Graphik wird aber bestätigen, dass es auf der Welt dann kühler wäre als im kühlsten Szenario vorhergesagt.

Die Quelle ist einwandfrei. Die die Welttemperatur repräsentierende Kurve stammt von der HadCRUT4-Datenbasis des Met. Office, die Messwerte von über 30000 Messpunkten enthält. Diese wurde den Bereichen mit 75 bzw. 95 Prozent überlagert, um die Graphik von einer Gruppe erstellen zu lassen, die die Arbeit von 20 für das IPCC arbeitenden Klimamodell-Zentren zusammenfasst.

Die Vorhersagen der globalen Erwärmung aufgrund der Vorhersagen der Wissenschaftler, dass die schnell steigenden CO2-Niveaus die Temperatur zum Steigen bringen würden, führten direkt zum Climate Change Act in UK. Dieses Gesetz verlangt, dass die Emissionen in UK bis zum Jahr 2050 um 80% gekürzt werden müssen.

1977 – Das Jahr, in dem uns gesagt worden ist, dass wir den Terror einer … globalen Abkühlung fürchten müssen

In den siebziger Jahren waren die Politiker und Wissenschaftler genauso besorgt über eine heraufziehende ‚Eiszeit’ wie sie es heute hinsichtlich der globalen Erwärmung sind.

Die Temperaturen sind seit Beginn der vierziger Jahre gefallen. Professoren haben davor gewarnt, dass sich dieser Trend fortsetzen werde und Nahrungsmittelkrisen sich verschlimmern würden infolge der kürzeren Wachstumsphasen.

Newsweek berichtete, dass die Beweise für eine Abkühlung so stark seien, dass ‚die Meteorologen sich schwertun, damit Schritt zu halten’. Aber, lamentierte das Journal, ‚die Wissenschaftler sehen nur wenige Anzeichen, dass die Regierungschefs irgendwo auch nur vorbereitet sind, einfache Maßnahmen zu ergreifen, die Variablen der klimatischen Unsicherheit in wirtschaftliche Projektionen einfließen zu lassen’. Es sagte weiter, der Planet ‚befinden sich bereist zu einem Sechstel auf dem Weg in die nächste Eiszeit’.

Während in jüngster Zeit von jedem Extremwetterereignis gesagt wird, dass die globale Erwärmung schuld daran sei, war in den Siebzigern die Abkühlung der Schuldige. In einem Artikel fand sich eine Vorhersage für ‚den zerstörerischsten Ausbruch von Tornados denn je’, zusammen mit ‚Dürren, Überschwemmungen, verlängerten Trockenperioden und langen Frostperioden’.

Die gegenwärtige Stromrechnung sorgt dafür, dass die Subventionen für Windturbinen auf 7,6 Milliarden Pfund steigen werden – was zu Gesamtkosten in Höhe von 110 Milliarden führt. Motorisierte werden bald einen weiteren Anstieg der Benzinkosten um 3 Pence pro Liter hinnehmen müssen, weil dieser jetzt ‚Biotreibstoff’ enthalten muss.

Viele Wissenschaftler sagen, dass die Pause sowie neue Forschungen bzgl. Faktoren wie Russpartikel und Ozeanzyklen sie dazu gebracht hat, die ‚Klimasenistivität’ zu überdenken – wie stark sich die Welt bei einem gegebenen CO2-Gehalt erwärmen wird.

James Annan von der Frontier Research For Global Change, ein prominenter ‚Warmist’ sagte vor kurzem, dass die hohen Schätzungen bzgl. der Klimasensitivität jetzt ‚zunehmend haltlos’ aussehen, wobei der wirkliche Verlauf etwa halb so groß ist wie die IPCC-Vorhersage im letzten Bericht 2007.

Bekennende Klimaskeptiker sind da eindeutiger; siehe die Aussage von Dr. David Whitehouse, Autor eines neuen Berichtes zum Stillstand, der von der Global Warming Policy Foundation von Lord Lawson veröffentlicht worden ist, im Kasten oben.

Ich sagte, das Ende war nicht nahe … und es hat mich meine BBC-Karriere gekostet, sagte der erste Umweltaktivist des Fernsehens, David Bellamy.

Forderte die Orthodoxie heraus: Der ehemalige BBC-Botaniker David Bellamy sagte, dass er als ketzerisch angesehen worden sei, weil er sich nicht linientreu hinsichtlich der globalen Erwärmung verhalten habe.

Die Graphik oben rechts zeigt, dass das Ende keineswegs nahe ist. Aber für jeden – einschließlich mich selbst – die wir wegen einer solchen abwegigen Ansicht geschmäht worden sind, ist das Wichtigste hierzu die Quelle: Niemand anders als das IPCC höchstselbst!

Seit seiner Gründung im Jahre 1988 hat das IPCC die Alarmglocke bzgl. der vom Menschen verursachten globalen Erwärmung geschlagen. Und doch findet sich hier in einem Entwurf für den nächsten Bericht des IPCC ein Diagramm, in dem der tatsächliche Temperaturverlauf der Erde den Vorhersagen überlagert ist.

Die Graphik zeigt eine Erde, die sich stur weigert, sich weiter zu erwärmen. Tatsächlich zeigt sie, dass es sogar bald kälter werden dürfte.

Die peinliche Tatsache lautet, dass sich die Erde gerade mal um 0,5 Grad erwärmt hat während der letzten 50 Jahre. Und die Aufzeichnungen des Met. Office zeigen während der letzten 16 Jahre einen völlig flachen Verlauf oder, falls überhaupt eine Tendenz, dann eher abwärts.

Wie die Graphik zeigt, wird sich der reale Temperaturverlauf immer weiter von der Untergangs-Vorhersage des IPCC entfernen, je länger dieser Stillstand noch dauert.

Und doch wird diese Vorhersage als Rechtfertigung angeführt, überall hässliche Windparks zu errichten, die unser Landschaftsbild verderben und Milliarden unnötiger ‚grüner’ Steuern zu erheben, die unsere Industrie weniger wettbewerbsfähig machen und zu etwa 100 Pfund zusätzlich zu den Stromkosten für jeden Haushalt führen.

Die vom Menschen verursachte globale Erwärmung ist zu einer wissenschaftlichen Orthodoxie verkommen, in der es keinen Platz für Abweichungen gibt. Tragischerweise hat sich die traditionelle Sorgfalt meiner Brüder durch das Fenster verflüchtigt, zusammen mit dem Konzept kritischer Begutachtung als Test neuer Theorien.

Gegner der anthropogen verursachten globalen Erwärmung werden als gefährliche Häretiker betrachtet, wie ich zu meinem Leidwesen erfahren musste. Kurz nach Gründung des IPCC wurde ich an die Institution eingeladen, die heute das Hadley Centre for Climate Prediction and Research des Met. Office in Exeter ist, um mir eine Präsentation zur globalen Erwärmung anzuhören.

Als Gesicht der Naturgeschichte bei der BBC und wissenschaftlicher Akademiker wollten sie mich in ihre Sache hineinziehen. Aber als ich die so genannten Beweise gelesen hatte, wurde mir klar, dass es sich um einen Betrug handelte, und lehnte es ab, da mitzumachen.

Sehr rasch fand ich mich von der BBC abgesetzt und von der erweiterten wissenschaftlichen Gemeinschaft ausgegrenzt. Als ich ein paar Kindern geholfen habe, gegen einen Windpark als Teil eines Blue Peter-Programms zu protestieren, wurde ich öffentlich verunglimpft. Beleidigende E-Mails kritisierten mich. Ich wusste, dass meine Karriere bei der BBC beendet war.

Aber wissenschaftliche Theorie muss getestet werden. Darum stelle ich die Wissenschaft in Frage, die den Kohlenstoff als den Schurken darstellt, der das Ende der Welt herbeiführen wird.

Offene Diskussion: David Bellamy argumentiert, dass wir in der Lage sein sollten, Theorien zur globalen Erwärmung zu testen und dass die Welt mit Fluktuationen des Kohlenstoffgehaltes in der Luft sehr gut leben kann.

Die Geologie sagt uns, dass fossile Treibstoffe hauptsächlich aus Kohlenstoff bestehen, der Teil unserer Atmosphäre war, bevor er vor Millionen Jahren in der Erde eingeschlossen worden war. Zu jener Zeit gab es mehr als 4000 ppm in der Atmosphäre. Mit der Zeit ging er zurück auf 270 ppm und liegt derzeit bei 385 ppm.

Es ist offensichtlich, dass die Welt mit derartigen Fluktuationen des atmosphärischen Kohlenstoff-Anteils leben kann. Es gibt auch eine Korrelation zwischen Temperatur und CO2, aber einige meiner Kollegen haben den Karren vor das Pferd gespannt.

Die Beweise zeigen, dass das CO2-Niveau der Temperatur folgt und nicht umgekehrt. Tatsächlich könnte es viele Faktoren geben, die unser Klima bestimmen. Der australische Wissenschaftler David Archibald hat eine bemerkenswerte Korrelation zwischen der Sonnenaktivität und unserem Klima während der letzten 300 Jahre gezeigt. Klimawissenschaftler bestehen darauf, dass wir die ‚Kohlenstoff’-Orthodoxie akzeptieren müssen oder in die Wüste geschickt werden.

Aber die Wissenschaftler hinter der Theorie haben ein eindeutiges Interesse – es ist eine großartige Möglichkeit, neue Steuern zu rechtfertigen, mehr Geld zu bekommen und sich mehr Arbeit zu verschaffen.

Die Wirklichkeit lautet, dass die vom Menschen verursachte globale Erwärmung ein Mythos ist: die globale Temperatur liegt gut im das Leben begünstigenden Bereich, und – wirklich – die gegenwärtige Zeit ist kälter als fast während der gesamten Erdgeschichte. Vielleicht wird dies der Moment, dass diese Tatsache die neue wissenschaftliche Orthodoxie wird.

Die Originalgraphik wurde von Dr. Ed Hawkins erstellt, einem leitenden Forschungswissenschaftler beim National Centre for Atmospheric Science. Eine Besprechung der Graphik und ihrer Bedeutung findet sich auf der Website Climate Lab Book.

David Rose
Read more: http://www.dailymail.co.uk/news/article-2294560/The-great-green-1-The-hard-proof-finally-shows-global-warming-forecasts-costing-billions-WRONG-along.html#ixzz2O4zs7Pvw
Link: http://tinyurl.com/am8my8w

Übersetzt von Chris Frey EIKE




Peaköl lebt? Grüner Lobbyverband „Energy-Watch“ erweckt Peaköl mit Pseudostudie erneut zum Leben.

Peak-Oil und Anti-Fracking Propanganda in der ARD – “Wir haben noch 7 Jahre”

Ich war heute morgen mit dem Auto unterwegs und hatte das zweifelhafte Vergnügen im Halbstunden-Rhythmus die Nachrichten auf WDR 5 verfolgen zu dürfen. Topmeldung des Tages und damit in jeder Nachrichtensendung präsent war erwartungsgemäß  das vorläufige Abwenden des finanziellen Kollaps in Zypern. An zweiter Stelle war jedoch eine Meldung, die einen fast noch mehr aufhorchen ließ. Nach Angaben des WDR stünden Peak-Oil und Peak-Gas nun unmittelbar bevor. Es ist, wieder einmal, noch schlimmer als man ohnehin schon befürchtet hatte. Interessant war zudem auch die Evolution der Meldung.

Studie: Öl und Gas gehen schneller aus als gedacht (06:35Uhr)

Öl und Gas werden weltweit möglicherweise schneller ausgehen als bisher gedacht. Eine internationale Expertengruppe hat in einer Studie berechnet, dass schon in sieben Jahren ein Zeitpunkt erreicht ist, ab dem nicht mehr Öl und Gas gewonnen werden können. Die Einzelheiten: Ab 2020 geht es laut Studie abwärts mit den fossilen Brennstoffen. Und sie werden immer teurer. Die Wissenschaftler gehen davon aus, dass auch neue Fördermethoden wie das Fracking nichts bringen. Dabei wird eine Chemikalienmischung in tiefe Erdschichten gepumpt, um Gas freizusetzen. Die USA setzen gerade stark auf die umstrittene Fördermethode – laut der Studie kann damit aber nicht so viel Gas gefördert werden wie vorhergesagt. Dass die Expertengruppe vor immer knapperen Öl- und Gasvorkommen warnt, ist so neu allerdings nicht. Die Wissenschaftler bekommen ihr Geld unter anderem von einer Stiftung, die sich für Sonnen- und Windenergie einsetzt.

Dieser letzte Hinweis fehlt in allen späteren Meldungen zum Thema. Und wie gesagt, von denen gab es eine Menge. Die Verbreitung der  “neuen Erkenntnisse” scheint der WDR-Redaktion so wichtig gewesen zu sein zu sein, dass sie  alle 30 Minuten in den Hauptnachrichten gebracht wurden. Nur eben ohne  einschränkende Hinweise etwa auf die Auftraggeber der Studie.

Studie: Fossile Brennstoffe werden schneller knapp als gedacht (06:38Uhr)

Die fossilen Brennstoffe wie Erdöl und Erdgas gehen offenbar schneller zu Ende, als bisher angenommen. Ein Team von Experten hat sich mit den Vorkommen beschäftigt und geht davon aus, dass schon in sieben Jahren das Förder-Maximum erreicht ist. Ab dem Jahr 2020 würden Erdöl und Gas immer knapper. Deswegen gehen die Experten von massiv steigenden Kosten für Benzin, Heizöl und Gas aus.

Statt des Hinweises auf die Auftraggeber der Arbeit kommt ab 07:42 ein neuer Aspekt hinzu. Laut der Studie kann uns nämlich auch das (Gottseibeiuns) Fracking laut WDR und Studienautoren nicht mehr vor steigenden Preisen und immer knapper werdenden Rohstoffen retten.

Neue Studie zu Gas- und Ölvorkommen veröffentlicht (07:42Uhr)

Ein internationales Netzwerk aus Forschern und Abgeordneten hat eine Studie zu Öl- und Gasvorkommen vorgelegt. Sie kommen zu dem Ergebnis, dass Erdöl und Erdgas immer knapper und teurer werden – trotz neuer Fördermethoden wie dem umstrittenen Fracking. Dabei werden Chemikalien in die Erde geschossen, um Gestein aufzubrechen und Gas zu gewinnen, an das man anders nicht herankommen würde. Jürgen Döschner:

Beim WDR war nicht der geringste Hinweis zu finden, wer die Studie erstellt hat und welche “Stiftung, die sich für Sonnen- und Windenergie einsetzt” hinter der Finanzierung steckt. Auf WeltOnline erfährt man dann, dass eine Expertengruppe  namens “Energy Watch Group“diese Arbeit erstellt hat.

Bei dieser Gruppe handelt es sich um einen Think Tank den der grüne Bundestagsabgeordnete Hans-Josef Fell ins Leben gerufen hat. In einer Selbstdarstellung (“Auftrag” ) heißt es:

Energiepolitik braucht objektive Informationen

Energiewirtschaft und Regierungsorganisationen pflegen den Glauben an die unbegrenzte Verfügbarkeit billiger Energie aus konventionellen Quellen. Energiepolitik braucht aber objektive Informationen.

Deshalb wurde auf Initiative des deutschen Parlamentariers Hans-Josef Fell und weiterer Parlamentarier aus anderen Ländern die Energy Watch Group gegründet. Träger ist die Ludwig-Bölkow-Stiftung. In diesem Projekt erarbeiten Wissenschaftler unabhängig von Regierungs- und Unternehmensinteressen Studien über

–    die Verknappung der fossilen und atomaren
Energieressourcen,
-    Ausbauszenarien für die Regenerativ-Energien
sowie
-    daraus abzuleitende Strategien für eine
langfristig sichere Energieversorgung zu
bezahlbaren Preisen.

Die Wissenschaftler erheben und analysieren also nicht nur ökologische, sondern vor allem ökonomische und technologische Zusammenhänge. Die Ergebnisse dieser Untersuchungen sollen über die Fachkreise hinaus in die politisch interessierte Öffentlichkeit transportiert werden.

Nicht uninteressant ist auch, welche Köpfe hinter der Energy Watch Group stecken. Die Liste der beteiligten Wissenschaftler und Institute ließt sich ein wenig wie das Who is Who der Erneuerbare-Energien- und Nachhaltigkeits-Lobby in Deutschland.

Und wieder eine neue Peak Oil Prognose

Die Studie selbst (hier abrufbar) enthält wenig Überraschendes. Es wird ein Peak Oil prognostiziert (2012), ein Peak Gas (2018) und ein Peak Uran, der allerdings bereits 1980 stattgefunden haben soll. Dass die Uranproduktion in dem Zeitraum einen Höhepunkt erlebte und dass der Rückgang seither damit zu tun hat, dass der kalte Krieg und damit das atomare Wettrüsten auch Anfang der 80er Jahre seinen Höhepunkt hatte, kam den Autoren der Studie offenbar nicht in den Sinn.

Womit die Autoren aber selbst die hartgesottensten Vertreter der Peak-Oil Fraktion überraschen dürften ist das postulieren eines Peak Coal für das Jahr 2020. Schließlich gibt es gesicherte und mit heutigen Technologien und zu heutigen Preisen förderbare Reserven für Jahrhunderte. Das Weltbild der Ersteller der Studie lässt sich ganz einfach in einer einzigen Grafik zusammenfassen. Die Kernaussage: Ab etwa 2017 wird es mit der Förderung sämtlicher fossilen Energieträger massiv bergab gehen.

Regelmäßige Leser dieses Blogs werden wissen, dass von solcher Art Untergansszenarien wenig zu halten ist und dass sämtliche  derartige Prognosen aus der Vergangenheit mit der gleichen  Regelmäßigkeit gescheitert sind wie die immer neuen Ankündigungen des Jüngsten Gerichts der Zeugen Jehovas.

Es handelt sich bei dieser Arbeit um ein Machwerk dass mehr die Meinungen der Autoren widerspiegelt, als sich an der Realität zu orientieren in der den letzten Jahren überall auf der Welt neue Öl und Gasquellen durch neue Techniken verfügbar geworden sind. Neue Erkundungs- und Explorationstechnologien wie Fracking und Tiefbohrungen sowie die Öl-Gewinnung aus Teersand führen nach Ansicht etwa der  Internationalen Energie Agentur (IEA) dazu, dass die Versorgung mit fossilen Brennstoffen noch für Jahrhunderte sichergestellt ist. Jüngstes Beispiel für einen solchen Technologiesprung ist der Beginn der Förderung von Methanhydrat durch japanische Wissenschaftler.

Man kann also auch nach objektiven Kriterien durchaus feststellen, dass Peak Oil und Peak Gas weit und breit nicht in Sicht sind. Beim Lesen der Energy Watch Studie und auch bei den Reaktionen in unseren “Qualitätsmedien” darauf entsteht jedoch der Eindruck, dass höchstens Peak Brain bereits überschritten ist.

Öffentlich rechtlicher Rundfunk als Propagandainstrument für die EE-Lobby

Die Energy Watch Studie wird in wenigen Jahren von der Wirklichkeit überholt werden. Und eigentlich gäbe es auch keinenGrund auf diese näher einzugehen, wenn nicht unser Zwangsabgabefinanzierter öffentlich rechtlicher Rundfunk solche Meldungen immer wieder aufgreifen und mit seiner geballten Macht so massiv unter die Leute bringen würde (Auch das öffentlich rechtliche “Flaggschiff” Tagesschau berichtet in gleichem Tenor).

Die Ergebnisse dieser Studie, die neueren Arbeiten wie denen der IEA diametral widerspricht, werden vom öffentlich rechtlichen Staatsfunk in einer solchen Geballtheit unters Publikum gebracht, dass man mit gutem Recht vermuten kann, es stecke nicht allein der Auftrag die Gebührenzahler möglichst umfassend zu informieren dahinter, sondern eine Agenda nach der “Erneuerbare” Energien um jeden Preis als das Allheilmittel für die Zukunft dargestellt werden sollen.

In der gleichen Nachrichtensendung heute Morgen wurde dann in einem Beitrag auch dargestellt, wie sich die WDR-Redaktion offenbar die Energieversorgung der Zukunft vorstellt.

Strom aus Trinkwasser (07:35Uhr)

Bei den Siegener Versorgungsbetrieben ist ein landesweit einmaliges Pilotprojekt erfolgreich angelaufen. Es nutzt den Höhenunterschied von Wasserleitungen aus, um umweltfreundlichen Strom zu produzieren. Eine kleine Turbine in der Leitung zwischen zwei Hochbehältern in Eiserfeld wandelt seit Oktober die Energie des fließenden Wassers in Strom um. Damit können sechs Einfamilienhäuser versorgt werden. Diese Woche geht eine zweite Turbine in Betrieb und nächstes Jahr ist noch eine Anlage geplant.

Autor Rudolf Kipp, zuerst erschienen bei Science Sceptical

Wolfgang Röhl von ACHGUT hat sich den Hintergrund der  Studie angeschaut und seine Ergebnisse wie folgt beschrieben,

Vier kleine Klicks. Recherchieranleitung für welt.de

Es ist ziemlich einfach geworden, sich ein Bild zu machen. Ein Bild über den Stellenwert einer Meldung, die sich auf eine „Studie“ beruft, zum Beispiel. Dauert genau vier Klicks. Der Fall: öffentlich-rechtliche Sender, aber auch private Medien wie welt.de meldeten am 25.3., eine “neue Studie” sage einen Spritpreis von „bald über zwei Euro“ voraus. Tendenz der Veröffentlichung: Alarm, Alarm, die fossilen Rohstoffe sind bald aufgebraucht! Wie ja vom Club of Rome bereits in grauer Vorzeit für das Jahr 2000 voraus gesagt. Schiefergas, neue Ölfelder, neue Energiegewinnungsmethoden jenseits von Wind und Sonne? Alles Quatsch, laut Studie.

Der aufgeweckte Leser riecht den Braten und googelt einfach mal die Urheberin der Studie, die „Energy Watch Group” (Klick eins). Zwei weitere Klicks braucht er, um auf deren Website die Information abzurufen, die EWG sei „auf Initiative des deutschen Parlamentariers Hans-Josef Fell“ gegründet worden. Noch mal auf Google, und – schwupps – hat er den Herrn Fell am Haken: es handelt sich – small wonder – um den „energiepolitischen Sprecher der Bundestagsfraktion Bündnis 90/Die Grünen“. Auf dessen Startseite prangt erwartungsgemäß die Losung: „100% erneuerbare Energie“ (dass darunter der Claim „auf alle Felle“ steht, bestätigt nebenbei noch den Verdacht, das Grüne oft etwas dämlich sind).

Vier Klicks und es ist klar, was das für „Experten“ sind, die da über kommende Energiepreise orakeln. Welt.de dagegen – eyes wide shut – beschreibt sie in aller Einfalt wie folgt: „Die Expertengruppe ist ein internationales Netzwerk von Wissenschaftlern und Parlamentariern.“

In Wahrheit handelt es sich um eine Lobby des öko-industriellen Komplexes, deren Ausführungen ungefähr so relevant sind wie die Einlassungen der amerikanischen Waffenindustrie über den Segen von Sturmgewehren für Privathaushalte. Dies nicht zu erwähnen, entspringt entweder völliger Unprofessionalität oder dem regelrechten Vorsatz, die Leser zu manipulieren.

Keine Redaktion, die den Begriff „Qualitätsjournalismus“ jemals für sich beansprucht hat, dürfte sich einen solchen Klops leisten. Derjenige, der solch eine Meldung verantwortet, müsste unverzüglich eine Riesenwatsche dafür kriegen. Man kann vom öffentlichen-rechtlichen Rundfunk und speziell von der „Frankfurter Rundschau“, welche die eigentliche Quelle des Desinformationsstücks darstellt, selbstredend nicht erwarten, dass sie der Studie den Stecker ziehen, indem sie Ross und Reiter nennen. Diese Meinungsträger sind ja ziemlich beste Kumpel der Wind- und Solarbranche. Aber von einem Medium wie welt.de darf man wohl erwarten, dass es tendenziöse Nachrichten nicht dumpf nachplappert, sondern ein Minimum an Recherche investiert.

Vier Klicks genügen. Jeder Klippschüler kann das lernen. Sogar Journalisten.

http://www.welt.de/wirtschaft/energie/article114745497/Studie-sieht-Spritpreis-bald-ueber-zwei-Euro.html

Und die Kommentare auf Science Sceptical bringen noch mehr erhellendes über das Personalkarussell des öko-industriellen Komplexes das hier munter gedreht wird:

Interessant auch wie beim DLF mit der durchaus berechtigten Frage umgegangen wird ob es sich bei der Energy Watch Group um eine Lobbyistenvereinigung handeln könnte. Nämlich gar nicht.

Jochen Steiner: (…)Bevor wir jetzt gleich auf die Ergebnisse schauen: Wer verbirgt sich denn hinter der Energy Watch Group?

Sönke Gäthke: Dahinter verbirgt sich eine Initiative von Parlamentariern, die überzeugt sind, dass Öl, Gas oder Kohle endlich sind und die daher anders lautenden Studien nicht vertrauen. Sie haben daher eigene Berechnungen haben wollen und diese Initiative gegründet. Die wird finanziert von der Ludwig Bölkow Studie. Und vom dem Geld bezahlen sie einen Kreis von Forschern, die bereits einige Studien vorgelegt haben über Wind oder Öl. Und jetzt haben sie heute eben in Berlin eine Berechnung der Reichweite fossiler Energie präsentiert.

Also Wissenschaftler und Parlamentarier die von Peak Oil überzeugt sind fertigen eine Studie an, die die Frage beantworten soll, ob Peak Oil real ist. Und was finden sie? Alles ist noch schlimmer ist als bislang angenommen. Und unsere “Wissenschaftsjournalisten kommen nicht einmal auf die Idee kritisch nachzuhorchen.Und dafür werde ich gezwungen zu bezahlen. Na großartig.

Und Heinz Eng kommentiert so:

Ick hab mir mal die Liste etwas genauer angesehen, denn die meisten Namen kamen mir mehr als bekannt vor……..als ick ne Zeit lang die EE-Machbarkeitsstudien näher unter die Lupe genommen habe.

Volker Quaschning
“Volker Quaschning vertritt die Auffassung, dass die Energieversorgung für eine Begrenzung des globalen Erwärmung schnellstmöglich vollständig durch erneuerbare Energien gedeckt werden muss. Mit verschiedenen Szenarien belegt er, dass dies in Deutschland bereits bis 2040 erreichbar wäre…….” (Wikipedia)

http://www.reiner-lemoine-institut.de/

Reiner Lemoine war ein Pionier der erneuerbaren Energien. Wo andere über alternative Energien redeten und nachdachten, hat Reiner Lemoine gehandelt und unter anderem die Solarunternehmen SOLON und Q-Cells gegründet. In diesem Geiste entstand das Reiner Lemoine Institut. Ziel des Instituts ist es, die Prozesse zur langfristigen Umstellung der Energieversorgung auf 100 % erneuerbare Energien wissenschaftlich zu unterstützen.

Ecofys

Die Endlichkeit fossiler Brennstoffe, das Thema Versorgungssicherheit und der Klimawandel zwingen die Energiebranche zu einem radikalen Umschwung hin zu Erneuerbaren Energien. Das ist nicht nur eine große Aufgabe, sondern auch eine große Chance, denn das Potenzial der Erneuerbaren Energien ist enorm: In nur einer Stunde versorgt uns die Sonne mit mehr Energie, als die Welt in einem Jahr verbraucht. Doch was ist die richtige Technologie, welches das richtige Geschäftsmodell, wo ist der beste Standort, ist ein Projekt langfristig machbar und wie entwickelt man es am besten?

ZSW
Zentrum für Sonnenenergie- und Wasserstoff-Forschung Baden-Württemberg (ZSW)

Das Land Baden-Württemberg gründete 1988 zusammen mit Universitäten, Forschungseinrichtungen und Unternehmen das ZSW als gemeinnützige Stiftung des bürgerlichen Rechts.

Sonnenenergie- und Wasserstoff-Technologien wachsen derzeit im industriellen Maßstab zu Bausteinen einer nachhaltigen Energieversorgung des 21. Jahrhunderts heran. Daraus leiten sich die folgenden Ziele und Schwerpunkte ab.

Anbei ein paar Personallisten…..von EUROSOLAR, EWG und den WCRE.

http://www.energywatchgroup.org/Wissenschaftler.18.0.html
http://www.eurosolar.de/de/index.php?option=com_content&task=blogcategory&id=217&Itemid=395
http://www.wcre.de/en/index.php?option=com_content&task=view&id=43&Itemid=57

Dr. Harry Lehmann, Executive Chairman WCRE, Im Kuratorium von EUROSOLAR und wissenschaftlicher Berater bei der EWG………und so nebenbei Leiter Fachbereich I — Umweltplanung und Nachhaltigkeitsstrategien beim Bundesumweltamt.
Mon o man…..so ein Beamter muss ja ne Menge Zeit haben, gelle.

Hans Josef Fell….Vicepräsident EUROSOLAR, im WCRE vetreten, Bundesverband Erneuerbare Energie e.V., Paderborn, Mitglied des Parlamentarischen Beirates, ehrenamtlich…..Gründer der EWG….und noch ein paar andere erneuerbare Schmankerle.
Interessant in diesen Zusammenhang ist ein Herr auf der Lister der wissenschaftlichen Berater beim EWG……

Carsten Pfeiffer
Politikwissenschaftler, Mitarbeiter im Deutschen Bundestag, Berlin Deutschland
Süffisant…..dieser Herr war 14 Jahre lang Mitarbeiter des Herrn Josef Fell im Bundestag und ist am 1. September zum BEE e.V. gewechselt um dort…..die Stelle eines “Leiter Strategie und Politik” zu übernehmen. 

Nicht zuletzt die Erfahrungen aus Hammelburg und anderen Städten haben den Bundesgesetzgeber dazu veranlasst, im am 1.4.2000 verabschiedeten Gesetz für Erneuerbare Energien (EEG) die Vergütung für alle erneuerbaren Energien am Prinzip der kV zu orientieren.

Geschäftsführer der HSG und Initiator der KV in Hammelburg, Hans-Josef Fell, hat als Mitglied des deutschen Bundestages maßgeblich das EEG initiiert. Seine Erfahrungen flossen in den von ihm geschriebenen Entwurf des EEG ein. Das EEG hat vor allem bei der Photovoltaik einen weltweit einmaligen Aufschwung bewirkt.

http://www.hammelburger-solarstrom.de/index.php?action=home




Matt Ridley: Dank CO2 Zuwachs und Erwärmung wird die Erde grüner!

Sehen und hören Sie den faszinierenden Bericht von Matt Ridley zur Ergrünung der Erde dank CO2 Zuwachs:

Deutsche Untertitel von Helmut Jäger EIKE




Kernenergie zwischen Tschernobyl und Fukushima

Die Reaktorkatastrophe von Tschernobyl:

      Für die Explosion im Kern von Block IV des RBMK-1000 Tschernobyl-Reaktors können nicht nur einzelne Mitglieder der Betriebsführung sowie die schlecht ausgebildete Betriebsmannschaft der Reaktoranlage vor Ort verantwortlich gemacht werden. Die Schuld an dem Versagen muss sicherlich vor allem der damalig schlechten, ja sogar naiven Organisation in Sachen Kernenergie in der UdSSR zugeteilt werden. Und das sowohl bei der Auswahl, dem Bau und  Betrieb diesen Typs von Reaktoren, der Ausbildung des Betriebsteams sowie des Fehlens eines verantwortungsvollen und kompetenten Krisenmanagements. Die Explosion war Auslöser einer rd. 3 km hoch brennender stark radioaktiven Graphitsäule, die tagelang nicht gelöscht werden konnte und damit viel Radioaktivität über die Umgebung und halb Europa verbreitete, und zu einer nachfolgenden Kernschmelze führte. Schon  5 Jahre vorher gab es in den USA einen ersten und weltweit stark beachteten Kernschmelzunfall in Harrisburg. Bei dem entstand zwar grosser Sachschaden für die Betreiberfirma,  Todesopfer waren aber keine zu beklagen. In der UdSSR war man sich (z. T. auch wegen der damals noch fehlenden Perestroika) der Gefahr eines GAU-s und der Gefährlichkeit der Strahlung überhaupt noch nicht bewusst, Das wurde auch deutlich, als in dieser Unglücksnacht beim Abfahren der Reaktoranlage nicht nur allgemein übliche Messungen vorgesehen waren, bei denen in den routinemäßigen Ablauf normalerweise nicht eingegriffen werden muss, auch spezielle Experimente geplant waren. Diese waren schon ein Jahr zuvor gescheitert und sollten nun nachgeholt werden. Der nur 3 Jahre alte Druckröhren-Siedewasser RBMK-1000 Reaktor wurde somit als Versuchsreaktor missbraucht. Dabei wurde, als die Versuche wieder zu scheitern drohten, vom Vizedirektor einfach (ohne Genehmigung irgendeiner Aufsichtsbehörde) spezielle sehr riskante Manöver angeordnet, um das Ziel der Messungen trotzdem zu erreichen. U. a. wurde befohlen, Steuerstäbe zu ziehen und gleichzeitig Notfall- und Schutzmechanismen außer Kraft zu setzen. Dies gegen den Widerstand eines der Reaktorfahrer, der dann, als er sich weigerte den Anordnungen zu folgen, abgelöst wurde. (Solches Vorgehen wäre natürlich unmöglich mit einer westlichen Reaktorsicherheitsphilosophie zu vereinbaren). Die Wucht und das verheerende Ausmaß des dadurch ausgelösten Unglücks traf die Betreiber dieser Anlage vollkommen unerwartet und unvorbereitet und endete in einer Katastrophe (hier kann man mit recht davon sprechen). Vor allem, da es auch kaum sinnvolle Vorkehrungen für das Abmindern der Konsequenzen solch eines ’Desasters’ gab. Man war gezwungen zu improvisieren. Auch nach dem Eintreten der Katastrophe wurde der Ernst der Lage immer noch nicht erkannt. Gorbatschow, damals Vorsitzender des Politbüros, wurde um 5:00 früh von einem Mitglied der Akademie der Wissenschaften geweckt, über den Unfall informiert und beruhigt. Dieser sei vollkommen ungefährlich, genau so, ‚wie wenn man eine Kuh auf den Kreml stellt‘. Man dachte damals noch, die Anlage schon in 3 Wochen wieder in Betrieb nehmen zu können. Wer im Westen hätte die Feuerwehrleute, zwar in ihren schmucken Uniformen aber ansonsten vollkommen ungeschützt, direkt und ohne Vorsichtsmassnahmen zum Löschen der brennenden stark radioaktiven Graphitsäule geschickt (alle waren nach ein paar Tagen tot, ebenso Hubschrauberpiloten, die mit hochrangigen Journalisten die Säule in geringem Abstand umkreisten usw.). Welches Krisenkommando hätte das benachbarte Pripjat erst nach 36 h evakuiert und solange Familien mit Kindern vollkommen ahnungslos im Park spazieren gehen lassen. Die Evakuierung von Tschernobyl erfolgte sogar erst nach einer Woche. Sechs Tage nach dieser (lange Zeit nicht erkannten) Katastrophe fanden noch Maikundgebungen im rd. 110 km entfernten Kiew statt, an denen auch Mitglieder des Politbüros ’mit ihren Familien und (Originalton Gorbatschow) ihren Enkeln’ teilnahmen.  

Unfall an der Reaktoranlage Fukushima-Daiichi in Japan:

       Bei dem Unfall in Fukushima lagen dagegen ganz andere Verhältnisse vor.        Als Folge der aufwendigen und weltweiten Sicherheitsforschung waren die Anlagen von Fukushima, wie weltweit auch, gegen Erdbeben ausgelegt (dies aber nur für eine maximale Stärke von 7,0 n. R), aber auch gegen einen eventuellen Tsunami (mit einer Wellenhöhe von bis zu 5,7 m). Allgemein wurden Wellen von max. 4 m erwartet, und das nicht nur im Zusammenhang von Atomenergieanlagen sondern auch für konventionelle Bauten. Tatsächlich wurden die Fukushima-Anlagen von einer Welle von 15,5 m getroffen. Trotz des Jahrtausendbebens (von 9,0 n. R.) haben alle damals in Betrieb befindlichen japanischen Reaktoren auch diesem (ungewollten) ’Stresstest standgehalten. Genauso wie in Tokio, deren Hochhäuser speziell gegen Erdbeben ausgelegt sind, und nur 7 Todesopfer zu beklagen waren. Es kann nicht ausgeschlossen werden, dass bei weltweit 436 in Betrieb befindlichen Reaktoren auch weitere AKW-Anlagen in Zukunft Erdbeben ausgesetzt sein könnten (aber wohl kaum von dieser Stärke).

      Hier einige Passagen aus einer sehr gut recherchierte TV-Dokumentation (‚Das Mega-Beben‘) zum vorigen Jahrestag über diese Ereignisse

  – Das 5:50 Minuten dauernde ’Jahrtausend’-Erdbeben von 9,0 nach Richter zählt zu den 5 größten, die je unseren Planeten erschütterten.

  – Es bewirkte, dass rd. 150 km östlich von Japan der Meeresboden auf rd. 400 km um 3 m gehoben (bzw. die japanische Küste um 1 m gesenkt) wurde. Das löste eine ‚apokalyptische‘ Tsunami -Welle aus, die mit Flugzeuggeschwindigkeit (d. h. mit rd. 800 km/h) losraste und selbst noch an der fernen US-Westküste (nach einer Laufzeit von 12 h) Zerstörungen anrichtete. Die japanische Küste wurde in 56 min. erreicht (nach einem ARTE Bericht in 20 min). Die Welle drang bis zu 10 km in das Landesinnere ein und hatte z. T. eine Höhe von 40 m. Rd. 810,000 Gebäude wurden zerstört oder beschädigt. Eine ganze Kleinstadt an der Küste wurde in rd. 5 min. vollkommen vernichtet, Man versuchte verzweifelt auszurechnen, mit welcher Höhe die Welle die Reaktoranlagen erreichen würde. Vergeblich, weil die Computerrechnungen z. T. auch durch Stromausfälle behindert worden waren (Heutzutage im Nachhinein zu argumentieren, man hätte die Anlagen mit höheren Mauern schützen sollen, ist daher nicht besonders fair).

  – Neben dem Verlust sämtlicher Stromquellen fielen (z. T. wegen eines Auslegungsfehlers) auch alle Batterien aus. Dadurch konnten auch keine Messsignale an die Betriebsmannschaft geliefert werden. Man war zeitweise ’blind und taub’. Erst mit einiger Verspätung konnten dann diese Signale provisorisch wieder zum Laufen gebracht werden, in dem man Batterien von Bussen, die auf dem benachbarten Parkplatz standen, herbeischaffte. Da Wasserleitungen und später auch Pumpen nach einiger Zeit nicht mehr zur Verfügung standen, konnte der sich immer mehr erhitzende Kern nur mehr mit Meereswasser gekühlt werden. Bei drei der sechs Blöcke von Fukushima II konnte daher eine Kernschmelze nicht mehr verhindert werden. Trotzdem gelang es der Betriebsmannschaft, diese Reaktoren auf einen sicheren Zustand abzufahren,

Beurteilung der Kernenergie:

     Leider ist es mittlerweile üblich geworden, dass jeder meint, über die Gefahren der Kernenergie mitreden zu können. Und das oft ohne entsprechendes Hintergrundwissen. Seien das Volksschüler, Gymnasiasten oder Studenten (’jugendliche Motivation’, ganz gleich wofür und ohne Rücksicht auf Konsequenzen), Pfarrer oder Bischöfe (Bewahrung der Schöpfung), Künstler (nur sie besitzen das Monopol des sich ’Einfühlens’), Journalisten (viele von ihnen mittlerweile beratungsresistent), Politiker (ein eigener Standpunkt ist in der heutigen stark aufkommenden ’direkten’ Demokratie nicht mehr gefragt, nur die Meinung der Wähler zählt), Universitätsprofessoren usw. Sie meinen, das einfach kraft ihrer Intelligenz begründen zu können. Dabei würde gesunder Menschenverstand vollkommen ausreichen. Ein Verhalten, das für jeden Lebensbereich (Autokauf, Partnerwahl aber auch Wahl der geeigneten Energiequelle) zu empfehlen wäre. Dabei müsste vor einer Entscheidung sowohl das Für als auch (!) das Wider einer vorgesehenen Handlung gründlichst bedacht werden. Immanuel Kant bemerkte schon in einem Essay von 1784 zu dieser Problematik: ’Habe Mut dich deines eigenen Verstandes zu bedienen’, spricht von der ’Befreiung des Menschen aus seiner selbstverschuldeten Unmündigkeit durch Aufklärung’ und nennt als Grund, warum trotzdem manche zeitlebens unmündig bleiben, ’Faulheit und Feigheit’. Hat Kant hier schon an die Kernenergie gedacht?

        Der Mangel an direkten Gesprächen zwischen KE-Befürwortern und Gegnern ist eklatant, ein Austausch von Argumenten und Gegenargumenten findet fast nicht statt. Es war und ist oft traurig zu sehen, wie manche der damals der KE noch wohlmeinende Politiker von oft sehr primitiven Argumenten der Grünen in TV Auftritten förmlich hingeschlachtet wurden. Sie müssten halt, wenn in ihrem Parteiprogrammen ’Pro-KE’ steht, auch dafür kämpfen. Z.B. sich vorher über die Materie gründlichst informieren. Als Folge dieses Sich-Treiben-Lassens ist, dass inzwischen CDU und CSU auch umgefallen sind (und zwar, trotz Parteiprogramms, innerhalb weniger Wochen). In Deutschland ist somit der ’Worst Case’ eingetreten. Es haben sich nun alle (mehr oder weniger wichtigen) großen Parteien (neben CDU und CSU auch SPD, FDP, GRÜNALTERNATIVEN, FREIEN WÄHLER, PIRATEN, ÖDP u.a.) gegen Kernenergie ausgesprochen. Mit dem für eine Demokratie unangenehmen Effekt, dass damit auch die parlamentarische Kontrolle in diesem Bereich ausgehebelt ist. Das führte für einige Parteien (CDU/CSU) zwar zu (kurzzeitigem) Nutzen, kann aber kaum im Sinne des Staates sein. In Österreich wagt es sowieso kein Abgeordneten, sich für KE zu ’outen’.

Experten:   

       Eine unheilvolle Rolle spielen in den Diskussionen über Gefahren der Kernenergie eine Menge sogenannter ’Experten’, mit teilweise abstrusen Gegenpositionen. Sie haben aber wegen ihrer Emotionaltät und Schwarz-Weiß Malerei oft großen Einfluss auf die öffentliche Meinung. Was sind somit vertrauenswürdige Experten? Kann man sich dazu selber ernennen? Oder muss man dafür einige Prüfungen ablegen? Die Frage und damit Definition sollte eigentlich klar und einfach zu beantworten sein. Trotzdem lässt sich die Bevölkerung hier leicht in die Irre führen. Dabei weiß im normalen Leben jeder Weinbauer, Bäcker, Chirurg usw., wer von seinem Fach etwas versteht oder nur ein Scharlatan ist. Dieses Ansehen (und damit den Titel) kann man somit in erster Linie durch Kollegen im eigenen Fachbereich ’verliehen’ bekommen. Man erwirbt sich ihn, indem man auf diesem Fachgebiet hervorragende Arbeit leistet. Genau so sollte das auch bei Wissenschaftlern (und Fachjournalisten) der Kernenergie der Fall sein. Bei Diskussionen erkennt man dann die Qualität der Teilnehmer, z. B. wie umfassend deren fachliches Wissen ist oder wie ideologisch verbohrt sie agieren, wie souverän ihre Argumentation ist usw.

         Eigentlich ist es die Aufgabe eines Staates, eigene Institutionen einzurichten, um über charakteristische Vorgänge wichtiger Lebensbereiche (z. B. der Medizin, Medikamente, Sicherheit im Verkehr, Schulbildung usw.) richtig, glaubwürdig und vor allem neutral informiert zu werden. Auf dem Gebiet der Kernenergie gibt es dazu internationale Organe (z. B. die IAEO), in einigen Ländern auch noch spezielle Institute. In Deutschland u.a. die GRS, die TÜV-s, die Reaktorsicherheits- und Strahlenschutz-Kommissionen. Der Erhalt dieser Institute kostet den Staat sehr viel Geld. Man sollte daher meinen, dass sich dann zumindest die Regierung, die Parteien und vor allem die Abgeordneten von den Experten dieser Organisationen beraten lassen. Auch die Presse sollte davon profitieren. Das ist aber meistens nicht der Fall. Organisationen wie Greenpeace, der Bund, die Ethikkommission, Ärzte gegen den Atomkrieg usw. spielen mehr und mehr eine äußerst verhängnisvolle Rolle in der Diskussion für und wieder KE. Und das, obwohl diese Organisationen meisten keine eigenen Forschungsinstitute besitzen und daher nur Studien an irgendwelche unbekannte und zweifelhafte ’Fachleute’ in Auftrag geben können. Und es deshalb sehr fragwürdig ist, wo eigentlich ihre ’Experten’ ihr Wissen erworben haben. Sie sind gegen Kernenergie und gelten daher (hochgejubelt von der Presse) als vertrauenswürdig. Es gibt einige TV-Sender, die sich fast nur auf diese Quellen stützen. Man fragt sich, wozu gibt es daher die oben genannten staatliche Gremien, deren Mitarbeiter nach ihrer umfassenden Ausbildung sich seit Jahren mit dieser Materie sehr intensiv befassen und daher in der Lage sein sollten, in sachlicher und (überprüft vom Staat) neutraler Weise über den tatsächlichen Status der Sicherheit von Reaktoren urteilen zu können. Wenn man aber glaubt, den eigenen Institutionen nicht mehr trauen zu können, warum leistet man sich dann eigentlich den Luxus, diese weiter zu erhalten.

Fukushima als Anlass für Wende in der Kernenergiepolitik:

       Normalerweise sagt man, eine Richtungsänderung in der Regierungspolitik eines Landes ist vergleichbar mit der eines Großtankers, äußerst träge und sehr langsam. Trotzdem haben es die Kanzlerin und die Regierungsparteien geschafft, innerhalb von ein paar Wochen den Ausstieg aus der KE (entgegen ihres Parteiprogramms) zunächst für 8 Reaktoren zu beschließen. Für die anderen 9 Reaktoren wurde ein genauer Zeitplan für deren Abschaltung festgelegt. Erst nach diesen fatalen Entscheidungen hat man begonnen, sich Gedanken zu machen, wie man wohl den ausfallenden Atomstrom ersetzen könnte. Vorläufig einmal durch Bezug von Atomstrom aus Frankreich und Tschechien, der Wiederinbetriebnahme veralteter Stein- sowie sogar Braunkohleanlagen sowie auch Ölkraftwerke. Zusätzlich setzt man auf den Ausbau von Erneuerbaren (was immer das heisst) Energien, um so ausreichend Strom aus Photovoltaik-, Bio- oder Windkraftanlagen zu bekommen. Man hat dazu eine drastische und äusserst kostspieligen Änderung des EEG vorgenommen und erhofft sich damit für die Zukunft eine verbesserte Förderung dieser zweifelhaften Energieform. Zweifelhaft vor allem deswegen, da ein Ersetzen des damit nicht mehr zur Verfügung stehenden Atomstroms durch Strom aus Photovoltaik- oder Windkraftanlagen prinzipiell nicht möglich ist. Begründet wird das durch die Tatsache, dass diese Energiearten eine Reihe schlechter Eigenschaften besitzen. Man kann u.a. Strom nur zu unregelmäßigen Zeiten produzieren. Ihre Verfügbarkeit liegt bei nur rd. 1/10 (offshore etwa bei 1/5). Eine Verdopplung dieser Anlagen bedeutet daher nur eine entsprechende Vergrößerung der Amplitude (Die Ausbeute bleibt bei halber Windgeschwindigkeit bei nur (1/2)**3 = 1/8 und bei null Wind und null Sonnenschein auch bei nur null). In absehbarer Zeit ist auch kaum mit annehmbaren Speichermöglichkeiten zu rechnen. Das heißt, um stetigen Strom an die Verbraucher zu liefern zu können, müssen Ersatz-KW (von gleicher Größenordnung) bereit gehalten werden. Z. B. Pumpenspeicherkraftwerke, die gut in Kombination mit Wind- oder PV-Anlagen betrieben werden könnten. Diese werden aber von ’Umweltschützern’ vehement bekämpft. Es bleiben somit meistens fossile und daher CO2 produzierende KW (Gas- oder Kohle-KW). D.h., 100% CO2 freie Produktion aus Atomstrom wird ersetzt durch 10 % Ökostrom aus EE Anlagen plus 90 % Nicht-Ökostrom aus fossilen Anlagen. Absurd. All diese Schwächen sind der Grund, dass es nicht einmal möglich ist, eine zufriedenstellende Energieeinheit für diese Art der Stromerzeugung zu finden (MWt? Anzahl von versorgten Haushalten?).

      Die überhastete Maßnahmen bei der Stilllegung der AKW sind vergleichbar mit dem Vorgehen eines Mannes, der sich ein neues Heim erbauen will, dabei zuerst mit dem Abreißen seines alten Hauses anfängt und erst dann nachzudenken beginnt, wie und wo das neue Gebäude gebaut sowie finanziert werden sollte. Jeder würde solch einen Mann für verrückt erklären. In der Politik ist dies allemal möglich. Ohne Rücksicht auf Kosten, die der Steuerzahler übernehmen darf. Und mit welcher Begründung? Fukushima wurde zwar Auslöser der Wende genannt, aber Fukushima-Verhältnisse sind bei uns kaum vorstellbar. Rationale Politik müsste wohl etwas anders aussehen.

Reaktorsicherheitsphilosophie:

     Schon seit Beginn der friedlichen Verwertung der Atomenergie im Jahre1955 hat sich eine Vielzahl von Wissenschaftlern mit der Frage beschäftigt, wie kann man technische und menschliche Fehler vermeiden, so dass es nicht zu einer Gefährdung des Reaktors und seiner Umgebung kommen kann. Es wurde mit riesigem Aufwand versucht vorauszuberechnen, was und wodurch Unfälle in solch einer AKW-Anlage passieren könnten (Klemmen von Ventilen, Steuerstäben, Ausfall wichtiger Pumpen, Brechen von Rohrleitungen, Explosionen von Gastankern, Fehler im Rahmen des Mensch-Maschine Verhaltens, unvorhersehbare Naturereignisse und, und). Es wurden Vorschläge erarbeitet, was man tun kann, damit die Auswirkungen möglichst klein gehalten werden. Um all diese Fragen auch experimentell untermauern zu können, wurden z T. sehr aufwendige Versuchsstände errichtet. Speziell war es immer klar, dass bei weltweit rd. 436 KE-Anlagen (Stand: Ende 2011 und bis jetzt wahrscheinlich noch mehr) sicher auch einige dieser Reaktoren irgendwann von Erdbeben betroffen sein könnten. Hier wurde sehr viel geforscht, auch entsprechende Rüttelversuche (im Labormaßstab) durchgeführt.

      Als Ergebnis all dieser Forschungen und Studien kann man mit Genugtuung feststellen, dass bei keinem dieser seit 1955 weltweit  laufenden Reaktoren mit einer Gesamtbetriebszeit von über 14.000 Jahren (also über rd. 7-mal die Zeitspanne zu Christie Geburt) irgendein Todesopfer gemeldet werden musste (wobei die Katastrophe in Tschernobyl in dieser Aussage natürlich bewusst nicht berücksichtigt wird). Wie kann man also in Anbetracht dieser Tatsachen und bei einer fairen und kenntnisreichen Sichtweise von einer ’Nichtbeherrschbarkeit der Kernenergie’ und einer ’Chronik eines Desasters’ sprechen? Das Gegenteil ist der Fall. Gerade Fukushima hat gezeigt, wie eine Kernenergieanlage selbst bei solch verzweifelten Bedingungen trotzdem unter Kontrolle gehalten und sicher abgefahren werden konnte. Dass sich fast alle Industrieländer der obigen dämlichen Sichtweise nicht anschließen, zeigt schon die Tatsache, dass (lt. IEA) bis 2030 weltweit mit einem Plus von 50 % Zuwachs an Atomstrom gerechnet werden kann. Was wäre denn sonst die Alternative? Und wie würde unsere Umwelt ausschauen, wenn nicht in den letzten 30 Jahren bis zu 20 Kernreaktoren Deutschland problemlos mit Strom versorgt hätten?

AKW-Gegner gegen Atomkraft in Japan:

       Eine japanische Gegen-Atomkraft Stimmung vergleichbar mit den deutschen und österreichischen Zuständen hätten natürlich einige der Ideologen gerne. Das ist aber, entgegen den Behauptungen der Kernkraftgegnern, nicht der Fall (S. z. B. SZ vom 1. 2. 2013). Und das, obwohl die Japaner die Ereignisse um Fukushima und das vorläufige Abschalten der rd. 54 Reaktoren unmittelbar erlebten und noch immer darunter leiden. Es ist ihnen auch klar, dass Reaktoren abgeschaltet werden mussten, um zu überprüfen, welche Folgen dieses Jahrtausendbeben auf deren Sicherheit haben könnte. Trotzdem. Bei den letzten Unterhauswahlen in Japan im Dezember 2012 gewannen die die Kernenergie befürwortenden Parteien eine 2/3 Mehrheit der Sitze während die Tomorrow-Party mit dem Versprechen eines KE-Ausstiegs 52 ihrer 61 Sitzen verlor. Premierminister Abe erklärte, er strebe die Wiederaufnahme des Betriebs der aktuell stillstehenden KKW an. Von deutschen Kernenergiegegnern wird diese positive Stimmung der Bevölkerung (zum Unterschied von dem hysterischen Verhalten der 9,000 km entfernten deutschen Öffentlichkeit) etwas enttäuscht wie üblich mit ’Atomlobby’ und ’Herunterspielen’ begründet, man spricht von ’Desinteresse im Rest von Japan’. Die Leute haben aber andere Sorgen. Unter Unvoreingenommenheit und Objektivität kann man etwas anderes verstehen.

       Wenn man daher zum 2. Jahrestages des Unglückes von Fukushima-Daiichi in der SZ schreibt‚ ’der Tsunami .. verursachte einen der schlimmsten Atomunfälle der Geschichte. Mindestens 160.000 Menschen mussten wegen der Strahlengefahr wegziehen’, so muss diese rein ideologisch bedingte Aussage mit Entschiedenheit zurückgewiesen werden. Ebenso die in einigen TV- und Radio-Sendungen gemachten Behauptungen von einem ’Dreifachschlag aus Erdbeben, Tsunami und (!!) Kernschmelze’ bzw. (im Rundfunk) von einer Dreifachkatastrophe. Es ist doch eindeutig feststellbaren, dass nur das Erdbeben und vor allem der darauffolgende Tsunami für die verheerende Verwüstung in weiten Teilen Japans verantwortlich gemacht werden können und damit den Umsiedlungen. Sicherlich nicht der Atomunfall mit seinen nur kurzzeitigen und kaum merkbaren Verstrahlungen. Das ist schon aus der Tatsache zu ersehen, dass man bereits im Herbst im Meer vor Fukushima baden konnte. Natürlich vergaß man in diesen Berichten immer zu sagen, dass es in Fukushima trotz der damals fast aussichtslosen Situation keine nuklear-bedingte Tote gab.

Kosten der Energiewende:

      Um den Ausfall der gewaltigen Strommengen beim Abschalten der gegenwärtig noch problemlos laufenden AKW-s zu kompensieren, setzte und will man auch in Zukunft in Deutschland voll auf den Ausbau der alternativen Energien setzten. Eine äußerst kostspielige Entscheidung für eine Energieform, die wegen ihrer vielen Schwächen bekannt und für eine Anwendung in einem Großmaßstab kaum geeignet ist. Die Steuerzahler werden für diese unsinnige Wahl, den die grünen Ideologen und mittlerweile fast alle Parteien befürworten und uns aufgezwungen haben, noch schwer bezahlen müssen. Laut einer Studie von F. F. Mueller, die sich auf eine EEG-Statistik stützt (eeg-kwk.net), ist, beginnend mit 883 Mio EU/Jahr im Jahre 2000 bis zu 16,763 Mrd. EU im Vorjahr, allein in diesem Jahr geplant, für die Weiterführung des ’Erneuerbare Energien Gesetzes (EEG)’ rd. 20,0 Mrd. EU auszugeben. Und dies mit einer 20-jährigen Verpflichtung. Wobei selbst dieses Budget mit rd. 1,75 Mrd. EU überschritten wird. Das ist deutlich mehr, als in den Jahresetats für Bildung und Forschung sowie Wirtschaft und Technologie zusammen vorgesehen ist. Dabei könnte man den erzeugten Strom an der Leipziger Börse für rd. 3,0 Mrd. EU/Jahr kaufen. D.h., in diesem Jahr übernimmt der Staat allein im Rahmen des EEG eine Verpflichtung von rd. 400 Mrd. EU. Tatsächlich liegt für das Jahr 2012 die Gesamtsumme aus bereits geleisteten Zahlungen und künftigen Zahlungsverpflichtungen bei kumulierten 376 Mrd. EU, was in etwa der Größenordnung des Bundeshaushaltes entspricht. Die Ausgaben eines 4-Personenhaushalts sind damit von 43,- auf 919,- Eu gestiegen. Gleichzeitig wurde festgelegt, dass die Einspeisung von sogenanntem ’Ökostrom’ mit höchster Priorität erfolgen muss. Und behandelt damit die EVU-s wie eine verstaatlichte Institution. Diese müssen den Windstrom (etwa um 4:00 früh) bevorzugt übernehmen, ganz gleich ob sie ihn brauchen oder nicht, und müssen GuD Kraftwerke (nun unrentabel geworden, weil sie statt der benötigten 4000., Stunden Einsatzzeit nur mehr 2000 bekommen) als Reserve vorhalten.

      Noch gar nicht zu sprechen von den Kosten aus den vorangegangenen und noch kommenden Jahren, den noch nicht überschaubaren Lasten für den notwendig werdenden Ausbau des Stromnetzes, für die Abgeltungen bei den Stilllegungen der AKW-s (die Regierung kann hier die Anlagen ja nicht nur verstaatlichen, d.h. ohne Erstattung des Istwertes einfach abschalten) usw.

      Kein Wunder, dass in einem Interview mit der FAZ (s. auch SZ vom 21/2/13) selbst Umweltbundesminister Dr. Altmaier jetzt schon von einer Gesamtverpflichtung von über einer Billion EU spricht (67 Mrd. sind schon bezahlt, 250 Mrd. sind zugesagt, 360 Mrd. kämen durch heurige Verpflichtungen noch hinzu). In der obig genannten Studie wird von 1,038 Bio. EU berichtet. Ein schrecklicher Schaden an der deutschen Volkswirtschaft ist absehbar. Wer soll denn diese unnötig verpulverten Milliarden je wieder zurückzahlen? Und wozu das alles? Nur weil ein paar Grüne (und mittlerweile durch kräftige Mithilfe der Presse) 80 % der Bevölkerung sich vor der Kernenergie fürchten. Es gibt kein Land, das Deutschland auf diesem Irrweg folgt. Deren Bewohner denken mehr pragmatisch.

Einwirkungen auf die Beschäftigung und auf die Konjunktur:

     Der volkswirtschaftliche Schaden bei dieser Form der Energiewirtschaft ist somit enorm. Der Staat bekommt das nur über Steuern zurück und über Beschäftigung. Die Regierung betont immer die Zusatzbeschäftigung im Rahmen der EEG. Vergisst aber zu erwähnen, wie viele hochwertige Arbeitsplätze in der KE-Industrie (AREVA, AKW Standorte, EVU-s) dabei verloren gehen. Bei rd. 20000 bis 30000 Entlassungen bei den 4 größten EVU-s fragt man sich außerdem, wer soll deren bisherigen Aufgaben übernehmen. Die haben doch nicht nur Däumchen gedreht. Wer ist Profiteur der Wende. Bei den Häuslebauer sagt man, sie bräuchten 10 Jahre, damit sich ihre Investition rentiert. Wer soll die Windparks bauen? Die 4 großen EVU-s halten sich hier vornehm zurück. Das Risiko ist zu groß. Die Schnapsidee von H. Töpfer. die Stadtwerke sollen da einsteigen, ist doch lachhaft.

      Auf der anderen Seite bedeuten 20 Mrd. EU zusätzlicher Staatsausgaben pro Jahr, auch wenn sinnlos verwendet, natürlich eine ungeheuerliche Konjunkturspritze. Ebenso könnte man aber auch 20,000 Leute beschäftigen, indem man ihnen eine Schaufel und einen Schubkarren in die Hand drückt und ihnen die Aufgabe gibt, vormittags ein Loch zu graben, die Erde dann 1 km wegzufahren, dort abzuladen, dann eine ausgiebige Pause machen und abends die Erde wieder zurückzufahren. Diese Vorgehensweise erinnert fatal an die Förderung der angeblich Blinden in Griechenland, den Förstern in Sizilien oder von Wohnungen für praktisch Mittellose in Spanien oder der USA. Es gab da ein ungeheuer beeindruckendes Wirtschaftshoch, endete aber leider dann in einem grossen Katzenjammer (In Spanien sind mittlerweile allein 50 % der jungen Leute arbeitslos). Wieso sollte das nicht auch bei uns passieren können? Man kann den Journalisten nur empfehlen, hier vorsichtig mit ihren Kampagnen zu sein.

Abschließende Bemerkungen:

– Fukushima ist das Opfer zweier Katastrophen und nicht Auslöser der durch diese Vorgänge verursachten Schäden.

– Der Unfall in Fukushima ist nicht ein Desaster (wie oft formuliert wird). Er zeigt vielmehr, im Gegensatz zu dem naiven Umgang mit Kernenergieanlagen und daher zu der leichtsinnig herbeigeführten Katastrophe von Tschernobyl, durch den ungewollten Stresstest und trotz mancher menschlicher Fehler glänzend die Güte der gegenwärtigen Reaktor-Sicherheitsphilosophie.  

 – Zum Unterschied zu den Verhältnisse beim Fukushima-Unfall ist es klar, dass man Tschernobyl kaum als Vorbild einer seriösen Betriebsführung bezeichnen kann. In keinem Staat der Welt (auch nicht in den jetzigen Nachfolgestaaten der UdSSR) würde es jemals möglich sein, in so naiver, ja fahrlässiger Weise eine Kernenergieanlage zu betreiben. Und daher verständlich, wenn man diesen Vorfall nicht in die Statistik des Betriebs von Reaktoren aufnehmen kann und sollte.

  – Es muss daher gefolgert werden, dass im Gegensatz zu den Meinungen der Ethikkommission, vieler Politiker und auch einem Grossteil der deutschen und österreichischen Bevölkerung, der Vorfall in Fukushima doch eindringlich bewiesen hat, dass trotz dieser Jahrtausendkatastrophe die betroffenen Reaktoren auch (was sehr wichtig und entscheidend ist) bei menschlichen Fehlern immer noch beherrschbar blieben und sicher betrieben werden konnten.

 – Es ist empörend, mit welcher Unverfrorenheit Anti-KE-Bewegungen und vor allem angeblich ’kritische’, in Wirklichkeit aber dogmatisch ausgerichtete Journalisten auf dem Leid der Zigtausenden von Toten und Betroffenen des Jahrtausenderdbebens sowie (in Küstennähe) der riesigen Tsunami-Katastrophe ihr Süppchen der KE-Hetze kochen.

   – Es scheint auch zwei Jahre nach Fukushima nicht möglich zu sein, endlich zu einem einheitlichen und von allen Seiten anerkannten Schluss über die Beurteilung dieses Unfalls zu kommen? Warum ständig diese Klischees und warum bekommen diese Ideologen mit ihren lächerlichen Argumenten immer wieder so viel Sendezeit? Die Diffamierung der Kernenergie muss endlich einmal aufhören. Das kostet den deutschen Staat doch viel zu viel. Wozu hat man seit Jahrzehnten für die Pressefreiheit gekämpft, wenn sich nun Journalisten damit begnügen, auf diesem Niveau nur ihre einseitigen Ideologien zu propagieren? Ist es wirklich zu viel verlangt, wenn man vor allem von diesen verlangt, sich sowohl über Pro als auch Contra einer strittigen Frage (hier Kernenergie) umseitig zu informieren, um so auch ausgewogen darüber berichten zu können.

   – Gerade die Ereignisse in Fukushima zeigen: Kernenergieanlagen zählen zu den sichersten, zuverlässigsten, umweltfreundlichsten und preiswertesten Stromerzeugungssystemen. Sie sind sowohl aus nationaler als auch globaler Sicht unverzichtbar im Weltenergiemix. Das zeigt auch der ungebrochene Anstieg von Kernenergieneubauten im Ausland. Ein Ausstieg aus der Kernenergie ist daher weder sinnvoll noch möglich.

   –  Die momentan noch große Zustimmung bei weiten Teilen der Bevölkerung zur Energiewende deckt aber auch sehr deutlich den Egoismus dieses Teils unserer Mitbürger auf. Die, ganz gleich ob berechtigte oder auch nichtberechtigte, Vorstellung eines mangelnden Umweltschutzes (vielleicht auch einer möglicher Verstrahlung ihrer Umwelt) empfinden sie als unmittelbare Bedrohung ihrer eigenen Sicherheit und Gesundheit. Sie sind daher bereit, diese Gefahren mit allen finanziellen Mitteln und oberster Priorität zu bekämpfen, ganz gleich, ob andere wichtige Aufgaben des Staates (Kinder, Bildung, Pensionisten, Verkehr usw.) dann zu kurz kommen. Besonders tragisch ist es, dass die meisten nicht einmal realisieren,  dass sie ja oft selber zu den Leidtragenden solch einer, rein Ideologie bedingten Politik gehören.

   – Die immensen Geldausgaben, die in Deutschland (wie oben erwähnt mit Zustimmung eines Großteils der Bevölkerung) verprasst werden, um die wichtige Energiequelle Kernenergie zu umgehen, und die daraus resultierenden riesigen Schulden (in der Höhe von mehr als einer Billionen EU allein durch das EEG) könnten sich als fatal für die deutsche Volkswirtschaft und damit unsere nachfolgende Generation erweisen. Ebenso die negativen Folgen auf unsere Demokratie.

Autor: Dr. Alois Hoeld für EIKE

Der Beitrag kann als pdf aus dem Anhang heruntergeladen werden

Related Files




Der „Masterplan 100% Klimaschutz“ der Stadt Heidelberg

Wir nehmen das „mitmachen kann jeder“ wörtlich und machen mit diesem Beitrag mit. Anlass für uns war der einschlägige Artikel im Heidelberger Stadtblatt, 21. Jg. – Ausgabe Nr. 11 vom 13.März 2013. Dieses Blatt wird kostenlos an die Haushalte verteilt (s. Masterplan.jpg im Anhang). Darf man den Spaß an der Heidelberger Aktion verderben? Der Autor bittet alle Kinder und die ihnen geistig verwandten Stadtväter Heidelbergs um Entschuldigung. Nebenbei: um uns nicht dem Vorwurf politischer Inkorrektheit auszusetzen sind unter „Stadtväter“ selbstredend auch alle weiblichen Gemeinderatsmitglieder zu verstehen. Nun zur Sache selber: Liebe Heidelberger Stadtväter, Klimaschutz ist unmöglich!

Klima ist nämlich gemäß Definition der Weltorganisation für Meteorologie das mindestens 30-jährige statistische Mittel von Wetter, genauer von Wetterparametern, wie Temperaturen, Luftfeuchten, Luftdrücken, Windgeschwindigkeiten usw. Wie das Wetter ändert sich auch das Klima in allen Klimazonen (tropisch, gemäßigt, polar) der Erde seit ihrem Bestehen. Es hat noch nie konstantes Klima gegeben, an keinem Ort, zu keiner Zeit. Und es wird dies auch zukünftig niemals geben. Ein Phänomen (Klima), das sich dauernd ändert, kann man logischerweise nicht schützen. Man müsste dazu mit dem Schutz des Wetters anfangen. Klimaschutz ist absurd.

Die Klimaänderungen der Vergangenheit waren oft stärker als heute. So berichtet der Biologe Prof. Josef Reichholf (Univ. München) in seinem lesenwerten Buch „Eine kurze Naturgeschichte des letzten Jahrtausends“ vom Bau der berühmten Regensburger Steinbrücke in der trockenen Donau. Die heutige Temperaturen übertreffende mittelalterliche Warmzeit hatte zu einem weitgehenden Abschmelzen der Alpengletscher geführt, so dass die großen Flüsse Rhein und Donau in den heißen Sommern kein Wasser mehr führten. Zu Köln am Rhein durchquerten damals die Leute den ausgetrockneten Fluss zu Fuß. Man stelle sich solche ganz natürlichen Klimavorgänge – menschgemachtes CO2 konnte damals noch keine Rolle spielen – heute vor. Die Stadtväter Heidelbergs und die RNZ würden den Weltuntergang ausrufen. Es ging aber auch umgekehrt zu. In Zeiten des 30-jährigen Krieges war die Ostsee über viele Monate lang zugefroren. Gustav Adolf überquerte sie bei seinem Zug nach Deutschland zu Fuß und führte dabei schweres Gerät mit. In dieser Klimaperiode, die heute als „kleine Eiszeit“ bezeichnet wird, war es wesentlich kälter als gegenwärtig. Solche natürlichen Klimaextreme, warm oder kalt, werden irgendwann wiederkommen, ganz ohne unser Zutun!

  1. Offenbar meinen die Stadtväter Heidelbergs, das Klima mit Vermeidung des „klimagefährlichen“ CO2 schützen zu können. Zumindest einige von Ihnen werden sich vielleicht noch an ihre Gymnasialzeit erinnern. Dort haben sie, falls sie nicht geschlafen haben, gelernt, dass CO2 ein Spurengas ist. Sein Volumenanteil in der Luft beträgt heute etwa 0,04%. Es ist damit noch seltener als das Edelgas Argon. Dennoch ist CO2 lebensnotwendig! Pflanzen verdanken der Photosynthese, deren Hauptbestandteil CO2 ist, ihre Existenz. Ohne CO2 gäbe es weder Mensch noch Tier. Mehr CO2 führt zu besserem Pflanzenwachstum (hier), so auch von Getreide. Im Gegensatz zu den Stadtvätern Heidelbergs wissen dies zum Beispiel die Tomatenzüchter bestens, sie begasen nämlich ihre Gewächshäuser mit CO2.

Die CO2-Emissionen Heidelbergs sollen nunmehr gemäß den Plänen der Stadtväter um 95% reduziert werden. Dieser Plan ist gleichbedeutend mit der Absicht, alle Einwohner Heidelbergs zu töten! Ihn durchzuführen ist glücklicherweise unmöglich, und wir gehen natürlich davon aus, dass die Heidelberger Stadtväter überhaupt nicht wissen, was sie da vorhaben. Um 95% aller CO2-Emissionen Heidelbergs zu vermeiden, müssten nämlich alle Heidelberger das Ausatmen einstellen (dazu weiter unten mehr), kein Auto dürfte mehr fahren, keine Wohnung dürfte mehr geheizt werden und das im DAX notierte Unternehmen „Heidelberger Cement“ müsste sofort seine Zementproduktion einstellen, denn die Zementherstellung gehört zu den am stärksten CO2-erzeugenden Produktionsprozessen überhaupt. Schauen wir uns nur einmal stellvertretend die menschliche Ausatmung verglichen mit dem CO2-Ausstoß von Autos an, um die Absurdität von CO2-Vermeidung zu demonstrieren. Die folgende Rechung, bestehend aus simplen 5 Schritten, kann bereits ein guter Hauptschüler begreifen bzw. durchführen:

1) Ein KfZ Schein zeigt, dass ein Auto etwa 150 g = 0,15 kg CO2 pro Kilometer ausstößt.

2) Dies ergibt bei 10.000 km Fahrleistung pro Jahr 1,5 t CO2 im Jahr.

3) Dies ergibt weiter bei 1 Milliarde Autos weltweit 1,5 Milliarden t CO2 im Jahr.

4) Der Mensch atmet 400 kg = 0,4 t CO2 im Jahr aus (nicht naturneutral, denn diese Menge entspricht grob dem bei der Nahrungsmittelherstellung erzeugten CO2, so ist beispielsweise bereits die Verbrennungsenergie von 0,7 Liter Erdöl für das Backen eines Laibs Brot erforderlich).

5) Heute 7 Milliarden Menschen erzeugen 0,4 x 7 ≈ 3 Milliarden t CO2 im Jahr, also etwa das Doppelte des weltweiten Autoverkehrs.

Trotz dieser in allen Fachbüchern nachzulesenden Fakten ist CO2 für die grün dominierten deutschen Medien ein Luft-Schadstoff –> Klimakiller –> Umweltverschmutzer –> Gift! Hiermit hat die Verdummung der Öffentlichkeit durch grüne Ideologie säkulare Ausmaße erreicht.

Und unsere CO2 –Steuer für Autos? Wenn schon Steuer, dann sollte uns der Fiskus konsequenterweise eine Ausatmungssteuer an Stelle der CO2-KfZ-Steuer abknöpfen, das wäre zumindest ehrlich.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/CO2_Kraftwerk.jpg

Bild: Eine typische Klimasünderin

Was ist nun aber am CO2 angeblich so klimagefährlich? CO2 absorbiert das vom Erdboden ins Weltall abgestrahlte Infrarot und trägt daher glücklicherweise zur Erwärmung der Erde bei (Treibhauseffekt). Der Effekt des vom Menschen zusätzlich in die Erdatmosphäre gebrachten CO2 ist allerdings unmessbar klein. Es gibt bis heute keine begutachtete wissenschaftliche Veröffentlichung, in der ein anthropogener (=menschgemachter) Beitrag zum Treibhauseffekt nachgewiesen werden konnte. Dies beweist zwar nicht, dass es einen anthropogenen Beitrag nicht gibt. Es belegt aber, dass er unmaßgeblich klein und unbedeutend ist. Noch einmal: der extrem kleine anthropogene Erwärmungsbeitrag durch CO2 ist gemeint, CO2 ist dennoch das zweitstärkste Treibhausgas nach dem Wasserdampf.

Alle bisherigen Temperaturveränderungen der Erde bis auf den heutigen Tag waren natürlicher Art. Dieses Faktum belegt nicht zuletzt die globalweite Abkühlung seit etwa 15 Jahren – trotz ansteigendem CO2 in der Erdatmosphäre.  Wir können nur hoffen, dass diese Abkühlung nicht in eine neue kleine Eiszeit mündet, nicht wenige Klimaforscher sehen der schwächelnden Sonne wegen Anzeichen dafür. Auch bei uns werden die Winter immer länger und härter. Als weiteres Info für naturwissenschaftlich Interessierte (hier).

Der CO2 Ausstoß Deutschlands im Jahre 2012 betrug etwa 2,5% der weltweiten CO2-Emissionen. Reduktionen von 2,5% wirken sich rechnerisch auf die globale Mitteltemperatur mit Änderungen über 100 Jahre im Bereich von Hundertstel Celsiusgraden aus, sie sind also ein Nulleffekt. Vom noch kleineren Beitrag Heidelbergs zu diesem Nulleffekt sprechen wir erst besser gar nicht. China, Indien, Brasilien und die USA denken daher gar nicht daran, ihre CO2-Emissionen zu reduzieren und haben damit völlig recht. CO2 ist, wie wir es hier gelernt haben, ein unabdingbar notwendiges Naturgas, dessen Anstieg in der Atmosphäre höchst wünschenswert ist, denn dieser Anstieg hilft, die zunehmende Erdbevölkerung besser zu ernähren.

Der CO2-Anstieg ist zu Ende, wenn die Menschheit alle fossilen Brennstoffe verfeuert haben sollte (was nicht geschehen wird). Diese Schwelle ist etwa bei Verdoppelung der heutigen CO2-Konzentration erreicht. Im Übrigen geben wir mit Verfeuern von Kohle, Holz und Gas der Erdatmosphäre nur wieder das CO2 zurück, welches sie früher einmal besaß. Welche Länder unternehmen denn überhaupt noch die unsinnigen Anstrengungen von CO2-Reduktion zum Zweck des „Klimaschutzes“? Es sind die EU, die Schweiz, Australien und Neuseeland. Mal sehen, wie lange sie sich diese kostspieligen Dummheiten noch leisten werden. Deutschland ist, wie schon früher in seiner Geschichte unseliger oder unsinniger Aktionen wieder einmal mit Dummheiten ganz vorne dabei (Vorreiter!). Wir können also wieder einmal stolz sein, der Katzenjammer wird freilich kommen.

Nun aber endlich unser Beitrag zum Heidelberger Masterplan:

Liebe Stadtväter, vergesst das böse CO2 und startet lieber eine Aktion, um Ländern der dritten Welt Partikel-Filter für ihre Kohlekraftwerke zu schenken. Damit würdet ihr, liebe Stadtväter, einen echten Beitrag zum globalen Umweltschutz leisten. Und alle Kinder wären zu recht begeistert. Da nun bei Laien Missverständnisse entstehen könnten, eine Erläuterung: die vorgeschlagenen Filter absorbieren Schmutzpartikel und Aerosole, CO2 kann nicht mit Filtern entfernt werden – glücklicherweise, denn wir brauchen höhere CO2-Konzentrationen in der Atmosphäre für mehr Getreide. Also nochmals: CO2-Vermeidung hat weder etwas mit Klimaschutz noch mit Umweltschutz zu tun. CO2-Vermeidung ist einfach blanker Unsinn.

Auf den weiteren Unsinn des Masterplans, nämlich den Energiebedarf der Kommune Heidelberg um die Hälfte zu verringern, wollen wir nur kurz eingehen. Dieses Vorhaben ist – die Stadtväter mögen diese zutreffende Beurteilung verzeihen – idiotisch. Die öffentliche Infrastruktur Heidelbergs käme bei 50% Reduktion zum erliegen. Schulen, Krankenhäuser und die Arbeitsräume der Heidelberger Stadtväter könnten nicht mehr geheizt werden, die Straßenbahnen würden nicht mehr fahren usw. Historische Gebäude, wie das Hotel Ritter müsste man in meterdickes Styropor einpacken usw. Offenbar hilft bei diesem Masterplan ein „Institut“ IFEU mit. Ob solche Institute – Auffangbecken von „Experten“, die nach Beendigung des Klima- und Energiewende-Hypes vermutlich beschäftigungslos auf der Straße sitzen werden – objektiv beraten, sei dahingestellt.

Energieeinsparung ist selbstverständlich ein wichtiger Eckstein jeder Kommune, denn sie verringert die Kosten. Der Autor würde allerdings eher ein von grüner Ideologie freies, ordentliches Ingenieurbüro zur Beratung der Stadt Heidelberg bei der Aufgabe der Energieeinsparung empfehlen. Die Spielräume beim Energiesparen sind leider nicht mehr sehr groß. Mit Photovoltaik klappt es jedenfalls gar nicht. Zur Demo sollten sich die Heidelberger Stadtväter einmal eine ordentliche Kostenrechnung ihrer Solaranlage in Wieblingen vorlegen lassen – Baukosten und Betriebskosten gegen Stromerzeugung. Sie werden sich wundern! Diese komplett nutzlose und teure Anlage wurde ehemals vom Gemeinderat gegen den sachlich völlig berechtigten Widerstand der Bürgermeisterin Beate Weber durchgesetzt. Zur Information und Ernüchterung für Interessierte zu den vom IFEU genannten Hauptsäulen der Einsparung empfehlen wir den pdf-Anhang „Energie.pdf“ von Michael Limburg.

Was zeigt uns der Heidelberger Masterplan noch, der gemäß den Schildbürger-„Meistern“ zutreffender „Meisterplan“ heißen müsste? Er beantwortet uns die Frage, woran man eine neue Religion erkennt. Um dies näher zu erläutern, führe man ein kleines Experiment durch, bei dem man unauffällig in Gesellschaft religiöse Themen anschneide und sich dabei auf alte Religionen beschränke; etwa auf den römisch-katholischen Glauben. Unhöfliche Bemerkungen oder gar Witze über den abgedankten oder den neuen Papst und sogar scharfe Kritik an der Politik des heiligen Stuhls werden von der Umgebung keinesfalls als Faux Pas wahrgenommen. Macht man sich dagegen eines ähnlichen Missgriffs bei der neuen Religion „Klimaschutz“ schuldig, wird es ernst. Man wird nicht mehr eingeladen und verliert gute Bekannte. So stellt man also schnell fest, ob eine Religion neu ist. Die Ironie dabei: Die Bewertung der neuen Religion „Klimaschutz“ erlaubt die Verwendung von Sachargumenten, die der alten Religionen nicht. Halten wir fest:

Abfällige Bemerkungen über eine Religion führen nur bei neuen Religionen zur Verärgerung oder gar Aggressivität des Gegenübers. Es ist ferner sinnlos, bei Gesprächen über eine neue Religion auf Sachargumente zu setzen. Insbesondere neue Religion basiert auf Glauben, niemals auf Fakten. Die kommen erst dann zum Zuge, wenn es mit der neuen Religion wieder bergab geht.

Man muss dennoch die Hoffnung nicht völlig aufgeben. Schließlich gab es sogar in den finstersten, religiösen Jahrhunderten endlich eine Bewegung, die heute als Aufklärung bezeichnet wird. Sie hat es fertig gebracht, den Übergriffen religiöser Gläubigen und den von diesen fanatisch Gläubigen kühl profitierenden Herrschaftsklicken Einhalt zu gebieten (französische Revolution). Freilich war es für die Aufklärung ein langer Weg. Heute sind alte Religionen in die private Ecke zurückgedrängt, dort gehören sie auch hin.

Den neuen Religionen wird es ebenso wie den alten Religionen ergehen, nur wesentlich schneller. Schließlich können heute mehr Leute rechnen als früher, oder nehmen wir dies zumindest einmal an. Bis es aber mit dem „Klimaschutz“ so weit ist, dürfen wir mit historischem Auge lustige und komische Aufrufe an Gläubige studieren, wie beispielsweise den „Masterplan Heidelbergs“. Er ist ein Musterbeispiel für neue Religion. Der Unsinn von religiösen Aufrufen neuer Religionen steht denen alter Religionen wie etwa den mittelalterlichen Aufrufen zu „heiligen“ Kreuzzügen um nichts nach. Früher ging es um die Rettung der Seele, heute um die Rettung der Erde (s. hierzu auch die Aktion „Earth Hour“ des WWF). Die Komik im Fall Heidelbergs ist besonders pikant, weil der Schildbürgerstreich „Klimaschutz durch 95%-ige CO2-Reduzierung“ in einer renommierten deutschen Universitätsstadt stattfindet.

Prof. Dr. Horst-Joachim Lüdecke

EIKE Pressesprecher

P.S. Der Beitrag ist für Verteilungszwecke hier noch einmal als separates pdf angefügt (Artikel_als_pdf). Die angegebenen Internet-Links sind natürlich nur im EIKE-Artikel selber nutzbar.

Related Files




Erst zum Gipfel, dann talwärts: Die Temperaturentwicklung in Deutschland seit 1980 und deren wesentliche Ursachen

Kurvenreiche Strecke: Im ständigen Auf und Ab des Klimas ist nun wieder die Kälte „dran“, und für Warmisten wird nicht nur die Straße schmaler, sondern auch die Luft immer dünner. Foto: Stefan Kämpfe.

Ohne Untersuchung der Großwetterlagen und der Sonnenaktivität kann eine umfassende Erklärung des Temperaturverhaltens während der vergangenen gut 3 Jahrzehnte nicht gelingen. Zwar behauptet die einseitig auf „Treibhausgase“ fixierte Klimawissenschaft noch immer, dass der Einfluss der Sonne auf unser Klima gering sei. Aber in den vergangenen 15 Jahren hat die Zahl der Studien, Veröffentlichungen und kritischen Beiträge, welche das genaue Gegenteil beweisen, enorm zugenommen. Spätestens mit der Veröffentlichung des Buches „Die kalte Sonne- warum die Klimakatastrophe nicht stattfindet“ von VAHRENHOLT/LÜNING (2012) erreichte die Diskussion über die tatsächlichen Ursachen des Klimawandels nun auch die breite Öffentlichkeit. Wir können im Rahmen dieser Arbeit nicht alle bekannten meteorologischen, klimatologischen, solar- und astrophysikalischen Zusammenhänge untersuchen und aufzeigen. Zunächst einmal wollen wir uns die Häufigkeitsentwicklung der Großwetterlagen seit 1980 ausführlich ansehen. Nach HESS/BREZOWSKY (1952, 1969, 1977) werden 29 Großwetterlagen (GWL) für Mitteleuropa unterschieden, hinzu kommen einzelne, nicht diesen 29 Lagen zuordenbare Fälle, welche dann als sogenannte „Übergangslagen“ bezeichnet und im Rahmen dieser Untersuchung nicht weiter berücksichtigt wurden, da sie nur an 0 bis höchstens 3 Tagen je Monat auftreten. Bei der Ermittlung der Großwetterlagen, welche auch vom Deutschen Wetterdienst (DWD) monats- und jahresweise veröffentlicht werden, gilt die Regel, dass eine einzelne Wetterlage mindestens 3 Tage hintereinander andauern muss, um eindeutig als solche klassifiziert zu werden (monats- und jahreswechselübergreifendes Ermitteln ist selbstverständlich möglich). Jede GWL ist durch 2, 3 oder höchstens 4 Großbuchstaben eindeutig bestimmt. Es ergeben sich dadurch zunächst sieben GWL, die sich durch gerichtete Strömung über Mitteleuropa auszeichnen (Strömung „kommt“ aus N, NE, SE, S, SW, W oder NW). Die fehlende Richtung E (Ost) „verbirgt“ sich hinter der Lagebezeichnung des dabei für Mitteleuropa wetterbestimmenden Hochs über (Fenno)- Skandi(navi)en (HF) oder über dem Nordmeer und (Fenno)- Skandi(navi)en (HNF). Es handelt sich dabei also um Lagen, bei der die geografische Lage des für Mitteleuropa bestimmenden Druckgebiets (hier: Ein Hoch über Skandinavien im weitesten Sinne) namensgebend war, ähnlich ist es beim Hoch, der Hochdruckbrücke, beim Tief  und beim Trog über Mitteleuropa (HM, BM, TM, TRM), beim Hoch über dem Nordmeer (HN), dem Trog über Westeuropa (TRW) und dem Hoch oder dem Tief über den Britischen Inseln (HB, TB). Den kursiv gekennzeichneten Lagen wird außerdem jeweils der Großbuchstabe A für antizyklonal nachgestellt, wenn sie sich über Mitteleuropa durch Hochdruckeinfluss auszeichneten, oder Z (zyklonal) bei über Mitteleuropa vorherrschendem Tiefdruckeinfluss. Da die Lagen HM, BM und HB über Mitteleuropa immer vorwiegend antizyklonal, das TM, TB, der TRW, TRM sowie die beiden Sonderfälle der Westlagen, Südliche Westlage (WS) und Winkelförmige Westlage (WW), stets zyklonal sind, erübrigt sich für diese ein weiterer Buchstabe. Es bedeutet also beispielsweise WZ „Zyklonale Westlage“ oder HNFZ „Hoch über dem  Nordmeer und (Fenno)- Skandi(navi)en, in Mitteleuropa mit Tiefdruckeinfluss (zyklonal)“. Für Statistiken werden ähnliche Großwetterlagen zu Großwettertypen zusammengefasst; für spezielle Fragestellungen ist außerdem noch eine weitergehende Zusammenfassung möglich; siehe folgende Tabelle:

Entscheidend ist nun, ob sich, parallel zum beobachteten Temperaturverlauf seit 1980, auch die Häufigkeit bestimmter GWL und GWT geändert hat. Leider ist es fast unmöglich, vielen Großwetterlagen eine eindeutige Erwärmungs- oder Abkühlungswirkung zuzuordnen, da erstens eine Gewichtung nach der sehr unterschiedlichen Häufigkeit der einzelnen GWL vorgenommen werden müsste, und zweitens gibt es enorme jahreszeitliche Unterschiede. So kann eine antizyklonale Südlage (SA) im Winter strenge Kälte bringen (Mitte Januar 1982), im Sommer hingegen große Hitze (Anfang August 1994), denn die für die Lufttemperaturen letztendlich entscheidenden Luftmassen sind besonders bei den von Hochdruckgebieten dominierten Wetterlagen jahreszeitbedingt extrem unterschiedlich; und selbst innerhalb einer Jahreszeit können bei ein und derselben Wetterlage sehr unterschiedliche Luftmassen auftreten. Eine Ermittlung der Luftmassenhäufigkeit war wegen des enormen Aufwands im Rahmen dieser Arbeit nicht möglich und bleibt späteren Studien vorbehalten. Anhand klimatischer Erfahrungswerte lassen sich jedoch folgende Regeln für die Jahresmitteltemperaturen aufstellen:

  1. Westlagen (besonders WA und WZ) „tragen“ das insgesamt etwas mildere Klima Westeuropas nach Deutschland (Jahresmittel von Plymouth 10,8°C, Deutschland auf demselben 50. Breitengrad, selbe Höhenlage 9,5 bis 10,5°C), so dass Westlagen im Jahresmittel geringfügig erwärmend wirken.
  2. Südwestlagen wirken in allen Jahreszeiten erwärmend, besonders im Herbst und Winter.
  3. Ostlagen wirken- trotz ihrer Wärme im Sommer- insgesamt kühlend (Jahresmittel von Kiew auf  dem 50. Breitengrad nur 7,4°C, mit Höhenkorrektur etwa 8,4°C).
  4. Nordlagen wirken überwiegend kühlend, Südlagen überwiegend wärmend.
  5. Die wärmsten Jahre sind solche mit einem hohen West- und Südwestanteil zwischen November und März und einem hohen Anteil von Hochdruck-, Süd- und Südwestwetterlagen zwischen April und Oktober.
  6. Zentralhochlagen (HM, BM) sind zwar im Winter (Dez.- Feb.) meist etwas zu kalt, mitunter temperaturnormal oder selten zu mild, besonders zwischen April und Mitte Oktober aber meist deutlich zu warm. Generell tendieren antizyklonale Wetterlagen im Winter zu unter- und im Sommer zu übernormalen Temperaturen.

Zunächst lohnt also einmal ein Vergleich, wie sich wärmende und kühlende Großwettertypen (GWT) im Jahresverlauf seit 1980 entwickelt haben:

 

Abb. 1: Eine augenscheinliche, wesentliche Änderung der Häufigkeiten wichtiger Großwettertypen ist nur bei den Westlagen erkennbar- diese nahmen deutlich ab, weil auch der NAO- Index seit Beginn der1980er Jahre einen fallenden Trend aufweist.

Die folgende Abbildung zeigt, dass Lagen mit südlichem Strömungsanteil etwas stärker zunahmen, als solche mit Nordanteil:

Abb. 2: Zwar nahmen Lagen mit Südanteil etwas stärker zu, als die mit Nordanteil. Aber auch daraus lässt sich nur ein geringer Teil der insgesamt beobachteten Temperaturänderung seit 1980 erklären, vor allem erklärt dies nicht die mit dem Jahr 2001 beginnende leichte Abkühlung.

Weiterhin zeigt sich, dass antizyklonale (hochdruckbeeinflusste) Wetterlagen deutlich abnahmen, während 5- b- artige Lagen (das sind zyklonale Lagen mit nördlicher bis östlicher Anströmung in den unteren Luftschichten, bei denen es aber in höheren Luftschichten oft zu einem mehr oder weniger intensiven Aufgleiten feuchter Mittelmeerluft kommt, was mitunter starke Niederschläge besonders in Süd- und Ostdeutschland auslöst; diese Lagen sind außerdem fast durchweg zu kalt und sehr sonnenscheinarm) etwas zunahmen:

Abb. 3: Hochdruckwetterlagen nahmen deutlich ab, 5- b- artige etwas zu.

Insgesamt bestätigen diese Untersuchungen unsere für den Temperaturverlauf von Erfurt (2012) getroffenen Aussagen, dass Änderungen in den Zirkulationsverhältnissen, speziell bei den Großwetterlagen, nur relativ geringe Teile der beobachteten Temperaturänderungen erklären können und statt dessen WI- Effekte, höhere Sonnenscheindauer und die Sonnenaktivität dominant sind (dass es aber auch einen bemerkenswerten Einfluss der Sonnenaktivität auf die Häufigkeit der Großwetterlagen gibt, werden wir gleich noch sehen). Am ehesten lassen sich noch die tendenziell schon länger anhaltende Abkühlung im Winter und die Erwärmung im Frühling mit geänderten Zirkulationsverhältnissen erklären:

 

Abb. 4: Kältere Winter auch durch weniger West- und mehr Nordwetter, wärmere Frühjahre auch durch mehr Hochdruckwetter (antizyklonale Lagen).

Im Sommer sind die Verhältnisse insgesamt noch schwieriger zu bewerten. Zwar nahm die Häufigkeit von Wetterlagen mit Nordanteil ab und die mit Südanteil, darunter besonders Südwest, deutlich zu, aber dafür wurden die im Sommer besonders warmen antizyklonalen Lagen seltener:

Abb. 5: Im Sommer nahmen die besonders stark erwärmend wirkenden antizyklonalen Wetterlagen („Hochdruckwetter“) sehr deutlich ab.

Insgesamt sei noch angemerkt, dass im Herbst Westwetterlagen deutlich ab- und Wetterlagen mit Süd- und Nordanteil etwas zugenommen haben.

Nun stellt sich natürlich die Frage, was die schwankende Häufigkeitsverteilung der Großwetterlagen beeinflussen könnte. Beim Blick in historische Wetterkarten fallen die strengen Februarmonate 1956, 1986 und 2012 mit ihrer Häufung nördlicher bis östlicher Wetterlagen auf. Vor jedem dieser kalten Februare gab es im November eine relativ hohe Sonnenaktivität, die im Dezember und Januar deutlich abnahm. F. BAUR (1956) schrieb dazu sinngemäß „… dass die Entwicklung des Großwetters auf zwei Ursachenkomplexe zurückzuführen ist: Auf die vorausgegangenen Zustände und Vorgänge des Weltwetters und auf die mengen- und artmäßigen Schwankungen der die Erde treffenden Sonnenstrahlung.“ Vor dem kalten Februar 2012 hat die im November 2011 noch hohe Sonnenaktivität ähnlich deutlich nachgelassen, wie 1956, auch 1985/86 war die Abnahme deutlich. F. BAUR schreibt weiter: „… der Einzigartigkeit des Temperaturverlaufs im Winter 1955/56… ging eine gleichfalls in 2 Jahrhunderten noch nie beobachtete Entwicklung auf der Sonne voraus… . Die Sonnenfleckenrelativzahlen… sind 1955 im November bis auf 89,2 gestiegen… danach folgte ein starker Fall des Monatsmittels der Sonnenfleckenrelativzahlen vom Nov. zum Dez. um 14% und zum Januar um weitere 8%… . Einigermaßen vergleichbar ist dieser Verlauf nur mit 1847/48… Es ist bemerkenswert, dass auch damals ein (einzelner) strenger Wintermonat auftrat, jedoch … um einen Monat früher als 1956, nämlich im Januar 1848 (Temp.- Abw. minus 6,8°C).“ Er merkt weiterhin an, dass die gut zu beobachtenden Sonnenflecken selbst zwar keinen nennenswerten Einfluss auf die Abstrahlung der Sonne im Bereich des sichtbaren Lichtes haben, sie aber die Photosphäre der Sonne so verändern, dass unter anderem die Menge der abgegebenen Ultravioletten Strahlung schwanken kann. Heute weiß man, dass eine zurückgehende Anzahl der Sonnenflecken auch ein Anzeichen für eine Abnahme der Stärke des solaren Magnetfeldes, des Sonnenwinds („Teilchenstrahlung“) und der solaren Radiostrahlung ist. Diese letztgenannten Größen sind es letztendlich, welche über verschiedenartige, komplizierte Mechanismen Witterung und Klima maßgeblich beeinflussen (die Sonnenflecken selbst bilden das Verhalten der „unsichtbaren“ Solarstrahlungsfrequenzen nur unvollständig ab). Da aber nur Daten über die Anzahl und Entwicklung der Sonnenflecken („Sonnenfleckenrelativzahlen“) in guter Qualität für den gesamten Betrachtungszeitraum verfügbar waren, sollen diese hier bei den weiteren Untersuchungen genutzt werden. Die folgende Abbildung zeigt die Entwicklung der Verhältnisse auf der Sonne vor und während des Kälteeinbruchs im Winter 2011/12:

 

Abb. 6: Starke Abnahme der Sonnenaktivität zwischen November 2011 und Februar 2012, Quelle: EIKE).

Es lag also nahe, einmal die Beziehungen zwischen der Anzahl der Sonnenflecken und der Häufigkeit der Großwetterlagen zu untersuchen. Zunächst haben wir die Jahresmittelwerte der Sonnenfleckenrelativzahlen zur jährlichen Anzahl der Großwettertypen (GWT) in Beziehung gesetzt. Bei den meisten GWT ergaben sich bei jährlicher Betrachtungsweise nur geringe bis mäßige Zusammenhänge, was bei der starken Schwankung der einzelnen Jahreswerte aber auch nicht wundert. Immerhin zeichneten sich positive Zusammenhänge zu West- und HM- Lagen ab, während Meridionallagen gehäuft bei geringer Sonnenaktivität auftraten. Durchaus bemerkenswert ist aber der Zusammenhang aber zum GWT Nord:

Abb. 7: Bei höherer Sonnenaktivität werden Nordlagen tendenziell seltener.

Um die starken, jährlichen Schwankungen auszugleichen, sind wir erstens in der Zeit weiter zurück und zweitens zu einer gleitenden Mittelbildung übergegangen. Wir konnten die Großwetterlagen bis einschließlich 1957 zurückverfolgen und haben ein über 11 Jahre gleitendes Mittel gewählt (bei der Betrachtung eines bestimmten Jahres fließen außer dessen Wert auch die Werte der jeweils 5 Vorgänger- und Nachfolgerjahre gleichrangig in das Gleitende Mittel ein). Somit ist das erste Betrachtungsjahr 1962 (inklusive 1957 bis einschließlich 1967), das letzte 2006. Der 11jährige Zeitraum wurde gewählt, weil er in etwa der Länge des Schwabe- Zyklus der Sonnenaktivität entspricht. Da Witterung und Klima verzögert auf Störgrößen, so auch auf Änderungen der Sonnenaktivität, reagieren, sollte sich bei dieser Vorgehensweise ein deutlicherer Zusammenhang zeigen. Die Ergebnisse sind bemerkenswert:

Abb. 8: Die Variabilität der Häufigkeit des GWT West wird zu 56% positiv von der Variabilität der Sonnenaktivität beeinflusst- bei höherer Sonnenaktivität treten tendenziell mehr Westlagen auf.

Abb. 9: Die Variabilität der Häufigkeit von Wetterlagen mit Nordanteil wird zu 51% von der Variabilität der Sonnenaktivität beeinflusst, allerdings negativ, so dass bei höherer Sonnenaktivität tendenziell weniger Nordwetter auftritt.

Die folgende Abbildung zeigt die Korrelationskoeffizienten einiger weiterer wichtiger Wetterlagengruppen bei 11- jähriger, gleitender Mittelung:

Abb. 10: Den abgebildeten Korrelationskoeffizienten entsprechen Bestimmtheitsmaße von 49 % beim GWT HM und 47 % bei Wetterlagen mit Südanteil. Antizyklonale Lagen (27 %), 5- b- Lagen (20 %) und Meridionallagen (16 %) werden noch mäßig, Ostlagen (GWT E)mit 3 % praktisch gar nicht von der Sonnenaktivität beeinflusst.

Zum Abschluss der Betrachtungen zum Einfluss der Sonnenaktivität auf die Großwetterlagen wollen wir uns noch einmal die Westwetterlagen etwas näher ansehen, denn von der nachlassenden Sonnenaktivität sind die einzelnen Großwetterlagen des GWT West unterschiedlich stark betroffen, was die folgende Abbildung zeigt:

Abb. 11: Die Häufigkeit der Westwetterlagen (GWT W) folgt im Großen und Ganzen der Sonnenaktivität (Schwarze Kurve). Dabei nahmen besonders die im Winter stark erwärmend wirkenden GWL WA und WZ im Verlauf der letzten 3 Jahrzehnte stark ab, während die Südlichen und die Winkelförmigen Westlagen (WS und WW) schon etwas eher und weniger deutlich zurückgingen. Bei geringerer Sonnenaktivität, welche auch zu einer Südverlagerung der Frontalzone führt, verschieben sich also die Gewichte innerhalb der Westlagen zumindest indirekt in Richtung der meist kühleren WS- und WW- Lagen.

Abschließend sei noch angemerkt, dass die Sonnenaktivität natürlich nicht allein das Verhalten der Großwetterlagen steuert. Auf andere wichtige Faktoren wie die AMO, die NAO und das ENSO- Phänomen, konnten wir im Rahmen dieser Arbeit nicht eingehen.

Zum Abschluss ein kurzer Ausblick- Wie könnte sich unser Klima in naher Zukunft entwickeln?

Klimaprognosen sind leider bei weitem nicht so einfach, wie uns das die Experten vom IPCC oder vom PIK immer einreden wollen. So wurde der gerade zu Ende gegangene Hochwinter (Januar und Februar) 2013 von fast allen Langfristvorhersagen deutlich zu mild vorhergesagt; er fiel aber im Vergleich zur Normalperiode 1961 bis 1990 etwas zu kalt, im Vergleich zum Mittel der vorangehenden 30 Jahre (1983 bis 2012) sogar deutlich zu kalt aus. Deshalb können und wollen wir keine exakte Prognose abgeben. Es verdichten sich jedoch die Anzeichen, dass es in den kommenden 3 bis 5 Jahrzehnten zu einer mehr oder weniger deutlichen Abkühlung kommen dürfte; manche Forscher halten sogar eine „Kleine Eiszeit“ mit ähnlichen Verhältnissen wie zur Zeit des „Dalton- Minimums“ der Sonnenaktivität in der 1. Hälfte des 19. Jahrhunderts für sehr wahrscheinlich. H. MALBERG hat in zahlreichen Arbeiten den engen, langfristigen Zusammenhang zwischen Sonnenaktivität und Lufttemperaturen nachgewiesen (folgende Abbildung):

Abb. 12: Die Sonnenaktivität (obere Abbildung) beeinflusst maßgeblich den Temperaturverlauf in Europa (Quelle: MALBERG, 2013).

In unserer Arbeit haben wir uns vorrangig mit den Ursachen des Temperaturverlaufs in Deutschland seit 1980 befasst. Zu Beginn dieses Untersuchungszeitraumes war das Maximum des intensiven Schwabe- Zyklus 21 zu beobachten; um 1990 folgte das noch intensivere des Zyklus 22, während der Zyklus 23, der sein Maximum 2000/2001 erreichte, schon deutlich schwächer ausfiel, allerdings nur in der Sonnenfleckenrelativzahl, nicht in der magnetischen Aktivität, oder der Röntgenaktivität der Sonne, diese stiegen bis ca. 2003 weiter an. Der aktuelle, noch nicht beendete Zyklus 24 fiel bislang sehr schwach aus und ähnelt hinsichtlich seiner sehr geringen Intensität den Zyklen 5 und 6, welche zu Beginn des 19. Jahrhunderts den letzten Höhepunkt der „Kleinen Eiszeit“ einleiteten. Die folgende Abbildung zeigt den sehr aktiven Zyklus 22 im Vergleich zum Zyklus 5, welcher dem jetzigen Zyklus 24 ähnelt:

Abb. 13:Während bei dem Schwabe- Zyklus 22 zu Beginn der 1990er Jahre sehr hohe Sonnenfleckenrelativzahlen von bis zu 200 aufgetreten sind, ähnelt der momentane Zyklus 24 dem unten abgebildeten Zyklus 5 vom Beginn des 19. Jahrhunderts. Er dauert länger, und die Sonnenfleckenrelativzahlen bleiben sehr niedrig (Quelle: www.schulze-md./de)

Weil die mittleren Lufttemperaturen der Sonnenaktivität aufgrund der Trägheit des Klimasystems mit einer deutlichen Verzögerung von mindestens einem halben Jahrzehnt folgen, wird auch der Temperaturverlauf der letzten Jahrzehnte transparenter. Auf die intensiven Schwabe- Zyklen 21 und 22 reagierte das Klima in Deutschland mit einer Erwärmung, die zeitversetzt etwa 10 Jahre später ihr Maximum (Jahr 2000) erreichte und dann- als Reaktion auf den schon schwächeren Zyklus 23- wieder zu fallen begann. Seit Mitte der 2000er Jahre ist die Sonnenaktivität nur noch sehr gering ausgefallen, und tendenziell nahm die Sonnenaktivität im Betrachtungszeitraum insgesamt stark ab, was sich nun auch zunehmend auf die Temperaturen auswirkt:

Abb. 14: Träges Klima- die Jahresmitteltemperaturen in Deutschland (Grün) folgten der Sonnenaktivität (Rosa) mit einer Verzögerung von mehr als einem Jahrzehnt, wenn man nur die sichtbaren Parameter der solaren Aktivität betrachtet. Die sehr hohe Sonnenaktivität der späten 1970er bis frühen 1990er Jahre wirkte darauf noch lange- bis zum Jahr 2000- nach.

Werden indes die bereits erwähnten, nicht sichtbaren Parameter, wie magnetische Aktivität oder kurzwellige elektromagnetischen Strahlung der Sonne betrachtet oder die Sonnenwindaktivität (für deren Einflüsse auf das Wetter z.B. der Svensmark- Effekt als Oberbegriff steht) und diese in Zusammenhang zur Temperaturentwicklung gesetzt, wird der unmittelbare Einfluss der solaren Aktivität auf unser Wetter/Klima sichtbar.

Abb. 15 (Quelle: http://bobtisdale.blogspot.com/2008/08/reference-graphs-total-solar-irradiance.html) zeigen die PMOD-TSI-Kurve von 1900 – 2007 (blau, vor 1980 rekonstruiert, PMOD = Physikalisch-Meteorologisches Observatorium Davos) und in rot die Satelliten-ACRIM-TSI-Kurve. Deutlich ist erkennbar, dass die solare Aktivität zum ausgehenden 20. Jahrhundert deutlich ansteigt und ihr Maximum erreicht. Dies wird noch mehr in der Abbildung rechts deutlich, wird jeweils der polynomische Trend angelegt. Anzumerken ist noch, dass der 23. Zyklus aufgrund der anderen Messcharakteristik von ACRIM III gegenüber ACRIM I (ACRIM = Active Cavity Radiometer Irradiance Monitor) im Vergleich zu seinen beiden Vorgängerzyklen gedämpft ist, also, würde auf ACRIM I normiert, er  nochmals höher ausfiele.

Werden die NASA-Satellitenmessungen ab 1980 mit den rekonstruierten TSI-Werten (TSI = Total Solar Irradiance) verknüpft, so ergibt sich die nachfolgende Datenreihe links.

Abb. 16: Die Datenreihe zeigt den TSI von 1850, dem Jahr, indem das IPCC seine Temperaturbetrachtung beginnen lässt, bis 2007. Sie passt auch zur Protonenaktivität (rot = Hochenergie: >10 MeV, gelb = Sonnenfleckenzahl) der Sonne, die als Maß ihrer Gesamtaktivität gilt, Abbildung rechts, Quelle: NOAA Space Environment Center. Ebenso zum Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus, der in 2003 sein Maximum hatte und der den Schwabe-Zyklus elementar beeinflusst, sowie zur Aussage der Max Planck Gesellschaft aus 2004, “Sonne seit über 8.000 Jahren nicht mehr so aktiv wie heute“.

Auch die folgende Abbildung belegt, dass die Aktivität der Sonne bis in den 23. Sonnenzyklus stetig ansteigt und diese Aktivitätssteigerung in den Sonnenflecken nicht sichtbar wird. D.h. die Sonnenflecken sind kein geeignetes Maß, um die tatsächliche solare Aktivität wieder zu geben. Sie sind dann erste Wahl, wenn es gilt, lange Zeitreihen, miteinander zu vergleichen, weil deren Beobachtungen einige Jahrhunderte zurück reichen.

Abb.17  (http://www.gao.spb.ru/english/astrometr/index1_eng.html) verdeutlicht, die Sonnenflecken sind nur eingeschränkt aussagefähig zur solaren Aktivität. Während der 23. Zyklus deutlich weniger Sonnenflecken zeigt als seine beiden Vorgänger und dadurch fälschlich abgeleitet wird, die solare Aktivität wäre deutlich niedriger, ist die Höhe der Strahlungsleistung gleich zu seinen Vorgängern. Der Betrag (Flächenintegral)ist sogar größer.

Dies zeigt auch sehr deutlich ein weiterer Parameter, der von Solar Stanford University verwendet wird und der für ein Maß für die magnetische und Sonnenwindaktivität ist, die Heliosphärische Stromschicht.

Abb. 18 (Quelle: ”Analysis of the heliospheric current sheet at Earth’s orbit and model comparisons”, Lepping, R. P.; Szabo, A.; Peredo, M.; Hoeksema, T., NASA Goddard Space Flight Center, International Solar Wind 8 Conference, p. 95, http://wso.stanford.edu/gifs/Tilts.gif) zeigt die Lage der Heliosphärischen Stromschicht der Sonne (Heliospheric Current Sheet) während der Sonnenzyklen 21 – 23 anhand zweier Analysemethoden, wobei angegeben wird, dass die Radialdaten möglicherweise genauer sind. Wie Leistenschneider übrigens in seiner 8-teiligen EIKE-Reihe, “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ zeigen konnte, ist dies eine falsche Einschätzung der Fachleute in Stanford. Deutlich ist zu sehen, dass die Sonne im 23. Sonnenzyklus am aktivsten war. Dieser fiel mit dem Maximum des Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries- Suess- Zyklus zusammen, der in 2003 sein 200-jähriges Maximun hatte.

Das gleiche Bild der Sonnenaktivität zeichnen Wilson & Hathaway in ihrer Arbeit “On the Relationship Between Solar Wind Speed, Geomagnetic Activity, and the Solar Cycle Using Annual Values”, NASA (Marshall Space Flight Center). Dort ist die folgende Abbildung des geomagnetischen aa- Index abgebildet.

Abb. 19 oben zeigt den aa- Index von 1868 – 2006. Die blauen Balken geben das Sonnenminimum der Sonnenzyklen an. Deutlich ist zu sehen, dass die geomagnetische Aktivität ab 1900 zunimmt und ihr Maximum im 23. Schwabe-Zyklus um 2003 hat. Die Abbildung darunter zeigt den geomagnetischen aa- Index in Verbindung der Sonnenfleckenzahl R  für die Jahre 1868 – 2006. Die blauen Balken zeigen das jeweilige solare Minimum und die roten Balken das jeweilige solare Maximum. Auch hier ist ab 1900 eine deutliche Steigerung der Sonnenaktivität zu verzeichnen und im 23. Schwabe-Zyklus um 2003 die Sonnenaktivität am höchsten. Im ihrem Bericht weisen Wilson & Hathaway übrigens darauf hin, dass die magnetische Aktivität jeweils nach dem Zyklusmaximum, wie es anhand der Fleckentätigkeit ermittelt wird, ihr Maximum erreicht.

Weil fast alle Astrophysiker von einer auch in den kommenden Jahren geringen Sonnenaktivität ausgehen, dürften nach unseren Untersuchungen auch die Temperaturen in naher Zukunft  weiter sinken. Es ist bemerkenswert, dass T. LANDSCHEIDT schon in den 1980er Jahren diese Entwicklung bereits im Großen und Ganzen richtig vorhergesagt hatte. Ihm zu Ehren wäre es wünschenswert, das aktuelle Aktivitätsminimum der Sonne als Landscheidt- Minimum zu bezeichnen.

Da wir uns im letzten Teil unserer Arbeit mit der Sonnenaktivität beschäftigt haben, wollen wir ganz am Ende noch einmal kurz auf die Sonnenscheindauer zurückkommen, deren Zunahme maßgeblich an der Erwärmung der vergangenen Jahrzehnte beteiligt war (siehe Teil 2). H. SVENSMARK fand heraus, dass die bis in tiefere Luftschichten vordringende Kosmische Strahlung bei höherer Sonnenaktivität abnimmt (dafür sorgt das dann stärkere solare Magnetfeld). „Kosmische Strahlung“ besteht jedoch aus hochenergetischen Teilchen, welche die Bildung von Kondensationskeimen und damit die Bildung tiefer Wolken und Nebel fördern. Im Zuge der aktuell nachlassenden Sonnenaktivität schwächt sich auch das solare Magnetfeld deutlich ab, so dass sich die Intensität der Kosmischen Strahlung wieder erhöht. Mehr tiefe Wolken und mehr Nebel bedeuten aber weniger Sonnenschein. Dass die Zunahme der Sonnenscheindauer an den meisten deutschen Stationen trotzdem bis in die Gegenwart andauerte, liegt an den umfangreichen Luftreinhaltemaßnahmen, welche den „Svensmark- Effekt“ bislang noch überkompensierten. Es gibt aber bereits Gegenden, wo sich die nachlassende Sonnenaktivität bereits auf die Sonnenscheindauer auswirken könnte- die Hochseeinsel Helgoland oder der Westen Englands, wo der Effekt der Luftreinhaltemaßnahmen zwar auch vorhanden, aber deutlich geringer ist. Unsere letzte Abbildung zeigt, dass die Trendwende zu sonnenscheinärmeren Zeiten dort bereits begonnen hat, auch auf dem Festland dürfte sich diese Entwicklung  ab sofort deutlicher bemerkbar machen.

Abb. 20: Im atlantischen Klima hat die „Trendwende“ zu sonnenscheinärmerer Witterung bereits Mitte der 2000er Jahre begonnen. Quelle für die England- Werte: http://sunshinehours.wordpress.com/category/uk-met/

Verfasst und zusammengestellt (2013) von

Stefan Kämpfe, Weimar

Josef Kowatsch, Hüttlingen

Raimund Leistenschneider, EIKE

Literaturliste

Abdussamatow, H. I. (2012): Zweihundertjährige Abnahme der Solarstrahlung führt zu einem Ungleichgewicht des thermischen Budgets der Erde und zu einer Kleinen Eiszeit. Petersburg 2012 http://nextgrandminimum.files.wordpress.com/2012/11/abduss_apr.pdf

Baur, F.: Gedanken und Tatsachen zur Frage der Ursache der strengen Kälte im Februar 1956. Nachdruck in: Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 43/06 (Sonderbeilage 12/06) vom 17.05.2006

Calder, N., Svensmark, H. (2007): The Chilling Stars – A New Theory of Climate Change, übersetzt ins Deutsche von Helmut Böttiger: Sterne steuern unser Klima: Eine neue Theorie zur Erderwärmung. Patmos Verlag, Düsseldorf 2008

Deutscher Wetterdienst (DWD) (2010, 2011): Großwetterlagen- Anzahl der Tage.

www.dwd.de

Fett, W. (2012): Klimawandelschuldzuweisung: Mensch oder doch Sonne? Beiträge des Instituts für Meteorologie der Freien Universität Berlin zur Berliner Wetterkarte, Beilage 73/12 (Sonderbeilage 35/12) vom 12.12.2012

Hess, P., Brezowsky, H.: Katalog der Großwetterlagen Europas. Ber. Dt. Wetterd. in der US- Zone 33, 1952.

Hess, P., Brezowsky H.: Katalog der Großwetterlagen Europas. 2. neu bearbeitete und ergänzte Auflage. Ber. Dt. Wetterd. 15 (113), 1969.

Hess, P., Brezowsky, H.: Katalog der Großwetterlagen Europas 1881–1976. 3. verbesserte und ergänzte Aufl.. Ber. Dt. Wetterd. 15 (113), 1977.

http://.wikipedia.org/ Zeitreihe der Lufttemperatur in Deutschland ab 1761

Kämpfe, S., Kowatsch, J., Leistenschneider, R.: Starker Temperaturanstieg seit 1979 in Erfurt- warum CO2 dabei nur eine unbedeutende Nebenrolle spielt! Teil 1 Vorstellung der Hauptakteure (20.10.2012) und Teil 2 „Trittbrettfahrer“ CO2- Das Phantom der Klimawissenschaft (26.10.2012) www.eike-klima-energie.eu

Landscheidt, T. (1983): Solar oscillations, sunspot cycles and climatic change. Boulder 1983

Leistenschneider, R. (2011): Dynamisches Sonnensystem- die tatsächlichen Hintergründe des Klimawandels, Teile 1 bis 8

Teil 1 – Die Sonne bestimmt den Temperaturgang

Teil 2 – Die Sonne, der faszinierende Stern

Teil 3 – Sonnenflecken und ihre Ursachen

Teil 4 – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht,
            interplanetares Magnetfeld

Teil 5 – Die variable Sonne

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen

Teile 1 bis 8 bei www.eike-klima-energie.eu

Malberg, H. (2002 bis 2013) Beiträge des Instituts für Meteorologie der Freien Universität Berlin/Berliner Wetterkarte:

– Über den Klimawandel in Mitteleuropa seit 1850 und sein Zusammenhang mit der Sonnenaktivität. SO 17/02

– Die globale Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 27/02

– Die nord- und südhemisphärische Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 10/03

– Der solare Einfluss auf das mitteleuropäische und globale Klima seit 1778 bzw. 1850. SO 01/07 (2007) – In Memoriam

Prof. Richard Scherhag.

– Über den dominierenden solaren Einfluss auf den Klimawandel seit 1701. SO 27/07

– El Nino, Vulkane und die globale Erwärmung seit 1980. SO 34/07

– El Niño und der CO2-Anstieg sowie die globale Erwärmung bei CO2-Verdopplung. SO 02/08

– Die unruhige Sonne und der Klimawandel. SO 20/08

– Über die kritische Grenze zwischen unruhiger und ruhiger Sonne und ihre Bedeutung für den Klimawandel. SO 03/09

– La Niña – El Niño und der solare Einfluss – Der Klimawandel 1950-2008. SO 11/09

– Über das Stadtklima und den Klimawandel in Deutschland seit 1780. SO 18/09

– Langfristiger Klimawandel auf der globalen, lokalen und regionalen Klimaskala und seine primäre Ursache: Zukunft

braucht Herkunft. SO 29/09 (2009)

– Der solare Einfluss auf den Klimawandel in Westeuropa seit 1672. SO 37/09 (2009)

– Rekonstruktion des Klimawandels seit 1860 bzw. 1672 aufgrund solarer Aktivitätsänderungen, SO 11/10 (2010)

– Kurzperiodische und dekadische Klimavariabilität im Zeitraum 1980-2009. SO18/10 (2010)

– Über scheinbare und tatsächliche Klimaerwärmung seit 1850. SO 26/10 (2010)

– Analyse des solaren Effekts und des langfristigen Klimawandels seit 1680 sowie des gegenwärtigen kurzperiodischen

Klimaverhaltens SO 09/11 (2011)

-Über sprunghafte Anstiege von CO2 und globaler Temperatur –SO 05/12 (2012)

-Fakten zum Klimawandel seit der Kleinen Eiszeit SO 01/13

Standardisierte beziehungsweise normalisierte NAO- Werte Januar 1950 bis Dezember 2011: www.cpc.noaa.gov/

Tabellen der Sonnenfleckenrelativzahlen www.schulze-md./de (dort auch Abbildungen aller 23 Zyklen) und www.swpc.noaa.gov/solarCycle

Vahrenholt, F., Lüning, S.(2012): Die kalte Sonne. Warum die Klimakatastrophe nicht stattfindet. Hoffmann und Campe, Hamburg 2012

Werner, P. C., Gerstengarbe, F.W. (2010): KATALOG

DER GROSSWETTERLAGEN EUROPAS

(1881-2009)

NACH PAUL HESS UND HELMUT BREZOWSKY. PIK Report

No. 119 Potsdam 2010

http://sunshinehours.wordpress.com/category/uk-met/ Sonnenscheindauer in Südwestengland und Wales

”Analysis of the heliospheric current sheet at Earth’s orbit and model comparisons”, Lepping, R. P.; Szabo, A.; Peredo, M.; Hoeksema, T., NASA Goddard Space Flight Center, International Solar Wind 8 Conference, p. 95

Wilson & Hathaway, “On the Relationship Between Solar Wind Speed, Geomagnetic Activity, and the Solar Cycle Using Annual Values”, NASA

Related Files




Lastganglinien als Erfolgskontrolle der Energiewende mit Windenergie- und Fotovoltaik-Anlagen

Eine energiewirtschaftliche Bewertung der Stromeinspeisung aus Windkraft- und Fotovoltaik-Anlagen kann sehr zuverlässig über Lastganglinien erfolgen, die den zeitlichen Verlauf der Einspeiseleistungen der jeweiligen Erzeugungsanlagen darstellen. Bei  Gegenüberstellung der im deutschen Stromnetz benötigten Leistung kann anhand der Lastganglinien wirkungsvoll kontrolliert werden, welcher Energieträger mit welchem prozentualen Anteil den momentanen Bedarf deckt.

Diese effektive Erfolgskontrolle mittels der Lastganglinien unterbleibt in allen öffentlich geführten Diskussionen. Dabei ist aus allen Daten der zu ihrer Veröffentlichung gesetzlich verpflichteten Übertragungsnetzbetreiber Amprion, 50 Hertz, TenneT und Transnet BW (www.eeg-kwk.net) und der European Energy Exchange (www.eex.com) klar zu erkennen, dass die sichere Stromversorgung in Deutschland ohne einen ausreichend großen dargebotsunabhängigen konventionellen Kraftwerkspark nicht gewährleistet werden kann. Nur ein „allzeit bereiter“ Kraftwerkspark ist in der Lage, die Diskrepanz zwischen Stromangebot und Stromnachfrage zu decken.

Diagramm 1: Stromverbrauchskurve (Band bis ca. 73 000 MW) in den Wintermonaten 2013 und die Einspeiseleistungen aller  Windenergie- und Fotovoltaik-Anlagen in Deutschland

Zur Erzeugung des in Deutschland verbrauchten Stroms speisen Kraftwerke mit einer Leistung von bis zu 80.000 MW in zeitlicher Abhängigkeit vom Verbrauch in das öffentliche Stromnetz ein. Diese von den Anforderungen der Stromverbraucher zeitabhängige Einspeiseleistung wird bisher von konventionellen und seit einigen Jahren verstärkt von regenerativen Stromerzeugungs-Anlagen bereitgestellt, wobei die EEG-Anlagen mit gesetzlich festgelegtem Vorrang ins Stromnetz einspeisen, während die konventionellen Anlagen dem stark variierenden Stromverbrauch und der unsteten Einspeiseleistung der Windenergie- und Fotovoltaik-Anlagen nachregeln. Im Diagramm 1 sind die akkumulierten Einspeiseleistungen aller Windenergie-Anlagen (Wind blau) und aller Fotovoltaik-Anlagen (Solar gelb) maßstäblich zum Stromverbrauch (roter Hintergrund) für den Zeitraum Dezember 2012 bis Februar 2013 wiedergegeben.

In Deutschland sind aktuell 24.000 Windenergie-Anlagen mit einer Nennleistung von ca. 30.000 MW und Fotovoltaik-Anlagen mit einer Nennleistung von ca. 32.000 MW installiert. Damit hat der Bestand an Windenergie- und Fotovoltaik-Anlagen mit zusammen 62.000 MW Nennleistung fast die Größenordnung der Einspeiseleistung des Kraftwerksparks erreicht, die zur Sicherstellung einer stabilen Stromversorgung in Deutschland zeitgleich zur Abnahme im Stromnetz zur Verfügung stehen muss. Als Nennleistung einer Stromerzeugungsanlage wird die höchste Leistung definiert, die bei  optimalen Betriebsbedingungen dauerhaft zur Verfügung gestellt werden kann. Windenergie-Anlagen erreichen beispielsweise ihre auf dem Typenschild angegebene Nennleistung erst bei Windgeschwindigkeiten ab 13 m/sec bis 15 m/sec, die bei starken bis stürmischen Windverhältnissen vorliegen und per Definition zu „Widerstand beim Gehen gegen den Wind“ führen.

Lastganglinien

Zuverlässige Aussagen über die Wertigkeit der Stromerzeugung aus Windenergie- und Fotovoltaik-Anlagen, d.h. Aussagen über die zeitadäquate Erzeugung von kWh (elektrische Arbeit), können aus Lastganglinien gewonnen werden, da diese den zeitlichen Verlauf der Einspeiseleistung dokumentieren.

Diagramm 2: Lastganglinie (zeitabhängige Einspeiseleistung) aller deutschen Windenergie-Anlagen ab 2010 mit aktuell 30.000 MW Nennleistung

Das Diagramm 2 stellt die gesamte Stromeinspeisung aller Windenergie-Anlagen in Deutschland im Zeitraum 2010 bis Februar 2013 dar. In diesem Zeitraum wurde die installierte Nennleistung des Windenergie-Kraftwerkparks um 5 000 MW auf über 30.000 MW erhöht (blauer Hintergrund). Die dargestellte Lastganglinie ist charakterisiert durch eine ausgeprägte Stochastik mit hohen Leistungsspitzen und langen Zeiträumen minimaler Einspeiseleistung. Eine gesicherte Stromeinspeisung mit einem akzeptablen „Sockel“ an Einspeiseleistung ist über den gesamten Darstellungszeitraum nicht zu konstatieren. Daher bleibt die  „gesicherte Minimalleistung“ aller 24 000 Windenergie-Anlagen in Deutschland trotz des starken Zubaus der letzten Jahre im gesamten Zeitraum und insbesondere auch in den Wintermonaten mit höherem Stromverbrauch weiterhin nahezu Null: „Wenn kein Wind weht, sind alle Windmühlen betroffen“.

In der öffentlichen Diskussion der Regenerativen Energien werden gerne die Begriffe „Elektrische Leistung (kW)“ und „Elektrische Arbeit (kWh)“ miteinander vermischt. Die Zuwachsraten an installierter Nennleistung werden als Beleg für den Erfolg der regenerativen Stromerzeugung gewertet, obwohl diese nur den Zuwachs an möglichem Potential bei optimalem Angebot an Windgeschwindigkeit und Sonneneinstrahlung beschreiben. Zur Klarstellung sei nochmals dieses einfache Beispiel angefügt: Eine Windenergie-Anlage mit einer Nennleistung von 1 MW liefert, wenn sie über einen Tag ständig mit ihrer maximalen Leistung von 1 MW betrieben wurde, die elektrische Arbeit von 24 MWh (1 MW*24h=24 MWh). Bei Windgeschwindigkeiten unter 3 m/sec steht die Anlage still; die volle Leistung wird bei Sturmstärke erreicht. Die oft geübte Praxis der  Verrechnung von Nennleistungen regenerativer Anlagen mit den Leistungen von „Atomkraftwerken“ ist entweder raffiniert angelegte  Irreführung oder zeugt von völliger Unkenntnis der Fakten.

Diagramm 3: Lastganglinie (zeitabhängige Einspeiseleistung) aller deutschen Fotovoltaik-Anlagen ab Juli 2010 mit aktuell 32.000 MW Nennleistung; „Stundenganglinie“, weil Stundenwerte genutzt werden.

Das Diagramm 3 mit Darstellung der Lastganglinie aller deutschen Fotovoltaik-Anlagen und der Entwicklung der Nennleistung dieser Anlagen mit aktuell ca. 300 Millionen m² Kollektorfläche spiegelt den rasanten Ausbau innerhalb der letzten drei Jahre (13 000 MW -> 32 000 MW Nennleistung) und den krassen Widerspruch zu den tatsächlich eingespeisten Leistungen wider. Auffällig sind auch die hohen Stromimpulse in den Sommermonaten, die kurzzeitig in den Mittagsstunden ins Stromnetz eingespeist werden und mit dem starken Zubau der Anlagen in den letzten Jahren sehr hohe Amplituden mit steilen Flanken erreichen. Zudem ist die Lastganglinie des gesamten Fotovoltaik-Anlagenparks durch den stark ausgeprägten Sommer-Winterzyklus charakterisiert. In den Wintermonaten wurden an vielen Tagen nur wenige Hundert MW Leistung als Maximal-Amplitude in der Mittagszeit erreicht.

Durch die Abhängigkeit von der Sonneneinstrahlung können diese Anlagen grundsätzlich nur eine gepulste Stromeinspeisung mit teilweise sehr hohen Stromspitzen zur Mittagszeit vorwiegend in den Sommermonaten anbieten. In den Wintermonaten tendiert die Stromeinspeisung auch um die Mittagszeit zu Minimalwerten von wenigen Hundert MW. Die stark verminderte Bereitstellung von elektrischer Arbeit (kWh) aus Fotovoltaik in den Wintermonaten – hervorgerufen durch den niedrigen Sonnenstand und die im Winter vorherrschenden Wetterlagen – läuft dem in dieser Jahreszeit stark steigenden Strombedarf der Verbraucher konträr entgegen. In den Wintermonaten werden nur etwa 10 % der elektrischen Arbeit (kWh) der Sommermonate erzeugt.

Im Diagramm 4 wurden die Einspeiseleistungen aller Windenergie- und Fotovoltaik-Anlagen in Deutschland für den Zeitraum 2010 bis 2013 aufsummiert. Das Diagramm zeigt ebenfalls sehr deutlich die Diskrepanz zwischen der installierten Nennleistung (hellgrüne Fläche) mit einem starken Zuwachs von über 20.000 MW Nennleistung seit Mitte 2010 auf aktuell 62.000 MW Nennleistung und der Lastganglinie der unstet einspeisenden Anlagen. Die im Diagramm als dunkelgrüne Fläche ausgebildete Lastganglinie (Flächenintegral) repräsentiert die gewonnene elektrischen Arbeit (kWh) über die Jahre. 2010 wurden laut Fraunhofer Institut 49,5 Milliarden kWh, 2012 73,7 Milliarden kWh ins Stromnetz eingespeist.

Diagramm 4: Lastganglinie (zeitabhängige Einspeiseleistung) aller deutschen Windenergie- und Fotovoltaik-Anlagen ab Juli 2010 mit aktuell 62 000 MW Nennleistung

Die von allen Windenergie- und Fotovoltaik-Anlagen erzeugte Leistung ist als Lastganglinie (dunkelgrüne Zackenkurve) dargestellt. Man erkennt unschwer, dass die erzeugte Leistung  (Einspeiseleistung) dauerhaft nur einen geringen Teil der Nennleistung, also der maximal möglichen Leistung bei optimalen Betriebsbedingungen bezüglich des Dargebots an „Sonne und Wind“ ausmacht. Durch Überlagerung von „Sonne und Wind“ wird ein gewisser Ausgleich in der Sommer-Winter Charakteristik der Lastganglinie erreicht.

Auffällig bei allen Lastganglinien ist die Charakteristik der Stromeinspeisung mit hohen Spitzen und tiefen Tälern über den gesamten Zeitraum, ohne dass über den starken Zubau an Anlagen in den letzten Jahren ein Trend zur Vergleichmäßigung der Einspeiseleistung oder eine „Sockelbildung“ für die Minimale Einspeiseleistung zu konstatieren ist. Auch in 2012 wäre ohne Vorhalten eines vollumfänglichen konventionellen Kraftwerksparks mit grundlastfähigen Anlagen die Stromversorgung des Industriestandorts Deutschland nicht machbar gewesen, obwohl bereits 74 Milliarden kWh über „Sonne und Wind“ in 2012 eingespeist wurden. Bisher konnte noch kein konventionelles dargebotsunabhängiges Kraftwerk durch Anlagen auf Basis von „Sonne und Wind“ ersetzt werden.

Die Diagramme 5 und 6 dokumentieren den Beitrag der Einspeiseleistung aller deutschen Windenergie- und Fotovoltaik-Anlagen mit 62.000 MW Nennleistung zur Stromversorgung jeweils im Zeitraum 12. bis 17. Januar 2013 bzw. 15. bis 18. Februar 2013. Diese „Lupen“ der im Diagramm 4 dargestellten akkumulierten Lastganglinie zeigen sehr deutlich, dass auch über relativ lange Zeiträume die Stromnachfrage mit bis zu 70.000 MW Einspeiseleistung nur durch minimale Beiträge von wenigen Hundert MW Leistung aus Fotovoltaik und Windenergie gedeckt werden konnte.

Diagramm 5: Lastganglinie (zeitabhängige Einspeiseleistung) aller deutschen Windenergie- und Fotovoltaik-Anlagen mit aktuell 62 000 MW Nennleistung im Januar 2013

Diagramm 6: Lastganglinie (Einspeiseleistung pro Zeit) aller deutschen Windenergie- und Fotovoltaik-Anlagen mit aktuell 62 000 MW Nennleistung im Februar 2013

Stromverbrauchsspitzen treten im Winter morgens um 9 Uhr und abends um 18 Uhr auf, zu Zeiten, zu denen die Fotovoltaik-Anlagen wegen des Sonnenstands nur minimal beitragen können (siehe gelbe Strompulse). Minimale Leistungsbeiträge gerade zu diesen Tageszeiten auf diesem niedrigen Niveau sind keine Seltenheit. So haben am 17.2.2013 alle Wind- und Fotovoltaik-Anlagen mit einer gesamten installierten Nennleistung von 62.000 MW nur 141 MW Einspeiseleistung zur Verfügung gestellt, also gerade einmal 2,24 Promille.

Energiespeicherung

Vor einem weiteren Zubau von Wind- und Fotovoltaik-Anlagen sind Speichermöglichkeiten zu schaffen. Ohne ausreichende Energiespeicherung ist angesichts der Volatilität der Einspeiseleistung der Windenergie- und Fotovoltaik-Anlagen ein Ersatz von konventionellen Anlagen unmöglich. Pumpspeicherkraftwerke stellen die effektivste großtechnische Möglichkeit zur Speicherung von Energie, die zur Stromversorgung genutzt werden kann, dar. In Deutschland sind über 30 große und kleine Pumpspeicherkraftwerke verfügbar. Das neueste und leistungsfähigste mit 1.060 MW Nennleistung ist das Pumpspeicherkraftwerk Goldisthal mit zwölf Millionen Kubikmeter Wasser im Oberbecken und einer Gesamtlänge des Ringdamms des Oberbeckens von 3.370 Metern. Insgesamt sind in Deutschland zurzeit Kapazitäten von ca. 7.000 MW am Netz. Die Leerlaufzeiten dieser Pumpspeicherkraftwerke liegen größtenteils zwischen 5 bis 7 Stunden, abhängig von der Auslegung der Anlagen. Um die Leistung von 1.000 MW über einen Zeitraum von 24 Stunden durchgängig  bereitzustellen, müssen also ca. 4 Pumpspeicher a 1.000 MW vorhanden sein. Ohne einen parallel betriebenen konventionellen Kraftwerkspark muss aufgrund der fehlenden gesicherten minimalen Leistung der Windenergie- und Fotovoltaik-Anlagen (im Betrachtungszeitraum zeitweise weit unter 1.000 MW) nahezu der gesamte Stromverbrauch aus gespeicherter Energie über mehrere Tage sichergestellt werden. Im Beispiel (Diagramm 5) hätten daher 6 Tage mit der Last bis 70.000 MW durch Speicherung überbrückt werden müssen. Daraus würden 1.680 Pumpspeicherkraftwerke (70*4*6) mit je 1.000 MW Nennleistung bzw. 70 Speicherkraftwerke  mit dem jeweils 24-fachen Wasservolumen (bis 300 Millionen m³) von Ober- und Untersee resultieren, was völlig illusorisch ist.

Für den im Schwarzwald geplanten Bau eines Pumpspeicherkraftwerks werden Milliardenbeträge an Baukosten geschätzt. Aus diesem Kostenansatz allein wird deutlich, dass die Speicherung von Energie für die an den Stromverbrauch angepasste  Stromgewinnung als Backup für Regenerative Anlagen nicht machbar ist. Zudem ist das in Deutschland etablierte Umweltschutzverständnis eine weitere Hürde für den Bau dieser Anlagen. Trotzdem werden die Realisierungsmöglichkeiten und das technische Potential der Speicherung in allen öffentlichen Diskussionen völlig überschätzt und mit dem lapidaren Hinweis auf Forschungs- und Entwicklungsbedarf, der sicher vorhanden ist, abgehandelt. Die Kostenfrage wird völlig ignoriert.

Eine nennenswerte Zwischenspeicherung in Fahrzeugbatterien ist wegen des zu erwartenden schleppenden Ausbaues der Elektroautoflotte und der ebenfalls zu erwartenden Uneinsichtigkeit der Fahrzeughalter in die Notwendigkeit zur Entladung seiner Batterien zur Netzstützung nicht realisierbar.

Ebenso illusorisch ist die Idee der Produktion von „Windgas“ (Herstellung von Methan über den Sabatier-Prozess) an Windenergieanlagen als Speichermethode für diese gewaltigen Energiemengen. Aus dem mehrstufigen Prozess über Wasserstoff zu Methan zur Bereitstellung für die Wiederverstromung in Gaskraftwerken resultieren große Wirkungsgradverluste, so dass mit maximal 25 % des ursprünglichen Energieniveaus für die erneute Stromgewinnung gerechnet werden kann. Zur Kompensation dieser Verluste würde selbstverständlich der Bedarf an weiteren Windenergie- und Fotovoltaik-Anlagen nochmals beträchtlich ansteigen. Daraus resultiert ein Kreislauf, der allein schon an der Kostenfrage
scheitern würde.

Gedankenexperiment Vollversorgung mit Sonne und Wind

Die Vertreter der "100 % Regenerative-Option" gehen von der zukünftigen Installation von Windenergie-Anlagen im Onshore-Bereich von 200.000 MW Nennleistung, im Offshore-Bereich von 85.000 MW Nennleistung und für Fotovoltaik-Anlagen von 250.000 MW Nennleistung aus, also in der Summe von 535.000 MW Nennleistung.

Um die Auswirkungen einer Vervielfachung der Installation von Windenergie- und Fotovoltaik-Anlagen auf die Stabilität der Stromversorgung in Deutschland überprüfen zu können, bietet sich ein Gedankenexperiment an. Es wird angenommen, dass ein Bundesland durch den gesamten in Deutschland bisher installierten Kraftwerkspark aus „Sonne und Wind“ fiktiv versorgt wird. Ein gutes Beispiel für diese Überprüfung ist Baden-Württemberg, weil für dieses Versorgungsgebiet die Lastganglinien des Stromverbrauchs und der Einspeiseleistungen über die von EEX (European Energy Exchange) und Entsoe bereitgestellten Daten direkt verfügbar sind (Übertragungsnetzbetreiber Transnet BW). Zudem erreichte die bundesweite Stromproduktion aus Windenergie- und Fotovoltaik-Anlagen mit 73,7 Milliarden kWh in 2012 fast den Stromverbrauch von Baden-Württemberg von 80 Milliarden kWh.

Diagramm 7: Einspeiseleistung aller Windenergie- und Fotovoltaik-Anlagen in Deutschland relativ zur Stromverbrauchskurve für Baden-Württemberg (Band bis ca. 10 000 MW) im Winter 2013

Mit der Fokussierung der aktuell in Deutschland installierten gesamten Wind- und Fotovoltaik-Kapazitäten auf dieses Bundesland wäre die angestrebte Endausbaustufe also fiktiv bereits heute erreicht. Auch der abgeschlossene Bau von Stromtrassen wäre simuliert, da fiktiv quasi alle Anlagen ideal mit dem Bundesland vernetzt sind. Müsste dann nicht Baden-Württemberg durch diese regenerative Stromproduktion voll versorgt werden können?

Der Vergleich für Baden-Württemberg (Diagramm 7) zeigt deutlich die Diskrepanz zwischen dem Stromverbrauch mit ca. 9.000 MW mittlerer Einspeiseleistung und der Stromerzeugung der gesamtdeutschen Windenergie- und Fotovoltaik-Anlagen (grüne Fläche) im Zeitraum Dezember 2012 bis Februar 2013. Selbst bei massivem Ausbau der regenerativen Energien aus "Sonne und Wind" um den Faktor 12 von derzeit 5 000 MW (in BW aktuell installiert) auf 62 000 MW Nennleistung kann das Bundesland Baden-Württemberg nicht versorgt werden. Die massive Unterdeckung (rote Flächen) über lange Zeiträume ist offensichtlich, obwohl die Windenergie- und Fotovoltaik-Anlagen mit 62.000 MW Nennleistung und einer Erzeugung von 73,7 Milliarden kWh einem Stromverbrauch in Baden-Württemberg von 80 Milliarden kWh mit einer mittleren Einspeiseleistung von ca. 9.000 MW in 2012 gegenüber steht. Auch in diesem Vergleich zeigt sich der gravierende, aber meist nicht beachtete Unterschied zwischen Leistung und Arbeit.

Aufgrund der bundesweiten typischen Einspeisecharakteristik gilt diese Aussage auch für alle anderen Bundesländer in unterschiedlicher Stufung. Selbst für Rheinland-Pfalz („mein Heimatland“) mit einem Stromverbrauch von „nur“ 30  Milliarden kWh und einer mittleren Einspeiseleistung von ca. 3.500 MW ist die Versorgung nicht machbar, wie eine gedachte Horizontallinie bei 3.500 MW im Diagramm 7 demonstriert. Zudem wäre der gesamte Kraftwerkspark eines fiktiv versorgten Bundeslandes generell nicht in der Lage, die auftretenden Stromspitzen auszugleichen.

Zusammenfassung:

In Deutschland werden fast ausschließlich die beeindruckenden Gesamtzahlen der Energieerzeugung in „Haushalten“ bzw. die jährlich neuen Rekordmarken für die installierte Nennleistung der bundesdeutschen Windenergie- und Fotovoltaik-Anlagen in Diskussionen eingeführt. Die energiewirtschaftlich maßgeblichen Lastganglinien dieser Anlagen, die die eingespeiste Leistung der Anlagen als Funktion der Zeit dokumentieren, also das Resultat des Betriebs des Kraftwerksparks aus „Sonne und Wind“ darstellen, werden fast völlig ignoriert. Deshalb herrschen in weiten Teilen der Bevölkerung schwerwiegende Fehleinschätzungen zum Potenzial dieser Erzeugungsanlagen vor.

Ebenso wie durch den Mangel an Einspeiseleistung bei sehr hohem Verbrauch – mehrfach Blackout-Gefahr im Winter letzten Jahres wegen des extremen Stromverbrauchs von bis zu 82. 000 MW Einspeiseleistung – kann die Stabilität der Stromversorgung durch unkoordinierte hohe Netzeinspeisungen gefährdet werden. Daher werden Abschaltmechanismen für die Anlagen eingeführt werden müssen, die zukünftig verstärkt zur Vergütung auch von nicht erzeugtem Strom führen.

Die Regenerativen Energien aus „Sonne und Wind“ sind Additive. Der Kraftwerkspark aus Windenergie- und Fotovoltaik-Anlagen kann prinzipiell den konventionellen Kraftwerkspark nicht ersetzen, auch wenn dies oft unter dem Stichwort „Entcarbonisierung“ kolportiert wird. Diese eminent wichtige Feststellung zur „Energiewende“ wird permanent in allen öffentlich geführten Diskussionen u.a. mit Hinweisen auf die „Unzulänglichkeit der Bundesregierung“ oder auf noch „ausstehende Ergebnisse zur Speicherung“ und „fehlende Stromtrassen“ nebulös unterschlagen. Die ausstehenden Stromtrassen z.B. nützen zum Abtrag der Stromspitzen – also der Verteilung von lokalen Überschüssen (z.B. von Nord- nach Süddeutschland). Bei Windflaute und zugeschneiten Fotovoltaik-Anlagen – also bei Mangelsituationen – bieten sie keine Hilfe.

Letztlich wird das begrenzte Regelband der konventionellen Anlagen den Endpunkt der volatilen Netzeinspeisung der Windenergie- und Fotovoltaik-Anlagen aus physikalisch-technischen Gründen bestimmen. Der Ausweg Energiespeicherung zur Glättung der Lastganglinien der Windenergie- und Fotovoltaik-Anlagen in der notwendigen Größenordnung bis 70.000 MW über mehrere Tage, der konventionelle Kraftwerke verzichtbar machen könnte, ist auch nicht ansatzweise in Sicht. Zudem werden die Kosten, die ja gleichzeitig auch Verbrauch von Ressourcen sind, über die Dauer und Intensität des Fortgangs der Energiewende in jetziger Ausgestaltung entscheiden.  Durch die EEG-Festlegung der vorrangigen Netzeinspeisung wird ein doppelter Kraftwerkspark faktisch erzwungen.

Ich danke herzlich Herrn Rolf Schuster für die intensive Zusammenarbeit und die Beistellung der Diagramme, die auf Basis der Daten der Übertragungsnetzbetreiber erstellt wurden, zu deren Veröffentlichung sie gesetzlich verpflichtet sind.

Zu meiner Person: Ich interessiere mich seit mehr als 20 Jahren für die Effektivität von Erzeugungsanlagen für regenerative Energien. Mir geht es um effektive Stromerzeugung und den Erhalt unserer Kulturlandschaft.

Autor Dipl. Phys. Karl Linnenfelser

Quellen:

Daten der Übertragungsnetzbetreiber

BDEW

Fraunhofer Institut

Weiterführender Link:

Irrsinn in Irsching: Einem dringend gebrauchten Gaskraftwerk droht das Aus

–Wegen der Energiewende, sagen die Betreiber und wollen nun Geld vom Staat

Der Beitrag kann als pdf aus dem Anhang heruntergeladen werden

Related Files