1

Europa zieht den Stecker aus seiner grünen Zukunft

Bild rechts: Solarpaneele in Spanien, wo 50000 Unternehmer von Solarpaneelen vor einem finanziellen Desaster stehen, nachdem die spanische Regierung Subventionen gekürzt hatte. Quelle: AFP

Langsam, aber immer mehr wacht Europa auf in Bezug auf eine Krise grüner Energie; einem ökonomischen und politischen Debakel, das vollständig selbst verschuldet ist.

Die Mainstream-Medien, die gewöhnlich den Schub der Erneuerbaren enthusiastisch befeuern, beginnen ebenfalls, sich zu besinnen. Immer mehr Risse tun sich auf, und viele Zeitungen kehren zu der ihnen zukommenden Rolle als vierte Gewalt zurück, die die Fallen des Glücksspiels grüner Energie aufzeigen und ihre Seiten für gründliche Analysen und Debatten öffnen [da ist die „Süddeutsche“ aber noch Lichtjahre von entfernt! A. d. Übers.]. Heute sind die europäischen Medien angefüllt mit Nachrichten und Kommentaren über die Probleme einer schlecht durchgeführten Strategie, die zunehmend wackelig und unsicher wird. [Das gilt aber wohl nur für alle Länder außer Deutschland. Was kann man denn da bloß machen?! Siehe auch meine Bemerkung am Ende! A. d. Übers.]

In einer Studie der britischen PR-Beratungsgesellschaft CCGroup wurden 138 Artikel über Erneuerbare analysiert, die während des Julis letzten Jahres in den fünf größten britischen nationalen Zeitungen veröffentlicht worden waren: The Sun, The Times, The Daily Telegraph, Daily Mail and Daily Mirror. Alle zusammen erscheinen täglich mit einer Auflage von etwa 6,5 Millionen.

Die Studie kam zu dem Ergebnis: „Die Analyse enthüllte eine Anzahl von Trends in der Berichterstattung über Erneuerbare Energien. Erstens und am wichtigsten, die Temperatur der Gefühle der Medien hinsichtlich der Erneuerbaren ist kalt. Mehr als 51 Prozent der 138 analysierten Artikel waren in ihrem Tenor entweder negativ oder sehr negativ bzgl. dieser Industrie“.

Mehr als 80 Prozent der Artikel erschienen unter fetten Schlagzeilen in den Zeitungen The Times, The Daily Telegraph und The Daily Mail, heißt es in der Studie; und weiter: „aber 55% dieser Artikel waren entweder negativ oder sehr negativ über die Industrie“.

Der Bloomberg New Energy Finance zufolge haben die EU-Mitgliedsstaaten seit dem Jahr 2005 etwa 600 Milliarden Euro in Projekte erneuerbarer Energie gesteckt. Die grüne Energiewende in Deutschland allein könnte die Verbraucher bis zum Jahr 2030 1 Billion Euro kosten, hat die Regierung [in Gestalt von Peter Altmaier! A. d. Übers.] gewarnt

Diese Hunderte Milliarden werden von gewöhnlichen Familien sowie kleinen und mittleren Unternehmen gezahlt. Es ist unzweifelhaft eine der größten Transfers von Wohlstand von den Armen zu den Reichen in der jüngeren europäischen Geschichte. Steigende Stromkosten dämpfen die Kauflust der Verbraucher, und das ist Gift für einen Kontinent, der mit einer ernsten ökonomischen und finanziellen Krise kämpft.

Der Bund der Energieverbraucher. e.V. in Deutschland schätzt, dass bis zu 800000 Deutsche von der Stromversorgung abgeschnitten worden sind, weil sie ihre Stromrechnungen nicht mehr zahlen konnten. Darunter waren einem Bericht des Spiegels zufolge 200000 Langzeitarbeitslose.

Der Autor Charles Lane von der Washington Post hat beobachtet: „Es ist eine Sache, den Arbeitsplatz zu verlieren, weil eine konkurrierende Firma eine größere Mausefalle entwickelt hat; es ist aber juristisch eine ganz andere Sache, ihn zu verlieren, weil ein Mitbewerber der Regierung gesagt hat, ihn zu streichen“.

Vor zwei Wochen hat die tschechische Regierung beschlossen, zum Ende dieses Jahres sämtliche Subventionen für Projekte erneuerbarer Energie zu stoppen. „Der Grund für diese Überarbeitung der Gesetze ist die steigende finanzielle Last für die Stromverbraucher“, sagte Premierminister Jiri Rusnok. „Sie bedroht die Wettbewerbsfähigkeit unserer Industrie und steigert die Unsicherheit der Verbraucher hinsichtlich der Energiepreise“. Während der vergangenen Jahre haben fast alle EU-Staaten ebenfalls den Prozess begonnen, zurückzurudern und grüne Subventionen zu kürzen.

Spanien ist ein besonders warnendes Beispiel. Durch das Versagen bei der Kontrolle der Kosten garantierter Subventionen steht das Land mit 126 Milliarden Euro bei den Investoren in erneuerbare Energien in der Kreide.

Inzwischen hat die spanische Regierung diese Subventionen drastisch gekürzt, sogar rückwirkend, und über 50000 Solarunternehmer stehen vor einer finanziellen Katastrophe und dem Bankrott.

Deutschland jedoch ist die Nation, die die Agenda der Erneuerbaren am weitesten vorangetrieben hat und kämpft auch am stärksten mit den unbeabsichtigten Schäden der sog. Energiewende [das Wort steht so kursiv gesetzt auch im Original, auch noch in folgenden Abschnitten. In diesen Fällen habe ich die Kursiv-Schreibweise übernommen. A. d. Übers.].

Die Abgaben für erneuerbare Energie in Deutschland, mit denen die Erzeugung grüner Energie subventioniert wird, sind innerhalb nur eines Jahres von 14 Milliarden Euro auf 20 Milliarden Euro gestiegen, und zwar als Folge des ungebremsten Ausbaus von Wind- und Solarenergieanlagen. Seit Einführung der Abgabe im Jahr 2000 haben sich die Stromrechnungen deutscher Verbraucher verdoppelt.

Deutsche Haushalte werden allein in diesem Jahr einen Aufpreis von 7,2 Milliarden Euro zahlen. Zusätzlich werden die Verbraucher durch indirekte Kosten belastet, weil Industrie, Handel und Kommerz die steigenden Energiepreise für ihre Produkte an die Verbraucher weiterreichen. Und weil die Subventionen für grüne Energie 20 Jahre lang garantiert sind, besteht die reale Gefahr, dass diese Kosten noch exorbitant weiter steigen, wenn der Zubau weitergeht. Energierechnungen schießen durch die Decke, die Energiearmut nimmt zu, und die Energiepolitik bzgl. der Erneuerbaren steht vor einem Rückschlag. Was aber noch mehr ins Gewicht fällt – die Regierungen in Europa machen sich zunehmend Sorgen über die Bedrohung für die industrielle Basis.

In Deutschland zahlt man die höchsten Strompreise Europas mit einem mittleren Preis von 26,8 Cent pro Kilowattstunde. Kein Wunder, dass Kanzlerin Angela Merkel davor gewarnt hat, dass die rapide Ausweitung von Programmen bzgl. grüner Energie den deutschen Wettbewerbsvorteil in der globalen Wirtschaft schwächt.

Auch die EU fährt ihre erneuerbare Agenda still und heimlich zurück, weil die EU-Führer inzwischen erkennen, dass dadurch im gesamten Kontinent die Energiepreise gestiegen sind. Auf ihrem Gipfel in Brüssel im Mai haben sie ihre Absicht bekundet, das Thema bezahlbare Energie höher zu stellen als die Reduktion von Treibhausgasen.

Von diesem EU-Gipfel ging auch das Signal aus, dass man die zurückgehende Wettbewerbsfähigkeit aufzuhalten gedenkt und die Entwicklung billiger Energie, darunter Schiefergas, zu unterstützen, während Subventionen für grüne Energie gekürzt werden.

Allerdings sind die Umweltminister der EU alarmiert über das anvisierte Zurückfahren. Sie trachten danach, die Ausbeutung der EU-Schieferreserven zu verhindern, indem sie EU-weite Hindernisse einführen.

Bis vor Kurzem hat sich Europa als der globale Anführer hinsichtlich Klimaschutz und erneuerbare Energie geriert, wobei Deutschland an erster Stelle stand mit ambitionierten Zielen und großzügigen Subventionen, die Solar- und Windenergie enorm befeuert haben.

Über die Hälfte aller in der Welt stationierten Solarpaneele steht in Deutschland. Am 6. Juni erreichte die Erzeugung von Solarstrom in Deutschland den neuen Rekord von 23,4 Gigawatt, was die gesamte Spitzenlast des Landes zu 40% gedeckt hat. Aber um zu verstehen, warum dieser Rekord ziemlich bedeutungslos ist, betrachte man das Vorbeischrammen am Netzzusammenbruch im vergangenen Winter. Viele Wochen lang in den Monaten Dezember und Januar haben die 1,1 Millionen Solarsysteme in Deutschland fast keinen Strom erzeugt. Die meiste Zeit über haben die Solarpaneele in diesen Monaten bei bedecktem Himmel die Stromerzeugung mehr oder weniger eingestellt. Um Blackouts zu verhindern, mussten die Netzbetreiber Kernkraftstrom aus Frankreich und der Tschechischen Republik importieren sowie von einem alten, mit Öl befeuerten Kraftwerk in Österreich.

Die Subventionen sind extreme generös und garantieren den Investoren 20 Jahre lang einen Rückfluss von fast 10 Prozent pro Jahr. Angesichts dieses beispiellosen Angebotes ist es keine Überraschung, dass bereits mehr als eine Million Familien Solarpaneele installiert haben. Dieser Solarboom hat jedoch dem Land Verpflichtungen in Höhe von über 130 Milliarden Euro an Subventionen aufgebürdet, was zu immer weiter steigenden Energiepreisen führt.

Während wohlhabende Hausbesitzer und Firmeneigentümer auf ihren Dächern und Fabrikgebäuden Solarpaneele installieren, müssen in Mietswohnungen lebende Familien mit geringem Einkommen die in die Höhe schießenden Stromrechnungen bezahlen. Viele können sich das nicht länger leisten, so dass die Versorger sie von der Stromversorgung ausschließen.

Um den Solarboom zu beenden hat die Regierung die Einspeisetarife für Solarstrom während der letzten Jahre reduziert. Allerdings sind seit dem Jahr 2010 über 5000 Unternehmen in der Solarbranche pleite gegangen, wobei zehntausende grüner Arbeitsplätze vernichtet worden sind.

Die größten deutschen Unternehmen wie Siemens und Bosch geben die Industrie ebenfalls auf. Ihre Strategien hinsichtlich erneuerbarer Energien endeten in kostspieligen Debakeln. Siemens, das größte derartige Unternehmen, hat im Juni angekündigt, die gesamte Abteilung Solar zu schließen, und zwar mit einem Verlust von etwa 1 Milliarde Euro. Im vorigen Monat hat der Siemens-Vorstand seinen Direktor Peter Löscher gefeuert. Sein dramatischer Hinauswurf erfolgte im Zusammenhang mit einem ganzen Bündel katastrophaler Fehlinvestitionen im Sektor grüne Energie, dem er vorstand.

Auch für Bosch, einen weiteren Riesen in Deutschland, endete das Solarabenteuer in einer Katastrophe, und zwar mit einem Verlust noch höher als bei Siemens: etwa 2,4 Milliarden Euro.

Während des vergangenen Jahres hat die Welle von Bankrotten in der Solarindustrie die gesamte Branche verheerend getroffen, während Investoren in Solar am Aktienmarkt fast 25 Milliarden Euro verloren haben.

Inzwischen plant Deutschland, alle Subventionen auslaufen zu lassen, und die Solarindustrie des Landes wird bis zum Ende dieses Jahrzehnts wohl verschwunden sein.

Die meisten Beobachter waren davon überzeugt, dass die Energielücke in Deutschland durch den vor zwei Jahren erfolgten Beschluss der Schließung von Kernkraftwerken durch Wind- und Solarenergie gefüllt werden würde. Kaum jemand hatte erwartet, dass der außerordentliche Boom erneuerbarer Energieerzeugung auch einen Kohleboom auslösen würde.

Tatsächlich sind die CO2-Emissionen seit zwei Jahren hintereinander gestiegen, weil die Kohle eine Renaissance erfährt. Aber die CO2-Emissionen in der EU als Ganzes werden wahrscheinlich ebenfalls steigen, weil zunehmend Kohlekraftwerke in Betrieb gehen. Diese Enthüllung hat die deutsche Regierung empört und die Öffentlichkeit überrascht, die nicht verstehen kann, wie ein Land, dass sich der erneuerbaren Energie mehr als jedes andere Land verschrieben hat, 20 neue Kohlekraftwerke bauen kann.

In weiten Teilen Europas ist Kohle inzwischen viel billiger für die Stromerzeugung geworden als Erdgas. Der Grund ist der Kollaps des Emissionshandels in der EU und der folgerichtige Rückgang der Kohlepreise. Das macht Kohlekraftwerke ökonomischer als Gaskraftwerke.

Bislang hat der Emissionshandel in Europa die Verbraucher über 300 Milliarden Euro gekostet. Massive grüne Investitionen, ursprünglich gedacht als Antwort auf hohe Kohlepreise wurden eingestampft und sind nicht länger möglich. Es gibt kaum noch Zweifel daran, dass die Klimapolitik des Flaggschiffs Europa total gescheitert ist. In einem Anflug von Realismus hat die International Energy Agency angemerkt, dass „die Klimaänderung ziemlich abrupt zum Ladenhüter politischer Prioritäten geworden ist“.

Von allen unbeabsichtigten Konsequenzen der deutschen Energiewende ist vielleicht die schlimmste von allen der nachteilige Effekt von Wind- und Solarprogrammen auf den Preis von durch Erdgas erzeugtem Strom. Fast 20 Prozent der Gaskraftwerke in Deutschland sind unrentabel geworden und stehen vor der Schließung, weil die Erneuerbaren das Stromnetz bevorzugt mit Energie überschwemmen. Um Blackouts zu verhindern musste die Regierung unökonomische Gas- und Kohlekraftwerke subventionieren, damit sie als Backup zur Verfügung stehen, wenn die Sonne nicht scheint und der Wind nicht weht.

Dieses Durcheinander zwingt Unternehmen zu sogar noch radikaleren Lösungen. E.ON, das größte Stromunternehmen in Deutschland, denkt darüber nach, einige seiner europäischen Gaskraftwerke abzureißen, weil sie nicht mehr profitabel sind, und sie außerhalb der EU neu aufzubauen. Solche absurden Überlegungen sind inzwischen symptomatisch für die unbeabsichtigten Konsequenzen des rasanten Ausbaus erneuerbarer Energie.

Die europäischen Hersteller verlieren massiv Boden im internationalen Wettbewerb. Anstatt ihr Geld in die energieteure EU zu stecken, gießen Investoren es lieber in die USA, wo die Energiepreise auf ein Drittel des Niveaus in der EU gefallen sind, hauptsächlich wegen der Schiefergas-Revolution.

Die naive Annahme von Politkern, dass die wesentlichen Unternehmen in Europa der Verschiebung weg von billigem fossilen Treibstoff hin zu teurer grüner Energie folgen würden, hat sich nicht erfüllt. Die Washington Post hat jüngst gewarnt, dass Europa „zu einem Fall für den Papierkorb hinsichtlich grüner Energie geworden ist. Anstatt zu einem Modell für die Welt zu werden, ist Europa inzwischen zu einem Modell geworden, wie man es nicht machen sollte“.

Die europäische Strategie war aus zwei Befürchtungen entstanden: dass die globale Erwärmung eine zwingende Bedrohung sei, die man sofort verhindern müsse, egal zu welchen Kosten; und dass der Welt die fossilen Treibstoffe ausgehen, was bedeutet hätte, dass Öl und Gas sogar noch teurer geworden wären. Beide Mutmaßungen haben sich inzwischen als falsch erwiesen.

Das Ergebnis des von Angst getriebenen Glücksspiels mit der industriellen Zukunft des Kontinents ist ein kostspieliges, heilloses Durcheinander, das droht, die ökonomische und politische Situation Europas in einer Welt zu unterminieren, die sich vernünftigerweise weigert, seiner Führung zu folgen.

Die Strategie grüner Energie in Deutschland wird sich wahrscheinlich nach den Wahlen am 22. September grundlegend ändern. Merkel hat den Wählern versprochen, die Last von 20 Milliarden Euro drastisch zu kürzen, die sie Investoren in erneuerbare Energien jedes Jahr zahlen muss, falls sie gewinnt.

Die Australier sind gut beraten, genau zu beobachten, wie dieser grüne Zug sehr bald zum Wrack wird, wenn sie verhindern wollen, dass sich das in Europa entfaltende Fiasko hierzulande wiederholt.

Benny Peiser is director of the London-based Global Warming Policy Foundation.

The Australian, 10 August 2013

Link: http://www.thegwpf.org/benny-peiser-europe-pulls-plug-green-future/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers:

Dieser Artikel ist so gut recherchiert, dass ich bei der Übersetzung manchmal fast vergessen habe, dass er aus australischer Sicht geschrieben ist. Man sieht die ganze Chose also außerhalb ganz anders als bei uns. Fast habe ich den Eindruck, dass sich Autor Benny Peiser gar nicht vorstellen kann, wie weit die deutschen Medien noch der Agitation anhängen und hinterher hinken.

C. F.




Kurzvideo über EIKE 1. Hamburger Klima- und Energiegespräch 14.6.13

Übersichts-Video zum 1. Hamburger Klima- und Energiegespräch

Immer dichter vor einem Stromausfall – Die Energiepolitik eines Wahns

Die Stromversorgung in Deutschland ist nicht mehr sicher genug. Sie ist sogar hochgefährdet. Jeden Tag kann es zu einem Stromausfall kommen. Noch ist es bisher gelungen, durch blitzschnelle Eingriffe einen Systemzusammenbruch abzuwenden, aber die Zahl dieser Notfälle hat erheblich zugenommen und tut es weiter. Schuld daran ist der deutsche Wahn, die Versorgung mit Strom aus Kernkraft, Kohle, Erdgas und Erdöl umzustellen auf sogenannte Erneuerbare Energien, vor allem auf die mit Strom aus Wind- und Sonnenenergie.

Je mehr Strom aus Sonne und Wind, desto größer die Blackout-Gefahr

Die Schwankungen dieser Stromversorgung im Verlauf eines jeden Tages sind groß und gefährden das Stromnetz massiv. Wind- und Sonnenstrom fließen auch dann ins Netz, wenn man ihn nicht braucht, oder gehen dem Netz unvermittelt verloren, wenn der Wind nachlässt und/oder sich eine Wolkendecke vor die Sonne schiebt. Wird die technisch notwendige Stromfrequenz von 50 Hertz im Netz über- oder unterschritten, bricht es schlagartig zusammen; vertragen kann es nur eine sehr geringe Abweichung von dieser Frequenz. Und je mehr Windkraft- und Fotovoltaikanlagen errichtet werden, umso häufiger sind auch die Gefährdungen. In der Zeit vor diesem Wahn war die Stromversorgung in Deutschland zu 99,9999 Prozent sicher. Das ist sie mit Wind- und Sonnenstrom nicht mehr. Die wenigsten Bürger sind sich darüber im Klaren.

Systemsicherheit der Stromnetze als Thema bei einer EIKE-Konferenz

Diese Unsicherheitslage in der deutschen Stromversorgung war ein Thema beim 1. Hamburger Klima- und Energiegespräch am 14. Juni in Hamburg, veranstaltet vom Europäischen Institut für Klima und Energie (EIKE). Die Einzelheiten dazu trugen die Energiefachleute Bernd Benser und Helmut Alt vor. Der promovierte Benser ist Hauptgeschäftsführer der GridLab GmbH in Cottbus, dem Europäischen Trainings- und Forschungszentrum für Systemsicherheit der Elektrizitätsnetze, Alt ist Professor für Elektrotechnik an der Fachhochschule Aachen. GridLab bezeichnet sich als „ein in Europa bislang einzigartiges technologisches Instrument, um kritische Netzsituationen unter Realbedingungen zu testen“. Das Besondere daran sei, der GridLab-Netzsimulator könne mit den realen Archivdaten der Netzbetreiber arbeiten.

Die Zahl der Eingriffs- und Gefährdungstage steigt

Eine kritische Situation im Stromnetz gibt es nach Benser derzeit jeden zweiten Tag. Eine Benser-Statistik zeigt: Die Zahl der Eingreif- und Gefährdungstage ist mit dem Ausbau von Windkraft- und Fotovoltaikanlagen von Jahr zu Jahr gestiegen. 2012 haben die Übertragungsnetzbetreiber schon an 262 Tagen in das Netz eingreifen müssen, damit es nicht zusammenbricht, früher sind es nach Benser nur vier bis fünf Tage gewesen. Mit noch mehr Wind- und Sonnenstrom wie geplant werde das dann jeden Tag mehrmals passieren. Denn bis 2020 seien weitere 50 bis 60 Gigawatt an Erzeugungskapazität geplant, aber Transportkapazität für diesen zusätzliche Strom gebe es nur für 12 Gigawatt. Ebenfalls 2012 habe man die Stromlieferungen aus „Erneuerbaren Energien“ schon an 77 Tagen abschalten müssen, um das Land vor Stromausfall zu bewahren.

Was passiert, wenn der Strom ausfällt

Benser wie Alt warnten vor den Folgen eines solchen Ausfall und malten aus, was er bedeutet. Hier eine kleine Auswahl: Das Kommunikationssystem verstummt sofort oder bricht, soweit noch funktionsfähig, in kürzester Zeit wegen Überlastung zusammen, Feuerwehr, Hilfsorganisationen und Polizei sind nicht mehr erreichbar, der Zahlungsverkehr kommt zum Erliegen, die Automaten geben kein Bargeld her, Trinkwasserversorgung und Abwasserentsorgung kollabieren, im Straßenverkehr kommt es zu Staus (Ampelausfall), die Gesamtlogistik bricht zusammen, die Produktionsanlagen laufen nicht mehr, Kühlanlagen kühlen nicht mehr und Kühlgut verdirbt, in den großen Geflügelmastställen fallen die Klimaanlagen aus, für Kühe funktionieren die Melkmaschinen nicht, in Wohnhäusern gehen morgens die elektrischen Rolläden nicht hoch, auch ist (teils nach vier, teils schon nach zwei Stunden) mit Plünderungen zu rechnen, und die medizinische Versorgung ist gefährdet, denn rund 90 Prozent der deutschen Krankenhäuser können sich nicht länger als 48 Stunden mit Notstrom versorgen, aber nach Benser braucht man sechs Tage, bis ein Totalausfall von Strom behoben ist. „Im schlimmsten Fall rechnen wir mit 200 000 Toten.“ Ohne Strom funktioniert im hochtechnisierten Deutschland an wichtigen Dingen fast nichts mehr. Großflächiger Strom-Blackout ist ein nationaler Katastrophenfall.

Durch die „Energiewende“ immer öfter und länger am Limit

Bisher ist die Sicherheit der Stromversorgung in Deutschland, wie Benser sagte, so hoch wie
nirgendwo sonst. Diese hohe Versorgungsqualität sei auch ein Eckpfeiler für Deutschland als Wirtschaftsstandort. Aber das System werde immer länger und immer öfter am Limit gefahren. „Die Gefahr von Blackouts erhöht sich damit automatisch.“ Die deutsche Energiewende bedeute eine enorm schnelle Transformation des gewachsenen Energiesystems, getrieben durch eine veränderte Versorgungsstruktur mit hoher und stetig steigender Volatilität der erneuerbaren Energien, und die hohe Volatilität führe zu immer höheren Frequenzschwankungen. Zwar habe der Gesetzgeber die Problematik erkannt und mit der Systemstabilitätsverordnung (in Kraft seit 26. Juni 2012) darauf reagiert, aber bis sie in der technischen Anwendung und täglichen Praxis umgesetzt sei, bestehe ein deutlich höheres Risiko.

Für die komplizierte Regelungstechnik im Stromverbund ein „Systemführerschein“ vorgeschlagen

Auch sind die technischen Anforderungen an das Bedienungspersonal, wie Benser sagt, rapide gestiegen. In Anbetracht der komplizierter gewordenen Regelungstechnik im Stromverbundsystem und gemessen an den möglichen hohen Schäden, wenn das Personal einen Fehler gemacht hat, will Benser für diese Techniker einen „Systemführerschein“ zur Pflicht gemacht sehen, der sie zur Netz- und Systemführung befähigt und berechtigt. Dieses Verlangen ist aber nicht selbstlos, denn vermitteln will Benser die Befähigung mit seinem Unternehmen. Auch soll diese wie bei Flugzeugpiloten in regelmäßigen Abständen überprüft werden, um die Berechtigung zu verlängern. In seinem Unternehmen soll das Notwendige trainiert werden: der Normalbetrieb, der Stressbetrieb, der Störbetrieb, der Teil- und Totalsausfall des Netzes, der Netzwiederaufbau und dergleichen mehr.

An den Grenzen der technischen Machbarkeit

Professor Alt formuliert die Gefahr des Netzzusammenbruchs so: „Derzeit beträgt die installierte Windleistung rund 30 Gigawatt und die installierte Photovoltaikleistung ebenfalls rund 30 Gigawatt, also insgesamt 60 Gigawatt. Davon können durchaus rund 70 Prozent gleichzeitig wirksam werden, also rund 42 Gigawatt. … Ein stabiler Netzbetrieb ist dann in Deutschland nicht mehr möglich. Die ‚steigenden Anforderungen’ geraten an die Grenzen der technischen Machbarkeit.“

Einfach toll: Stromversorgung nicht nur unsicherer, sondern auch teurer gemacht

Doch gefährden Wind- und Sonnenstrom nicht nur die Stromversorgungssicherheit, sondern haben auch immense zusätzliche Kosten zur Folge. Das Erzeugen von Strom aus regenerativen Kraftwerken mit Wind und Sonne ist wesentlich teurer als aus thermischen Kraftwerken (Kohle, Uran, Erdgas, Heizöl). Freiwillig also würde niemand diesen Strom kaufen. Daher werden die Verbraucher zum Kauf und zu dem höheren Preis gezwungen. Ziemlich verrückt: Für den willkürlich unsicher gemachten Strom muss der Stromverbraucher auch noch mehr bezahlen. Die Grundlage dafür ist das Erneuerbare-Energien-Gesetz (EEG). Da am 17. März 2011 – nach der Zerstörung des Fukushima-Kernkraftwerks durch die Riesenwelle des Seebebens – politisch entschieden wurde, die Stromerzeugung aus Kernkraft zu beenden, gibt Deutschland diese preiswerte Erzeugung mutwillig auf.

Kosten der Stromerzeugung fünfmal höher als vor der „Energiewende“

Die „Energiewende“ wird die Stromerzeugungskosten, wie Elektrotechniker Alt in Hamburg vortrug, um „mindestens den Faktor 5“ erhöhen. Zwar hätten Politiker aller Parteien und viele Verantwortliche der Energieversorgungsunternehmen verkündet, der Kernkraftausstieg sei bis 2020 machbar, doch die Verkünder seien in aller Regel Banker, Volkswirte, Architekten, Lehrer oder Juristen, aber keine Elektrotechniker. „Welcher technische Mehraufwand erforderlich ist und was das dann kostet, sei nicht thematisiert worden. Das ist so, als wenn ein Elektrotechniker erklären würde, dass bis 2020 der Durchbruch zur Heilung jeder Krebserkrankung möglich sei.“

Ein Ziel, das nicht erreichbar ist

Die installierte Leistung von Windkraftanlagen Ende 2012 hat nach den Angaben von Alt 30 980 Megawatt erreicht, davon 150 MW im Meer („offshore“), und die von Fotovoltaik-Anlagen 32 400. In den Sommermonaten dominiert tagsüber in der Regel die Sonnenstromleistung, doch in den Wintermonaten ist sie meist fast bedeutungslos. Bis 2030 sollen in der deutschen Nord- und Ostsee 25 Gigawatt Offshore-Windenergie-Anlagen hinzukommen. Alt: „Derzeit sind 0,15 Gigawatt installiert, die Erkenntnis, dass das Ziel nicht zu erreichen ist, ist ein offenes Geheimnis nicht nur im Hause Siemens oder Tennet.“

Herkömmliche thermische Kraftwerke bleiben unentbehrlich

Es kommt vor, dass Wind und Sonne zur gleichen Zeit keinen Strom liefern. Daher müssen beide regenerativen Stromlieferanten in nahezu voller Leistungshöhe, also zu 100 Prozent, durch Reservekapazitäten abgesichert sein, die mit ihrem Strom sofort zur Verfügung stehen. Das geht am schnellsten mit Pumpspeicher- und Gaskraftwerken. Aber die verfügbare Speicherkapazität aus Pumpspeicherkraftwerken reicht, wie Alt zeigte, bei weitem nicht aus, um die leistungslosen Zeiten der regenerativen Stromerzeugung zu überbrücken: „Das Energie-Speicherpotenzial aller Pumpspeicher-Kraftwerke in Deutschland ist mit 7 Gigawatt Leistung als Tagesspeicher (maximal acht Stunden) vollkommen unzureichend, um die Windstromflautezeiten zu überbrücken.“ Folglich ist und bleibt die herkömmliche thermische Kraftwerkskapazität unentbehrlich.

Je mehr “Erneuerbare“ umso mehr herkömmliche Kraftwerke

Man kann die thermischen Kraftwerke zwar abschalten, wie es längst geschieht, muss sie aber immer bereithalten – gerade auch dann, wenn die Stromerzeugung, wie vorgesehen, nur noch aus regenerativen Anlagen kommen soll. Denn, so Helmut Alt, „zu Zeiten minimaler Windleistung die in jedem Monat kurzzeitig auftreten, helfen selbst beliebig viele Windenergieanlagen nicht weiter. Da es keine Energiespeicher für diese Größenordnungen der Leistung gibt, sind zusätzliche Gasturbinen als back-up-Sicherung erforderlich“. Wenn also immer noch mehr Windkraft- und Fotovoltaikanlagen errichtet werden, müssen auch zusätzliche herkömmliche Kraftwerke gebaut werden, vor allem Gaskraftwerke, weil die schnell anspringen. Deutschlands Politiker glauben also, sich eine Stromerzeugungskapazität leisten zu können, die den Bedarf um das doppelte überschreitet.

Statt 7,5 Milliarden für Kernkraftstrom fast 34 Milliarden für Strom von Wind und Sonne

Was kostet das? Ein solches System aus Wind-, Sonnen- und Gaskraftwerken verteuert – je nach Wind-, Sonnen- und Erdgasanteil für den zu ersetzenden Kernkraftstrom – allein schon die bloße Erzeugung von Strom erheblich. Alt rechnet vor: Die jährlich 150 Milliarden Kilowattstunden Strom aus Kernenergie in Deutschland kosten in der Erzeugung 5 Cent je kWh, insgesamt also 7,5 Milliarden Euro. Für die gleiche Strommenge aus Windkraftanlagen im Meer betragen die Erzeugungskosten 15 Cent je kWh (zusammen 22,5 Milliarden) und aus Fotovoltaik-Anlagen 30 Cent (zusammen 45 Milliarden). Im Mix dieses Wind- und Sonnenstroms je zur Hälfte ergeben sich Erzeugungskosten von 22,5 Cent je kWh und zusammen von 33,75 Milliarden Euro – sofern der Wind weht und die Sonne scheint. Das sind gegenüber dem Kernkraftstrom Mehrkosten im Jahr von 26,25 Milliarden Euro.

Einer freut sich über Deutschlands Energiewende: Gaslieferant Russland

Aber das sind nur die Erzeugungskosten. Erforderlich sind auch 4500 Kilometer neue Übertragungsleitungen (Investitionsbedarf über 10 Milliarden), gebaut sind erst 90 Kilometer. Erforderlich sind ferner für 20 Gigawatt neue Gaskraftwerke; bei 400 Megawatt je Anlage müssen es 50 neue sein (Investitionsbedarf rund 8 Milliarden). Den zusätzlichen Gasbezug aus Russland veranschlagt Alt auf rund 20 Milliarden Kubikmeter im Jahr mit Zusatzkosten von jährlich 3 Milliarden Euro. Damit steige der deutsche Erdgasbedarf von insgesamt rund 100 auf demnächst mindestens 120 Milliarden Kubikmeter. Die russischen Lieferanten reiben sich vor Begeisterung über die deutsche „Energiewende“ die Hände.

Täglich 7 Millionen Euro Mehrkosten für den Stromimport

Wenn Wind und Sonne nicht genug, also nicht bedarfsgerecht liefern, wird Strom importiert, vor allem aus Frankreich und Tschechien. Es ist Strom aus Kernkraftwerken. Frankreichs Lieferungen erreichen monatlich 2 Terrawattstunden und die aus Tschechien 1 TWh. Helmut Alt resümiert: „Die dann noch fehlenden Strommengen werden durch teurere inländische Kohle- und Gaskraftwerke abgedeckt, was eine höhere CO2 -Emission bedingt. Die Mehrkosten für die Strombeschaffung liegen ab dem Tag der Abschaltung am 17. März 2011 bei mindestens 7 Millionen Euro pro Tag. Solange unser Wohlstand in Deutschland nicht aufgebraucht ist, können wir das durchstehen. Wie lange es tragbar ist, aus rein emotionalen Gründen pro Tag 7 Millionen Euro einfach nutzlos – ohne Zuwachs an Wertschöpfung – zusätzlich auszugeben, wird die Zukunft erweisen.“

Die „Energiewende“ beglückt andere, nur nicht die deutschen Stromverbraucher

Liefern Wind und Sonne in Deutschland an Strom zuviel, also ebenfalls nicht bedarfsgerecht, wird er exportiert, vornehmlich in die Niederlande (monatlich 2,5 TWh), in die Schweiz (monatlich 2 TWh) und nach Österreich (monatlich bis zu 1,5 TWh) – dies aber zu sehr niedrigen Preisen. Teilweise sogar muss Deutschland noch dafür zuzahlen, dass ihm diese Länder den Überschussstrom überhaupt abnehmen. So reiben sich auch die Empfänger in diesen drei Ländern ob der deutschen „Energiewende“ die Hände. Wohl also beglückt Deutschland mit seiner Energiepolitik viele andere, nur nicht die eigenen Stromverbraucher – eine Energiepolitik, die geradezu pervers ist. Schon jetzt muss ein Drei-Personen-Haushalt in Deutschland wegen dieser Politik für seinen Strom 400 Euro im Jahr zusätzlich zahlen.

Frau Merkels späte Erkenntnis

Mit steigendem Anteil von Strom aus Wind und Sonne wird der Stromverbraucher in Deutschland zusätzlich noch mehr zahlen müssen. Denn spätestens 2020 soll der Anteil der erneuerbaren Energien am Stromverbrauch 35 Prozent betragen. 2030 sollen es 50 Prozent, 2040 dann 65 und 2050 schon 80 Prozent sein. Bundeskanzlerin Merkel hat, man staune, zutreffend erkannt: „Unser Problem ist die Bezahlbarkeit, weil die erneuerbaren Energien subventioniert werden müssen.“1) Eine ziemlich späte Erkenntnis. Derweilen hält sie die Kostenbegrenzung bei der Ökostromförderung für die “wichtigste Aufgabe” der Bundesregierung. Allerdings erst nach der Bundestagswahl. 2) Doch schiefgegangen ist das auch schon vor der Wahl. Mit ihrem Minister Peter Altmaier hat sie schon vor Monaten eine „Strompreisbremse“ einzubauen versucht. Die Länder legten sich quer. Im April hat Frau Merkel das Vorhaben abgeblasen.3) Wie inzwischen mehrfach erwiesen, ist auf Merkels Äußerungen kein Verlass – und nach der Wahl erst recht nicht.

Eine Politik von Verbohrten, Unbelehrbaren – von Wahnsinnigen

Bisher haben Zeitungen und Zeitschriften über solche EIKE-Tagungen wie diese jüngst in Hamburg nicht berichtet. Sie veröffentlichen lieber gutbezahlte ganzseitige Inserate der Windkraft- und Solarindustrie. Diese finanzieren die Inserate aus den hohen Renditen, die ihnen der Staat mit dem EEG zwanzig Jahre lang garantiert. So müssen die Stromverbraucher mit der ihnen abgepressten Subventionierung letztlich auch noch für die Werbung der EEG-Profiteure aufkommen, die dafür gedacht ist, dass immer mehr solcher Anlagen entstehen. Folglich finanzieren die Stromverbraucher zwangsweise sogar auch selbst noch, dass sie für Strom immer mehr bezahlen müssen. Auch das ist pervers. Diese Energiepolitik ist eine Politik von Verbohrten, Unbelehrbaren – von Wahnsinnigen.

Apropos, wenn es um Ökostrom geht, immer an diese fünf Merksätze denken:

  1. Nachts scheint keine Sonne, bei Regenwetter und bedecktem Himmel fällt sie ebenfalls aus.
  2. Wind weht meist zu viel, zu wenig oder auch gar nicht.
  3. Strom lässt sich nicht speichern.
  4. Der Acker soll Brot fürs Volk liefern, nicht aber „Biogas“ für Strom.
  5. Kernkraft in Deutschland ist sicher genug (und CO2-frei)

PS. Hilfe gegen die Energiewende und Informationen finden Sie bei der Stromverbraucher-Schutzorganisation NAEB: http://www.naeb.de/ und http://www.prmaximus.de/pressefach/naeb-nationale-anti-eeg-bewegung-e.v.-pressefach.html

Dr. Klaus Peter Krause zuerst erschienen auf seinem Blog:

Erneuerbar, aber nicht steuerbar

1) Leipziger Volkszeitung vom 18. September 2012.

2) http://nachrichten.rp-online.de/wirtschaft/merkel-will-strompreisbremse-sofort-nach-der-wahl-1.3461746 sowie FAZ vom 12. und 13. Juni 2013.

3) FAZ vom 22. April 2013.




Das Auto i3 von BMW: Monsterbrut von Regulierung

Bild rechts: Manchmal sagt die Unterschlagzeile alles!

Wie aus der Unterschlagzeile hervorgeht, hat BMW das i3-Elektroauto nicht gebaut, um damit Geld zu verdienen. Tatsächlich könnte dem Reporter Joseph White vom WSJ zufolge „das i3, das in Deutschland zu einem Neupreis von 34950 Dollar verkauft wird, beim Betrieb 197 Millionen Dollar Verlust pro Jahr bringen…“ Das Auto ist also ein Loser.

Die Einführung des neuen i3 seitens BMW ist hinsichtlich jüngster Ereignisse ziemlich instruktiv. Heute früh haben wir berichtet, dass die neu ins Amt eingeführte Administratorin Gina McCarthy glaubt, dass Regulierungen bzgl. der Klimaänderung ein wirtschaftlicher Stimulus seien. Der i3 ist der Beweis für das Gegenteil.

Anstatt die aktuelle Nachfrage zu befriedigen, verkauft BMW seinen i3, um Vorgaben zu erfüllen. Auf dem amerikanischen Markt hat die EPA von Präsident Obama im Jahre 2010 Treibhausgas-Regulierungen eingeführt, die im Grundsatz verlangen, den Treibstoffverbrauch effizienter zu machen. Die Europäische Union hatte bereits zuvor gleichartige Regulierungen implementiert. Folge: Der internationale Automarkt ist durch Regierungshand verzerrt worden. BMW reagiert mit seinem i3 auf diesen Dirigismus. Der Vorstandsvorsitzende von BMW, Norbert Reithofer, sagte dem WSJ: „Wenn man sich in der Welt umschaut hinsichtlich der Emissions-Regulierungen, in den USA, in der Europäischen Union, selbst in China … Autos wie der i3 von BMW sind ein Muss!“ Einfach gesagt, der i3 von BMW ist die industrielle Antwort in der realen Welt auf die Klimaregulierungen der EPA.

Kürzlich hat die EPA-Administratorin McCarthy gesagt, der Plan des Präsidenten habe darin bestanden, „eine Gelegenheit zu schaffen, die ‚Kurve zu kriegen’ und ‚das begleitende Ziel zu erreichen, Amerika in einen Magneten für neue Arbeitsplätze und Produktion’ zu verwandeln“. Wie ich im vorigen Abschnitt erklärt habe, hat die Agentur die ‚Kurve bereits gekriegt’ hinsichtlich des Automarktes, und das Ergebnis dieser Marktmanipulationen ist eine Autofirma, die ein Geldvernichtungs-Auto baut für eine nicht existierende Nachfrage der Verbraucher.

Klingt das nach einer klugen Wirtschaftspolitik?

Link: http://www.globalwarming.org/2013/07/31/bavarian-motor-works-i3-monster-spawn-of-regulation/

Übersetzt von Chris Frey EIKE




Betrug und Selbstbetrug mit Mathematik und Physik -Klimaforschung – ein Tummelplatz allzu menschlicher Professoren

Bild 1 (rechts). Bei Auseinandersetzungen mit „Skeptikern“ und „Leugnern“ ist ein Unfehlbarkeitsanspruch ausgesprochen praktisch (Bild: Wikimedia Creative Commons)

Obwohl der Begriff „Mathematik“ nicht allgemeingültig definiert ist, wird sie häufig als Mutter aller Wissenschaften wahrgenommen. Da mathematische Sätze als prinzipiell endgültige und allgemeingültige Wahrheiten angesehen werden, gilt Mathematik als die exakte Wissenschaft schlechthin. Kant prägte hierzu den Satz: „Ich behaupte aber, dass in jeder besonderen Naturlehre nur so viel eigentliche Wissenschaft angetroffen werden könne, als darin Mathematik anzutreffen ist“ [WIMA].

Gerade aufgrund ihres Exaktheitsanspruchs und weil viele Gebiete der modernen Mathematik selbst Wissenschaftlern anderer Disziplinen oft nur in Umrissen bekannt sind, eignet sie sich jedoch auch hervorragend als Instrument für den Betrug – sowohl an sich selbst als auch an anderen. Hoch auf dem unangreifbaren Podest absoluter Exaktheit und endgültiger Wahrheit stehend, hat derjenige, der über die besseren Mathematikkenntnisse verfügt, einen echten Machtvorteil gegenüber seinen Mitmenschen. Hiervor warnt beispielsweise auch der Hamburger Mathematikprofessor Claus Peter Ortlieb: Zahlen, so seine Erkenntnis, „sind extrem mächtig, moderne Menschen sind zahlengläubig und über Zahlen sehr leicht manipulierbar. Zahlen verkörpern schlichte Objektivität, sie verselbstständigen sich leicht und werden dadurch schnell zum Fetisch“ [ORTL].

Da Wissenschaftler eben auch nur Menschen sind, wird dies leider nur allzu häufig genutzt, um unlautere Ziele zu verfolgen. Besonders verbreitet ist dies zurzeit im Bereich der sogenannten Klimaforschung. Ebenso verbreitet wie der direkte Betrug ist allerdings auch der Selbstbetrug, denn auf praktisch allen Gebieten des realen Lebens, die sich der Mathematik bedienen, ist die beanspruchte Exaktheit nur ein Mythos. Die Folge ist, dass selbst Wissenschaftler allzu leicht an das glauben, was ein Messgerät für sie gemessen und ein Computer für sie ausgerechnet hat, und sich über Möglichkeiten und Grenzen ihrer Daten- und Zahlenwerke oft viel zu wenig Gedanken machen.

 

Bild 2. Mathematik, Teilgebiet analytische Geometrie. Grafische Darstellung wichtiger geometrischer Beziehungen an einer Ellipse (Grafik: H. Sieber [SIEB])

Mathematik und die Grenzen der Exaktheit

Der erste Selbstbetrug, dem auch viele Menschen mit naturwissenschaftlicher Ausbildung anheimfallen, ist die Vorstellung, dass mathematische Berechnungen per se exakt seien. Dabei trifft dies schon bei ganz einfachen Kalkulationen mithilfe der vier Grundrechenarten nicht immer zu. Schon der Bruch 1/3 hat in der Dezimalschreibweise unendlich viele Nachkommastellen. In der Praxis kann daher der Versuch, 1/3 und 1/7 zu addieren und das Ergebnis als Real- Zahl darzustellen, zu keinem wirklich exakten Ergebnis führen. Real-Zahlen sind in Computersprachen Fließkommazahlen in Dezimalschreibweise. Auch das Periodenzeichen ist nur eine Hilfskrücke, mit der man sich über diese Tatsache hinwegtröstet. Zwar wird ein echter Mathematiker angesichts derartiger Herausforderungen erst richtig zur Hochform auflaufen, wie das Beispiel der Kreiszahl Pi zeigt. Einerseits versuchten sich über die Jahrtausende hinweg zahllose Menschen – vom Mathematiker über den genialen Amateur bis hin zum Dilettanten – an der sogenannten Quadratur des Kreises, d.h. an einem Verfahren, Kreis und Quadrat irgenwie mithilfe von Zirkel und Lineal ineinander zu überführen. Andererseits gab es einen regelrechten Wettlauf zur Ermittlung derZahl Pi mit möglichst grosser Genauigkeit. Dank moderner Computer hat man hierbei inzwischen schon mehr als 10 Billionen Stellen hinter dem Komma erzielt.

Im Alltag aber wird man aus praktischen Erwägungen einen Punkt definieren, ab dem das Ergebnis als „ausreichend exakt“ akzeptiert wird. Solche Entscheidungen sind jedoch nicht mathematisch begründbar, sondern schlicht und ergreifend nur eins: Willkürlich.

Bild 3. Die möglichst genaue Berechnung der Zahl pi war für Mathematiker schon immer eine besondere Herausforderung. Inzwischen wurde sie bereits auf mehr als 10 Billionen Stellen berechnet

Mathematik als Werkzeug

Mit diesem Sündenfall hat man bereits das Gebiet der „exakten“ Mathematik verlassen und schaltet somit den ganz normalen (wenn auch oft verpönten und nicht immer zuverlässigen) gesunden Menschenverstand hinzu, der Mathematik als Werkzeug zur Lösung praktischer Probleme betrachtet. Dabei spielt es keine Rolle, ob es um einen simplen Dreisatz oder eine quantenphysikalische Aufgabenstellung in der Elementarteilchenphysik geht. Wer Alltagsprobleme mit Hilfe der Mathematik angeht, muss sich vom Ideal der Exaktheit verabschieden, muss für sich entscheiden, wie viel Aufwand er für welchen Grad an Genauigkeit der Ergebnisse seiner Berechnungen zu treiben bereit ist. In diesem Zusammenhang spielt es absolut keine Rolle, ob man einen groben Anhaltswert für eine Investitionsentscheidung oder eine hoch exakte Berechnung für die Umlaufbahn eines GPS-Satelliten benötigt. Die zu treffende Entscheidung ist in jedem Falle subjektiv und deshalb auch lediglich unter subjektiven Aspekten zu beurteilen. Bei solchen Beurteilungen kann man durchaus unterschiedlicher Meinung sein, doch sollte man den Vorwurf unzureichender Exaktheit nicht verwenden, weil er schlicht immer zutrifft. Mit diesem Argument könnte man glatt sogar einen Einstein als dummen Jungen hinstellen. Die einzig zulässige Diskussion kann daher nur darum geführt werden, welchen Grad an Nicht-Exaktheit man aus welchen Gründen für erforderlich bzw. vertretbar hält.

Bild 4. Grafische Darstellung einer iterativen Annäherung an den Schnittpunkt zweier Funktionen (Quelle: [SCHN])

Computer und Rechengenauigkeit

So gut wie niemand rechnet heute noch selber, man vertraut den allgegenwärtigen Taschenrechnern und Computern. Was dort herauskommt, wird so gut wie nie angezweifelt. Dabei machen sich die wenigsten Menschen klar, dass diese Systeme ungenau rechnen. Das fängt schon damit an, dass die gängigen Computer in der Regel kein Dezimalsystem verwenden, sondern intern mit einem binären Code in Exponentialdarstellung arbeiten. Um eine Dezimalzahl zu verarbeiten, wird diese zunächst in eine binäre Gleitkommazahl mit Mantisse und Exponent umgewandelt, während das Ergebnis dann wiederum zurück ins Dezimalsystem transformiert wird. Dabei geht zwangsläufig Genauigkeit verloren. Da die Länge der Mantisse begrenzt ist, sind den Ansprüchen an die Genauigkeit deutlich engere Grenzen gesetzt, als es sich der Computerlaie normalerweise vorstellt. Zudem gelten hier die Gesetze der Fehlerfortpflanzung. Vor allem bei iterativen Schleifen kommt man dann recht bald an Grenzen.

Vereinfachung statt Verkomplizierung

In vielen Bereichen der Mathematik beschäftigt man sich damit, den für die Lösung einer Aufgabe zu treibenden Aufwand zu minimieren. Dabei strebt man beispielsweise danach, Gleichungen zu vereinfachen oder den erforderlichen Rechenaufwand zu optimieren. Diese Kunst ist auch eher den Schweiβ des Edlen wert als das Gegenteil: Die Möglichkeiten, selbst einfachste Gleichung wie 1 +1 = 2 zu verkomplizieren, sind schlieβlich unendlich.

Aus den gleichen Gründen hat die Mathematik auch mit viel Kreativität Näherungsverfahren für die zahlreichen Bereiche entwickelt, in denen exakte Lösungen entweder nicht zu finden waren oder einen als nicht akzeptabel eingeschätzten Aufwand verursacht hätten. Mit dem Begriff „Näherungslösung“ wird hierbei prinzipiell anerkannt, dass darauf verzichtet wird, ein mathematisch exaktes Resultat zu fordern. Dies gilt beispielsweise für weite Gebiete der Mathematik wie die Statistik oder die polynomische Approximation, wo man von vornherein akzeptiert, dass man sich dem exakten Ergebnis nur annähert. Deshalb gibt es dort auch eigene Parameter wie das Bestimmtheitsmaβ, mit deren Hilfe beurteilt werden kann, wie nah man mit der gefundenen Lösung an die Tatsachen herangekommen ist.

Zugleich liefert dies auch die Rechtfertigung für die Vorgehensweise, bei der Berechnung realer Vorgänge z.B. in Wirtschaft und Gesellschaft – wo die verwendeten Zahlen oft sowieso mit erheblichen Unsicherheiten behaftet sind – zunächst mit vereinfachten Ansätzen zu operieren, um eine Vorstellung von den Dimensionen und Gröβenordnungen der Aufgabenstellung zu erhalten. Eine genauere Berechnung wird oft erst dann durchgeführt, wenn die Abschätzungen den Aufwand als gerechtfertigt erscheinen lassen.

Bild 5. Eine jedem Schüler gut bekannte Aufgabenstellung: Vereinfachung von Brüchen durch Kürzen

Die Messung physikalischer Werte

Ein groβes Problem der in naturwissenschaftlichen Disziplinen angewandten Mathematik ist das oft mangelnde Verständnis der Grenzen der Messgenauigkeit. Aus Sicht des Mathematikers ist es beispielsweise wenig sinnvoll, mit acht- oder gar 15stelliger Genauigkeit zu rechnen, wenn die Eingangsgröβe selbst nur mit zwei- oder dreistelliger Genauigkeit erfasst wurde, wie dies beispielsweise bei Temperatur- oder Luftfeuchtemessungen der Fall ist. Hinzu kommen dann noch Messfehler, Driftvorgänge der Sensorik etc. Selbst bei Präzisionsmechaniken liegt die Genauigkeit, mit der Abmessungen erfasst werden, meist nur bei 4 oder 5 Stellen.

Eine wichtige Einschränkung bei der Messung vieler Gröβen wie Temperatur oder Luftfeuchtigkeit ist zudem die Tatsache, dass hier vielfach punktuell Einzelwerte erfasst werden, obwohl es sich eigentlich um komplexe, dreidimensional wie auch zeitlich veränderliche Feldgröβen handelt. Um sich eine Vorstellung von den damit verknüpften Problemen zu machen, kann man einmal alle Thermometer im Haushalt zusammentragen und diese in einem Zimmer verteilen, um dann zu versuchen, die mittlere Temperatur zu bestimmen. Selbst bei geschlossenen Fenstern und Türen sowie bei Vermeidung von direkter Sonneneinstrahlung merkt man schnell, dass nicht nur die einzelnen Thermometer teils deutliche Abweichungen aufweisen, auch die Temperatur im Raum verändert sich unaufhörlich. Dabei kann es auch zu lokalen Verschiebungen kommen, erkennbar an einer Zu- oder Abnahme der Differenzen zwischen einzelnen Messpunkten. Die Angabe einer auch nur auf zwei Stellen genauen mittleren Tagestemperatur erfordert einen erstaunlichen messtechnischen und auch rechnerischen Aufwand. Wenn man sich dann vergegenwärtigt, wie variabel sich die entsprechenden Gröβen in freier Natur darstellen, so bekommt man eine gewisse Vorstellung davon, wie schwierig die Aufgabe beispielsweise der Meteorologen des Deutschen Wetterdienstes ist, aus den Daten von wenigen 100 Messstationen in ganz Deutschland, die teils nur zu bestimmten Zeiten abgerufen werden, repräsentative Aussagen zu erzeugen [WIWD, THUE, GRAY, QUIR].

Bild 6. Sammelsurium von im Haushalt verwendeten ungeeichten Thermometern geringer Genauigkeit. Aber auch manche meteorologische Messverfahren wie die Bestimmung des flüssigen Niederschlags haben Fehler von bis zu 30%, wobei sich fast alle möglichen Meßfehler in Richtung einer negativen Abweichung vom „wahren Messwert“ auswirken 1) [WIME]

Statistik

Stochastik ist der Oberbegriff der beiden Bereiche Wahrscheinlichkeitstheorie und Statistik. Die Wahrscheinlichkeitstheorie befasst sich mit Zufallsereignissen und der Analyse von Wahrscheinlichkeiten, während Statistiker sich mit dem Sammeln, der Analyse und der Interpretation von Daten beschäftigen. Dies ist für den Umgang mit Messdaten unabdingbar, da reale Messungen stets streuen. Mit Hilfe statistischer Methoden wird daher versucht, die ermittelten Werte zu beurteilen, um zufällige Streuungen von Ausreiβern zu trennen und eventuelle systematische Fehler wie die Drift von Sensoren zu erkennen. Eine gut durchgeführte statistische Analyse von Messwerten ist für die korrekte Interpretation von Messdaten eine unschätzbare Hilfe.

Leider wird jedoch auch häufig versucht, mit Hilfe der Statistik Mängel bei der Ermittlung von Messdaten in unzulässiger Weise zu „korrigieren“ [ESCH]. Das Ergebnis ist Selbstbetrug: Wenn die zugrundeliegenden Werte nicht mit bestmöglicher Genauigkeit ermittelt wurden, ist auch die Mathematik oft damit überfordert, diese Erbsünde des Datenbestandes auszugleichen. Leider wird dies dennoch immer wieder versucht, beispielsweise bei der Interpretation von historischen Daten von Wetterstationen, die bereits seit langen Zeiträumen betrieben werden. Eines der dabei auftretenden Probleme ist der sogenannte Wärmeinseleffekt. Er tritt auf, wenn eine Station, die beispielsweise 1850 noch in freier Natur stand, heute von Beton und Bebauung umgeben ist, wodurch das gesamte Temperaturumfeld systematisch verändert wird [EIWI, WAUH]. Dadurch sind die Daten früherer Messungen nicht mehr mit heutigen Aufzeichnungen vergleichbar. Dennoch wird häufig versucht, dies durch Korrekturfunktionen zu ermöglichen, die oft selbst für Fachleute kaum nachvollziehbar sind. Die Zulässigkeit solcher Vorgehensweisen ist dementsprechend umstritten [WIME, WIMA].

Bild 7. Von Beton und Flugzeug-Abgasstrahlen beeinflusste Wetterstation am Flughafen in Rom (Bild: [EIWI])

Missbrauch des Grundrauschens

Im Zusammenhang mit der Messung physikalischer Werte ist man heute derart an Digitalanzeigen gewöhnt, dass man sich kaum noch Gedanken darüber macht, dass diese nicht die Realität darstellen oder wo ihre Grenzen sind. Zunächst einmal basieren Messwerte in aller Regel nicht auf der zu messenden Gröβe selbst, sondern auf der Interpretation eines analogen elektrischen Signals, das von einem geeigneten Sensor erzeugt wird. Schon bei der Erzeugung wie auch bei der Verarbeitung dieses Signals können Verfälschungen auftreten, welche zu fehlerhaften Werten führen. Weitgehend unbekannt ist vielfach auch, dass analoge elektrische Signale stets ein sogenanntes Rauschen aufweisen. Dieses wird von einer Reihe physikalischer oder quantenphysikalischer Effekte hervorgerufen und führt dazu, dass das eigentliche Messsignal umso schwerer zu bestimmen ist, je weniger es sich vom Grundrauschen abhebt. Mit abnehmender Amplitude des Nutzsignals wächst der entsprechende Fehler an, bis die Werte nicht mehr als signifikant angesehen werden können. Messwerte im unteren Grenzbereich der Instrumentenempfindlichkeit weisen daher teils recht hohe prozentuale Unsicherheiten auf.

Ein solches Grundrauschen gibt es übrigens auch im Bereich der Radioaktivität, da in der Natur überall ein gewisser Mindest-Strahlungspegel herrscht. Strahlungsbelastungen, die unterhalb dieses Hintergrundwerts liegen, lassen sich daher nicht mehr von derjenigen natürlicher Quellen unterscheiden. Deshalb messen ihnen die meisten Radiologen keine Bedeutung zu. Zudem wissen sie, dass die Biologie entsprechende Anpassungen entwickelt hat: Lebende Zellen verfügen über Reparaturmechanismen, um entsprechende Schäden zu beheben.

Im Gegensatz zu diesen Erkenntnissen gibt es auch die Auffassung, dass grundsätzlich jedes Strahlungsquant schädlich sei. Anhänger dieser These rechnen Schädigungspotenziale, die bei hohen Strahlungsdosen ermittelt wurden, selbst für solche Expositionen herunter, die längst weit unterhalb des natürlichen Strahlungspegels liegen. Dieser sogenannte Linear No Threshhold (LNT)-Ansatz ist insbesondere bei Vertretern von Greenpeace und ähnlichen Organisationen sehr beliebt, weil er sich hervorragend zur Angsterzeugung eignet.

Mit dem LNT-Ansatz lieβe sich jedoch beispielsweise auch ausrechnen, wieviele Menschen jährlich durch diejenige Radioaktivität an Krebs erkranken, die in Windenergieanlagen, Solarpaneelen oder auch in Babynahrung steckt. Umfassende wissenschaftliche Untersuchungen haben die LNT-These widerlegt [RADI]. Dass man sie selbst seitens Greenpeace und Konsorten nicht so recht ernst nimmt, kann man auch daran erkennen, dass trotz der von den Medien in der Bevölkerung geschürten Strahlenangst noch immer Kureinrichtungen existieren, die Bäder- oder Luftkuren mit radioaktivem Radon anbieten. Würde die LNT-These wirklich zutreffen, dann hätte Greenpeace längst zu flammenden Protesten vor den Toren dieser Heilanstalten aufrufen müssen.

Bild 8. Das sogenannte Rauschen analoger elektrischer Signale wird durch physikalische Effekte hervorgerufen. Einmalige Signale, die kleiner sind als der Rauschpegel, sind in der Regel nicht signifikant (Grafik: Bautsch, Wikimedia Commons)

Das Tricksen mit Zeiträumen

Zu den bei Klimamodellierungen häufig angewandten Tricks gehört es, Betrachtungszeiträume so zu wählen, dass sich der gewünschte Effekt quasi „von selbst“ ergibt. Wie das funktioniert, lässt sich am Beispiel eines periodischen Signals wie z.B. einer Sinuskurve demonstrieren. Während der Sinus bei entsprechend langzeitiger Betrachtung keine Steigung aufweist, kann man durch geeignete Verkürzung wahlweise einen stark ansteigenden oder stark fallenden Scheineffekt erzeugen.

Bild 9. Die Sinusfunktion (oben) hat im Prinzip die Steigung Null. Betrachtet man jedoch Zeiträume, die kürzer sind als eine Periode, so kann man je nach Wahl der Anfangs- und Endzeitpunkte aufwärts oder abwärts zunehmende Steigungen „beweisen“ (Grafik: Viscount Monckton [EIMO])

Die Klimawissenschaft ist sich über den Zeitraum, ab dem man von „Klima“ statt von Wetter spricht, nicht einig. Die World Meteorological Organisation (WMO) beispielsweise definiert ihn auf 30 Jahre. Solche Definitionen sind nicht unbedingt „falsch“, jedoch letztlich immer willkürlich. Man könnte auch einen anderen, eher längeren Zeitraum wählen. Hinzu kommt: Die Charakterisierung erfolgt nicht durch einen einzelnen Wert, sondern durch eine Gemengelage von Mittelwerten einzelner Wetter-Elemente wie Temperatur, Druck, Feuchte, Wind etc. Klima ist deshalb (wie übrigens auch Wetter) immer ein subjektiver Summen-Akkord vieler solcher Elemente. Anders ausgedrückt: Es kann kälter, windiger und trockener werden, aber auch wärmer, windiger und feuchter etc.

In Wahrheit unterliegen klimatische Entwicklungen einer ganzen Reihe unregelmäβig schwankender Einflüsse, deren Zykluszeiten wie beim El Ninjo/ La Ninja –Effekt wenige Jahre oder, wie bei den letzten Eiszeiten, auch 100.000 und mehr Jahre betragen kann. Leider gibt es bezüglich der Zeitdauer dieser Schwankungen keine klaren, naturgesetzlich oder mathematisch beschreibbaren Regelmäβigkeiten, die man für die Ableitung von Vorhersagen nutzen könnte. 

Bild 10. In den letzten rd. 20.000 Jahren ist der Meeresspiegel ohne menschliches Zutun um etwa 120 m (ca. 0,6 m pro Jahrhundert) angestiegen (Grafik: Robert A. Rohde, Wikipedia [ROHD])

So weisen Geowissenschaftler darauf hin, dass wir in den letzten ca. 2,5 Mio. Jahren eine recht ausgeprägte Zyklizität von Eis- und Warmzeiten hatten. Wer dies nicht berücksichtigt, obwohl die Tatsachen bestens dokumentiert sind, riskiert den Vorwurf, die Grundregeln wissenschaftlich korrekten Vorgehens zu missachten. Besonders beliebt sind beispielsweise Darstellungen des Meeresspiegelanstiegs, bei denen die Vorgeschichte an passender Stelle abgeschnitten wurde. Wenn man die rund 120 m, um die das Meer seit ca. 20.000 Jahren angestiegen ist, einfach ignoriert, dann kann man natürlich die aktuellen 0,2 m pro Jahrhundert als Katastrophenmeldung an den Mann bringen.

Bild 11. Betrachtet man lediglich die letzten ca. 150 Jahre, dann wirken schon Änderungen von + 25 cm Meeresspiegel bedrohlich (Grafik: El Grafo, Wikimedia commons)

Bild 12. Den Meteorologen stehen für ihre Arbeit heute auch Messdaten aus zahlreichen Satelliten zur Verfügung (Bild: NOAA)

(Klima)-Simulationen – und ihre Grenzen

Was ist eigentlich eine Computersimulation? Simulation ist der Versuch, die Realität durch – meist sehr aufwendige – mathematische Modelle in einem Computer nachzubilden. Dabei kommt es darauf an, ob das mathematische Modell die Realität auch ausreichend korrekt beschreibt, ob die Eingangswerte stimmen und ob der Rechenweg im Computer – wo meist zahlreiche iterative Schleifen durchlaufen werden – keine allzu groβen Fehler generiert. Die Ergebnisse sind selbst bei vergleichsweise einfachen Modellen oft ernüchternd. Würde Mark Twain heute leben, käme er wahrscheinlich zu dem Schluss, dass Simulation ein besonders aufwendiges Verfahren ist, um mit Hilfe eines Hochleistungscomputers schöne bunte Bildchen zu erzeugen.

Die eigentliche Herausforderung besteht darin, bei den Ergebnissen zwischen Science und Fiction zu unterscheiden, d. h. nachzuweisen, dass diese bunten Bildchen tatsächlich der Realität entsprechen. Fachleute für Simulationsberechnungen aus der industriellen Praxis, deren Ergebnisse unmittelbar mit den betrieblichen Realitäten verglichen werden können, sind bezüglich der Belastbarkeit ihrer Prognosen meist deutlich vorsichtiger als viele Klimawissenschaftler. Von solchen Industrieanwendern ist in aller Regel zu erfahren, dass exakte Voraussagen selbst bei vergleichsweise einfach strukturierten Aufgabenstellungen mit wenigen Parametern – beispielsweise Verbrennungsvorgänge in Brennkammern von Groβdieseln oder das Gieβen von Stahl in eine Kokille – nur recht begrenzt möglich sind. Bei solchen Aufgabenstellungen sind Simulationen oft hilfreich, aber nicht exakt. Sie helfen zwar dabei, Tendenzen abzuschätzen und den Versuchsaufwand zu reduzieren, Gewissheit bekommt man jedoch nur, wenn man reale Teile unter praxisüblichen Bedingungen testet. Auch Meteorologen geben zu Protokoll, dass die Genauigkeit ihrer Wettervorhersagen selbst für kurze Zeiträume bei lediglich etwa 80 bis 90 % liegt. Das muss mit der Tatsache verglichen werden, dass ein erfahrener Laie lokal auch ohne Messungen (nur mit Wind und Wolken) 70-80 % erreichen kann, während selbst die einfachst mögliche Prognose – „heute so wie gestern“ – immerhin zu etwa 65 % zutrifft [WIWD, WIME]. Vorhersagen für Zeiträume von mehr als 2-3 Tagen sind bereits mit groβen Unsicherheiten behaftet.

Bei Autoren von Simulationen, die behaupten, das Klimageschehen über Jahrzehnte oder gar Jahrhunderte vorausberechnen zu können, ist dagegen Skepsis angesagt [THUE, GRAY, ORTL]. Man mag zwar die Kunstfertigkeit bewundern, mit der dort komplizierte Gleichungssysteme mit sehr vielen sich gegenseitig beeinflussenden Einfluβgröβen zu extrem aufwendigen Programmen verknüpft werden – aber der Beweis, dass die ermittelten Ergebnisse tatsächlich der Realität entsprechen, muss noch erbracht werden. Wetterdienste, die sich auf das Abenteuer eingelassen haben, mittelfristige Vorhersagen beispielsweise für einige Monate bis zu einem Jahr zu machen, sind damit vollkommen und ohne Ausnahme auf die Nase gefallen, so die Briten mit ihrer Vorhersage milder Winter oder die Neuseeländer mit ihrer Unfähigkeit, eine starke Dürreperiode zu prognostizieren [GRAY]. Sicherlich nicht ohne Hintergedanken werden deshalb die Vorhersagezeiträume oft so groβzügig zugeschnitten, dass eine Verifizierung nur noch posthum erfolgen könnte. Eine erfreulich klare Aussage hierzu lieferte Prof. Hans von Storch vom GKSS-Forschungszentrum in Hamburg: Wir Klimaforscher können nur mögliche Szenarien anbieten; es kann also auch ganz anders kommen.“ [STOR]

Cui bono – die Kriminalfrage

Als letzte Frage ist hier noch zu klären, warum so viele und oft hochqualifizierte Menschen die Wissenschaft in solchem Umfang missbräuchlich anwenden. Darauf gibt es eine einfache Antwort, die zum Grundrepertoire jeder Kriminalistenausbildung gehört: Frage dich, wem es nützt (cui bono). Man muss sich die Tatsache vor Augen halten, dass die sogenannten Klimawissenschaften die ideologische Rechtfertigung für einen Billionen-Euro-Wirtschaftszweig liefern, der inzwischen vermutlich deutlich höhere Profite erzeugt wie beispielsweise die vielgescholtene konventionelle Stromerzeugung aus Kohle und Kernkraft. Besonderes Merkmal dieser neuen Branchen ist, dass sie nahezu ausschlieβlich davon leben, Energie viel teurer als nötig herzustellen, weil die Politik dies fördert und mit Geldern der Allgemeinheit bezahlt. Um die erforderliche ideologische Unterstützung aufrechtzuerhalten, wurde ein riesiger PR-Apparat aufgebaut, der mit vielen Millionen geschmiert wird. Und während Menschen, die sich aufgrund ihrer Fachkunde gegen diese Politik der Irreführung und Verschwendung auflehnen, in der Öffentlichkeit ständig als bezahlte Mietlinge der Kernkraft- und Fossilindustrie angeprangert werden, betreiben auf der anderen Seite PR-Agenturen, die den sogenannten EE-Industrien nahestehen, ganz kommerziell Verleumdungswebseiten wie Desmogblog, in denen der Rufmord an „Skeptikern“ und „Leugnern“ mit hoher Professionalität vollzogen wird.

Was Wissenschaftler und Hochschulprofessoren angeht, so sind diese schlicht auf Gelder angewiesen, die von der Politik dorthin gelenkt werden, wo die höchsten Prioritäten vermutet werden. Und dazu gehört schon seit Jahren alles, was irgendwie mit Etiketten wie „erneuerbar“, „klimafreundlich“, „CO2-Vermeidung“ usw. beklebt werden kann. Kein Wunder also, wenn man auch von dieser Seite fleiβig dazu beiträgt, diese Gans, die goldene Eier legt, durch „Gefälligkeitswissenschaft“ weiter am Leben zu erhalten. Wes Brot ich ess, des Lied ich sing – auch mit Hilfe der Mathematik.

Fred F. Mueller

 

Bild 13. In der Industrie werden Computersimulationen eingesetzt, um beispielsweise Spannungsverteilungen an Bauteilen zu ermitteln

1) Das bedeutet, dass die Niederschlagsmessungen der Wetterdienste seit dem Beginn regelmäßiger Meßreihen vor ca. 150 Jahren systematische Fehler von minus 10-30% beinhalten, je nach Meßverfahren, Region, Ort etc. Zwar ist dies den Meteorologen bewusst, aber alle Versuche zu Korrekturen, „Homogenisierungen“ usw. wurden aufgegeben, weil sie lediglich auf „Verschlimmbesserungen“ hinauslaufen [KEPU]

[EIMO] http://www.eike-klima-energie.eu/news-cache/monckton-fordert-vom-ipcc-eine-korrektur-im-ar-4/ abgerufen am 7.5.2013

[EIWI] http://www.eike-klima-energie.eu/climategate-anzeige/was-sind-temperaturmessungen-auf-grossflughaefen-wert-oder-wie-das-zdf-mit-bewusst-falschen-temperaturaussagen-die-oeffentlichkeit-taeuscht-und-die-abkuehlung-in-deutschland-verschleiert/ abgerufen am 12.5.2013

[ESCH] http://wattsupwiththat.com/2013/05/10/why-reanalysis-data-isnt-2/#more-86030 abgerufen am 11.5.2013

[GRAY] http://www.eike-klima-energie.eu/news-cache/der-weg-zurueck/  abgerufen am 15.5.2013

[KEPU] Puls, K.E.: Persönliche Mitteilung, August 2013.

[MEER] http://www.futureocean.org/static/www.futureocean.de/forschungsfelder/marine-ressourcen-u-risiken/meeresspiegelanstieg/fakten/ abgerufen am 13.5.2013

[ORTL]   http://www.brandeins.de/magazin/rechnen/die-welt-laesst-sich-nicht-berechnen.html  abgerufen am 14.5.2013

[QUIR] http://wattsupwiththat.com/2013/05/10/a-mean-study-of-australian-temperature/#more-86012 abgerufen am 11.5.2013

[RADI] http://radiology.rsna.org/content/251/1/13.full abgerufen am 7.5.2013

[ROHD] Robert A. Rohde, Global Warming Art, http://commons.wikimedia.org/wiki/File:Post-Glacial_Sea_Level.png  abgerufen 13.5.2013

[SATE] http://www.goes.noaa.gov/index.html  abgerufen am 14.5.2013

[SCHN] http://nibis.ni.schule.de/~lbs-gym/AnalysisTeil3pdf/Iteration.pdf

[SIEB] Sieber, H.: Mathematische Tafeln. E. Klett Verlag. Stuttgart.

[STOR] Der Spiegel 11/2007, S.56.

[THUE] http://www.derwettermann.de/klimaforschung-agiert-weiter-fern-jedweden-wirklichkeitsbezugs.html 

[WAUH] http://wattsupwiththat.com/2011/08/16/new-paper-climatic-trends-in-major-u-s-urban-areas-quantifies-the-uhi-effect-and-the-impact-on-climate-trends/  abgerufen am 12.5.2013

[WIMA] http://de.wikipedia.org/wiki/Mathematik abgerufen am 14.5.2013

[WIME] http://de.wikipedia.org/wiki/Meteorologie#Wetterdaten abgerufen am 11.5.2013

[WISL] http://de.wikipedia.org/wiki/Meeresspiegel  abgerufen am 7.5.2013

[WIWD] http://de.wikipedia.org/wiki/Wetterstation  abgerufen am 5. 5. 2013




Freispruch für CO2 – Revision der Energiewende überfällig!

Ein unmittelbarer Zusammenhang zwischen steigenden CO2-Gehalten der Luft und dem dadurch bedingten Temperaturanstieg existiert also nicht. Von Storch vermutet, dass in den Klimamodellen der Klima-forscher ein fundamentaler Fehler steckt und die Vorhersagen korrigiert werden müssen. Es ist höchste Zeit für einen Freispruch des CO2 mit allen sich daraus ergebenden Konsequenzen:

         – Revision der CO2-Einsparziele „Klimaschutz durch CO2-

           Reduktion ist nicht möglich. Das Klima kann man nicht schützen.

           Klimawandel gibt es, solange die Erde sich dreht.

         – Revision der Energiewende mit dem Schwerpunkt „Totaler Stopp für den Ausbau der Erneuerbaren Energien“. (Der Ausstieg aus der Kernenergie soll dabei nicht revidiert werden.)

         – Revision der überzogenen CO2-Grenzwerte für die Automobilindustrie

         – Alle volks- und betriebswirtschaftlich sinnvollen Maßnahmen zum Einsatz fossiler Energien mit dem Ziel einer höheren Energieeffizienz werden konsequent umgesetzt.

Dies vor dem Hintergrund, dass die von einer Ethikkommission vorgeschlagene Energiewende von Frau Merkel ohnehin bereits gescheitert ist. Umweltminister Altmaier befürchtet Kosten von mehr als einer Billion Euro durch den Umstieg auf Erneuerbare Energien. Die energie-politische Revolution wird immer teurer. Die Devise der Grünen „Erneuerbare ausbauen, egal was es kostet“ führt zu einer De-Industrialisierung Deutschlands. Bundesminister Altmaier wird den Spezialauftrag des Kabinetts, den Strompreisanstieg zu verhindern oder doch wenigstens zu verhüten, dass die Bundesregierung dafür haftbar gemacht wird, nicht erfüllen können. Die neue Stromrechnung für das nächste Jahr könnte zu einer Katastrophe werden, politisch wie /2 wirtschaftlich. Die Strompreis-Umlage für Erneuerbare Energien beträgt in diesem Jahr 5,3 Cent/kWh. Der ungebremste Ausbau vor allem der Photovoltaik wird dazu führen, dass die Umlage in 2014 auf ca.

7 Cent/kWh ansteigt. Damit wird die finanzielle Belastung der privaten Haushalte (drei Personen, 3500 kWh/a) von bisher 186 Euro pro Jahr auf ca. 245 €/a anwachsen. Wenn die in der Energiewende geforderten Ziele z. B. für 2030 mit 50 % EEG-Stromanteil erreicht werden, wird die Belastung auf mehr als 500 Euro pro Jahr ansteigen – eine gnadenlose Kaufkraftvernichtung.

Die Industrie hat sich endlich auch zu Wort gemeldet – sie schlägt Alarm.

Die Energiewende ist international ein Flop. Der deutsche Weg findet weltweit keine Nachahmer. Im In- und Ausland ist offensichtlich geworden, dass das frühere Versprechen unserer Politiker einer so gut wie kostenlosen Energierevolution nichts als eine Vorspiegelung falscher Tatsachen war. Die deutsche Klimapolitik wird als reines Wunschdenken kritisiert. Wir zahlen viel zu viel für ein schlechtes Ergebnis. Wir sind auf dem Holzweg. So sieht es auch EU-Energiekommissar Oettinger. Deutschland setzt seine Wettbewerbsfähigkeit aufs Spiel. Unsere Industrie-Strompreise gehören inzwischen zu den höchsten weltweit.

Die energieintensiven Industrien (Stahl, Metalle, Papier, Zement, Chemie, Keramik) haben die Grenze der Belastbarkeit erreicht. Ihre internationale Wettbewerbsfähigkeit ist höchst gefährdet. Die energie-intensiven Industrien fahren inzwischen schon ihre Investitionen zurück, zumal auch Planungssicherheit fehlt. Die Investition in einen neuen Hochofen muss sich über die gesamte Laufzeit von 30 Jahren rentieren.

Es ist unwahrscheinlich, dass in Deutschland nochmal ein neues Stahl-werk gebaut wird, eine große Chemiefabrik oder ein Werk für Karbon-fasern. Wer die freie Wahl hat, wird sich für Standorte entscheiden, die niedrige Energiekosten aufweisen. 

Die Investitionen der Ausländer in Deutschland sind deutlich weniger geworden. Wir sind in der Statistik auf Platz 39 abgefallen. Umgekehrt sind deutsche Investitionen im Ausland stark angestiegen. Wer die freie Wahl hat, wird meist woanders hingehen. In USA wird der Strom viermal billiger, wenn die Erdgasproduktion durch Fracking gesteigert wird.

Natürlich muss die Automobilindustrie energieeffiziente Fahrzeuge bauen. Auch im Automobilbau dürfen dabei die volks- und betriebswirt-schaftlichen Grundregeln nicht außer Kraft gesetzt werden. Andernfalls

werden die Neuwagen erheblich teurer. Eine Studie der RWTH Aachen beziffert den Preisaufschlag bei einem Grenzwert von 95 Gramm CO2  /3

auf 2800 bis 3600 Euro. Die Zusatzkosten sind außerhalb Europas nicht mehr wettbewerbsfähig. Damit wird die europäische Autoindustrie am Weltmarkt keine Rolle mehr spielen.

Die De-Industrialisierung in Deutschland verringert den Wohlstand, schwächt das soziale Netz. Wir nähern uns sehr schnell der Situation der Industrie in England und Frankreich.

Prof. Dr.-Ing. Dieter Ameling

Präsident Wirtschaftsvereinigung Stahl a. D.

Vorsitzender Stahlinstitut VDEh a. D.

Der Artikel erschien zuerst in der FAZ Printausgabe vom 7.8.13




Unsere Sonne schwächelt weiter!

Frank Bosse hat auf eine interessante Korrelation zwischen der Länge eines Sonnenzyklus und der darauffolgenden Schwäche oder Stärke des nächsten Sonnenzyklus herausgefunden.  Dies spricht für einen erneut schwachen 25. Sonnenzyklus, der nicht vor Ende dieses Jahrzehnts beginnen dürfte. Wenn die Sonnenforscher Livingston und Penn rechtbehalten, könnte er noch geringer  aktiv werden als der 24. Sonnenzyklus, wenn  nämlich die magnetische Feldstärke B  unter 1400 Gauss im Mittel fallen sollte. Unter dieser Grenze kann kein Sonnenfleck entstehen. Das letzte Mal, so vermutet man, kam das im solaren Maunder- Minimum vor und das war 1645-1715.

Von Frank Bosse

Die „amtliche“ Sonnenfleckenzahl (SSN) betrug laut dem Solar Influences Data Analysis Center in Brüssel (SIDC) im vergangenen Monat 57,0. Sie erreichte also nur 56% des Mittelwertes (MW) aller Zyklen 1-23 im entsprechenden Zeitraum, der bei 102 liegt. Grafisch:

Mittelt man über den gesamten Zyklus 24 erhält man eine Aktivität, die nur etwa 45% des Mittelwertes beträgt. Der Vergleich über alle Zyklen bis zum aktuellen Monat:

Man muss schon bis ins Jahr 1827 (Sonnenfleckenzyklus SC7) zurückschauen, um vergleichbar geringe Aktivität wie seit 2009 zu ermitteln. Leif Svalgaard nannte die Sonne einmal einen „messy place“ um auszudrücken, dass unser Zentralgestirn immer für Überraschungen gut ist. Könnte also noch eine unverhoffte Steigerung im weiteren Verlauf des laufenden Zyklus 24 erfolgen und wie hoch ist die Wahrscheinlichkeit dafür? Hierfür wurden die SSN-Anomalien aus dem vorigen Bild (ASSA 56- die akkumulierte Sonnenfleckenanomalie nach 56 Monaten des Zyklus) mit der Gesamtsumme der Anomalien (ASSA ges) bis zum Ende  der bisherigen Zyklen 1-23 verglichen:

Ergebnis: Mit sehr hoher Wahrscheinlichkeit (im Mittel 88%) werden wir weiterhin einen extrem schwachen Verlauf des Zyklus sehen. Vieles deutet auf eine Anomalie am Ende des Zyklus 24  von -2400 hin. Dafür spricht auch, dass wir das Maximum bereits hinter uns haben. Auch die renommierte Website „spaceweather.com“ stellte dies am 26. Juli 2013 fest. Leser unserer allmonatlichen Sonneninfo hatten das schon früher vermuten können (siehe “Die Sonne im Juni 2013 – auf dem Weg in ein großes Minimum? Neue Arbeit zu den möglichen Folgen“). Dort wurden die polaren solaren Felder gezeigt und auch im letzten Monat bestätigten die Messwerte: die Umpolung ist endgültig erfolgt, das Maximum liegt hinter uns. Wie lange wird der Abschwung des SC24 dauern?

Diese Frage ist nicht ganz unwichtig für das, was wir vom kommenden Zyklus 25 erwarten dürfen. Schon länger ist bekannt, dass ein langer Zyklus eine geringere Aktivität des folgenden erwarten lässt und umgekehrt. Wenn man die Länge des vorherigen Zyklus mit der akkumulierten Sunspot- Anomalie (“ASSA ges”) des folgenden Zyklus abbildet, ergibt sich dieses interessante Bild:

Die invertierte Zykluslänge des Zyklus 1 (blau) wurde mit der ASSA gesamt (rot) des folgenden Zyklus 2 verglichen usw. Allein die Länge des Zyklus 23 (Mai 1996 bis November 2008: 150 Monate statt 131,5=10,9 Jahre im Mittel) hätte zur Vorhersage eines schwächeren Zyklus 24 führen sollen, die Korrelation liegt bei über 0,7. Inzwischen hat das auch David Hathaway von der NASA erkannt: „Relationships have been found between the size of the next cycle maximum and the length of the previous cycle…”.

Fassen wir zusammen: Der aktuelle Zyklus 24 ist im Gesamtverlauf der schwächste seit 1820, die Wahrscheinlichkeit für eine Veränderung der Aktivität liegt nur bei 12% und die Länge des Abschwunges kann schon ein recht brauchbarer Fingerzeig sein auf den Verlauf des folgenden Zyklus 25. Wenn die Sonnenforscher Livingtson und Penn rechtbehalten, könnte er noch geringer  aktiv werden als der 24. Sonnenzyklus, wenn  nämlich die magnetische Feldstärke B im unteren Bild unter 1400 Gauss im Mittel fallen sollte. Unter dieser Grenze kann kein Sonnenfleck entstehen wie man am Boden des Bildes  erkennt. Das letzte Mal, so vermutet man, kam das im solaren Maunder- Minimum vor und das war 1645-1715.

Quelle: leif.org 

 Der Beitrag erschien zuerst auf Die kalte Sonne

Related Files




Energiewende wirkt: Solarworld-Pleite

Einst war die deutsche Solar-Branche das grüne Zugpferd in die schöne, neue Welt der Erneuerbaren Energien. Ja wäre da nicht bloß nicht die Konkurrenz aus dem Ausland. Immer mehr Solarunternehmen stehen nun vor der Insolvenz. Neben Suntech und Conergy und der Gehrlicher Solar AG hat es jetzt auch Solarword erwischt.

Seit Einführung der EEG-Umlage im Jahr 2000 bis 2012 flossen 31 Milliarden an die Betreiber von Photovoltaik-Anlagen. Insgesamt 108 Milliarden sollen es bis zum Jahr 2032 noch werden, hat das Rheinisch-Westfälische-Institut für Wirtschaftsforschung (RWI) errechnet. Eine lohnende Investition? So schien es zu zunächst, denn die Solar-Branche boomte. Doch dann purzelten die Preise – denn China flutete mit billigen und immer besseren Modulen den Markt. Seit 2010 folgt in der Solar-Branche Pleite auf Pleite – seit 2010 meldeten über 20 deutsche Firmen Insolvenz an. U.a. die Solar City AG, Solon, Q-Cells, Sovello, Suntech, die Gehrlicher Solar AG und aktuell Solarworld.

Tag der Entscheidung

Solarworld will heute sein Sanierungskonzept – den Rettungsplan – auf den Weg bringen. An den vergangenen beiden Tagen haben die Gläubiger dem Plan bereits zugestimmt, heute geben in der Vollversammlung die Aktionäre das entscheidende Votum ab. Solarworld-Chef Frank Asbeck hofft derweilen noch auf eine “Wiedergeburt” seines Unternehmens. Sein Unternehmen ist mit knapp einer Millarde Euro verschuldet.

Einst, ja einst trat Frank Asbeck noch so auf:

So sah einstmals die Solarworld Welt aus

von Michi Krüger 

Teile des Beitrages wurden von Science Sceptical übernommen




Hobby-Klimatologe Hannes Jaenicke fällt durch den Faktencheck: Ruf nach einem wissenschaftlichen Klima-Führerschein für Aktivisten wird lauter

Im Bonner General-Anzeiger erschien am 29. Juni 2013 ein Interview mit Hannes Jaenicke, dem “ Schauspieler mit Mission”. Hier ein Auszug:

General-Anzeiger: Nun wird auch behauptet, ein Klimawandel fände überhaupt nicht statt. Sind Sie auch solchen Leuten begegnet?

Jaenicke: Es gibt genug Klimawandelleugner. Denen ist sowieso alles egal. Aber jeder Klimaforscher sagt, dass sich die Situation noch weiter verschärfen wird. Zwischen der Heftigkeit und der Frequenz von Stürmen oder Überschwemmungen und dem Klimawandel gibt es einen Zusammenhang.

Da ist Hobby-Klimatologe Jaenicke offenbar nicht auf dem neuesten Stand. In einem kürzlichen Spiegel-Interview wurde der Profi-Klimatologe Hans von Storch gefragt, ob das Sommer-Hochwasser 2013 in Deutschland bereits als Folge der globalen Erwärmung zu werten sei. Storch: Mir sind keine Studien bekannt, nach denen Hochwasser heute häufiger auftreten als in früheren Zeiten. Ich war gerade auf einer Hydrologentagung in Koblenz. Auch bei den Gewässerkundlern hörte ich solche Erkenntnisse nicht.” Auch in Punkto Stürmen liegt Jaenicke daneben: Weder in den Tropen, noch in unseren mittleren Breiten ist mit mehr Stürmen im Zuge der Klimaerwärmung zu rechnen bzw. ist ein Zusammenhang von höherer Sturmhäufigkeit und Erwärmung bekannt. Siehe unsere entsprechenden Blogbeiträge. Anstatt die gesamte Freizeit in seine “Mission” zu stecken, sollte sich Jaenicke zunächst lieber mit den wissenschaftlichen Fakten näher bekannt machen. Aber vielleicht interessieren Jaenicke die Fakten ja gar nicht, weil sein ideologisch geprägtes Weltbild auch ganz gut ohne sie auskommt. Davon zeugt jedenfalls eine zweite Aussage im besagten Interview:

General-Anzeiger: Und was tun die Leugner?

Jaenicke: Exxon Mobile gibt 300 Millionen Euro pro Jahr aus, um zu belegen, dass der Mensch nichts mit dem Klimawandel zu tun hat. Die TU München hat in einem Projekt festgestellt, dass 96 Prozent der weltweiten Klimaforscher der Meinung sind, der Klimawandel ist menschengemacht. Fakt ist: Die Polkappen schmelzen, die Malediven saufen ab, die Regenwälder verschwinden. Da gibt es einfach nichts mehr zu leugnen.

Auch hier scheint Jaenicke nicht gerade faktenfest zu sein. ExxonMobil hatte sein Klima-Sponsoring bereits vor etlichen Jahren dramatisch heruntergefahren. So betrug die Zuwendung 2009 offenbar nur knapp 2 Millionen Dollar. Und noch schlimmer: Bei der kalten Sonne ist zudem leider noch kein einziger dieser ExxonMobil-Dollars angekommen. (Wie auch bei EIKE nicht! Anmerkung der Redaktion). Und was für eine seltsame Studie zitiert Jaenicke da eigentlich? Viele Klimaskeptiker akzeptieren doch, dass ein Teil des Klimawandels auf den Menschen zurück geht. CO2, Russ, Schwefeldioxid und FCKWs haben einen Effekt. Die Frage ist eher quantitativer Natur, nicht entweder oder. Aber dies ist vermutlich bereits zu kompliziert für den Schauspieler und gefährdet den schwarz-weiß-Charakter von Jaenickes “Mission”. Vermutlich weiß er auch nicht, dass derzeit wohl nur die nordpolare Eiskappe in Grönland schmilzt, während der antarktische Eispanzer eher stabil ist (siehe “Neue ICEsat-Satellitendaten sind da: Antarktischer Eisschild hat an Masse zugelegt“).

Auch bei den Malediven glänzt Jaenicke mit Unwissen. Kieler Forscher fanden nämlich kürzlich heraus, dass der Meeresspiegel in Teilen des Indischen Ozeans seit Mitte des letzten Jahrhunderts um bis zu 5 Zentimeter abgesunken ist (siehe S. 200 in „Die kalte Sonne“). Die Zerstörung der Regenwälder geht momentan zu einem großen Teil auf die folgenden zwei Ursachen zurück: Durch den erklärten Hunger der Welt nach Biosprit werden große Teile des Dschungels momentan in monotone Palmölplantagen umfunktioniert. Dies frisst jede Menge Natur und spart nach neuesten Berechnungen wohl nicht einmal CO2. Ein weiterer Punkt ist die Überflutung großer Urwaldbereiche und Verlust von inidigenem Lebensraum wegen des Baus von “CO2-freien” Staudämmen (siehe Wilfried Huismanns “Schwarzbuch WWF“).

Zuerst erschienen in Die kalte Sonne hier




Amtlich bestätigt: Die Energiewende gefährtet die deutsche Industrie

Die Wirtschaftswoche schreibt u.a:

Der 65-Jährige gestaltete seine Abschiedsrede so unbeugsam wie seine Dienstjahre: als Abrechnung mit der aktuellen Energiepolitik.„Die Klimapolitik dominiert die Energie- und Industriepolitik“, klagt Ressing. Bei den CO2-Vorgaben aus Brüssel für die Automobilindustrie „bin ich nur noch fassungslos“. 2008 habe man die Grenzwerte festgelegt. „Und kaum ist der Pakt in Kraft, heißt es: No, der Preis stimmt nicht mehr.“

..Gern erinnere er sich an die Zeit der deutschen Einheit, als er nach Moskau flog, „um den Russen zu erklären, dass wir ihre Kernkraftwerke wegen der Sicherheit nicht mehr wollen. Und heute wollen wir unsere eigenen nicht mehr.“

…Bei der Energiewende sei selbst einigen im BMWi „wohl die Dimension nicht klar. Der kleine Unterschied ist zwischen Kilowatt und Kilowattstunde.“ Man baue mit den erneuerbaren Energien (EE) Zigtausende Kilowatt Leistung auf, „die nicht immer Kilowattstunden liefern“. Die teure Folge: „80 Millionen Deutsche alimentieren seit 20 Jahren und für 20 Jahre eine Million Betreiber von EE-Anlagen“, kritisiert der studierte Ingenieur für Maschinenbau und Energietechnik. „Wo gibt es das in einem marktwirtschaftlichen System?“.. 

Lesen Sie den ganzen Beitrag in WiWo hier




Seltene Filmschätze! Kernchemiker Galen Winsor im Selbstversuch mit Radioaktivität

Der Zeitzeuge Galen Winsor ist hier zu sehen:

Galen Windsor trägt hier seine Erfahrungen beim Umgang mit Plutonium und anderen radioaktiven Materialien vor, die er in über 30 Jahren Umgang mit ihnen gemacht hat, ebenso über die oft politisch motivierten Umgangsregeln mit diesen Stoffen.

Wir bedauern keine deutschen Untertitel bereitstellen zu können, aber das überstiege unsere finanziellen und persönlichen Ressourcen

Er war Kernchemiker der ersten Stunde. Zu seinen Aufgaben gehörten der Betrieb der ersten Urananreicherungsanlage in Hanford /USA und später Planung und Inbetriebnahme der ersten Wiederaufbereitungsanlage in San Jose/USA der nur zum geringsten Teil genutzten Brennstäbe aus damaligen Kernkraftanlagen. Hoch vertraut mit den vermeintlichen und realen Gefahren radioaktiver Strahlung, mit der er zeitlebens umging, veranlasste ihn zu Widerstand gegen völlig überzogenene Strahlenschutzbestimmungen. Er starb im Alter von 82 Jahren an natürlichen Ursachen

Galen Winsor wurde 1926 geboren und verstarb 2008. Er war 32 Berufsjahre mit der Wiederaufbereitung und Gewinnung von Plutonium beschäftigt. Erst im militärischen Komplex von Hanford und später in der Entwicklung für General Electric (GE). Als Pensionär zog er durch Amerika und hielt Vorträge gegen die herrschende "Atompolitik", die er für gänzlich falsch hielt. Er wurde zum Wanderprediger für die Nutzung abgebrannter Brennstäbe. Für alle, die erst nach der Erfindung des Internet geboren wurden oder sich nicht mehr an die Urzeit erinnern mögen: Es gab nur Zeitungen, Radio und Fernsehen als Massenmedien. Wer eine andere Meinung, als die der Verleger und Intendanten vertrat, dem blieben nur Flugblätter und Vorträge. Schon ein Buch zu drucken und zu vertreiben, war nicht ganz einfach. Vielleicht war dies ein (wesentlicher) Grund, warum es gelang, eine (damals noch relativ neue) Technologie so zu verteufeln und zu diskreditieren.

Galen Winsor ist eine gewisse Verbitterung anzumerken. Eine sarkastische Bemerkung jagt die nächste. Er kann und will nicht verstehen, warum — was er für den Fortschritt schlecht hin hält — so bekämpft und abgelehnt wird. Ein bischen Verschwörungstheorie hilft dabei den Frust erträglicher zu machen: "Big Oil" und "Big Coal" stecken dahinter. Sie sind die wahren Gegner der Kerntechnik, die um ihre Monopolstellung fürchten. "Atomkraftgegner" sind nur unwissende und willfährige Hilfstruppen in diesem Milliardenspiel. Ein Standpunkt, der sich heute eher verstärkt.

Galen Winsor verkörpert den Urtypus des freiheitlichen Amerikaners: Voller Misstrauen gegenüber Washington. Er geht voller Begeisterung nach Hanford in die Plutoniumproduktion. 1945 (mit 19!) auf einem Zerstörer im Pazifik unterwegs, bedeutet für ihn der Einsatz als Beobachter bei einem Atombombentest nichts weiter, als ein "Erst mal weg von der Front". Überwältigt von der Explosion, erkennt er sofort, daß dies die "fehlende Rückfahrkarte" in die Heimat bedeutet. Von nun an, will er alles wissen und verstehen über Kerntechnik. Er studiert Chemie und fängt schon in der Wiederaufbereitungsanlage in Hanford an, bevor er noch sein Studium abgeschlossen hat. Dort arbeitet er mit "blossen Händen" mehrere Jahre mit Plutonium. Er ist noch in hohem Alter stolz darauf, daß alle genau wussten, was sie taten und deshalb kaum Unfälle zu verzeichnen waren. An dieser Stelle sei nur daran erinnert, daß der Mann 82 geworden ist und nicht etwa an Krebs gestorben. Alle, die immer noch an das Märchen von "Millionen Toten in Tschernobyl und Fukushima als Spätfolgen" glauben, sollten nicht versäumen, sich das Video anzuschauen.

Er fängt an mit dem System zu brechen, als immer mehr Bürokraten ihm vorschreiben wollen, welche Dosis er einzuhalten habe und ihm bei Kritik unverhohlen mit Rausschmiss drohen. Irgendwann läßt er sich von GE abwerben, um eine zivile Wiederaufbereitungsanlage zu bauen. Es gelingt ihm, wesentliche Prozeßschritte zu automatisieren. Ein wesentlicher Fortschritt im Strahlenschutz gegenüber der Anlage in Hanford. Als man ihn zwingt, die Dosisleistung noch einmal um den Faktor zehn zu verringern, wird er rebellisch und schwimmt durch das Brennelementebecken.

Galen Winsor ein Irrer oder ein moderner Eulenspiegel?

Ist es nicht ein totaler Irrsinn, durch ein Brennelementebecken mit 170 to abgebrannter Brennstäbe zu schwimmen? Arbeitsrechtlich ja, physikalisch nein. Solch ein Abklingbecken gleicht in der Tat einem Schwimmbecken. Es ist nur tiefer. Das Wasser dient der Kühlung der Brennelemente und der Abschirmung der Strahlung. Die Wassertiefe ist so groß bemessen, daß die Strahlung am Beckenrand auch längere Arbeitsaufenthalte erlaubt. Ob man da nun rein steigt und los schwimmt, ist ziemlich unerheblich. Man sollte nur nicht zu den Brennelementen runter tauchen. Zu allem Überdruss hat sich Winsor auch noch zwei Liter Wasser abgefüllt und getrunken. Auch das keine Hexerei: Brennstäbe sind sicher eingeschweißt. Das Wasser im Becken wird ständig überwacht. Also weit aus weniger Risiko, als wenn jemand von der "Generation Gesamtschule" mit Fahrradhelm auf dem Kopf, über eine rote Ampel fährt. Interessant die Reaktion seines Arbeitgebers GE: Verbot der Nutzung als (beheiztes) Schwimmbecken, da sonst die Gefahr bestünde, daß Brennelemente gestohlen werden könnten. Strahlung als eine Art Voodoo-Schutz-Zauber?

Besonders gefürchtet waren die Demonstrationen von "Radioaktivität" in Winsor’s Vorträgen. Unvergesslich die Szene, in der er die Reste von Uranoxid von seiner Handfläche leckt. Ebenso die Nutzung eines Stücks abgereicherten Urans als "Feuerstahl". Besser konnte er keine "Atomexperten" vorführen. Die Staatsmacht reagierte prompt: Eine Spezialeinheit durchsuchte sein Haus und beschlagnahmte alle radioaktiven Proben um ihn angeblich vor sich selbst zu schützen. Einen Mann, der jahrzehntelang im Staatsdienst mit Plutonium umgegangen war und sich offensichtlich bester Gesundheit erfreute. Die Staatsmacht toleriert manches, aber wenn man sie der Lächerlichkeit preisgibt, hört sofort jeder Spaß auf — egal ob in Moskau oder Washington.




CO2 und die Ideologie der Klimaänderung: Die Kräfte hinter dem „kohlenstoffzentrierten Umweltaktivismus“

Als Folge der dringenden Appelle aufgrund der vermeintlich gründlichen und unverzerrten Forschungen von Wissenschaftlern am IPCC, das danach trachtet, die Klimaänderung den menschlichen und industriellen Aktivitäten in die Schuhe zu schieben, ist eine Flut von Programmen per Gesetz eingeführt worden, und zwar sowohl in Europa als auch in den USA.

Diese Programme werden den Lebensstandard von jedem Einzelnen in der entwickelten Welt drastisch ändern. Tatsächlich gab es eine markante Verschiebung innerhalb der CO2-Öffentlichkeit von „globaler Erwärmung“ hin zu „Klimaänderung“, weil die Temperaturen einfach nicht mit dem Anstieg des CO2-Gehaltes der Atmosphäre korrelieren wollen.

Die wirkliche Agenda hinter dieser internationalen Agenda und die Beförderung seiner fast religiösen „Ideologie der Klimaänderung“ bildet die argumentative Grundlage für massive Regelungen und Besteuerungssysteme, um das menschliche Verhalten und den Lebensstil zu verändern, zusätzlich zu einer vollkommen neuen Ära technologischen Aufwands und finanzieller Spekulation mittels Sicherheiten und Derivativen, die mit Kohlenstoff zusammenhängen.

Getarnt als angeblich nicht kommerzielles Unterfangen ist die Verkündigung des Glaubens an die Klimaänderung auch zu einem lukrativen Abenteuer geworden, mit immensen finanziellen Ressourcen für dessen fortgesetzte Missionierung. Tatsächlich bilden die klimabezogenen, von Steuern befreiten 501C3-Organisationen eine Multimilliarden schwere Public Relation-Maschine, um ein zentrales Anliegen zu verankern: dass nämlich die Menschen für jede Wetterkatastrophe verantwortlich sind. Das wird graphisch in jeder elektronischen Nachrichten-Plattform präsentiert. Ein so verlogener Umweltaktivismus schließt intensive Bemühungen ein, die öffentliche, auf einer zweifelhaften Wissenschaft beruhende Politik zu transformieren, während wirkliche Umweltbedrohungen ignoriert werden.

Während diese 501C3-.Organisationen die Öffentlichkeit um Spenden bitten, auch kleine, reicht die Bandbreite der jährlichen Finanzquellen und Zuwendungen von Individuen mit sehr tiefen Taschen bis hin zu Institutionen mit Blickwinkel auf den Kauf von Regierungsfunktionären. Der Öffentlichkeit wird weisgemacht, dass fast jedes ungewöhnliche Wetterereignis die Folge von Treibhausgas-Emissionen ist.

Die folgende Liste nennt nicht kommerzielle Organisationen, die sich der Propagierung der Klimaänderung und Nachhaltigkeit verschrieben haben – die bei Weitem nicht vollständig ist – und die von den 990 Steuerformularen für das Jahr 2010 ausgenommen worden waren. In jenem Jahr erzielten diese 501C3s über 1,7 Milliarden Dollar Einkommen (1.472.350.656 Dollar), wobei die Organisation Nature Conservancy unter Führung des ehemaligen Managers von Goldman Sachs Mark Tercek allein über die Hälfte dieser Summe erhielt. Die Daten in der vierten Spalte zeigen das Ausmaß des öffentlichen Bekanntheitsgrades dieser Organisationen. Einigen wurde größere journalistische Aufmerksamkeit zuteil, während andere weitgehend anonym arbeiteten.

[Aus technischen Gründen musste die Tabelle hier geteilt werden. Im Original ist es nur eine Tabelle. A. d. Übers.]

Zum Beispiel wurde das von Al Gore finanzierte Climate Project zunächst für „Bildungszwecke“ ins Leben gerufen, wobei im Prinzip gemeint war, die Botschaft des Films Eine Unbequeme Wahrheit in die Klassenzimmer der USA zu tragen. Eine andere Organisation, Association for the Advancement of Sustainability in Higher Education [etwa: Assoziation für das Vorankommen von Nachhaltigkeit bei höherer Bildung], arbeitet ähnlich wenig prominent bei der Verbreitung der grünen Agenda innerhalb von Colleges und Universitäten. Alles in Allem werden diese Ressourcen genutzt, um die vermeintlichen Gefahren von Treibhausgas-Emissionen unmittelbar für die Zivilisation und das Leben selbst zu betonen. Das Ausmaß solcher Ressourcen ist vergleichbar mit dem, was transnationale Unternehmen jedes Jahr für Werbung ausgeben.

Im Licht dieser stattfindenden Katastrophen und der mächtigen finanziellen Interessen hinter der auf Kohlenstoff konzentrierten Umweltbewegung können Obamas Auslassungen zur anthropogenen Klimaänderung und die gut finanzierten Maßnahmen der Umweltaktivisten als das gesehen werden, was sie wirklich sind – nämlich sichtbare Komponenten eines komplexen sozialen Engineering-Programms, das schon weit vorangeschritten ist bei der Überzeugung der Öffentlichkeit, dass die Umkehr zu einer vor-feudalen Existenz nicht nur wünschenswert, sondern für ein höheres Gut absolut notwendig ist.

Link: http://www.globalresearch.ca/co2-and-the-ideology-of-climate-change-the-forces-behind-carbon-centric-environmentalism/5342471

Übersetzt von Chris Frey EIKE




Renaturierung von Mooren– eine Fiktion mit verheerenden Folgen

Ein Gespenst geht um in deutschen Landen: die „Renaturierung“, worunter eine zwangsweise Wiedervernässung von meliorierten Moorstandorten – insbesondere Niedermoorstandorten – verstanden wird. Diese Maßnahmen schränken den Lebensraum der Menschen in bedeutendem Maße ein; und zwar sowohl in kommerzieller und touristischer Hinsicht als auch im Hinblick auf Lebensqualität und Attraktivität der Region. Die Anwohner und Gewerbetreibenden werden plötzlich in neue Umwelt- und Wirtschaftsverhältnisse versetzt ohne umgezogen zu sein!

 Wenn solche Maßnahmen mit der ganzen Klaviatur administrativer Gewalt, wie „nasse Enteignung“, mit Steuergeldern durchgesetzt und von wenigen „Gutmenschen“ mit medialer Unterstützung als Sieg im „Kampf gegen den Klimawandel“ gefeiert werden, ist zu hinterfragen, ob und wodurch solch gravierende Eingriffe in die  existenziellen Lebensräume  der Menschen wissenschaftlich begründet sind.

Bild 2: Auf gleichem Grund und Boden – hochproduktive Grünlandwirtschaft und nutzlose zwangsvernässte  „renaturierte“ Gammelwiesen sowie durch permanente Überflutung absterbender Wald (tote Bäume)

Intakte Moore

In Rede stehen die ökologische Bilanz intakter Moore und „renaturierter“, sprich wiedervernässter, meliorierter Moore im Vergleich zu meliorierten wasserstandsregulierten Niederungsmooren mit Kulturgrasbau als ertragssichere landwirtschaftliche Nutzfläche.

Intakte Moore haben eine negative ökologische Wirkung: Sie sind mit die größten Emittenten an Methan, einem „Treibhausgas“, dem im Vergleich zu Kohlendioxyd die 23-fache schädigende Wirkung zugeschrieben wird. Deshalb wird z.B. in Kanada eine großflächige Entwässerung von Mooren erwogen. Die Methanemission der gegenwärtig auf der Erde vorhandenen Feuchtgebiete beträgt schätzungsweise 115 Millionen Tonnen, etwa 145% der Methanausscheidungen aller auf der Erde lebenden Wiederkäuer.

Dabei ist die anaerobe Gärung, die bakteriell ohne Sauerstoff unter Bildung von Methan zur Bindung des dabei entstehenden zellgiftigen naszierenden Wasserstoffes abläuft, an sich ein bedeutendes Phänomen der Natur, das einerseits in sauerstoffarmen Staugewässern durch Umsetzung von Biomasse zu klimaschädigenden Methanemissionen führt, andererseits im Rahmen des Wiederkäuersystems (Pansenvergärung) durch die Umwandlung von für den Menschen unverdaulichen Pflanzenbestandteilen (Zellulose) in Nahrungsmittel (Tierprodukte Milch und Fleisch) für den Menschen von hohem Nutzen ist. Das ist der Hauptgrund für den weltweiten Siegeszug der Rinder-, Schaf- und Ziegenhaltung. Die Wiederkäuerhaltung zu diskreditieren und in Frage zu stellen, wie es gelegentlich in den Medien geschieht, ist ein Angriff auf die Existenzgrundlagen der menschlichen Gesellschaft.

Argumentation für Renaturierung

Die „Moorschützer“ unterstellen meliorierten Niedermoorgrünlandflächen  enorm hohe Kohlendioxydemissionen und damit implizit eine bisher nicht nachgewiesene sondern nur behauptete Klimaschädlichkeit.  In Abhängigkeit vom Wasserstand werden bei tief auf 80 – 100cm unter Flur entwässerten Flächen von 25 – 30 t CO2/ha , bei höheren Wasserständen sukzessive abfallende,  bei  Wiedervernässung  gegen Null tendierende Emissionswerte veranschlagt.Daraus wird eine „Einsparung“ an CO2-Emissionen durch Wiedervernässung als wesentliche ökologische Begründung und Rechtfertigung für die Renaturierungsmaßnahmen abgeleitet. Auf gleicher Basis beruht der Verkauf von CO2-Zertifikaten, den vom Landwirtschaftsministerium Mecklenburg-Vorpommern kreierten „MoorFutures“.

Der Minister für Landwirtschaft, Umwelt und Verbraucherschutz Mecklenburg-Vorpommern, Dr. Till Backhaus, unterstellt den 300 000 ha melioriertem Niedermoorgrünland seines Landes mit durchschnittlich 20 t CO2-Äquivalente/ha u. Jahr eine CO2-Emission von insgesamt jährlich 6 Millionen Tonnen! Im Fernsehinterview (Nordmagazin vom 10.4.2013)verkündete er mit dem Stolz eines Vorreiters im Kampf gegen den Klimawandel, dass in Mecklenburg-Vorpommern bisher bereits 30 000 ha Niedermoorgrünland renaturiert wurden und weitere 70 000 ha Niedermoorgrünland renaturiert, d.h. als Landwirtschaftliche Nutzfläche vernichtet werden sollen. Grund genug, um diese gravierende Maßnahme auf ihre Berechtigung näher zu untersuchen.

Zur CO2-Emission

Bezüglich der CO2-Emission ist es zunächst erforderlich, nach der Herkunft zu differenzieren: Wenn man der These von der Klimawirksamkeit des CO2 überhaupt Glauben schenkt, wäre nur das CO2 klimarelevant, das durch Oxydation des fossilen Moorkohlenstoffs entstanden ist.Dafür fehlen die Beweise, denn amorpher Kohlenstoff oxydiert selbst bei Teilchengrößen im Nanobereich nicht bei bloßer Gegenward von Luft. Im Umkehrschluss heißt das, es würde eine große Menge an chemischer Aktivierungsenergie (Kohleanzünder!) benötigt, um fossilen Kohlenstoff zu oxydieren, die im Moorboden nicht verfügbar ist .

Alles übrige Kohlendioxyd, das durch Atmung und Zersetzung der Biomasse vorwiegend  durch Decarboxylierung (Abspaltung von CO2) entsteht, ist Bestandteil des nutzbringenden natürlichen Entstehungs- und Bindungskreislaufs des CO2!

In den Publikationen werden CO2-Emissionen von 20 – 35t CO2/ha Grasland unterstellt. Bei 25 t CO2-Emission/ha müssten 6,8 t Kohlenstoff mit 18,2 t Sauerstoff oxydiert werden. Dazu würden je ha 12.732 366 l Sauerstoff bzw. bei einem Sauerstoffgehalt von 20,95 % 60.775.020 l Luft benötigt. Da im biologischen Milieu aufgrund von Gleichgewichtsreaktionen kein totaler Sauerstoffentzug der Bodenluft möglich ist (der findet nicht einmal in Verbrennungsöfen statt!) müssten schätzungsweise 3.040.000.000 (=3,04 Milliarden!) l Luft/ha = 304 m3/m2  Grasland  (eine Luftsäule von 304 m Höhe!) in den Moorboden bis zum Grundwasserspiegel eingebracht und das entstandene CO2 ausgespült werden! Der Stoffabbau würde 14,5 cm Moorsubstrat je Jahr betragen; demnach müssten sich die jahrzehntelang bewirtschafteten Moore allmählich in Luft aufgelöst haben.

Als Gegenargument werden die beobachteten Moorsackungen ins Feld geführt. Diese sind nicht durch Oxydation von Moorkohlenstoff zu erklären; sie sind die Folge von Verdichtungen und strukturellen Veränderungen durch Wasserentzug im und durch mechanischen Druck auf den Moorkörper. Kohlenstoffdichtemessungen vor und nach der Melioration, die einen Kohlenstoffschwund belegen könnten, gibt es nicht. Auch die oftmals genannte Sackung von 1 cm/Jahr steht im Widerspruch zu den unterstellten CO2-Emissionswerten

Energetische Reaktionen

Mit den stofflichen Umsetzungen sind energetische Reaktionen gekoppelt: Bezogen auf die Oxydation von 6,8 t Kohlenstoff ergibt sich ein Energiebedarf für Aktivierung des Kohlenstoffs (100,1 kJ/mol C ) von 57 GJ/ha und ein Energieanfall durch die Oxydation (freigesetzte Energie (Enthalpie) = -293,8  kJ/mol) von  -167 GJ/ha, d.h. insgesamt nach dem Gesetz von der Erhaltung der Energie  (=  393,9 kJ/mol) eine Bruttoenergieemission von 224 GJ/ha, eine Energiemenge, die ausreicht, um 53.500 t Wasser/ ha bzw. 5,35 t Wasser/m2  Grasland um 1 °C zu erwärmen.

Allein diese aus den chemisch-physikalischen Grundlagen abgeleiteten Zahlenangaben belegen die Absurdität der von den „Moorschützern“ vorgegebenen CO2-Emissionen; sie sind physikalisch-chemisch nicht nachvollziehbar. Damit entbehrt die Renaturierung  als Maßnahme des Klimaschutzes  einer wissenschaftlichen Grundlage, ist eine fehlorientierende Fiktion.

Manipulation

In den Publikationen der „Moorschützer“ wird keine klare Definition für die CO2-Emission gegeben. Offensichtlich wurden bei diesen Zahlenangaben die CO2-Bindung in den ober- und unterirdischen Biomassen absichtlich oder fälschlicherweise nicht gegenbilanziert. Sie beträgt ertragsabhängig ca. 20 – 30 t CO2-Äquivalente je ha und Jahr, wobei die in den  Ernteprodukten gebundenen CO2-Äquivalente beim Einsatz als Futter, Rohstoff oder Energiequelle produktiv wirksam in den CO2-Kreislauf zurück geführt werden. In diesem Sinne handelt es sich bei den vorgegebenen CO2-Emissionen um unwissenschaftlich nach oben manipulierte Werte, um mit dem Schreckgespenst hoher CO2-Emissionen die Behörden und Zuwendungsgeber in irreführender Weise zur Vergabe von Fördermitteln zu bewegen.

Keine echte Moorbildung

Hinzu  kommt, dass eine echte Moorbildung durch Wiedervernässung meliorierter und dementsprechend veränderter Moore ohnehin nicht stattfinden kann. Der Moorkohlenstoff, der nacheiszeitlich durch Inkohlung großer Mengen angefallener Biomasse einst entstanden ist, kann unter unseren derzeitigen ökologischen Bedingungen nicht generiert werden; dazu fehlen entsprechende Redox-Potentiale, um den organisch gebundenen Kohlenstoff in amorphen Moor-Kohlenstoff zu reduzieren. Stattdessen werden die in den durch Wiedervernässung entstandenen Flachwasserseen  anfallenden relativ geringen Biomassen einem Zersetzungsprozess unterworfen: anaerob vergärbare Substrate werden zu unerwünschtem klimaschädlichem Methan umgesetzt, der nicht vergärbare lignin- und kieselsäurehaltige Rest wird als teilweise noch strukturierter Bioschlamm (Morast) abgesetzt. Diese Prozesse haben mit echter Moorbildung nichts gemein.

Übrigens – melioratives Tiefpflügen, was unsere Väter und Vorväter einst erfolgreich praktizierten, wäre bei Moormächtigkeiten bis ca. 150 cm die Methode der Wahl für einen effektiven Moorschutz und eine sinnvolle – auch ackerbauliche – Moornutzung!

Verluste ökologischer Sekundärleistungen

Im Vergleich mit Kulturgrasanbau sind durch die Wiedervernässung nicht nur Wertschöpfungspotentiale für Futter-, Produkt- und Energiegewinnung verloren gegangen, sondern auch wesentliche ökologische Sekundärleistungen der gefluteten Flächen im wahrsten Sinne untergegangen.

Als erstes ist hier als Assimilationsleistung die Stoffproduktion der Flächen, d.h. die ökologisch sehr bedeutsame Festlegung von atmosphärischem CO2 in Biomasse zu nennen. Auf der Synthese von Kohlenhydraten (und indirekt auch von Eiweißmolekülen) aus Kohlendioxyd und Wasser unter Nutzung der Sonnenenergie beruht letztendlich das Leben auf der Erde, sie führt zur Speicherung und zum Transfer von biologisch nutzbarer Energie, ist Basis des Lebens von Mensch und Tier.

Als zweite und ebenso wichtige ökologische Sekundärleistung des Kulturgrasbaus ist hier die lebenswichtige Freisetzung von Sauerstoff in die Atmosphäre durch die Assimilation zu nennen. Quantitativ ausgedrückt werden aus 6 Mol Wasser (108 g) und 6 Mol CO2 (264 g)  bei der Assimilation unter Nutzung der Sonnenenergie 1 Mol Kohlenhydrat (180 g) synthetisiert und 6 Mol Sauerstoff (192 g O2) in die Atmosphäre abgegeben.

Diese Freisetzung von Sauerstoff geht ebenso wie die CO2-Bindung mit der Renaturierung weitestgehend verloren, ein in Bezug auf die Zusammensetzung der Luft ökologisch sehr bedeutungsvoller Verlust, der von den „Moorschützern“ nicht in die ökologische Bilanz der Renaturierungsmaßnahme einbezogen, d.h. schlichtweg ignoriert wird.

Als dritter Punkt ist der Wasser- und Nährstoffentzug meliorierter Niedermoor-Graslandstandorte anzuführen. Durch den Wasserentzug der Kulturgraspflanzen (700 bis 800 l/kg Trockenmasse), wovon nur 0,2 – 0,3% in den Pflanzen akkumuliert und über 99 % in die Atmosphäre transpiriert werden,  wird zusätzlich ein enormer Entwässerungseffekt erreicht. Desgleichen leistet der Nährstoffentzug aus dem Boden und dem freien Wasser durch das Erntegut bei Graslandnutzung der meliorierten Niedermoorstandorte einen hohen ökologischen Beitrag. Er bewirkt eine wesentliche Reinigung des Wassers im Moorkörper und verringert die Austragungsmengen an Nährstoffen aus dem Poldersystem und reduziert dementsprechend die Eutrophierung in den Ableitungsgewässern maßgeblich.

Biodiversität und Naturschutz

Desweiteren wird die Renaturierung als Maßnahme zur Aufrechterhaltung von Biodiversität und des Naturschutzes gepriesen. Die Kollateralerscheinungen im Hinblick auf Naturschutz/Biodiversität lassen sich nach unseren Erfahrungen wie folgt in einem Satz zusammenfassen:

Es ist nichts da, was vor der Renaturierung nicht da war, aber vieles weg, was vor der Renaturierung da war! Insbesondere viele seltene Pflanzenarten (Orchideenwiesen) sind den sich ausbreitenden Sauergräsern, wie Seggen und Binsen, gewichen, Bodenbrüter (Lerchen, Kiebitze, Bachstelzen) verdrängt, Bodentiere (Würmer, Spinnen Schlangen, Maulwürfe) ersoffen und Nieder- und  Hochwild ihres Lebensraumes beraubt. Summa summarum kein Gewinn im Sine von Biodiversität und Naturschutz. Im Gegenteil, die Renaturierungsgebiete entwickeln sich wieder zu dem, was man durch die Trockenlegung beseitigen wollte, zu Brutstätten von Massenpopulationen peinigender und Krankheiten übertragender Insekten sowie anderer wirtschaftsschädigender Tierarten (Kormorane).

Moorschutz durch Nutzung

Der produktive Kulturgrasbau auf meliorierten Moorstandorten erfüllt bei den Bearbeitungs-, Ernte- und Wachstumsphasen angepassten Wasserständen alle Voraussetzungen für einen wirksamen Moorkörper- und Umweltschutz. Das ist durch die jahrzehntelange Nutzung der meliorierten Niedermoore in Norddeutschland erwiesen.

Der Einsatz von Windturbinen und regulierbaren Stauwehren sichert ein kostengünstiges Wassermanagement, so dass zu hohe Pumpkosten wie auch die Deicherhaltung kein stichhaltiges Argument gegen die Polderbewirtschaftung darstellen.

Der Kulturgrasbau ist den Renaturierungsflächen mit seiner positiven ökologischen Bilanz, dem wirtschaftlichen Nutzen und der Umweltqualität in allen wesentlichen Punkten  überlegen, die Renaturierung sowohl in ökonomischer als auch ökologischer Hinsicht ein Desaster sowie durch die Vernichtung von Kulturlandschaft und  landwirtschaftlicher Nutzflächen ein kulturgeschichtlicher Frevel. Es gibt keinen wesentlichen sachlichen Grund,  die von Generationen geschaffenen Kulturlandschaften zu zerstören.

Renaturierung ist kontraproduktiv – wissenschaftlich unbegründet – jeder dafür ausgegebene Euro ist nicht nur Verlust, sondern potenziert sich zu mehrfachem Verlust durch die ökonomische und ökologische Schadensbilanz der Renaturierungsmaßnahmen!

Landwirte, Bürger und Kommunalpolitiker, die sich gegen die Renaturierungsmaßnahmen in ihrem Territorium stellen, sind nicht nur moralisch und juristisch sondern auch angesichts der Tatsache, dass Renaturierungsmaßnahmen wissenschaftlich unbegründet sind, im Recht.

Wir fordern, Renaturierungsmaßnahmen allerorts mit sofortiger Wirkung auszusetzen, den Verkauf von Zertifikaten (MoorFutures) zu verbieten und zu wirtschaftlich und ökologisch begründeten Maßnahmen zurück zu kehren..

Moorschutz durch sinnvolle Moornutzung ist die Alternative.

Der Beitrag kann auch als pdf Ausdruck asu Acker und Pflanzenbau im Anhang herunter geladen werden

Update vom 9.9.13

Kommentar des Autors zu den Kommentaren

Es ist bezeichnend, dass sich auf meinen Beitrag “Renatirierung, eine Fiktion …” mit einer Ausnahme, Herrn Schmöhl, nur Leser zu Wort gemeldet haben, die glauben, von der Warte eines außenstehenden Naturschutzberufenen urteilen bzw. verurteilen zu müssen, die nicht ihren Broterwerb in der Landwirtschaft haben. Zunächst möchte ich klarstellen, dass ich von Niemandem bezahlt werde, kein Lobbyist bin, sondern ein unabhängiger pensionierter Wissenschaftler mit über 40-jähriger Institutserfahrung bin. Auch Herrn Gogo, der sich erdreistet,  meine Dissertation anzuzweifeln, kann ich mit reinem Gewissen versichern, dass ich meine Dissertation, eine biochemisch theoretische Abhandlung mit experimenteller Verifikation, selbst angefertigt habe.

Keiner hat bzw. hat versucht,  meine Argumente zu widerlegen, stattdessen werden Befindlichkeiten, Beschuldigungen und Beschimpfungen oder Frust auf Dinge artikuliert, die mit dieser Sache bestenfalls nur indirekt zu tun haben. Klarstellen möchte ich, dass ich mich nicht gegen Naturschutzgebiete, auch nicht gegen Moorschutzgebiete, wende, solange sie in angemessenen Dimensionen bleiben. Gleiches gilt für Kormorane. Ich will den „Vogel“ nicht ausrotten, plädiere aber für die Regulation von Massenpopulationen, wie z.B. von bis zu über 10000 Brutpaaren im Renaturierungsgebiet am Stettiner Haff. Da sollten doch die „Naturschützer“ auch einmal an die Erwerbstätigkeit von Fischern und an die Schutzwürdigkeit von Fischen denken!

Ich wende mich gegen die Wiedervernässung meliorierter Niedermoorstandorte, gegen die damit einhergehende Vernichtung von Landwirtschaftlicher Nutzfläche und Kulturlandschaft, gegen gelenkte Falschaussagen und Übertreibungen. Mir kam es darauf an, sachlich nüchtern  nachzuweisen,

– dass die exorbitant hohen CO2-Emissionen meliorierter Niedermoorstandorte chemisch-physikalisch und biochemisch absurd sind, dass nur der fossile Moorkohlenstoff klimarelevant sein kann, und wenn Herr Glatzel  (in einem Leserbrief) mit  Decarboxylierungs-CO2 die Flucht nach vorn antritt, muss ich ihm widersprechen; denn nach biochemischen Gesetzmäßigkeiten kann Decarboxylierungs-CO2 nicht primär aus Moorkohlenstoff entstehen, das ist Folge der intermediären Umsetzung von organischer Substanz (Nährstoffe) über Acetyl-CoA. Ich behaupte nicht, dass keine Oxydationen stattfinden, wobei CO2 entsteht, sondern die Größenordnung, die darauf basierende Herleitung von Handlungsbedarf für Vernässung, ist absurd, und es muss nach der Herkunft des CO2-Kohlenstoffs unterschieden und danach differenziert bewertet werden,

— und dass beim Vergleich von melioriertem Kulturgrasbau und Renaturierung in höchstem Maße unwissenschaftlich ist, 

—  CO2-Emissionen für die Standorte aufzuführen ohne die CO2-Bindung in  der ober- und unterirdischen Biomasse gegen zu bilanzieren,

— die Sauerstofffreisetzung als wichtige ökologische Sekundärleistung der Flächen zu negieren.

— die Transpiration und den Nährstoffentzug  (Reinigungseffekt) außer Acht zu lassen,    

—  die in den Renaturierungsgebieten auftretenden Massenpopulationen an Insekten u.a.,
   die Gesundheitsgefährdung  und Geruchsbelästigung schön zu reden.

Die ökologischen Bilanzen von bewirtschafteten und ungenutzten Moorstandorten  vermitteln Ergebnisse von Modellrechnungen in nachstehender Tabelle:

Fernsehbeiträge:

Nordmagazin vom 10.4. 2013

http://www.youtube.com/watch?v=JDLE7-wKDHw&feature=youtu.be

Wiedervernässung Fluch oder Segen

http://www.ndr.de/fernsehen/sendungen/nordmagazin/media/nordmagazin16279.html

Wiedervernässung Anklam

http://www.ndr.de/fernsehen/sendungen/nordmagazin/media/nordmagazin16281.html

 (öffnen: STG+linke Maustaste klicken)

Ich hoffe, mit dieser Stellungnahme den Kommentatoren gerecht worden zu sein.

Dr. Arthur Chudy             arthur.chudy@uni-rostock.de

Related Files




Das IPCC hat einen echten Packen Probleme am Hals

Das zentrale Thema der Wissenschaft von der Klimaänderung ist die Gleichgewichts-Klimasensitivität der Erde [the earth’s equilibrium climate sensitivity ECS] – also um wie viel die mittlere globale Temperatur als Folge einer Verdoppelung der atmosphärischen CO2-Konzentration zunehmen würde. Neue und konsistente Neuberechnungen dieses wichtigen Parameters erscheinen in der wissenschaftlichen Literatur schneller als beim trägen und schwerfälligen IPCC (vorausgesetzt das IPCC möchte das überhaupt – schließlich würden solche Berechnungen den AR 5 ziemlich schlecht aussehen lassen).

Außerdem, selbst wenn das IPCC in der Lage wäre, diese sich entwickelnde und ziemlich überzeugende Wissenschaft zu übernehmen, wird der weitaus größere Rest des IPCC-Berichtes auch verändert werden müssen, da er hochgradig abhängig ist von der Größenordnung der Klimasensitivität.

Inzwischen ist es für so etwas zu spät (die endgültige Fassung ist Anfang 2014 geplant) – die Kühe haben alle den IPCC-Stall zu diesen Dingen verlassen, und es ist zu spät, sie alle noch einmal zusammen zu trommeln.

Der Entwurf 1. Ordnung (FOD) des AR5 wurde im Dezember 2012 bekannt. Im FOD erkennt das IPCC die Bedeutung der Klimasensitivität der Erde an und nennt sie:

Das wichtigste Einzelmaß der Reaktion des Klimas wegen der Reaktion vieler anderer Klimavariablen auf eine CO2-Zunahme mit der Zunahme der globalen mittleren Temperatur.

Das IPCC fährt fort, das derzeitige wissenschaftliche Wissen über die Größenordnung der Klimasensitivität folgendermaßen zu beschreiben:

Trotz deutlicher Fortschritte bei den Klimamodellen und im Verständnis und bei der Quantifizierung von Klima-Rückkopplungen stützt die Literatur nach wie vor das Ergebnis im AR4 aus dem Jahr 2007, dass nämlich die Klimasensitivität im Bereich 2°C bis 4,5°C liegt und sehr wahrscheinlich über 1,5°C. Der wahrscheinlichste Wert verbleibt bei 3°C. Ein ECS über 6°C bis 7°C ist sehr unwahrscheinlich, jedenfalls auf Basis einer Kombination multipler Beweisschienen.

Der „wahrscheinlichste Wert” des IPCC im FOD beträgt 3°C. Dies ist aus sich selbst heraus interessant, weil dem gleichen Entwurf erster Ordnung zufolge die von den Klimamodellen simulierte Klimasensitivität bei 3,4°C liegt, also etwa 13% höher ist als die 3°C des IPCC.

Falls das IPCC glaubt, dass irgendetwas systematisch mit den verwendeten Modellen nicht stimmt, sollte es das sagen. Die Tatsache, dass das IPCC (gegenwärtig) das nicht tun möchte, stärkt nicht gerade das Vertrauen in seine Kritikfähigkeit. In Wirklichkeit zeigt eine während der letzten 2 bis 3 Jahre veröffentlichte ganze Reihe von Ergebnissen eine mittlere Klimasensitivität näher bei einem Wert von 2,0°C, und jüngste Beobachtungen der globalen Temperatur deuten auf einen sogar noch geringeren Wert.

Das IPCC ist unter wachsenden Druck durch die wissenschaftliche Gemeinschaft geraten – vor allem die Mitglieder der Kommission, die direkt mit den Forschungen zur Klimasensitivität befasst sind – diese neuen, niedrigeren Schätzungen gefälligst zu berücksichtigen.

Es gibt jedoch einige Indizien dafür, dass sich die Zeiten des IPCC ändern.

Dem  Economist zufolge, der behauptet, Einsicht in den jüngsten Entwurf des AR 5 gehabt zu haben, wurde die IPCC-Schätzung der Klimasensitivität inzwischen geändert. The Economist beschreibt folgendermaßen, was hinsichtlich der Gleichgewichts-Klimasensitivität im IPCC-Entwurf neu ist:

Sowohl der IPCC-Bericht von 2007 als auch ein früherer Entwurf des aktuellen Zustandsberichtes reflektierten frühere Ansichten hierzu mit den Worten, dass die Standardmessung der Klimasensitivität (der wahrscheinliche Anstieg der Gleichgewichts-Temperatur als Reaktion auf eine Verdoppelung des CO2-Gehaltes) zwischen 2°C und 4,5°C liege mit dem wahrscheinlichsten Wert bei 3,0°C. Im jüngsten Entwurf wurde die untere Grenze auf 1,5°C reduziert , und der „wahrscheinlichste“ Wert wurde eliminiert. Das scheint einen wachsenden Sinn dafür zu spiegeln, dass die Klimasensitivität in der Vergangenheit überschätzt worden ist, und dass der Wert daher zu ungewiss ist, um eine Einzelschätzung eines zukünftigen Anstiegs vorzunehmen.

Wenn das stimmt, dann zeigt die Kombination aus der Verringerung des unteren Wertes der Bandbreite einer möglichen Klimasensitivität und dem Beschluss des IPCC, auf seine Schätzung des „wahrscheinlichsten“ Wertes zu verzichten, dass die mittlere Klimasensitivität der Modelle von 3,4°C noch weiter aus der Wissenschaft entfernt wird und noch weniger gerechtfertigt ist. Wie weit genau die Klimamodelle von realistischen Werten entfernt liegen, wird vom IPCC versteckt gehalten, nennt es doch nicht länger einen „wahrscheinlichsten“ Wert. Sollte der „wahrscheinlichste“ Wert mit 2,5°C angegeben werden, läge das Klimamodell im Mittel etwa 36% zu hoch, verglichen mit der Wissenschaft. Sollte der „wahrscheinlichste“ Wert 2,0°C betragen, läge die mittlere Klimasensitivität der Modelle um 70% zu hoch.

Weil, wie das IPCC einräumt, die Änderungen vieler anderer Klimavariablen „mit der Zunahme der globalen Mitteltemperatur zusammenhängt“, sind die aus den Modellen abgeleiteten Klimaauswirkungen (was im Wesentlichen das ganze IPCC ausmacht) ebenfalls (substantiell) zu hoch.

Das IPCC hat jetzt drei Optionen:

1. Den gesamten AR5 noch einmal zu überarbeiten und von vorn anzufangen.

2. Den gegenwärtigen AR 5 zu veröffentlichen zusammen mit einer Erklärung, der zufolge die Klimaänderungen und alle Auswirkungen wahrscheinlich um 50% überschätzt sind, oder

3. Nichts zu tun und die Politiker und den Rest der Welt in die Irre zu führen.

Wir wetten auf Option Nr. 3.

Schlussbemerkung: das Problem, dass große Hypothesen von Regierungen hinsichtlich der Klimaänderung wissenschaftlich schon vor der Veröffentlichung überholt sind, ist für „Gruppenwissenschaft“ nicht atypisch, ist sie doch gewaltig teuer, erheblich uneffizient und oftmals ein Notnagel, um politische Maßnahmen zu rechtfertigen. Wir haben das Gleiche in unseren Kommentaren hinsichtlich des jüngsten Entwurfs eines Berichtes der Bemühungen seitens der USA erlebt, den Auswirkungen der Klimaänderung zu begegnen, dem „National Climate Assessment“ (NCA). In diesem Bericht heißt es:

Dass die neueste Literatur ultimativ eine genauere Schätzung der Gleichgewichts-Klimasensitivität zeigt als das Mittel der Klimamodelle bedeutet, dass allgemein alle Projektionen zukünftiger Klimaänderungen wie in der NCA erwähnt etwa 40% zu hoch (zu schnell) sind und dass die damit verbundenen (und beschriebenen) Auswirkungen erheblich überschätzt sind.

Wir verlangen, dass ein alternativer Satz von Projektionen entwickelt wird, und zwar hinsichtlich aller in der NCA diskutierter Themen. Dabei müssen die jüngsten wissenschaftlichen Ergebnisse des geringeren Wertes der Gleichgewichts-Klimasensitivität einfließen. Ohne das Hinzuziehen neuer Projektionen wird der NCA bereits am Tag seiner offiziellen Veröffentlichungen obsolet.

Der Gedanke, dass diese nationalen und internationalen Hypothesen herangezogen werden, um politische Maßnahmen zu rechtfertigen, ist ein beängstigender Gedanke.

Link: http://wattsupwiththat.com/2013/07/26/the-ipcc-has-a-real-pack-of-trouble-on-its-hands/

Übersetzt von Chris Frey EIKE

Normal 0 21 false false false MicrosoftInternetExplorer4




Endlagerung kontra Rückholung radioaktiver Abfälle

Die Endlagerung radioaktiver Abfälle bedeutet, die  Abfälle so zu verpacken[1] und end  zu lagern, dass sie dem Menschen und der Umwelt auch nach tausenden von Jahren nicht gefährlich werden können. International unterscheiden sich die Endlagerkonzepte. In Frankreich beispielsweise werden schwach- und mittelradioaktive Abfälle oberirdisch in Betonwannen endgelagert und nach Befüllung mit wasserundurchlässigem Material abgedeckt. In Deutschland dagegen müssen alle Arten radioaktiver Abfälle in tiefen geologischen Gesteinen endgelagert werden. Schutzziel ist – im Fachjargon – der dauerhafte  und extrem langfristige Einschluss  der Abfälle in tiefem Gestein und somit das Fernhalten der Abfälle von der Biosphäre.

Um auch größtmögliche Sicherheit über und unter Tage während des Einlagerungsbetriebes zu gewährleisten, werden die Einlagerungsstrecken abschnittsweise verfüllt. Für das in Errichtung befindliche Endlager Schacht Konrad sieht das zuständige Bundesamt für Strahlenschutz (BfS)  vor, dass jeder Abschnitt mit einer Betonwand abgeschlossen und dann mit Beton verfüllt wird. Der radioaktive Abfall ist dann nicht mehr rückholbar, aber gegen Freisetzung gesichert. Sind alle Abschnitte einer Strecke gefüllt, wird sie komplett verschlossen /1/.

Mit der politischen Diskussion über die Rückholbarkeit radioaktiver Abfälle aus dem Endlager wird dieses sicherheitsgerichtete Vorgehen infrage gestellt. Gemeint wird die Rückholbarkeit während der vielleicht 40- bis 50-jährigen Betriebsphase des Endlagers. Als ein Grund wird die Möglichkeit der Nachbesserung im Fall neuerer Sicherheitsbewertungen genannt. Ein mehr die Öffentlichkeit beruhigender Aspekt. Eine spätere Nutzung der in Konrad eingelagerten Abfälle kann als Grund ausgeschlossen werden. Oder steckt hinter der Diskussion das politische Kalkül, die ohnehin politisch ungeliebte und bereits um Jahre verzögerte Endlagerung noch weiter nach hinten zu schieben?

Trotz auch internationaler Diskussion über das Für und Wider der Rückholbarkeit gibt es bemerkenswerter Weise keine internationale Empfehlungen oder Regelungen über die Rückholbarkeit als Teil von Endlagerkonzepten /2/. Dessen ungeachtet darf eine im Endlagerkonzept vorgesehene Rückholbarkeit nicht zu einer Beeinträchtigung der Sicherheit des Endlagers und der sicheren Endlagerung der Abfälle während der Betriebsphase und nach Beendigung des Endlagerbetriebes führen. 

Die Rückholbarkeit gehörte zu den konzeptionellen und sicherheitstechnischen Fragen der Endlagerung von radioaktiven Abfällen, die das BfS von nationalen und internationalen Experten klären ließ. Im Synthesebericht /2/ wird unmissverständlich festgestellt: „Für alle Endlagerkonzepte gilt, dass sich mit Fortschreiten der Einlagerung von Abfallgebinden, der Verfüllung und des Verschlusses die Zugänglichkeit der Abfallgebinde verschlechtert. Deshalb wird in einer Reihe von (Anm.: internationalen) Endlagerkonzepten eine zeitliche Verzögerung der Verfüllung und des Verschlusses des Endlagers bzw. von Teilen des Endlagers in einzelnen Etappen des Endlagerprozesses vorgesehen bzw. erwogen, um in diesen Etappen  eine Rückholung zu erleichtern. Nach Verschluss eines Endlagers ist eine Rückholung zwar technisch möglich, erfordert jedoch einen erheblichen Aufwand, da das Endlager neu aufgefahren werden muss, bzw. ein neues „Rückholbergwerk“ zu errichten ist.“ Die Kosten der Rückholung werden in jedem Fall erheblich sein, und dem Menschen wie der Umwelt werden zusätzliche Strahlenbelastungen zugemutet.

Verzögerungen der Verfüllung und des Verschlusses für einen Zeitraum von einigen Jahrzehnten würden zwar keine wesentlichen Fragen der Betriebs- und Langzeitsicherheit aufwerfen /2/, gleichwohl muss mit Risiken gerechnet werden, die bei sofortiger  Verfüllung und Verschluss vermeidbar wären. Genannt werden unter anderem /2/:

  • Es besteht erhöhte Korrosionsgefahr für Endlagerbehälter und metallischen Konstruktionselementen der Endlagerräume durch Zutritt von Sauerstoff und Feuchtigkeit.
  • Es kann zu einer Beeinflussung der chemischen und physikalischen Stabilität von Verfüllungen und Verschlüssen bei Kontakt mit der Grubenluft durch Offenhalten einzelner Grubenabschnitte kommen.
  • In Abhängigkeit von der Dauer der Offenhaltungsphase vergrößert sich das Risiko unsachgemäßer Instandhaltung, wodurch das Risiko einer Instabilität der offenen Grubenräume erhöht wird.
  • Das Risiko von Störfällen, wie Feuer, Eindringen von Grundwasser  wird erhöht.
  • Das Risiko von unbefugtem Eindringen in das Endlager und Missbrauch wird erhöht.

Überdies verursacht ein verlängertes Offenhalten von Anlageteilen oder des Endlagers insgesamt erhebliche zusätzliche Kosten.

In der Hannoverschen Allgemeinen Zeitung vom 28. Mai 2013 war zu lesen, der niedersächsische Umweltminister Stefan Wenzel fordere eine Überprüfung der (Anm.: längst genehmigten) Sicherheitsanforderungen an das Endlager Schacht Konrad, und dabei müsse auch die Rückholbarkeit der Abfälle diskutiert werden. Nicht nur, dass diese Diskussion, wie im Synthesebericht des BfS /2/ nachzulesen ist, bereits erfolgt ist und zu einem belastbaren Ergebnis geführt hat, eine Rückholungsoption würde unter dem Strich zu einer Einbuße an Endlagersicherheit führen, wäre folglich mit der Forderung größtmöglicher Sicherheit hinsichtlich des dauerhaften Einschlusses der Abfälle nicht vereinbar. Auf der einen Seite wird die Suche nach einem „bestmöglichen“ Standort gefordert, andererseits werden Abstriche an der Endlagersicherheit in Kauf genommen, um die Rückholbarkeit zu ermöglichen. Das passt nicht zu einander.

Eine Lagerung von radioaktiven Abfällen, die explizit eine Rückholung vorsieht, ist keine Endlagerung, sondern eine Zwischenlagerung und damit genau das, was von den Befürwortern der Rückholbarkeit bekämpft wird. 

Dr. Klaus Tägder 

—————–

/1/  http://www.bfs.de/de/endlager/endlagerung_ueberblick/endlagerprojekte_textfassung

/2/  Bundesamt für Strahlenschutz, Synthesebericht vom 04.11.2005 „Konzeptionelle und sicherheitstechnische Fragen der Endlagerung radioaktiver Abfälle – Wirtsgesteine im Vergleich“  http://www.bfs.de/de/bfs


[1] Je nach Art der Abfälle erfolgt ihre Verpackung in 200 l-Fässer, in Stahlcontainern, in dickwandigen Gussbehältern oder in Betoncontainern. Das Abfallkonzept für Konrad sieht vor, 200 l-Abfallfässer in großen Containern zu verpacken und die Hohlräume mit Beton zu verfüllen.




Das Ammen-Märchen vom Eisbär-Sterben: Auch das als ein Konstrukt der Klima-Alarmisten entlarvt !

Einige Vorbemerkungen von EIKE erscheinen angebracht: Ein vorläufiger Höhepunkt der Klima- und Eisbären-Hysterie war im Jahre 2007 erreicht Einerseits „glaubte“ die Klima-Alarmisten-Szene zu dem Zeitpunkt noch an den Abschluß eines internationalen Abkommens auf dem Klima-Gipfel in Kopenhagen (2009), andererseits fuhr Frau Merkel in die Arktis und der sz. Umweltminister Gabriel nach Berlin  – zwecks „Verbrüderung“ mit dem armen, bedrohten Eisbären.

 

Mittlerweile ist die Luft da raus.

E i n e r s e i t s :

Der Klima-Gipfel in Kopenhagen war grandios gescheitert, wobei die „klima-skeptischen“ Nationen sich durch die bis heute gemessenen Klima-Daten bestätigt fühlen : Die Global-Temperatur stagniert seit 15 Jahren, der Meeresspiegel-Anstieg schwächt sich ab, beim Extremwetter findet selbst das IPCC keine Trends.

A n d e r e r s e i t s :

In den letzten Jahren sind zahlreiche Arbeiten erschienen (Quellen u.a. auch in dem u.st. Artikel der WELTWOCHE), die anhand von Zählungen beweisen, daß die Eisbär-Population innerhalb der vergangenen 50 Jahre von etwa 5.000 auf etwa 25.000 angestiegen ist.

Und schließlich sagen Biologen, daß der Eisbär schon viel längere und extremere Klima-Warm-Phasen problemlos überstanden hat, als die derzeitige sehr mäßige Erderwärmung;

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/F.Eisbaer.REICHH.jpg

Zusammenfassend kann man sagen:

Der Eisbär frißt kein Eis, sondern Robben. Folglich ist er nicht durch schmelzendes Arktis-Eis gefährdet, sondern wegen des Abschlachtens der Roben durch den Menschen. Daher auch an dieser Stelle: Klima-Schutz ist sinnlos, Natur- und Artenschutz ist notwendig!

H i e r  nun der Original-Artikel aus der WELTWOCHE (WELTWOCHE, Zürich, Ausgabe 27/2013, 4. Juli 2013, Alex Reichmuth: Schmelzende Argumente; http://www.weltwoche.ch/index.php?id=548263), wir danken für die freundliche Genehmigung der WeWo zum Abdruck bei EIKE.

Erst wurde der Eisbär zur Ikone des Klimawandels hochstilisiert. Dann hiess es, wenn sich die Erde weiter erwärme, werde er bald aussterben. Die Warnungen beruhen auf zweifelhaften Hochrechnungen. Fakt ist: So viele Eisbären wie heute gab es seit Jahrzehnten nicht mehr.

Hilflos treibt er auf seiner Eisscholle dahin, und bald wird der Boden unter seinen Füssen wegschmelzen. Dieses Bild eines dem Untergang geweihten Eisbären steht für die angeblichen Gefahren der Erderwärmung. Umweltschützer werben damit für mehr Klimaschutz. Wenn das Meereis in der Arktis verschwinde, so heisst es, verliere der Eisbär seinen Lebensraum und sterbe aus.

Wie steht es wirklich um den Bären der Polarregion? Noch in den war der Ursus maritimus tatsächlich vom Aussterben bedroht. Die Jagd auf ihn und 1950er und 1960er Jahren seine Beutetiere machte ihm beinahe den Garaus. Vermutlich gab es damals nur noch 5000 bis 10 000 Exemplare. Doch in den Jahrzehnten danach erholten sich die Bestände: 1973 hatten die Anrainerstaaten der Arktis beschlossen, die Jagd auf den Eisbären und seine Beutetiere weitgehend zu verbieten. Darum leben heute gemäss Schätzungen von Wissenschaftlern wieder zwischen 20 000 und 25 000 Eisbären in der Polarregion.

Eine Erfolgsgeschichte

Trotzdem häufen sich seit einigen Jahren die Warnungen, wonach die Zahl der Eisbären wieder abnehme. 2006 setzte die International Union for Conservation of Nature (IUCN), einer der grössten Umweltschutzverbände weltweit, die Spezies auf die rote Liste der bedrohten Arten. Man müsse befürchten, hiess es bei der IUCN, dass es in 45 Jahren über dreissig Prozent weniger Eisbären gebe. Gleich sehen es die Umweltbehörden der USA, die das weisse Raubtier seit 2008 ebenfalls als bedrohte Spezies bezeichnen.

«Blutige Fingerabdrücke»

Als Ursache für die Bedrohung des Eisbären wird der Rückgang des polaren Meereises im Sommer angeführt. Wegen steigender Temperaturen vergrösserten sich in den letzten Jahrzehnten die eisfreien Zonen im arktischen Meer. Der Eisbär benutzt aber die zugefrorenen Flächen, um dort Robben zu jagen. Schmilzt im Sommer das Meereis weg, muss er sich vorübergehend aufs Festland zurückziehen. Dort jedoch, so befürchten viele Forscher und Umweltschützer, finde der Eisbär zu wenig Nahrung und könne darum nicht genug Fett anlegen für den nächsten arktischen Winter.

Die Warnungen sind schrill: Verschwinde das polare Meereis im Sommer ganz, habe der Eisbär kaum eine Überlebenschance, heisst es. Schon in fünfzig bis hundert Jahren könne es so weit sein. Angeblich soll es schon erste Fälle von «Kannibalismus» geben: Eisbären fressen andere Eisbären, getrieben vom Hunger. Umweltschützer sprechen von «blutigen Fingerabdrücken des Klimawandels».

Vermutungen und Beobachtungen

Auffallend ist, dass die IUCN eine Art Monopolstellung hat, was den Eisbären angeht: Wenn man wissen will, wie es um die Bestände steht, landet man fast immer bei Informationen, die von dieser globalen Nichtregierungsorganisation verantwortet sind. Der IUCN sind neben 89 staatlichen Stellen auch 875 Umweltschutzgruppen und NGOs aus der ganzen Welt angeschlossen. Aus der Schweiz sind unter anderem Pro Natura und die Schweizer Sektion des WWF dabei.

Das Ausbreitungsgebiet des Eisbären, der nur in nördlichen Polarregionen vorkommt, ist in neunzehn Unterregionen aufgeteilt. Die IUCN berichtete 2009, wie es um die Bestände in diesen Teilgebieten angeblich steht. In acht der neunzehn Gebiete soll die Zahl der Eisbären rückläufig sein, in drei stabil und nur in einem zunehmend. Für die restlichen sieben Unterregionen fehlen laut der IUCN die Daten für eine Einschätzung.

Grosse Zweifel sind angebracht, ob es wirklich so schlimm um den Eisbären steht. Einerseits ist die Grösse einer Eisbärenpopulation nicht leicht zu erfassen. Lange gab es nur grobe Schätzungen aufgrund von Beobachtungen von Jägern und Ureinwohnern. Die ältesten Erhebungen, die als wissenschaftlich fundiert gelten, datieren gemäss der IUCN von 1979. Gegenwärtig sind die Daten zu den Eisbärenbeständen in den allermeisten Teilregionen aber noch immer spärlich und mit grossen Unsicherheiten behaftet.

«Auch heute wissen wir wenig bis gar nichts über Eisbären in der Hälfte ihres Ausbreitungsgebietes», schreibt die IUCN auf Anfrage der Weltwoche. Unter den acht Teilregionen, in denen der Eisbärenbestand abnehmen soll, gibt es darum nur eine einzige, bei der die IUCN dies mit Zahlen belegen kann: die Westküste der kanadischen Hudson Bay (Western Hudson Bay). Bei den anderen der acht Teilregionen beruhen die Warnungen vor einem Rückgang der Bestände nur auf Vermutungen und Modellrechnungen von Computern. Solche Modellrechnungen werden etwa aufgrund der beobachteten Verhältnisse von jungen zu erwachsenen Tieren vorgenommen.

Den Modellrechnungen stehen jedoch konkrete Beobachtungen von Ureinwohnern entgegen, vorwiegend Inuit. Sie berichten seit Jahren über boomende Bestände. Es habe noch nie so viele Eisbären gegeben. Von einem Rückgang könne nicht die Rede sein. Dazu passt ein Erlebnis, das der britische Umweltpublizist Matt Ridley schildert: 1978 habe er mit Freunden sechs Wochen in einer Hütte in Spitzbergen campiert, unbehelligt von Eisbären. Als er sich vor kurzem aber dafür interessierte, nochmals in die Hütte zu gehen, erhielt er aus Spitzbergen eine Absage: Es gebe in dieser Gegend so viele Eisbären, dass es zu gefährlich sei, sich dort aufzuhalten.

Selbst in der Teilregion Western Hudson Bay, von der am meisten Zahlen vorliegen, ist der Rückgang des Eisbärenbestandes umstritten. 2004 zählten kanadische Forscher rund 900 Eisbären in dieser Region, was einen Rückgang um 22 Prozent seit 1984 bedeutet. Für 2011 sagten sie eine weitere Abnahme auf rund 600 Eisbären voraus. Doch 2012 kamen andere Forscher zum Schluss, dass es vermutlich wieder über 1000 Eisbären gebe – dies in einer Studie im Auftrag der Regierung der kanadischen Provinz Nunavut.

«Die Population ist nicht in der Krise, wie die Leute glauben», kommentierte Drikus Gissing, Direktor der Naturschutzbehörde von Nunavut.

Rückgang wegen Überpopulation

Selbst wenn die Bestände in einigen Teilregionen tatsächlich abnehmen sollten, muss daran nicht der Rückgang des Meereises schuld sein. Denn einerseits setzt die (illegale) Jagd den Eisbären zu. Andererseits gibt es an manchen Orten so viele Eisbären, dass die natürliche Tragfähigkeit überschritten ist. Die Nahrung wird knapp, und der Eisbärenbestand dezimiert sich wieder. Das ist vermutlich im Gebiet der Davisstrasse der Fall, also der Meerenge zwischen Grönland und der kanadischen Baffininsel.

Die Davisstrasse ist eines der acht Gebiete, wo die IUCN abnehmende Bestände befürchtet. Das Gebiet reicht bis zur Neufundland-Insel, zum südlichsten Ort der Welt, wo Eisbären vorkommen. Hier würde man am ehesten erwarten, dass wegschmelzendes Eis den weissen Raubtieren zusetzt.

Seit die Jagd auf den Eisbären vor einigen Jahrzehnten verboten wurde, haben die Bestände aber massiv zugenommen. 2009 schätzten Forscher, dass es im Gebiet der Davisstrasse 2100 Eisbären gebe – eine Rekordzahl. «Hier gibt es nicht einfach einige Eisbären mehr», sagte Mitchell Taylor, einer der beteiligten Forscher, «hier gibt es höllisch viel mehr Eisbären.» Eine Studie vom letzten April bestätigte zwar die Einschätzung der IUCN, dass es in Zukunft in der Davisstrasse wohl wieder weniger Eisbären gibt. Das sei aber möglicherweise auf die Überpopulation zurückzuführen, die nun den Fortpflanzungserfolg mindere, heisst es in der Studie.

«Adoptiere einen Eisbären»

Es ist mehr als fraglich, ob die Eisbären tatsächlich verschwinden, falls das Polarmeer bis in einigen Jahrzehnten im Sommer eisfrei sein sollte. Immerhin existiert die Tierart seit über 100 000 Jahren und hat manche Warmzeit überlebt. Möglicherweise können sich die Eisbären von Beutetieren an Land ernähren, wenn die Jagd auf Robben auf dem Eis nicht mehr möglich ist. Davon ist zum Beispiel Susan Crockford überzeugt, Evolutionsbiologin an der kanadischen University of Victoria. Andere Forscher sagen, die Arktis erwärme sich viel zu schnell, als dass sich die Eisbären anpassen könnten. So genau weiss das aber niemand. Der WWF schreibt: «Unsere Kenntnisse über die direkten Zusammenhänge zwischen dem Verlust der aktuell [von Eisbären] bevorzugten Lebensräume und Veränderungen in den Populationen sind extrem beschränkt.»

Beim Streit über die Zukunft des Eisbären spielen sicher auch Eigeninteressen eine Rolle. Inuit und andere Bewohner nördlicher Regionen könnten die Bestände überschätzen, um zu erreichen, dass die heute strengen Jagdbestimmungen gelockert werden. Lizenzen zum Abschuss von Eisbären lassen sich nämlich teuer verkaufen. Umgekehrt sind alarmierende Zahlen, was den Eisbären angeht, ganz im Sinne von Umweltschützern und NGOs.

Sie haben alles Interesse daran, dass der Eisbär als Ikone des Klimawandels erhalten bleibt. Denn damit lässt sich für Klimaschutz werben – und viel Geld verdienen: Der WWF etwa bettelt mit der Aktion «Adoptiere einen Eisbären» um Spenden. Wer bezahlt, bekommt ein Zertifikat, einen Ansteckknopf und einen «knuddeligen» Eisbären aus Plüsch.

Related Files