1

Kohlenstoffsteuer und Temperatur

1) Hitch Climate Tax To The ACTUAL CLIMATE, Says Top Economist – The Register, 4 July 2013

2) Temperature-Linked Carbon Tax Could Be Effective – Expert – Reuters, 4 July 2013

3) Ross McKitrick: Responses To My Critics – Ross McKitrick, 4 July 2013

1) Top-Ökonom: Man verknüpfe eine Klimasteuer mit dem AKTUELLEN KLIMA
The Register, 4 July 2013
Andrew Orlowski
Ein kanadischer Ökonom hatte eine Idee, wie man gegen die globale Erwärmung vorgehen könnte, die so einfach ist, dass es erstaunlich ist, dass niemand zuvor auf diese Idee gekommen ist. Ross McKitrick, Professor der Ökonomie an der University of Guelph in Ontario, ein IPCC-Experten-Begutachter und einer seiner führenden Kritiker, schlägt eine Kohlenstoffsteuer vor, deren Höhe sich an der Rate der Klimaänderung orientiert. Er erläuterte seine Idee kürzlich vor dem House of Lords vor einem Auditorium, in dem sich auch der Architekt des Climate Change Act in UK befand. Und es war faszinierend zu sehen, wer davon am meisten alarmiert war.

Der Plan von McKitrick ersetzt die bruchstückhaften Regulationen und Steuern, die beliebig und chaotisch sind (das reicht von der Verbannung von Heizstrahlern bis zu einem „Preis des Kohlenstoff-Fußabdrucks“) durch eine Steuer, die mit der Temperatur der Atmosphäre verknüpft ist. Dem IPCC zufolge ist die Temperatur der „Fingerabdruck“ der durch Treibhausgase induzierten globalen Erwärmung und der am schnellsten reagierende Indikator der Klimaänderung. Wenn die Temperatur steigt, steigt auch die Steuer.

Mit der Einführung handelbarer Emissionszertifikate zusammen mit dieser neuen, auf Beweisen basierenden Steuer gibt es starke Anreize an der richtigen Stelle. „Niemand wird von falscher oder übertriebener Wissenschaft profitieren“, sagte McKitrick.

“Skeptiker, die nicht an die globale Erwärmung glauben, werden nicht erwarten, dass die Steuer steigt, wenn sie nicht sogar von deren Sinken ausgehen. Diejenigen, die an die rapide Erwärmung glauben, gehen davon aus, dass die Steuer während der kommenden Jahre rasch steigen wird“, erläuterte McKitrick, wenn er seine Idee umreißt.

Unternehmen, die Fabriken und Kraftwerke betreiben, werden sich darum kümmern müssen, wer wahrscheinlicher recht hat, weil Milliarden Dollar Steuereinnahmen davon abhängen, was passieren wird”.

In Westminster führte er aus:

Niemand hat ein Interesse daran, die Vorhersagen zu ignorieren – während jeder daran interessiert ist, die Vorhersagen auf ihre Genauigkeit abzuklopfen … Als Wissenschaftler kann man seine Altersrente hinein stecken, anstatt sich darüber zu beklagen, dass einem niemand zuhört. Wenn ein Wissenschaftler sich selbst davon überzeugen kann, seine Rente in seine eigene Wissenschaft zu stecken, sollte er nicht versuchen, andere Leute dazu zu überreden.

Das klingt vernünftig.

Er erwähnte auch einige der Fallgruben und Widersprüche. War es rückwärts schauen? Nein, dachte er, da Investoren große Wetten auf die Zukunft hinsichtlich der Steuer abschließen. Ein zukünftiger Markt mit Emissionszertifikaten würde es den Händlern erlauben, „Klimaverzögerungen“ als eine Gelegenheit zur Ausnutzung von Preisunterschieden behandeln.

Ob er glaube, dass Märkte klüger als Wissenschaftler sind, fragte jemand.

„Märkte sind einfach Menschen, und sie verwenden Informationen“, sagte er. „Märkte können objektiver sein als Wissenschaftler – jeder Wissenschaftler hat seine eigenen Verzerrungen und seine eigene Agenda. Aber der Markt wird keine Vorhersagen korrigieren“.

Aber wenn die Wissenschaftler missverstanden werden, zahlt die Öffentlichkeit nicht für eine falsche Politik – da es sich nicht auszahlt, für die Abschwächung eines Problems zu zahlen, das gar nicht existiert.

Unter den Teilnehmern der von der GWPF arrangierten Gespräche waren Chris Rapley und Bryony (jetzt Baronesse) Worthington (BA, Eng.Lit.), der von Greenpeace zu DEFRA übergetretene Klimaaktivist, um dort den Climate Change Act für Ed Milliband zu entwerfen. Beide fragten McKitrick das Gleiche: Warum verwendet man nicht andere Messungen der Reaktion des Klimas? Worthington sprach hier die Zahlen der arktischen Eisschmelze an.

McKitrick erwiderte, dass die Arktis ein „kleines geographisches Gebiet“ und weniger geeignet als Indikator der Klimaänderung sei. Es gibt eine verstärkte Reaktion auf Änderungen der Sonne, erklärte er, was „es für unsere Zwecke ziemlich rauschend macht“.

Ein großer Anteil der arktischen Eisschmelze vor ein paar Jahren kann man eher Zirkulationsänderungen zuordnen als einer wärmeren Arktis. Die Troposphäre andererseits war die Hälfte der irdischen freien Atmosphäre.

90 Prozent des Ungleichgewichts hinsichtlich der Energiebilanz gehen in die Ozeane, also warum nimmt man nicht das?”, fragte Chris Rapley, ein ehemaliger Leiter des Antarctic Survey. McKitrick sagte, dass hier das Risiko bestehe, dass die Reaktion zu langsam erfolge.

Was ist stattdessen mit dem Meeresspiegel? Rapley sagte, die Rate des Meeresspiegel-Anstiegs sei seit 2000 Jahren konstant gewesen und dann plötzlich scharf angestiegen, während Ozeane einen rapiden Indikator der globalen Erwärmung darstellen (deswegen wohl ist die flüchtige Erwärmung der Ozeane so schwer zu finden).

Für McKitrick repräsentiert eine Steuer das am wenigsten kostspielige Mittel, Emissionen zu drosseln. Damit das jedoch funktioniert, müssen andere Steuern abgeschafft werden, weil sonst die drückende Last der Kosten das Ganze teuer und nutzlos machen. Und da liegt der Hase im Pfeffer. Politiker heben selten Steuern auf und lieben es, sie immer weiter zu erhöhen.

In einer Fußnote räumte Lord Lawson die politische Herausforderung ein, die für jeden besteht, der eine Kohlenstoffsteuer einführen will. Und doch war es nicht unmöglich sich vorzustellen, dass Politiker diese Idee übernehmen als einen das Gesicht wahrenden Weg aus selbstmörderischen grünen Steuern und Regulationen, wenn der Planet sich nicht in der vorhergesagten Größenordnung erwärmt.

McKitricks auf Beweisen basierender Vorschlag könnte sich in Wirklichkeit für Andere als zu fundiert herausstellen, um es zu ertragen.

Eine 16 Seiten starke Zusammenfassung dieser Studie findet man hier.

2) Experte: eine mit der Temperatur verknüpfte Kohlenstoffsteuer könnte effektiv sein Reuters, 4 July 2013
Erin Berger
Eine mit der Temperatur verknüpfte Kohlenstoffsteuer könnte der kosteneffektivste Weg zur Reduktion von Kohlendioxid-Emissionen und die Verlangsamung des Klimawandels sein. Aber eine solche Steuer einzuführen kann eine gewaltige Herausforderung sein, nicht zuletzt wegen politischer Konflikte, sagt ein führender Verfechter der Steuern.

Ross McKitrick, Professor der Ökonomie an der University of Guelph in Ontario, schlägt eine Steuer vor, die zu Anfang sehr niedrig ist und dann mit der Temperatur der Erde steigt oder fällt.

Ein solches System würde Investoren und potentiellen Politikern helfen zu verstehen, wie das Klima – und die Höhe der Steuern – sich mit der Zukunft ändern und klare Hinweise geben würde, welche Maßnahmen man treffen sollte.

Investoren könnten Entscheidungen treffen, die auf ihrem Vertrauen in ihre Klimaprognosen basieren, und das System würde denjenigen mit der besten Abschätzung belohnen. „Man macht am Ende alles richtig, egal was es ist. Man wusste es nur zu jener Zeit nicht!“ sagte er.

Das beste Klimamodell der Welt?

„Gewaltige Anstrengungen würde man hinsichtlich der Genauigkeit der Prognosen machen, was zum besten Klimamodell der Welt führen würde“, sagte McKitrick während eines Gesprächs im House of Lords in London.

Theoretisch ist eine Kohlenstoffsteuer der effektivste Weg, CO2-Emissionen zu reduzieren, sagte McKitrick. In der Praxis jedoch sind Kohlenstoffsteuern – wie jene in Australien, Finnland und dem US-Staat Colorado – bis zu einem bestimmten Grad erfolgreich und bleiben dann in politischen Zwistigkeiten stecken.

Viel Uneinigkeit erhebt sich darüber, wie sich die Steuerrate mit der Zeit ändern sollte, sagte McKitrick, und „selbst wenn sich die Leute über die Anfangsrate einigen könnten, wären sie sich doch in vielen Fällen über den Weg zu Anpassungen uneins“.

Ein Problem sind einander widersprechende Meinungen über die mit der globalen Erwärmung verbundenen Risiken. Diejenigen, die sich über die Auswirkungen des CO2 auf das Klima die meisten Sorgen machen, favorisieren allgemein einen schnellen Anstieg der Steuerrate mit der Zeit, um die Emissionen am effektivsten zu verlangsamen. Diejenigen, die sich über die globale Erwärmung keine Sorgen machen, sind gegen etwas, dass sie als eine unnötige Steuererhöhung ansehen.

McKitrick glaubt, dass sein Vorschlag die Notwendigkeit dieses Arguments eliminieren würde. Aber die Einführung der Steuer auf eine Weise, die wirklich funktioniert, würde Änderungen erfordern, die für die meisten Länder gar nicht passend wären, gibt er zu. „Man muss den anderen Krimskrams los werden“, sagte er. „Kein Land kann daraus Vorteile ziehen, solange sie nicht alle ihre anderen ineffizienten Klimapolitiken einstellen“.

Aus diesem Grunde glaubt er, dass ein Land mit einer aufkeimenden oder sich entwickelnden Wirtschaft am meisten versucht sei, einen Versuch zu wagen. „Es ist eine Politik mit sehr geringem Risiko, aber auch ein geeignetes Unterfangen“, sagte er. „Am wenigsten wahrscheinlich, so etwas zu versuchen, sind Orte wie UK, wo es einen starken Überhang existierender Politiken und Interessen gibt“.

Eine Frage lautet, wie man das Einkommen au seiner Kohlenstoffsteuer am besten verwenden könnte. Ein Schlüssel zu einer politisch korrekten Kohlenstoffsteuer ist McKitrick zufolge, dass das Einkommen daraus dazu genutzt werden muss, andere Formen von Steuern zu reduzieren. Anderenfalls könnte die Steuer zu einer zusätzlichen ökonomischen Belastung werden – und zu einem politischen Risiko.

3) Ross McKitrick: Antworten für meine Kritiker
Ross McKitrick, 4. Juli 2013
Hier folgen einige Antworten auf die Hauptthemen kritischer Kommentare zu meinem Vorschlag. Ich habe sie aus Kommentaren bei Bishop Hill und Watts Up With That gezogen.

In diesen Antworten werde ich nicht die grundlegenden Argumente wiederholen, die in der Studie angesprochen werden. Es gibt einige irrige Vorstellungen von Menschen, die die Studie vor dem Posten ihrer Kritik nicht gelesen haben, aber dagegen lässt sich sehr einfach etwas tun, da die Studie online einsehbar ist.

1.Erster Kommentar: Ist das neu?

Ich erlebe gerade ein Déja vu. Hat Professor McKitrick dies nicht schon seit ein paar Jahren vorgeschlagen? Dieser sein Vorschlag ist (wie schon mal jemand gesagt hat) nicht neu. Irgendwann vor ein oder zwei Jahren hat ein um seine Wahl kämpfender US-Politiker ihn nach seinen Ansichten gefragt, und er kam mit diesem Plan heraus.

Ich arbeite an diesem Thema bereits seit einigen Jahren und habe zuvor auch darüber etwas geschrieben. Es war ursprünglich nicht als Antwort für einen US-Politiker gedacht, obgleich ich eine Note hierüber für ein Mitglied des US-Kongresses als Antwort auf seine Anfrage geschrieben habe (Dingell). Ich habe eine Reihe von Projekten zu laufen, um einige der theoretischen Details herauszufiltern. Die GWPF hat mich eingeladen, eine nicht-fachliche zusammenfassende Studie für sie zur Veröffentlichung zu erstellen und vor einem Auditorium im House of Lords einen Vortrag zu halten, und das gab mir die willkommene Chance, eine aktualisierte Zusammenfassung für das allgemeine Publikum zu schreiben. Zwei Dinge haben sich geändert, seit ich darüber zum ersten Mal etwas geschrieben habe: Erstens gibt es inzwischen eine formelle Herkunft des Steuergesetzes (veröffentlicht in Energy Economics im Jahr 2010), und zweitens habe ich das Konzept eines zukünftigen Marktes in den Vorschlag eingearbeitet, basierend auf einer Idee von Shi-Ling Hsu. – Vollständige Antwort

Übersetzt und mit einer Einführung versehen von Chris Frey EIKE




Klima-Extrembericht der WMO

Es geht darin um „Klimaextreme” während des letzten Jahrzehnts, von denen behauptet wurde, dass sie beispiellos gewesen seien. Die WMO sagt, dass zehn Jahre das erforderliche Minimum seien, um dekadische Effekte ausmachen zu können. Nicht viele Wissenschaftler würden dem zustimmen. Man betrachte die extensive Debatte, als man bemerkte, dass die mittlere globale Temperatur seit einem Jahrzehnt unverändert geblieben war. Die Meinung war geteilt zwischen denen, die sagten, das bedeute gar nichts, und jenen, die dachten, dass es ein Hinweis auf irgendetwas sei. Und doch hält die WMO zehn Jahre für ausreichend genug, um klimatologische Wetterauswirkungen mit Sicherheit erkennen zu können. Es scheint zu einem periodisch wiederkehrenden Verhalten unter einigen Klima-Analysten zu gehören, dass zehn Jahre ausreichen, um das zu sehen, was man sehen will, aber nicht lang genug sind, um das zu sehen, was man nicht will.

Im Bericht heißt es auch, die globale Erwärmung habe sich von 1971 bis 2010 beschleunigt. Das ist ganz offensichtlich nicht der Fall. Es ist inzwischen durch zahlreiche Analysen vieler verschiedener globaler Temperatur-Datensätze etabliert, dass sich der Erwärmungstrend zum Ende des 20. Jahrhunderts im 21. Jahrhundert nicht fortgesetzt hat. Der Bericht legt großen Wert auf die Tatsache, dass die vergangene Dekade die Wärmste seit Beginn von Messungen (im Jahr 1850) gewesen sei. Aber die WMO unterlässt es, das jüngste Temperatur-Plateau in Betracht zu ziehen, das bereits viel länger als ein Jahrzehnt dauert.

Das ist ein anderes Thema, über das wir hier oftmals geredet haben. Beginn und Endzeitpunkt sind in einer solchen Analyse entscheidend. Wir haben auf die Tatsache hingewiesen, dass die Einteilung nach Jahrzehnten künstlich ist, weil die Natur nicht weiß, ob eine Jahreszahl mit Null endet. Und warum hat die WMO mit der Analyse der globalen Temperatur im Jahr 2010 aufgehört und zwei weitere wertvolle Datenpunkte ignoriert, die den Temperatur-Stillstand in diesem Jahrhundert bestätigen?

Dieser ziemlich konfuse Abschnitt im WMO-Bericht kann mit deren eigenen Worten zusammen gefasst werden: „Das Erdklima fluktuiert mit den Jahreszeiten…“. Die WMO-Autoren haben nachweislich Wetterextreme mit Klimaextremen verwechselt.

Kein klarer Trend

Betrachtet man die Extreme selbst, gibt es im Text einen ziemlich offensichtlichen Kraftakt. Das ist der Wunsch, die im Raum stehenden Wetterextreme mit der vom Menschen verursachten Klimaänderung in Zusammenhang zu bringen. Die Autoren können einem fast leidtun, weil sie nicht umhin kommen zu sagen, dass es hinsichtlich tropischer Zyklone und außertropischer Stürme auf globaler Ebene keinen klaren Trend gibt, während sie einräumen, dass es immer noch schwierig ist, den Grad des Einflusses der Klimaänderung auf ein beobachtetes Einzelereignis zu quantifizieren.

Manchmal kommt diese zugrunde liegende Frustration zum Ausdruck, beispielsweise in der Behauptung der Autoren: „Während Klimawissenschaftler glauben, dass es noch nicht möglich ist, individuelle Extreme der Klimaänderung zuzuordnen, kommen sie zunehmend zu der Schlussfolgerung, dass viele Ereignisse in jüngster Zeit anders verlaufen wären – oder sich ohne Klimaänderung gar nicht erst ereignet hätten“.

Das ist eine totale Fehlinterpretation sowohl hinsichtlich der Klimawissenschaftler als auch der Wissenschaft. Es gibt einige Klimawissenschaftler, die das glauben, aber das ist nicht die Mehrheitsmeinung, und sie ist auch nicht abgesichert, obwohl eine laute Minderheit behauptet, dass das sehr wohl der Fall ist.

In Wirklichkeit heißt es in dem 2011 IPCC SREX-Bericht, dass es unabhängig von wärmeren Nächten kein einziges Wetterereignis gibt, dessen Änderung hinsichtlich Intensität oder Eintritt der Klimaänderung zugeordnet werden kann. Alle bislang beobachteten Wetterextreme ereigneten sich innerhalb der natürlichen Variabilität. Einige, so scheint es, verwechseln Ereignisse, die selten vorkommen oder bisher überhaupt nicht in den Aufzeichnungen vorgekommen waren, mit unerwarteten Ereignissen.

Temperatur: Gestoppt, aber immer noch steigend

Angesichts des komplexen Hintergrundes des WMO-Berichtes hätte man einige Berichte in den Medien darüber erwarten können, vor allem in jenen, die sich spezialisierte Reporter halten. Aber nichts dergleichen.

Im Guardian erschien ein Bericht des „Climate News Network“, der mit den Worten begann: „Wenn Sie glauben, dass die Welt sich erwärmt und das Wetter schlechter wird, haben Sie recht“. Es folgte eine willkürliche Auswahl von Zitaten aus der Executive Summary der WMO. Es werden die Behauptungen hinsichtlich einer „beschleunigten globalen Erwärmung“ wiederholt und „der Meeresspiegel ist zweimal so schnell gestiegen als der Trend im vorigen Jahrhundert“. Es gibt eine Aussage des Generalsekretärs der WMO, und nur von diesem. Die Tatsache, dass die mittlere jährliche Temperatur seit 16 bis 17 Jahren nicht gestiegen ist, nennt der Guardian „die offensichtliche leichte Verlangsamung“. Der Bericht des Climate News Network ist, ich sage es mit Beklemmung, eine Sammlung willkürlich herausgepickter Auszüge aus der Presseerklärung der WMO, ohne je einen Zusammenhang oder eine Analyse oder eine Erkenntnis aus offiziellen Berichten zu nennen, die es zu ähnlichen Themen in den letzten Jahren gegeben hat.

Nicht dass die BBC es besser macht. Die Berichterstattung dort enthält einen Satz, der zu einem Emblem für das Durcheinander im WMO-Bericht werden könnte: „Obwohl sich der Temperaturanstieg insgesamt seit den neunziger Jahren verlangsamt hat, sagt die WMO, dass die Temperatur immer noch steigt, und zwar infolge von Treibhausgasemissionen der menschlichen Gesellschaft“.

Sogar noch schlimmer als die übliche Konfusion bei der BBC ist die Verwendung des Ausdrucks „die Zweifler des Klimawandels“ von Roger Harrabin. So nennt er Leute, die „das Fehlen einer Temperaturänderung während der ganzen Dekade“ betonen. Sind wir denn nirgendwo angekommen in der fast ein Jahrzehnt langen Debatte über die Schatten einer legitimen Meinung über die Klimaänderung und deren Gründe?

Der jüngste globale Temperatur-Stillstand ist eine der größten Herausforderungen, der die Klimawissenschaft derzeit gegenüber steht. Falls Harrabin diejenigen, die auf die Realität des seit 16 bis 17 Jahre dauernden Stillstandes hinweisen, als „Zweifler des Klimawandels“ bezeichnet, bekommt er eine sehr lange Liste. Man füge dieser Liste meinen Namen hinzu.

Feedback: david.whitehouse@thegwpf.org

Link: http://www.thegwpf.org/wmos-extreme-report/

Übersetzt von Chris Frey EIKE




Energiewende wirkt:Stromriesen drohen mit Abschaltung von Kraftwerken

Zahlreichen Kohle- und Gaskraftwerken droht offenbar die Abschaltung. Laut einem Bericht der "Süddeutschen Zeitung" überprüfen Konzerne und Stadtwerke die Wirtschaftlichkeit Dutzender Kraftwerke. Damit gerate die Versorgungssicherheit in Gefahr, denn viele der Meiler könnten stillgelegt werden. Von etwa 90.000 Megawatt konventioneller Stromkapazität in Deutschland könnten bis zu 20 Prozent zur Disposition stehen, zitierte die Zeitung den Vorstand eines Versorgers, den sie namentlich nicht nannte. Im Extremfall drohten Engpässe…..

….Bislang seien bei der Bundesnetzagentur 15 Stilllegungsanträge eingegangen, berichtet die "SZ". E.on, der größte Energiekonzern Deutschlands, hat entschieden, bis 2015 elf Kraftwerke in Europa abzuschalten. Die Wirtschaftlichkeit weiterer Anlagen werde derzeit geprüft. Konkurrent RWE äußerte sich ähnlich.

mehr bei SPON hier

und die FAZ legt nach:

Wird ein Kraftwerke als „systemrelevant“ eingestuft, kann die Netzagentur anordnen, dass es weiter betrieben werden muss

Doch das Abschalten ist nicht so einfach: „Kraftwerksstilllegungen zum gegenwärtigen Zeitpunkt würden die Gefahr von Versorgungsstörungen noch weiter ansteigen lassen“, warnt die Aufsichtsbehörde in einem jüngst veröffentlichten Bericht. Auf absehbare Zeit könnten deshalb in Süddeutschland „keine Stilllegungen von Erzeugungsanlagen genehmigt werden“.

Denn auch wenn sich eine Anlage nicht mehr rechnet, dürften Energieversorger solche Kraftwerke nicht mehr einfach vom Netz nehmen. Dem hat der Gesetzgeber Ende vorigen Jahres einen Riegel vorgeschoben. Jede geplante Stilllegung müssen die Stromkonzerne mindestens 12 Monate vorher ankündigen. Das gibt den Übertragungsnetzbetreibern die Möglichkeit, die Folgen einer Abschaltung für die Netzstabilität zu untersuchen. Wird ein Kraftwerke als „systemrelevant“ eingestuft, kann die Netzagentur anordnen, dass es bis zu zwei Jahre lang weiter betrieben werden muss. Dafür hat der Stromversorger Anspruch auf eine „angemessene Vergütung“ durch den Netzbetreiber, dessen Kosten wiederum in die Strompreise einfließen.

In dieselbe Kerbe schlägt dieser Bericht aus dem Daily Telegraph vom 15.7.13

Deutschland steht vor rechtlichen Maßnahmen der Europäischen Kommission zur Diskrimierung zugunsten seiner eigenen Energie-Unternehmen in Verletzung des Wettbewerbsrechts. Der Energie-Zar der Europäische Union, Günther Oettinger, sagte, es sei nicht hinnehmbar, dass deutsche Windkraft-Unternehmen über staatliche Subventionen für erneuerbare Energien beziehen, während rivalisierende Unternehmen aus Dänemark und anderen europäischen Ländern geschlossen werden. Das deutsche Nachrichtenmagazin Der Spiegel sagte: Brüssel erwartet, dass ein förmliches Vertragsverletzungsverfahren am Mittwoch gestartet wird, in dem wahrscheinlich verlangt werden wird, dass die Begünstigten einer rechtswidrigen Beihilfe auch Beträge die sie bereits erhalten haben zurück zu zahlen hätten. – Ambrose Evans Pritchard-, The Daily Telegraph, 15. Juli 2013




Sieht aus, als wisse das Weiße Haus nicht, wie man mit Google umgeht

Zum Vergleich: Die Küste von Kalifornien ist 840 Meilen lang [ca. 1350 km].

Bild rechts: Karte von der NOAA US Tides and Currents website

Der Zusammenstellung U.S. International Borders: Brief Facts” durch den Research Service des Kongresses zeigt in Tabelle 3 den Wert für Georgia:

Ich habe etwa 20 Sekunden gebraucht, um diese Daten zu lokalisieren. Georgias Küstenlinie ist 100 Meilen lang, nicht 707 [ca. 161 km anstatt 1140 km].

Verwendet man die Methode von NOAA, wobei in die Messung der Küstenlinie jede Flussmündung und jeder Meeresarm, jede Halbinsel und so weiter eingehen, bekommen wir für Georgia einen Wert von 2344 Meilen [ca. 3800 km]:

Source: http://coastalmanagement.noaa.gov/mystate/ga.html

Egal mit welcher Methode, man kommt niemals auf 707 Meilen.

Man füge dies der Liste lächerlicher Behauptungen bzgl. von Daten hinzu wie z. B. die Behauptung, dass der Heimatstaat von Präsident Obama, Hawaii, 31 Counties [Landkreise] hat (es sind in Wirklichkeit 5). Es scheint mir, dass das Weiße Haus nicht einmal in der Lage ist, grundlegende Forschungen mittels einer Suchmaschine zu betreiben.

Nebenbei, die Stadt Savannah in Georgia scheint angesichts des dort gemessenen Anstiegs des Meeresspiegels nicht verschwunden zu sein:

Quelle: http://tidesandcurrents.noaa.gov/sltrends/sltrends_station.shtml?stnid=8670870

Es muss mit Sicherheit empörend für das Weiße Haus sein, dass ein „flat earther”-Blogger wie ich auf diese faktischen Fehler aufmerksam machen muss.

Link: http://wattsupwiththat.com/2013/06/27/its-almost-as-if-the-white-house-cant-figure-out-how-to-use-google/

Übersetzt von Chris Frey EIKE




Die Energiewende ist tot! Langsam merkt es auch die Alternative für Deutschland (AfD)

Doch wer bei der heutigen Pressekonferenz der AfD zu diesem Thema den großen Wurf erwartete wurde ziemlich enttäuscht. Obwohl es die Spatzen von den Dächern pfeifen, dass die Klimamodelle die Computer nicht wert sind, auf denen sie laufen, denn das Klima (wenn man das merkwürdige  statistische Konstrukt „globale Mitteltemperatur“ als Klimaersatz akzeptieren will) denkt gar nicht daran das zu tun, was die Modelle prognostiziert haben. Seit 17 Jahren steigt dieser Wert nicht mehr, sondern fällt leicht, obwohl der „Klimakiller CO2 „ (Lucke AfD ) stetig mit rd. 2 ppm pro Jahr ansteigt und nach der „wissenschaftlichen“ Konsens-Treibhausthese diese um  0,3 °C  hätte steigen müssen.  Tut sie aber nicht, wie Stephan Boyens -Mitglied im AfD Bundes-Fachausschuss Energie (nicht Sprecher wie die SZ fälschlich behauptet)-  in einem mutigen Statement der Wahrheit herausstellte. Auch bei der Verfügbarkeit fossiler wie Kernbrennstoffe ist die Zukunft alles andere als schwarz. Es gibt sie in Hülle und Fülle, die Schiefergas und –öl-gewinnung ist nur ein Teil des Angebotes, das täglich größer wird und zu gewaltigen weltpolitischen Umwälzungen führt. Einige Zeitung wie z.B. die Süddeutsche haben das zwar noch nicht gemerkt, was nicht wundert, wenn man durch die Welt nur durch die ideologische Brille sieht, aber andere schon. Und damit sind die beiden Hauptbegründungen für die Durchführung der „Energiewende“ ersatzlos entfallen.

Doch statt diese  schwerwiegenden Tatsachen aufzugreifen und sie zur Basis einer vernunftbasierten Politik zu machen, versucht sich heute die AfD im Klein-Klein.

Aber immerhin, wenigstens das! Es kann ja noch mehr werden.

Und Stephan Boyens darf ungehindert geradezu Ungeheuerliches (zumindest für einige anwesende linke Journalisten) vortragen. "Die Theorien der globalen Erwärmung bröckeln", sagt Boyens. "Googeln sie mal Korrelation CO2 und Temperatur", und auch das noch "Seit 20 Jahren haben wir keine Klimaerwärmung…Grönland komme von Grünland, die Polkappen seinen nicht in ihrem erdgeschichtlichen Normalzustand. Kohlendioxd sei ja auch nur ein Spurengas in der Luft…Das ist, als ob meine dreijährige Tochter Pippi in den Baggersee macht. Und dann haben wir Angst, dass der Baggersee kippt." So Boyens, ebenso richtig wie plakativ!

Doch statt daraus die einzig angemessene Konsequenz zu ziehen, die Wende von der Energiewende u.a.  mittels ersatzloser Abschaffung des EEG zu fordern, bleibt es im taktischen Klein-Klein.

Immerhin will man die Vorrangeinspeisung, gesichert qua EEG, zu extrem überhöhten Preisen in jeder Menge für 20 Jahre, abschaffen, aber nur für Neuverträge, die Altverträge sollen unangetastet bleiben. Dass das keinesfalls zur Reduzierung der jetzt schon viel zu hohen Strompreise führt, ist jedem bewusst, sicher auch dem Vorsitzenden der AfD,  dem Volkswirt Lucke. Übersteigen doch die bereits aufgelaufenen Schuldwechsel dank EEG, welche die Verbraucher die nächsten 20 Jahre lang einlösen müssen, die 300 Milliarden Euro Marke bei weitem.

Lucke begründet diese Inkonsequenz, dann auch auf ehrenvolle Weise. Die AfD sei die einzige Partei, welche die Einhaltung der Verträge beim Euro (Stichwort Maastricht) fordere. Das sei eigentlich eine Selbstverständlichkeit! Doch dann müsse sie dies auch für andere Verträge tun. Soweit so ehrenvoll.

Was aber wäre, wenn die Verträge, die nur mit Hilfe und mittels Zwang des EEG geschlossen wurden, einer rechtsstaatlichen Prüfung nicht standhielten? Wenn sie sittenwidrig und damit nichtig wären? EIKE hat diese Prüfung schon vor einiger Zeit vorgenommen.

Ergebnis: Die von zwei Parteien (EEG Anbieter und Netzbetreiber)  zu Lasten unbeteiligter Dritter (den Stromkunden) abgeschlossenen Verträge zum An- und Weiterverkauf  eines, zudem qualitativ minderwertigen, Zufallsstromes, zu stark überhöhten Preisen, ist Wucher. Und Wucher ist sittenwidrig. Solche Verträge sind damit nichtig! Nur muss irgendjemand dies auch mal einklagen. Juristen vor!

Zurück zur Pressekonferenz:

Obwohl Lucke sofort seinem Boyens in die Parade fuhr mit der Bemerkung, er "stelle nicht grundsätzliche die Tatsache in Frage, dass es wissenschaftliche Evidenzen gibt, das CO2 ein Klimakiller ist." sprach er sich im Folgenden für einen Rückzug des Staates aus dem Energiemarkt aus und verlangte statt indirekter Subventionierung über den Strompreis, eine solche über den allgemeinen Steuerhaushalt – um Klarheit zu schaffen, wie er sagte.

Zudem forderte er eine „Quotenregelung“ für die Menge an „regenerativem“ Strom, die der Staat festzusetzen hätte, jedoch keine Bevorzugung irgendeiner Technologie  Um dann die beste und billigste Lösung sich per Konkurrenz entwickeln zu lassen.

Nun, letzteres ist nicht gerade neu, denn das fordert die FDP auch schon seit einigen  Monaten, zumindest in Sonntagsreden der Herren Brüderle und Rösler. Sie geht auf eine Idee des Journalisten Günter Ederer zurück, der meinte damit das große Übel „Erneuerbare“ per Wettbewerb, in ein kleines Übel verwandeln zu können. Er vergaß, dass die Energiedichte der „Erneuerbaren“, naturgesetzlich viel zu klein ist, ihre Volatilität (nachts und bei Wolken scheint keine Sonne und der Wind weht wann er will, nicht wann man ihn braucht) ebenso naturgesetzlich bedingt ist und Groß-Speicher für Strom – abgesehen von wenigen Pumpspeicherwerken- weder in der Grundlagen- noch in der Anwendungsforschung auch nur ansatzweise in Sicht sind: Deswegen würde sich auch ein Quotenmodell nur unter Zwang zum Kauf des Quotenstromes durchsetzen und sich auf sehr hohen Preisen einpendeln. Es wäre wenig gewonnen. Zu wenig!

Fazit:

Das Energiepolitische Programm der AfD ist zu vorsichtig weil zu  klein geraten. Aber immerhin ist es da! Ein sehr kleiner Schritt für die Deutschland, aber ein großer für die Alternative für Deutschland! Und in die richtige Richtung.

Die nächsten Wochen bis zur Wahl werden zeigen, ob es gelingt, aus diesem ersten kleinen Schritt viele große zu machen. Die Kompetenz dazu hat die AfD, ob sie auch den Mut dazu aufbringt ist ihr zu wünschen. Ohne diesen Mut wird das Überwinden der fünf Prozenthürde wohl ein Wunschtraum bleiben. Lesen Sie dazu die Leitlinien der AFD zur Energiepolitik im Anhang

Weitere Fakten zur Pressekonferenz am 15.7.13

Anders als die Süddeutsche ihren Lesern glauben machen will, war die Beteiligung der Medien sehr hoch. Im völlig überfüllten Saal 4 der Bundespressekonferenz hatten sich ca. knapp 100 Menschen versammelt. Max. 15 von Ihnen waren wohl der AfD zuzurechnen.

6 oder  7 Kamerateams hielten jede Regung der Podiumsteilnehmer fest. Div. Fotografen schossen Standbilder.

Erste Pressestimmen finden Sie hier:

http://www.sueddeutsche.de/politik/afd-und-der-klimawandel-wie-pippi-im-baggersee-1.1721968

http://www.welt.de/politik/deutschland/article118054276/AfD-tritt-in-allen-16-Laendern-zur-Bundestagswahl-an.html

http://de.nachrichten.yahoo.com/anti-euro-partei-afd-tritt-bundesweit-wahl-121552691.html

http://www.berliner-umschau.de/news.php?id=14022&title=AfD+will+Erneuerbare+Energien+ausbremsen&storyid=1001373897939

http://www.spiegel.de/politik/deutschland/alternative-fuer-deutschland-partei-will-nicht-nur-euro-koennen-a-911205.html

http://www.jungefreiheit.de/Single-News-Display-mit-Komm.154+M59822ea19fd.0.html

Related Files




Kernenergie: 100 Gründe und 100 gute Antworten. Fortsetzung #53 bis #57

Die Sammlung aller bisheriger Lügen und Richtigstellungen (bis #87) finden Sie auf den Webseiten von KRITIKALITÄT. EIKE veröffentlicht die Antworten ebenfalls in einer Serie, vorangegange Artikel finden Sie hier: #1-#3, #4-#7, #8-#11, #12-#15, #16-#19, #20-#24, #25-#27, #28-#31, #32-#36, #37-#41, #42-#45, #46-#49, #50-#52.


Immer wieder echauffieren sich ideologische Kernkraftgegner über Endlager, die angeblich unerfüllbare Bedingungen verlangen. Dabei übersehen sie, dass die nuklearen Abfallmengen geradezu mickrig sind. Absurd wird es aber, wenn hier als Beispiel das alte DDR-Endlager Morsleben angeführt wird, dessen Radioativitätsinventar geringer ist als der des umgebenden Salzstocks (#53). In Grund #54 sind den EWS wohl endgültig die Argumente ausgegangen, wenn nur noch die Tatsache, dass auch „Sperrmüll” dort hineinpasst, als Beleg für dessen Unsicherheit angeführt wird.

Der Transport abgebrannter Brennelemente erfolgt in Castoren. Sie sind die Inkarnation einer jahrzehntelang geschürten Strahlen-Paranoia. Sicherheitsvorkehrungen sollten selbstverständlich in vernünftigem Maße beachtet werden, aber die Verbreitung des vielfachen widerlegten LNT-Modells führte zu wahnwitzigen Auswüchsen: Bombensichere Transportbehälter, die Anschläge mit Panzerfäusten und Stürze aus 40 Metern Höhe auf Beton schadlos überstehen. Es gibt Falltests, Feuertests, Explosionstests und Zusammenstöße mit Zügen (bis 160 km/h), sogar Flugzeugabstürze auf einen Castor wurden simuliert.

Die Behauptungen der EWS erscheinen in diesem Zusammenhang recht amüsant, z.B. dass die Castoren außen „extrem heiß” seien (#55), dass diese angeblich nur 40 Jahre halten (#57). Witzig ist es immer wieder, wenn Greenpeace-Aktivisten etwas zu „messen” versuchen, aber diesmal scheint es ihnen tatsächlich gelungen zu sein (#56), wozu wir an dieser Stelle nochmals herzlich gratulieren wollen.

Hundert gute Antworten #53 – #57

#53: Atommüllkippe Morsleben

Behauptung: Westdeutsche Atomkonzerne kippten skrupellos ihren Müll ins DDR-Endlager Morsleben.

Die EWS behaupten

Bergeweise stapelten sich Ende der 1980er Jahre die Atommüllfässer an den westdeutschen Atomkraftwerken. Zum Glück kam die Wiedervereinigung – und Bundesumweltministerin Angela Merkel. Zusammen mit den Abteilungsleitern Walter Hohlefelder und Gerald Hennenhöfer erlaubte sie den Atomkonzernen, ihren Strahlenmüll für einen Spottpreis ins ehemalige DDR-Endlager Morsleben zu kippen. Dieses ist inzwischen einsturzgefährdet, die Sanierung kostet die Steuerzahler über 2 Milliarden Euro.

Merkel wurde Bundeskanzlerin, Hohlefelder Chef von E.ON und Präsident des Lobbyvereins Deutsches Atomforum. Hennenhöfer ist seit Ende 2009 wieder Chef der Bundesatomaufsicht.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die gesamte in Morsleben eingelagerte Radioaktivität beträgt gerade einmal das Sechsfache einer in der Medizin gebräuchlichen Quelle für die Strahlentherapie. Selbst die Umgebung des Salzstocks verfügt über eine höhere natürliche Aktivität als das eingelagerte Inventar. Die gesamte Morsleben-Debatte entpuppt sich damit als reines Politikum und die 2 Milliarden Euro dürften eher den Bund der Steuerzahler interessieren.

Morsleben und Asse sind, wie alle älteren Bergwerke, grundsätzlich einsturzgefährdet, sie wurden über 100 Jahre systematisch ausgehöhlt. Dies ist aber auch keine Neuigkeit, deshalb wurden „benutzte” Salzstöcke auch nie als große nukleare Endlager für hochradioaktive Langzeitabfälle in Betracht gezogen. Für die geradezu lächerlichen Aktivitäten in Morsleben und Asse reichen sie aber allemal.

Die persönliche Karriere von Merkel, Hohlefelder und Hennenhöfer ändert im übrigen auch nichts an den auf wissenschaftlicher Grundlage erstellten Gutachten der Bundesanstalt für Geowissenschaften, der Gesellschaft für Reaktorsicherheit und des Bundesamtes für Strahlenschutz. Wer ihnen allen gleichzeitig Korruption unterstellt, hält sicher auch die Mondlandung für eine Inszenierung.

Quellen von KRITIKALITÄT


#54: Atommüllkippe Schacht Konrad

Behauptung: Mitten unter Salzgitter sollen dereinst 865 Kilogramm Plutonium lagern.

Die EWS behaupten

Mehr als 300.000 Kubikmeter schwach- und mittelradioaktiven Müll mit bis zu 865 Kilogramm hochgiftigem Plutonium will das Bundesamt für Strahlenschutz in die ehemalige Eisenerzgrube Schacht Konrad füllen – unter dem Stadtgebiet von Salzgitter. Die Entscheidungen, Schacht Konrad als Endlager zu nutzen, waren stets politische. Einen Vergleich verschiedener Standorte nach klaren Kriterien hat es nie gegeben. Attraktiv aus Sicht der Atomindustrie war ›Konrad‹ vor allem wegen des außergewöhnlich großen Förderschachts, den auch nuklearer Sperrmüll passieren könnte.

Die Langzeitsicherheits-Prognose für Schacht Konrad basiert im Wesentlichen auf theoretischen Annahmen. Die Modellrechnungen nach veralteten Methoden entsprechen nicht dem Stand der Wissenschaft.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Die Geologie von Schacht Konrad ist genau bekannt, es werden diverse Messungen und nicht nur theoretische Überlegungen vorgenommen, die auf den Webseiten des Bundesamtes für Strahlenschutz dokumentiert sind. Die Biosphäre kommt mit dem Inventar dank einer dicken, wasserunlöslichen Eisenerzschicht nicht in Kontakt, auch nicht das Grundwasser. Ebenfalls dokumentiert sind Planfeststellungsverfahren und höchstrichterliche Entscheidungen, die eine Genehmingung nach rechtsstaatlichen Verfahren des Endlagers Konrad bestätigen. Die gänzlich unbelegte Behauptung, der Schacht Konrad sei nicht nach dem „Stand der Wissenschaft” untersucht worden, ändert daran genau so wenig wie die Tatsache, dass dort auch „nuklearer Sperrmüll” reinpasst.

Man beachte auch, dass der Schacht Konrad, im Gegensatz zu Gorleben, lediglich für schwach- und mittelaktive Abfälle gedacht ist. Das relativ wenige Plutonium ist hier auf das ganze Volumen verteilt und kann daher nicht durch die Wärmeentwicklung, die im konzentriertem Falle nennenswert wäre, die Integrität des Bergwerkes beeinträchtigen.

Quellen von KRITIKALITÄT


#55: Zwischenlager

Behauptung: Hochradioaktiver Atommüll lagert in besseren Kartoffelscheunen.

Die EWS behaupten

Weil der Atommüll in den Castor-Behältern stark strahlt, sind diese außen extrem heiß. Die Zwischenlagerhallen in Gorleben, Ahaus, Lubmin und an den Atomkraftwerken haben daher große Luftschlitze, damit Luft an den Behältern vorbeistreichen kann. Wird einer der Behälter undicht, gelangt die Radioaktivität so ungehindert ins Freie.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Wer Außentemperaturen von 40-50 °C als „extrem heiß” bezeichnet, muss sich wahrlich eine Mimose schimpfen lassen.

Castoren haben eine 45 Zentimeter dicke Wandung aus massivem Stahl. Ein mit Edelgas gefülltes Indikatorvolumen in der Wand würde eine Beschädigung anzeigen, lange, bevor das Lagervolumen undicht wird. Ein Flugzeugabsturz oder mehrere Tonnen Sprengstoff machen dem Behälter nichts aus.

Sollte durch ein wie auch immer geartetes hypothetisches Szenario ein Castor-Behälter doch einmal beschädigt werden, so sind die darin befindlichen Brennstäbe immer noch umhüllt. Sollte selbst diese Hülle beschädigt werden, so können nur die radioativen Gase wie Krypton-85 und kleinste Spuren von Cäsium-137 austreten. Jedoch darf nicht vergessen werden, dass Cäsium eine Siedetemperatur von 670 °C hat, was weit über der Innentemperatur des Castorbehälters liegt.

Quellen von KRITIKALITÄT


#56: Castor-Strahlung

Behauptung: Castor-Behälter geben radioaktive Strahlung ab.

Die EWS behaupten

Beim Castor-Transport im Herbst 2008 maßen Umweltschützer am vorbeifahrenden Atommüll-Zug alarmierende Strahlungswerte. Auf ausführliche Kontrollmessungen beim Umladen der Behälter verzichteten die Behörden: Eigene Messgeräte hatten sie keine. Und die Zwischenlager-Gesellschaft GNS wollte ihre »Mitarbeiter nicht unnötig der Strahlung aussetzen«.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Zunächst einmal muss man den Umweltschützern – gemeint ist die Organisation Greenpeace – gratulieren, sie haben die Messungen des Bundesamtes für Strahlenschutz gut reproduziert. Für „wissenschaftliche Analphabeten”, wie der Mitbegründer von Greenpeace-Deutschland Patrick Moore sie bezeichnet, ist das eine beachtliche Leistung.

Jetzt müssen die selbsternannten Greenpeace-Wissenschaftler nur noch elementare Kenntnisse in Strahlenschutz und Strahlenwirkung erwerben, dann können sie Adjektive wie „alarmierend” auch weglassen. Ansonsten kann man nur beruhigend festhalten: Castor-Behälter werden vor dem Transport genauestens durchgemessen und geprüft. Warum sollten die Behälter ohne irgendeinen Anlass beim Umladen nochmals durchgemessen werden? Sind einige Brennelemente vielleicht heimlich ausgebüchst? Im Strahlenschutz gilt nun einmal: Unnötige Belastungen sind zu vermeiden, auch wenn sie unbedenklich sind.

Quellen von KRITIKALITÄT


#57: Kurzzeit-Entsorgung

Behauptung: Die Castor-Behälter, in denen der Atommüll lagert, sollen offiziell ganze 40 Jahre halten.

Die EWS behaupten

Atomkraftwerke dürfen laut Gesetz nur betrieben werden, wenn die schadlose Entsorgung ihrer Abfälle gewährleistet ist. Der Atommüll strahlt noch in einer Million Jahren. Die Castor-Behälter, die ihn von der Umwelt isolieren, halten angeblich 40 Jahre. Damit ist offiziell alles in Ordnung.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Für eine Lagerung über geologische Zeiträume sind Pollux-Behälter vorgesehen, die Castor-Behälter dienen nur dem Transport und der Zwischenlagerung, und so werden sie auch verwendet. Außerdem beziehen sich die „40 Jahre” nicht auf die technische Haltbarkeit, sondern auf die behördliche genehmigte Dauer der Zwischenlagerung. Damit ist tatsächlich alles in Ordnung.

Quellen von KRITIKALITÄT





Das Klimaspekulationskarussell dreht sich munter weiter!

Der moderne Mensch ist real wie der Steinzeitmensch dem Wetter ausgesetzt und muss sich vor ihm schützen, aber intellektuell fühlt er sich ihm haushoch überlegen. Er ist das denkende Wesen und eines Tages wird er die Macht haben, sich auch das Wetter untertan zu machen. Wird er? Diese Illusion wird gehegt und gepflegt, aber es wird eine Illusion bleiben. Und was macht der „intellektuelle Mensch“ in solch einer Situation? Er sucht eine Ersatzbefriedigung!

Der Mensch schwingt sich zum Herrn und Lenker des „Globalklimas“ auf!

Es ist eine unumstößliche Tatsache, dass es überall auf der Welt Wetter gibt, und zwar extrem unterschiedliches. Wer es heiß möchte, reist in die Karibik oder Südsee, wer es kühl will nach Grönland oder Feuerland. Es gibt eine unendlich „chaotische“ Wettervielfalt auf Erden und daraus kann man statistisch eine „geordnete“ Klimavielfalt ableiten. Auf diese Weise entstanden die Klimakarten, die sich von den stündlich wechselnden Wetterkarten durch ihre „Ruhe“ unterscheiden. „Azorenhoch wie Islandtief“ sind stationäre Gebilde. Man kann die Welt noch weiter vereinfachen und vereinheitlichen, wenn man „Globalwerte“ konstruiert. Diese sind in Mode, wie auch statistisch errechnete Werte mehr und mehr politischer Orientierung dienen.

Dazu kommt noch die Tendenz, alles gleichmachen zu wollen. Es ist ein Leichtes, die Klimavielfalt einfach zu eliminieren, indem man ein „Globalklima“ postuliert und dieses an einer fiktiven „Globaltemperatur“ andockt. Beides sind zwar Abstrakta und als solche nicht existent, aber man kann ihnen ja „Leben“ einhauchen und daraus ein Gespenst konstruieren, das der Killerattacken des Menschen überdrüssig ist und uns mit der Klimakatastrophe droht. Bei dem geschickten Spiel zwischen Realität und Virtualität, bei denen die Virtualität mehr und mehr die Realität verdrängt, ist es leicht, über die Medien ein Klima der Apokalypse, eine Klima des nahenden Weltuntergangs erzeugen. In dem vom Menschen aufgeheizten „Treibhaus“ erwartet ihn das „Jüngste Gericht“.

Auf diesem wissenschaftlichen Pseudofundament beruht die gesamte „Klimapolitik“! Sie schützt absolut nichts, sondern macht nur leere Schutzversprechungen, die sie grundsätzlich nicht einhalten kann. Es ist ein prinzipielles Debakel, vor dem alle Klimaschutzbemühungen stehen. Wer das Wetter nicht schützen und für alle Erdenbewohner gleich machen kann, kann auch keine „globale Klimagerechtigkeit“ schaffen. Dieses im Jahr 2008 auf dem „klimaneutralen Katholikentag“ in Osnabrück von der Bundeskanzlerin Angela Merkel postulierte und mit Beifall aufgenommene Ziel ist an utopischer Realitätsferne nicht zu überbieten, ist nicht Akzeptanz der Schöpfung, sondern mehr Verhöhnung durch sich einen gottähnlich fühlenden Menschen.

Wo bleibt das Bekenntnis, das am 22. Juni 2013 in der Basler Zeitung zu finden war: „Gegen das Wetter sind wir machtlos“! In dem Artikel mahnte der Berner Klimahistoriker Christian Pfister zu mehr Gelassenheit angesichts von Kälte, Hitze, Bise, Hagel und Sturm. Beispiele aus der Geschichte zeigten, dass es alles schon viel schlimmer gekommen sei als in jüngster Zeit. Er erinnerte nur an das Dürrejahr 1540 wie den „Antisommer 1588“.

Doch damals wie heute suchten die Menschen nach einem „Sündenbock“, wenn das Wetter sie verzweifeln ließ. Als Sündenbock definierte man damals die „Hexen“. Zwischen 1430 und 1650 seien  circa 60.000 Frauen als „Wetterhexen“ hingerichtet worden. Liselotte von der Pfalz (1652-1722) mahnte damals: „Das ist eine alberne Meinung, dass sich Weiber und Männer in den Wolken verstecken können und hageln, um alles zu verderben.“ Dürren und Fluten sind damals wie heute weder Hexenwerk noch Ausdruck von Gottes Zorn.

Der Schuldglaube lebt fort, er wurde nur übertragen – auf den „Mensch“!

Um dieses Werk zu inszenieren, wurde eine gigantische Angst- und Unterhaltungsindustrie aufgebaut. Die Filmkunst half dabei und insbesondere die Computertechnik. So nützlich schnelle Rechenmaschinen auch sind, so leicht lassen sich diese auch missbrauchen. Nirgends liegen Fluch und Segen so nahe beieinander. Computer sind nichts als schnelle Rechenknechte, die blind jedem Befehl gehorchen und ihn in Windeseile ausführen.

Parallel zur Hirngeburt „Klimakatastrophe“ wurden in den 60er und 70er Jahren weltweit Klima-Rechenzentren aufgebaut. International abgestimmt werden nach gleichem Muster  darin „Klimamodelle“ entworfen. Da in diesen Klimamodellen keine „Physik“ drin steckt, wird Vielfalt dadurch vorgetäuscht, dass ständig an irgendwelchen Parametern gedreht wird. Auf diese Weise werden permanent neue Berechnungen ausgespuckt und der Welt als verbesserte „Prognosen“ verkauft. Man gaukelt der Welt eine Exaktheit vor, die überhaupt nicht gegeben ist. Die trügerische Devise heißt: Vielfalt durch Gleichschaltung!

Fließen die Forschungsgelder üppig, dann werden Prognosen wie am Fließband produziert und stets neue Ängste geweckt. Was wie seriöse Forschungstätigkeit aussieht, ist nichts als ein inszenierter Aktionismus ohne jedweden erkenntnistheoretischen wie praktischen Wert. Auch exakte 100jährige Klima-Prognosen haben bisher zu keiner Verbesserung 24stündiger Wetter-Vorhersagen geführt! Hier kommt die Wirklichkeitsferne aller Klimamodelle ans Licht.

Potsdam-Institut für Klimafolgenforschung als „Spitzenverdiener“

Vergleicht man die wichtigsten Klimarechenzentren der Welt, so zeichnet sich das Potsdam-Institut PIK durch eine besondere Produktivkraft aus. Hier müssen Forschungsmittel ohne Ende fließen. Die Computerräder stehen nie still. Was da an Ergebnissen ausgespuckt wird, ist mehr als beeindruckend. Es ist beängstigend, weil die „Pressemitteilungen“ zwar breit gestreut werden, aber kein Wissenschaftsjournalist auch nur ansatzweise den Mut hat, die Meldungen zu prüfen und kritisch zu hinterfragen.

Am 20. Juni 2013 verkündete das PIK per Pressemitteilung: „Klimawandel könnte indischen Monsun aus den Gleichgewicht bringen“. Wir lesen: „Der indische Monsun könnte sich durch den Klimawandel stärker ändern als bisher gedacht – mit weit reichenden möglichen Folgen für Millionen Bauern und die landwirtschaftliche Produktivität des Landes. Computer-Simulationen der neueste Generation von 20 Klima-Modellen zeigen jetzt übereinstimmend, dass die täglichen Schwankungen des indischen Monsuns sich wahrscheinlich verstärken.“ Die Empfehlung? „Anpassungsmahnahmen, wie zum Beispiel intelligente Versicherungssysteme, müssen vor allem diese verstärkten Schwankungen auffangen“.

Sind Sie beeindruckt? Das Unwissen wird hinter einer Überzahl von Konjunktiven versteckt! Da hätte man auch das Orakel von Delphi befragen können. Und wie sollen „intelligente Versicherungssysteme“ die Monsunregen auffangen? Wohin sie ableiten? Mit welch zeitlicher Verzögerung? Warum sagt man nicht, wer diese Studie angeregt und finanziert hat?

Am 2. Juli 2013 verkündete das PIK: „Durchbruch für El Niño-Vorhersage“. Die Aussage: „In unregelmäßigen Abständen kommt es über dem östlichen Pazifik zu einer Erwärmung, von peruanischen Fischern El Niño genannt, die mitunter verheerende Folgen haben kann. Um den Vorhersage-Zeitraum von sechs Monaten auf ein Jahr und mehr zu erweitern, haben jetzt Wissenschaftler eine neuartige Herangehensweise vorgestellt. Sie beruht auf der Analyse von Netzwerk-Verbindungen, angewendet auf das Klimasystem.“ Diese ist „eine innovative Methodologie an der Schnittstelle von Physik und Mathematik“.

Laut Schellnhuber, er ist Direktor des PIK, wurde dabei ein neuer Algorithmus entwickelt und getestet. Die neue Methode soll bereits 2011 für 2012 das Ausbleiben von El Niño vorhergesagt haben, ohne Quellenangabe. Doch eine Vorhersage, die überprüft werden könnte, bleibt aus. Was ist das für ein „Durchbruch“, der als Stochern im Nebel endet? Bleibt nichts anderes übrig, als in Ruhe die nächsten EL Niño-Ereignisse, die in graue Urzeiten zurückreichen, abzuwarten.

Ebenfalls am 2. Juli 2013 meldete das PIK: „Brennpunkte des Klimawandels: Wo die Folgen breit spürbar werden.“ Weiter: „Jeder zehnte Mensch lebt an einem Ort der Erde, der bis zum Ende des Jahrhunderts zu einem der Brennpunkte der Folgen ungebremster globaler Erwärmung werden kann“. Veränderungen seien „in der Amazonas-Region, im Mittelmeerraum und in Ost-Afrika zu erwarten.“ Auch diesmal habe man sich „auf einen umfassenden Satz von Computer-Simulationen sowohl zu Klimawandel als auch zu dessen Folgen“ gestützt. Dies habe dazu geführt, dass „sowohl die Robustheit als auch die Streubreite der Ergebnisse zunimmt“.

Das ist Klasse. Das ist wirklich eine klare Aussage. Wenn ich die Streubreite der Vorhersage der morgigen Temperaturen von 15-25°C auf 10-30°C erhöhe, dann steigere ich die Robustheit der Vorhersage. Mit solch Taschenspielertricks könnten die Meteorologen die Vorhersagegüte auf 100 Prozent steigern. Bei der Gewittervorhersage wird das heute schon ansatzweise praktiziert. Da kann es tröpfeln oder sintflutartig gießen, da kann der Wind als leichte Brise, Sturm oder Orkan wehen. Solcherart ist die Exaktheit aller Klimamodelle, die vom PIK auch in einem „Worst Case- Szenario“ getestet wurde. Danach zeigte sich, „dass möglicherweise fast die ganze von Menschen bewohnte Erdoberfläche von Veränderungen betroffen sein könnte.“ Diese Aussage musste aus politischer Korrektheit hinzugefügt werden, damit kein Mensch auf Erden sich sicher fühlen kann. Angst und schuldhafte Betroffenheit müssen aufrechterhalten werden. Früher oder später erwischt die Klimakatastrophe jeden Fleck, jeden Menschen. Wir alle sind halt Klimasünder, ja Klimakiller.

Doch was machen wir, wenn wir das Klima gekillt, getötet, ermordet haben? Gibt es dann plötzlich kein Wetter mehr?

Oppenheim, den 8. Juli 2013                                              Dipl.-Met. Dr. phil. Wolfgang Thüne




Gierige Afrikaner lassen unsere Autos auf dem Trockenen stehen

Die Londoner reagierten mit Unglauben und Zorn, wie das ActionAid UK video zeigt, und lehnten es ab, seine Pseudo-Petition zu unterzeichnen. Der amüsante Vorfall zeigte aber einen wesentlichen Punkt: Biotreibstoff-Programme sind dazu da, Nahrung in Treibstoff umzuwandeln, was landwirtschaftliche Flächen zu Treibstofferzeugungs-Flächen macht. Dies unterbricht die Versorgung hungernder Menschen mit Nahrungsmitteln weltweit. Die fehlgeleiteten Programme haben auch ernste Konsequenzen hinsichtlich der Umwelt.

Warum bloß können Politiker, Bürokraten und Umweltaktivisten nicht den gleichen gesunden Menschenverstand an den Tag legen wie die Londoner? Warum hat Präsident Obama den Afrikanern (von denen viele unterernährt sind) im Juli 2009 gesagt, dass sie Abstand nehmen sollten vom Verbrauch „schmutziger“ Treibstoffe und stattdessen ihren „reichlichen“ Biotreibstoff und andere erneuerbare Ressourcen nutzen sollten? Wann wird der Kongress die Standards erneuerbarer Treibstoffe endlich verwerfen?

Äthanol und andere Biotreibstoffe mögen halbwegs sinnvoll gewesen sein, als der Kongress im Jahre 2005 den Energy Policy Act auf den Weg gebracht und Standards gesetzt hat, denen zufolge Raffinierer und Verbraucher große Mengen Äthanol und andere Biotreibstoffe verbrauchen. Damals dachten viele Leute trotz einer wachsenden Zahl von Beweisen, dass das Gegenteil der Fall war, dass uns Gas und Öl ausgehen würden. Außerdem glaubten sie, dass die vom Menschen verursachte globale Erwärmung den Planeten bedrohe. Aber wir schreiben nicht mehr das Jahr 2005. Jene Maßgaben sind nicht mehr angemessen.

Die Fracking-Revolution hat die Propaganda des Club of Rome bzgl. „PeakOil” obsolet gemacht, dass wir bald den Weltvorrat an Petroleum aufgebraucht hätten. Klimagate und andere IPCC-Skandale demonstrierten, dass die „Wissenschaft” hinter dem Klima-Kataklysmus auf Vermutungen beruht, manipuliert und sogar betrügerisch ist. Und aktuellen Beobachtungen zufolge haben sich Temperatur, Stürme, Dürren, Meeresspiegel und das arktische Eis strikt geweigert, den Computermodellen zu folgen und die Katastrophen-Szenarien von Hansen-Gore-EPA-IPCC zu zeigen.

Tatsächlich gibt es für Biotreibstoffe und Standards für erneuerbare Treibstoffe keinerlei Rechtfertigung mehr.

Die USA verbrauchen 40 Millionen Acres für den Getreideanbau (Iowa plus New Jersey) und 45% der Maisernte, um 14 Milliarden Gallonen Äthanol jährlich zu erzeugen. Diese Menge Mais könnte etwa 570 Millionen Menschen ernähren, und zwar aus der Menge der 1,2 Milliarden, die immer noch mit 1,25 Dollar pro Tag ihr Leben fristen müssen.

Diese auf Mais konzentrierte Landwirtschaft ersetzt Weizen und andere Getreidesorten, was Getreide- und Nahrungsmittelpreise dramatisch zunehmen lässt. Gleichzeitig wird Land kultiviert, das sonst in Natur-Habitate umgewandelt worden wäre. Es erfordert Millionen Pfund Insektizide, Milliarden Pfund Dünger, riesige Mengen auf Petroleum basierender Energie und Milliarden Gallonen Wasser – um einen Treibstoff zu erzeugen, der nur etwa ein Drittel der Fahrleistung pro Gallone Benzin bringt und noch dazu insgesamt keinerlei Reduktion von Treibhausgasen mit sich bringt.

Die Äthanol-Produktion hat dafür gesorgt, dass die Maispreise in den USA von 1,96 Dollar pro mittlerem Buschel im Jahr 2005 auf 7,50 Dollar 2012 und 6,68 Dollar 2013 gestiegen sind. Maisanbauer und Äthanol-Hersteller wurden reich. Allerdings bedeuten rasant steigende Maispreise auch, dass Rind- und Schweinefleisch, Geflügel, Eier, Fisch und Maissirup ebenfalls rasant teurer werden; Lebensmittelläden zahlen mehr für Mais, Fleisch, Fisch und Maissirup; Familien zahlen mehr für alles auf ihrem Mittagstisch; und hungernde Afrikaner bleiben hungrig, weil Hilfsorganisationen nicht mehr ausreichend Nahrung kaufen können.

Der Energy Independence and Security Act aus dem Jahr 2007 (eine Modifizierung des Gesetzes aus dem Jahr 2005) verlangt bis zum Jahr 2022 die Herstellung von 15 Milliarden Gallonen maisbasiertem Äthanol, 21 Milliarden Gallonen Zellulose und anderer, nicht auf Mais basierender Biotreibstoffe. Dies wird all diese Probleme massiv verschlimmern.

Genauso geisteskrank: Ein Gesetzentwurf der EPA in diesem Jahr verlangt, dass Raffinierer 14 Millionen Gallonen auf Zellulose basierender Biotreibstoffe verbrauchen müssen. Da gibt es nur ein kleines Problem: Dieser Treibstoff existiert nicht. Lediglich 4900 Gallonen wurden im März erzeugt und Null in den anderen Monaten. Also werden die Unternehmen gezwungen, Phantasie-Treibstoff zu kaufen, saftige Strafen zu zahlen, wenn sie das nicht tun – und sie werden bestraft, wenn sie betrügerische „Erneuerbare-Treibstoff-Zertifikate“ kaufen von „sozial verantwortlichen“ Unternehmen wie Clean Green Fuel, Absolute Fuels und Green Diesel.

Äthanol wirkt hygroskopisch, was zum Stillstand der Motoren führen kann. Es korrodiert Plastik, Gummi und Weichmetallteile. Automotoren, Ersatzteile und Systeme, die vor 2001 gebaut worden sind, könnten gar nicht in der Lage sein, E15 fuel blends (15% Äthanol, 85% Benzin) zu verbrennen. Ältere Autos, Motorräder und Schiffe, die mit E15 betankt werden, könnten gerade an ungeeigneten und gefährlichen Stellen ihren Geist aufgeben; und zu guter letzt werden teure Reparaturen an den Motoren fällig. Rasenmäher und andere, mit Benzin angetriebene Maschinen sind genauso anfällig.

Im globalen Maßstab trennt der Biotreibstoff-Unsinn Millionen Acres Ackerland von der Erzeugung von Nahrungsmitteln ab, verwandelt Millionen Acres Regenwald und andere Habitate in Ackerland und erfordert Milliarden Gallonen Wasser, um Mais, Jatropha, Palmöl und andere Produkte zu erzeugen, nur um für politisch korrekten Biodiesel und andere Biotreibstoffe zu dienen.

Was dieser ganzen, scheinbar unerschöpflichen Liste politischer Idiotien die Krone aufsetzt – all dieses Äthanol und die ganzen anderen Biotreibstoffe könnten ganz einfach durch neue ergiebige Öl- und Gasvorkommen ersetzt werden. Erstaunliche neue seismische -, Tiefwasser- und Tiefenbohrungen, hydraulisches Brechen und andere Technologien haben zur Entdeckung riesiger neuer Reserven von Öl und Erdgas geführt – und es den Unternehmen ermöglicht, viel mehr Petroleum aus den Reservoiren zu extrahieren als ursprünglich gedacht.

Das bedeutet, dass wir jetzt viel mehr Energie mit viel weniger Landverbrauch gewinnen können; mit deutlich weniger Auswirkungen auf die Umwelt, die Biodiversität und gefährdete Arten; und mit keinem der hässlichen Nebeneffekte hinsichtlich Versorgung mit Nahrungsmitteln, deren Preisen und dem Welthunger, die der Biotreibstoff-Unsinn mit sich bringt.

Wir könnten das tun – wenn radikale Grüne in der Obama-Administration, in den UN und unter den Öko-Fundamentalisten ihre ideologische Opposition gegen Bohren, Fracking, die kanadischen Ölsande, die Keystone-Pipeline und zahllose andere Projekte aufgeben würden. Wir könnten das tun, wenn sie damit aufhören würden, sich wie der Umweltaktivist Bull Connors zu benehmen, der auf arrogante Weise die Türen zu Menschen- und Zivilrechten blockiert.

Diese kolossale globale Biotreibstoff-Industrie existiert nur, weil Ideologien bzgl. Ressourcen-Ausbeutung und Klima-Armageddon nicht so einfach tot zu kriegen sind – und weil Politiker Regierungsbeteiligungen und Milliarden Dollar der Steuerzahler verschwenderisch an Firmen ausschütten, die einflussreiche Lobbyisten haben, und bei denen man sich darauf verlassen kann, dass diese Dollars an diejenigen Politiker zurückfließen, die diese Abzocke betreiben.

Das o. g. ActionAid UK-Video hat einer ernsten Angelegenheit einige gute Prisen britischen Humors beigefügt. Wie ein anderer wohlbekannter Brite sagen könnte, es ist an der Zeit, ein globales Theater zu beenden, das bereits einen zu hohen Zoll von Menschen und Umwelt verlangt hat.

Um diese längst überfälligen Bemühungen auf den Weg zu bringen, muss der Kongress den Energy Policy Act aus dem Jahr 2005 nachbessern, die Erneuerbare-Treibstoffe-Standards eliminieren und die Subventionszahlungen aus dem Geld der Steuerzahler einstellen.

Einige tausend Landwirte und Äthanol-Hersteller werden zweifellos dabei Schmerzen verspüren. Einige hundert Politiker werden  weniger Geld in den Koffern ihrer Wiederwahl haben. Jedoch werden zahllose Wildtiere und –pflanzen in ihren neuen Wildnis-Habitaten viel leichter atmen können – und Millionen Familien werden sich einer neuen Freiheit erfreuen, einer neuen Welle ökonomischer Gelegenheiten und willkommenen Erleichterungen hinsichtlich Hunger und Unterernährung.

About Paul Driessen

Paul Driessen is the senior policy adviser for the Committee For A Constructive Tomorrow (CFACT); he is also is a senior policy adviser to the Congress of Racial Equality (CORE) and author of Eco-Imperialism: Green Power – Black Death.

Link: http://www.conservativeactionalerts.com/2013/07/greedy-africans-are-starving-our-cars/

Übersetzt von Chris Frey EIKE




CSIRO-Studie: Steigender CO2-Gehalt lässt die Wüsten ergrünen

Bild rechts: Satellitendaten zeigen in Prozent die Veränderung der Grünpflanzen auf der Welt von 1982 bis 2010.

Tatsächlich stellte sich heraus, dass ein steigendes Niveau von CO2 in der Luft, das Tiere ausatmen und Pflanzen einatmen und dafür Sauerstoff ausatmen in einem ewigen Kreislauf, das Wachstum des Lebens enorm verstärkt hat.

Einer Zusammenfassung der CSIRO-Forschung zufolge hat das steigende CO2-Niveau das Wachstum der Grünpflanzen auf der ganzen Welt zunehmen lassen, vor allem in ariden Gebieten während der letzten 30 Jahre, und zwar durch einen Prozess, der CO2-Düngung genannt wird.

Die Studie war in der Fachzeitschrift US Geophysical Research Letters veröffentlicht worden und wurde gefördert von: CSIRO’s Sustainable Agriculture Flagship, Water for a Healthy Country Flagship, the Australian Research Council und Land & Water Australia.

CSIRO-Forschungswissenschaftler Dr. Randall Donohue: „In den auf Satellitenbeobachtungen basierenden Ergebnissen hat CSIRO in Zusammenarbeit mit der Australian National University (ANU) festgestellt, dass diese CO2-Düngung mit einer Zunahme der Grünpflanzen um 11% korreliert, jedenfalls von 1982 bis 2010 in den untersuchten ariden Gebieten in Australien, Nordamerika, dem Nahen Osten und Afrika“.

„In Australien ist unsere natürliche Vegetation exzellent an das Überleben in ariden Umgebungen angepasst und nutzt Wasser daher sehr effizient”, sagt Dr. Donohue. „Die australische Vegetation scheint sehr sensibel auf die CO2-Düngung zu reagieren.

Dies zusammen mit der riesigen Ausdehnung arider Landschaften bedeutet, dass Australien besonders unseren Ergebnissen zufolge profitiert.

Während über einen Einfluss des CO2-Effektes auf Grünpflanzen schon längere Zeit spekuliert wird, war es bis heute schwierig, diesen Einfluss zu zeigen.

In unserer Arbeit konnten wir den CO2-Dünungseffekt herausarbeiten, indem wir mathematische Modellierungen zusammen mit Satellitendaten verwendet haben, um die beobachteten Auswirkungen anderer Einflüsse wie z. B. Niederschlag, Lufttemperatur, die Menge Licht und Landschaftsverbrauch herauszufiltern.“ Soweit Dr. Donohue.

Der Düngungseffekt ergibt sich, wenn der erhöhte CO2-Gehalt dafür sorgt, dass ein Blatt im Zuge der Photosynthese, dem Prozess, bei dem Grünpflanzen Sonnenlicht in Zucker umwandeln, aus der Luft mehr CO2 aufnimmt oder weniger Feuchtigkeit in die Luft abgibt, oder beides.

Falls erhöhte CO2-Niveaus dazu führen, dass der Wasserverbrauch eines einzelnen Blattes zurückgeht, werden Pflanzen in ariden Umgebungen darauf mit einer Erhöhung der Gesamtzahl ihrer Blätter reagieren. Diese Änderungen des Blattwerkes können von Satelliten gemessen werden, vor allem in Wüsten und Savannen, in denen die Bedeckung mit Pflanzen nicht so dicht ist wie in feuchten Gebieten.

„Dass der erhöhte CO2-Gehalt das Pflanzenwachstum in Trockengebieten verbessert, ist eine gute Nachricht und könnte der Forst- und Landwirtschaft in diesen Gebieten helfen. Allerdings gibt es auch sekundäre Auswirkungen, die wahrscheinlich die Verfügbarkeit von Wasser, den Kohlenstoff-Zyklus, das Feuer-Regime und die Biodiversität beeinflussen“, sagte Dr. Donohue. „Weitere Forschungen sind erforderlich, wenn wir das ganze potentielle Ausmaß dieser Sekundäreffekte verstehen wollen“.

Stan Beer

Link: http://www.itwire.com/science-news/climate/60575-rising-co2-level-making-earths-deserts-bloom-csiro-study

Übersetzt von Chris Frey EIKE




Ozean-Versauerung? Welche Ozean-Versauerung?

Es sind die Beweise, die mir auf der Warmisten-Seite des Streits fehlen, wir haben einfach keine Temperaturaufzeichnung, die lang genug oder genau genug ist, um irgendeinen anthropogenen Effekt da herauszulesen. Proxys bieten eine vernünftige langzeitliche Sicht, sind aber kaum geeignete Analogien für klimatologische Variationen der letzten 200 Jahre oder so. Jeder, der einmal mit Computermodellen gearbeitet hat, sollte wissen, dass diese eher das zeigen, was man gerne sehen möchte, und man sollte sie mit einer Prise Salz betrachten. Glücklicherweise muss ich diese Dinge nicht selbst vertreten, es gibt viele andere Kommentatoren mit besseren Referenzen, um diese Argumente für mich geltend zu machen. Ich bin lediglich ein Student des chemischen Ingenieurswesens.

Während der letzten Wochen erschien ein Beitrag, der mehr den Autor lächerlich zu machen schien als die Behauptungen zu widerlegen. Ich war geschockt und wartete, zunächst ein paar Tage, dann eine Woche. All jene, die ich als viel kompetenter angesehen habe als mich selbst, blieben still. Sicher gab es einen Kommentar zu Henry’s Law [Henry’s Law: Berechnung der Konzentration eines Gases in Lösung in Abhängigkeit von der Temperatur], aber nichts, was ausreichend genug in die Tiefe ging, um die Untergangs-Szenarien zu widerlegen, die hinsichtlich der Versauerung der Ozeane entworfen worden waren. Unglücklicherweise ist es eine Widerlegung, was wir brauchen. Die Ozean-Versauerung ist die Trumpfkarte der Kohlenstoff-Kontrolleure, das Ass in ihrem Ärmel oder irgendeine ähnliche Gewinnkarte.

Es ist leicht, die globale Erwärmung und den damit in Verbindung gebrachten Untergang zu widerlegen aufgrund der zahlreichen, diesen Behauptungen widersprechenden Beweise. Im Falle der Ozean-Versauerung ist das damit entworfene Untergangs-Szenario viel schwieriger zu widerlegen. Um es damit aufzunehmen, braucht man Verständnis der Chemie; pH, Alkalinität, Puffer, starke bzw. schwache Säuren. Man muss sich aber auch in der Mathematik auskennen; Henry’s Law, pH und Gleichgewichts-Konstanten. Darum taucht die Ozean-Versauerung erst als letzte Bastion der Rechtfertigung der Kohlenstoff-Kontrolleure auf. Sie, [die Leser], mögen das nicht verstehen, aber sie verstehen es auch nicht.

Bevor ich anfange, möchte ich ein paar Punkte klarstellen:

1. Die Ozeane versauern.

2. Das bedeutet gar nichts.

Falls Sie mit dieser Materie nicht vertraut sind, schauen Sie dieses von NOAA produzierte Video:

http://www.youtube.com/watch?v=xuttOKcTPQs

Das ist ein ausgezeichneter Bezugspunkt für uns; es zeigt die Argumentation klar und prägnant. Allerdings übertreibt man ein wenig mit visuellen Demonstrationen [Original: However it waves a hand over the how in favor of visual demonstrations.] Damit möchte ich mich später befassen. Zunächst möchte ich über die der Ozean-Versauerung zugrunde liegenden Prozesse sprechen.

Ich habe viele Laborexperimente mit CO2 und Wasser durchgeführt. Erstes Ziel war, eine Probe Flusswasser mit (normaler) CO2-Atmosphäre zu mischen. Mit dieser Methode wären wir eventuell in der Lage, die Puffer-Kapazität von Wasser zu überwinden und haben einen pH-Wert von 6,3 erreicht. In einem anderen Experiment ließen wir Wasser und Luft mit einem variablen CO2-Anteil in einer Extraktions-Kolonne gegeneinander strömen, das Wasser von oben nach unten und die Luft von unten nach oben. Dieses Experiment war bereits viele Male während des Semesters durchgeführt worden, ohne das Wasser zu wechseln. Deswegen haben mein Laborpartner und ich höhere CO2-Konzentrationen beim Ausströmen als beim Einströmen gesehen, da CO2 bei allem unter 19% ausgasen würde, was geringfügig unter dem Maximum lag, mit dem wir das Wasser in unserer Säule versetzen konnten.

Um die Versauerung zu verstehen, muss man ein wenig von Massentransporten verstehen. Innerhalb einer homogenen Flüssigkeit, die sich im Gleichgewicht befindet, sorgt und erhält die Diffusion eine wirklich gleichmäßig verteilte Konzentration. Wann immer es eine Nahtstelle wie zum Beispiel Luft – Flüssigkeit gibt, wird die Diffusion an der Nahtstelle auftreten in Abhängigkeit von den Partialdrücken. Ein Partialdruck in der Atmosphäre kann bestimmt werden durch den Druck im System multipliziert mit dem Prozentanteil der atmosphärischen Zusammensetzung [?].

Wenn Gase, selbst wenn sie gelöst sind, erhitzt werden, steigt ihr Druck, was den Partialdruck des gelösten Materials in der Flüssigkeit steigen lässt. Bei festen Konzentrationen wird die Erwärmung das Ausgasen zunehmen lassen, und Abkühlung wird umgekehrt wirken. Wir wissen, dass die Beziehung zwischen der in einer Flüssigkeit gelösten Gasmenge direkt mit dem Partialdruck zusammenhängt. Daher kennen wir auch die Beziehungen zwischen Flüssigkeit und Gaskonzentrationen im Gleichgewicht, die linear verlaufen mit einer Modifikation der auf der Temperatur basierenden Koeffizienten. Dies wird repräsentiert durch Henry’s Law

p.a=k.ha*x.a Gleichung 1.

mit einer Korrektur für den Henry-Koeffizienten, angegeben in Gleichung 2:

K.h(t)=K.h(t.0) *e^(-c*(1/t-1/t.0)) Gleichung 2

Natürlich sagt uns dies nichts über den pH-Wert, wohl aber die Chemie. pH wurde erstmals im Jahr 1909 von S. P. L. Sørensen konzipiert. Er wurde 1924 überarbeitet, um ihn im Zusammenhang mit elektrochemischen Zellen benutzen zu können. pH repräsentiert den negativen Logarithmus der Wasserstoff-Ionenkonzentration in Lösung. Bei einem pH von 7 enthält unser Wasser in etwa 1*10^-7 mol Wasserstoff-Ionen pro Liter. Bei einem pH von 8 sind darin 1*10^-8 mol Wasserstoff-Ionen enthalten. Im Allgemeinen reicht die Bandbreite von 0 bis 14, allerdings kann pH in den negativen Bereich wechseln und auch den Grenzwert von 14 überschreiten. Wir messen pH mittels elektrochemischer Zellen unter Verwendung der Nernst-Gleichung. In Gleichung 3 ist R die Gaskonstante, T die Temperatur und F die Faraday-Konstante.

E=E0-2.303*RT/F *(pH) Gleichung 3

pH-Messgeräte sind keine einfachen Geräte. Im Wesentlichen messen sie nach der Nernst-Gleichung ein elektrisches Potential und stellen es graphisch als pH-Wert dar. Um diese Instrumente ideal zu kalibrieren, messen wir die Voltzahl bei zwei bekannten pH-Werten, einem primären und einem sekundären pH, um die Steigung der Grafik zu korrigieren. Allerdings gibt es so viele Dinge, die bei einer pH-Messung schief gehen können, dass es angebrachter ist, das pH-Konzept zu verstehen als den pH-Messwert  für das Evangelium zu halten.

Vor allem muss der Glaskörper des pH-Messgerätes immer in einer Flüssigkeit gelagert werden, sonst wird der pH-Wert falsch angezeigt. Dann muss diese Flüssigkeit periodisch ersetzt werden, damit die Ionenstärke der Flüssigkeit immer korrekt bleibt; anderenfalls wird das pH-Meter wahrscheinlich zu wenig empfindlich sein. Ferner sollten die Eich-Lösungen  zu dem pH passen, den man zu messen versucht, da die lineare Eichkurve lediglich eine sinnvolle Approximation innerhalb weniger pH-Einheiten ist. Falls man Temperatur und pH sowohl in den Puffern als auch in der gewünschten Temperatur der Flüssigkeit nicht gleichzeitig misst, kann man Korrekturen vergessen [corrections can be off]. Kurz gesagt, es ist viel einfacher, eine Einheitsänderung von 1 pH zu messen als eine Zunahme um 0,1 und 0,01 oder kleiner, weil es nahezu unmöglich ist, dies zuverlässig zu messen.

Wie also gehen wir vor hinsichtlich der versauernden Ozeane durch CO2? Hierfür müssen wir das chemische Gleichgewicht betrachten. Alles im Wasser gelöste CO2 wird im Wesentlichen Kohlensäure bilden, und sofern genügend Zeit dafür zur Verfügung steht, wird sich vieles davon wieder in CO2 zurück verwandeln. Die Rate, mit der CO2 in Kohlensäure konvertiert wird und diese wieder zu CO2 wird, gleicht sich irgendwann wieder aus. Wenn wir also unsere CO2-Konzentration kennen, kennen wir auch die Konzentration von Kohlensäure. Die Menge Kohlensäure in Frischwasser beträgt etwa 1.7*10^-3 in reinem Wasser und 1.2*10^-3 in Meerwasser. Es gibt substantiell weniger Kohlensäure im Meerwasser. Warum also machen wir uns Sorgen hinsichtlich der Ozean-Versauerung, wenn Flüsse und Ströme mehr CO2 halten können? Ihnen wird auch direkt Kohlensäure durch Regen zugeführt. In Gleichung 4 wird die Konversion gezeigt.

CO2+H2O → H2CO3–> CO2 + H2O Gleichung 4

Nun macht Kohlensäure das Wasser nicht einfach saurer. Man vergesse nicht, dass pH die Konzentration von Wasserstoff-Ionen in Lösung misst. 1,2*10^-3 Mol Kohlensäure entsprechen nur 2,5*10^-4 Mol Wasserstoff-Ionen [Anmerkung: Die Wasserstoffionen sind für den pH-Wert relevant, nicht die Kohlensäure-Moleküle!]. Daraus bildet sich das Bikarbonat-Ion.

H2CO3- → H+ + HCO3- → H2CO3 Gleichung 5

Weil schwache Säuren und schwache Basen im Gleichgewicht hin und her variieren, bilden sie exzellente Puffer. Ein Puffer ist eine Lösung, die aus einer oder mehreren schwachen Säuren und Basen besteht, die verwendet werden, um einen bestimmten pH-Wert stabil zu erhalten. Weil sich die schwachen Säuren häufiger in einer in der Lösung präsenten Base lösen und schwache Basen mit einer Säure, kann man den pH einer Lösung relativ stabil halten. Die pH-Puffer werden sich nur ändern, wenn man die gesamte schwache Säure oder Base verbraucht hat.

Das Bikarbonat-Ion kann sich noch weiter dissozieren [Anmerkung: Das heißt, in Ionen zu spalten], aber nur 4.69*10^-11 dieser Ionen tun das auch. Der Knackpunkt für die Ozean-Versauerung = Kollaps des Ökosystems stammt aus einer dritten Reaktion, die Gleichung 6 beschreibt:

Ca(CO3)2 + 2 H+ → Ca2+ +2HCO3- Gleichung 6

Für Einige mag das nach nichts Besonderem aussehen, aber lassen Sie mich das Komische daran erklären. Von Kalziumkarbonat nimmt man an, dass es mit Wasserstoffatomen reagiert und ein freies Kalzium-Ion und 2 Bikarbonat-Ionen formt. Aber Moment, die Gleichgewichts-Konzentrationen bleiben immer noch erhalten. Wenn also das CO2 zunimmt, werden auch die Karbonat-Ionen, die von der Ozean-Versauerung angegriffen werden, IMMER IN IHRER KONZENTRATION ZUNEHMEN!!!! [Hervorhebung im Original!]

Aber was bewirkt dies bei biologischen Organismen? Kurz gesagt, alles, was Karbonat braucht, wird von dessen Zunahme profitieren. Aber auch hier gibt es wirkliche Mathematik. Man betrachte die Monod-Gleichung für die Kinetik von Mikroorganismen. U ist die spezifische Wachstumsrate, umax ist die maximale Wachstumsrate, s ist die Konzentration des begrenzenden Substrats und ks ist der Wert von u, wo u/umax 0,5 ist.

u=umax*(s/(k+s)) Gleichung 7

Im Wesentlichen sagt dies aus, dass das Wachstum eines Organismus’ an die begrenzenden Nährstoffe gebunden ist. Also können wir folgern, dass bei zunehmendem CO2 auch die Karbonat-Ionen zunehmen. Das bedeutet, dass der begrenzende Nährstoff für die Muschelschalen nicht Karbonat sein kann. Wäre das so, dann würde eine CO2-Zunahme mit einer ähnlichen Zunahme des Wachstums von karbonat-abhängigen Spezies korrelieren. Im Falle dass Karbonat gesteigert vorhanden ist, gibt es keine vorstellbaren Mittel für die Spezies zum Überleben als alles wässrige Karbonat mit substantiell größerer Rate zu verbrauchen als CaCO3-Ausfällung.

All dies ignoriert die Puffer-Kapazität der Ozeane; diese ist immens und stark mit dem Karbonat-System gekoppelt. Während man die Menge Kohlensäure im Ozean zunehmen lassen kann, braucht man eine massive Menge davon, sowohl gelöst im Ozean als auch in hoher Konzentration darüber in der Atmosphäre, um CO2 dazu zu bringen, pH zu ändern. Es ist  chemisch wirklich unmöglich, karbonat-abhängie Spezies durch eine Ozean-Versauerung durch CO2 zu schädigen.

Bevor wir ein für allemal herausfinden können, ob CO2 ein Problem darstellt oder nicht, müssen wir die Rate kennen, mit der sich die Muschelschalen lösen und sie mit der Rate vergleichen, mit der sie sich neu bilden.

Großartig, jetzt verstehen wir einige der physikalischen, chemischen und biologischen Prozesse, die dem Ozean-Versauerungs-Argument = Untergang zugrunde liegen. Um den tatsächlichen Effekt zunehmender CO2-Konzentrationin der Atmosphäre zu bestimmen, müssen wir auf die CO2-Konzentration und die Temperatur an 2 Punkten gleichzeitig schauen, da beide sich ändern. Für mein Beispiel habe ich mich entschlossen, die Standard-Temperaturzunahme der EPA um 1,5°C seit 1917 zu nehmen sowie eine Zunahme von 280 ppm für meine Konzentration. Ich habe 10°C als meine gegenwärtige Wassertemperatur und 390 ppm als derzeitige CO2-Konzentration gewählt. Der atmosphärische Druck wurde mit 1 atm angenommen. Ich habe auch von einem präindustriellen pH-Wert von 8,2 gehört. Diese Berechnung erfolgt unter der Annahme, dass das präindustrielle pH-System stabil war und folglich die Zunahmen durch Emissionen wesentlich zu der bereits existierenden H+-Konzentration in der Lösung hinzuaddiert werden.

Unser Partialdruck CO2 stellt sich also heraus:

PreI=397.14 Pa

Modern=553.234 Pa

Der modifizierte Henry-Koeffizient

KhPreI=18.205L*atm/mol

Khmodern=19.191LAtm/mol

Was bedeutet, dass unsere Konzentrationen von CO2 in vorindustrieller und jetziger Zeit durch Gleichung 8 gegeben werden:

C=P/Kh

Und die Werte

PreI=2.153*10^-4 L/mol

Modern=2.845*10^-4 L/mol

Das gibt uns unsere H2CO3-Konzentrationen in beiden Szenarien.

PreI= 2.584*10^-7

Modern=1.476*10^-7

Ich habe lediglich die erste Dissoziations-Konstante verwendet, da die Konzentration bereits in 10^-11–Werten vorlag, so dass 10^-22–Werte nicht signifikant wären. Das führt zu einer gesamten Wasserstoff-Ionen-Konzentration (von CO2) von:

PreI= 6.46*10^-11

Modern=3.69*10^-11

Die Gesamtdifferenz zwischen diesen beiden Werten:

Modern-Prei=2.075*10^-11 H+-Ionen in Lösung

So the change in pH is equal to -log(H+new+1*10^-8.2)

Also ist die pH-Änderung gleich -log(H+new+1*10^-8.2). Folglich hat die Gesamtzunahme der Kohlenstoff-Emissionen den pH um grob 8,199 verändert.

Das ist nicht einmal messbar. Um die behauptete pH-Zunahme zu sehen, müsste die CO2-Zunahme in der Atmosphäre etwa 100 mal größer sein als sie tatsächlich war. Sicher kann man sagen, dass die Acidität, eine Maßzahl von H+-Ionen, um 30% zugenommen hat, aber das wird aus der Chemie garantiert und sagt uns nichts über die Qualität des Lebens in den Ozeanen.

Alles, was wir also tun müssen, ist ein Experiment durchführen und Daten sammeln. Anders als bei der globalen Klimaänderung sind diese Studien vergleichsweise einfach. Man nehmen einen Eimer und einen CO2-Tank, befülle ihn mit einigen Korallen und Austern und anderen Karbonat liebenden Kreaturen. Dann setze man den atmosphärischen CO2-Gehalt über das Wasser und warte ab, was passiert. Man wiederhole diese Studie für die präindustrielle Zeit, verdoppele die jetzigen und prähistorischen Levels von CO2, füge Nährstoffe hinzu und warte auf den Ionen-Austausch. In weniger als 5 bis 10 Jahren könnte jemand beweisen, dass CO2 schädlich ist.

Selbst wenn man nicht wirklich Daten sammeln möchte, gibt es da ein weiteres wissenschaftliches Prinzip, dass die Kohlenstoff-Kontrolleure verletzen. Das ist das Korrespondenz-Prinzip: wir können in der Historie zurückschauen und beobachten, was CO2-Trends bei fossilen Karbonat liebenden Kreaturen angerichtet hat. Wenn wir nur weit genug zurückschauen bis zu einer Zeit, in der die CO2-Konzentration auf diesem Planeten Spitzenwerte erreicht hatte, finden wir, dass sich die meisten Mollusken und von Karbonat abhängigen Organismen zur gleichen Zeit entwickelten, in der die CO2-Konzentration über 8000 ppm lag. Bevor irgendjemand behauptet, dass Karbonat-Organismen Schwierigkeiten haben, muss er die Frage beantworten, warum diese Organismen mit einer CO2-Zunahme um 30% nicht fertig werden, während ihre Vorgänger bei CO2-Konzentrationen aufblühten, die um 200% [Ich rechne für 8000 ppm zu 360ppm 2222%.] höher lagen. Das ist doch Quatsch!

Aber was ist mit jenem Video?

Die Versuchsperson beginnt mit 2 klaren und nicht kontroversen Statements, gefolgt von einem weiteren, dass zumindest mir kontrovers vorkommt. Speziell diese vermehrte Acidität macht es schwierig für von Kalziumkarbonat abhängige Organismen zu überleben.

Für ihre erste Demonstration lässt sie einen Klumpen Trockeneis in Wasser fallen und wir bekommen zu sehen, wie Bromothymol die Farbe wechselt von blau nach gelb. Ja, sie hat gezeigt, dass CO2 Wasser saurer macht. Aber sie hat genauso klar gesagt, dass das atmosphärische CO2 Auswirkung auf die Acidität der Ozeane hat. Indem man reines CO2 ins Wasser fallen lässt, erzeugt man im Wesentlichen ein System mit einem Partialdruck von 100% am Übergang zwischen flüssig und gasförmig. Tatsächlich lassen sie den atmosphärischen CO2-Gehalt um einen Faktor 3000 zunehmen.

Die zweite Demonstration war ein ähnlicher Schwindel. Zunächst teilten sie Essigsäure in drei Konzentrationen auf: 1 mit keiner, eine weitere mit der Hälfte und eine dritte mit der Gesamtkonzentration direkt aus der Flasche. Dann fügte sie etwas Kalziumkarbonat hinzu – es sprudelte. Ja, die Säure reagiert tatsächlich mit dem Muschelkalk und gast CO2 aus. Aber Scherz beiseite, was hat mit einem System Kohlensäure/Karbonat zu tun? Und das trübt den Blick darauf, dass ein CO2/Kohlensäure-System einen pKa-Wert von etwa 6,3 aufweist und  Essigsäure näher bei 4,8 liegt und sowohl eine substantiell höhere Dissoziations-konstante hat und keinen Karbonat-Komplex bildet. Im Wesentlichen zeigte die Demonstration gar nichts.

Aber dann kam der klassische herzerwärmende Moment. Die schwimmenden kleinen Kreaturen in den Ozeanen von morgen, herzzerreißend, ich weiß. Aber Moment, sie nahmen eine dünnwandige Muschelschale ohne Kreatur darin und platzierten sie in einer Lösung unbekannter Zusammensetzung, mit einem pH-Wert, wie er in den Ozeanen der Zukunft erwartet wird. Langsam löste sich die Muschelschale auf, wirklich langsam, nach vielen Tagen wurde die Schale transparent, oh wie traurig. Für diese gesamte Zeitspanne hätten sie zwei identische Schalen benutzen können; eine in derzeitigem Meerwasser und die andere in einem Tank mit einer kontrollierten CO2-Atmosdphäre. Stattdessen haben sie sich buchstäblich den bedeutungslosesten Weg gesucht, nichts zu zeigen, sie haben keine chemisch ähnliche Umwelt benutzt, keine derzeitigen Organismen, die ihre Schale regenerieren, und das ist faszinierend.

Wenn Sie es also bis hier geschafft haben und Ihr Kopf nicht mit Glückwünschen explodiert ist – hier kommen einige Schlüsselpunkte:

1. Es ist interessant zu bemerken, dass wir irgendwie eine akkurate Messung der Ozean-Acidität von vor 200 Jahren haben, wenn der Apparat zur pH-Messung erst 1924 erfunden worden ist und bis dahin gar keine Messung vorlag. Es sollte unmöglich sein, den tatsächlichen ozeanischen pH-Wert vor 200 Jahren auf 0,1 Einheiten genau zu bestimmen.

2. Die maximale mögliche Änderung des präindustriellen CO2-Gehaltes bis heute beträgt weniger als 0,001 pH-Einheiten und ist folglich unmöglich zu messen.

3. Selbst wenn wir 0,001 pH-Einheiten messen könnten, erheben sich viele Fragen hinsichtlich der Genauigkeit und Kalibrierungs-Techniken, die mit der Messung zusammenhängen.

4. Es ist dem CO2 unmöglich, Karbonat-Ionen in Lösung abzubauen.

5. Flüsse und Süßwasserseen sind anfälliger für Kohlensäure aus atmosphärischem CO2. Warum also sorgen wir uns um die Ozeane?

6. Es ist chemisch und biologisch wirklich unmöglich, dass von Karbonat lebende Organismen durch CO2-Zunahmen leiden.

7. Kohlensäure ist nicht das Gleiche wie Salz- oder Essigsäure.

8. pH aus Kohlensäure [Anmerkung: Der pH-Wert berechnet aus dem CO2-Gehalt] sagt uns nichts über das CO2/Karbonat-System [Anmerkung: über den im CO2/Karbonat-System messbaren pH-Wert].

9. Es gab keine Experimente, die Schädigungen gezeigt haben, nur Hypothesen und Modelle.

10. Die experimentellen Rahmenbedingungen zum Testen von Karbonat-Organismen mit zunehmendem CO2 sind einfach und trotzdem noch nicht durchgeführt.

11. Die am meisten durch Ozean-Versauerung infolge CO2 anfälligen Organismen haben sich zu einer Zeit entwickelt, in der die Konzentrationen 15 [Meine Rechnung 8000/360 = 22,2]  mal höher lagen als heute.

12. Die Ozean-Versauerung hat keine Bedeutung, falls die Rate, mit der sich CaCO3 bildet, die Rate übersteigt, mit der Kohlensäure CaCO3 verbraucht.

13. Die Puffer-Kapazität der Ozeane ist gewaltig und beruht auf Kohlensäure [Anmerkung: Die Puffer-Kapazität der Ozeane beruht eigentlich auf dem CO2/Karbonat-System.], eine weitere Demonstration, dass CO2 diesen Puffer überwindet, ist erforderlich.

Link: http://wattsupwiththat.com/2013/07/08/ocean-acidi-what/

Übersetzt von Chris Frey EIKE.

Danksagung: Ich bedanke mich bei Herrn Dr. Gerhard Stehlik für seine dringend notwendige fachliche Überarbeitung dieser Übersetzung. Die eingefügten Anmerkungen in eckigen Klammern stammen von ihm.




Strahlungswirkung: Eine falsche Theorie bestimmt die Atom-Politik

Man kann zum Wert von Petitionen stehen wie man will, aber sie sind ein Zeichen für das "nicht vertreten sein" von Bürgern in der Welt der Gesetze. Ursprünglich ein Ventil im Obrigkeitsstaat, beginnen sie sich im Internetzeitalter zu einem Kampagneninstrument zu wandeln. Letzte Woche tauchte eine Petition bei "We the people, your voice in our government" (damit kein Mißverständnis aufkommt: Es ist nicht die Seite einer ehemaligen Pionierleiterin, sondern von Barack Obama) zum LNT auf. Sie gipfelt in dem Satz zum Schluss: …es ist notwendig die Vorschriften der (amerikanischen) Umweltschutzbehörde im Einklang mit wissenschaftlichen Erkenntnissen zu bringen… Starker Tobak, ohne Zweifel. Es wäre wünschenswert, daß 100.000 US Bürger innerhalb von 30 Tagen unterzeichnen würden, denn dann gäbe es eine offizielle Stellungnahme. Bei solch einem "Randthema" eher unwahrscheinlich. Aber, warum kommt plötzlich solch ein spezielles Thema aus dem Elfenbeinturm der Wissenschaften in die Niederungen der Politik herabgestiegen? Ganz offensichtlich braucht jedes Thema seine Zeit. Es gibt immer einen Anlass, bei dem sich der viel bemühte "Gesunde Menschenverstand" plötzlich und unerwartet zu Wort meldet. In den USA scheint der Auslöser die Diskussion um die Evakuierungsmaßnahmen infolge der Fukushima-Ereignisse und dem Stopp des Yucca Mountain Projektes gewesen zu sein.

Das LNT – Modell

Das LNT-Modell wird allgemein im Strahlenschutz verwendet um die individuelle Strahlenbelastung zu erfassen und praktikable Grenzwerte festlegen zu können. Die Betonung liegt hierbei auf praktikabel — im Sinne von einfach zu handhaben. Wenn man einen linearen Zusammenhang von Dosis und Wirkung unterstellt, kann man einzelne Strahlenbelastungen einfach addieren. Man legt eine Dosis fest, die ein Mitarbeiter in einem Jahr erhalten darf. Der Wert ist so bemessen, dass man mit Sicherheit von keiner Schädigung in einem Berufsleben ausgehen kann. Mit anderen Worten, er ist bewußt sehr niedrig angesetzt, denn für einen effektiven Schutz müssen auch noch die sonstigen Strahlenbelastungen (z. B. Röntgenuntersuchungen, Urlaubsflüge etc.) einbezogen werden. Jetzt rüstet man jeden Mitarbeiter mit einer entsprechenden Meßtechnik aus und registriert täglich, wöchentlich, monatlich usw. die ermittelten Dosiswerte. Ab dem Tag, an dem der vorgeschriebene Grenzwert erreicht ist, ist erst einmal Zwangsurlaub angesagt. So weit, so gut — ganz ohne Ironie. Im Berufsalltag muß eine Sicherheitsvorschrift einfach und eindeutig zugleich sein; so wie: "Auf der Baustelle besteht Helmpflicht". Ganz egal, an welcher Stelle der Baustelle man sich befindet.

Aber, ist es wirklich egal, ob man unterschiedliche Leistungen einfach zu einer Gesamtenergie aufaddiert? Jeder Lehrer würde wohl schon von Grundschülern nur ein mitleidiges Lächeln ernten, wenn er die Dauer eines Marathonlaufes aus der Zeit für ein Rennen über Hundert Meter durch einfache Addition  berechnen wollte. Schon jedem Kind ist aus eigener Erfahrung der Unterschied zwischen einer kurzzeitigen hohen Leistung und einer geringen Dauerleistung klar — jedenfalls spätestens nach dem ersten "Muskelkater". Man kann mit einer hohen Strahlungsleistung Bakterien im vorbeifahren sicher abtöten und damit z. B. Gewürze haltbar machen. Würde man sie über Monate verteilt in einem Regal der gleichen Strahlungsenergie aussetzen, würden sie munter vor sich hin gammeln. Ja, die gesamte Strahlenmedizin beruht auf diesem Zusammenhang: Eine Krebsgeschwulst muß einer so hohen Energie ausgesetzt werden, dass sie abstirbt. Gleichzeitig darf aber das umliegende gesunde Gewebe nicht (nachhaltig) geschädigt werden. Man erreicht dies, durch eine unterschiedliche Einwirkzeit. Es gibt also ganz offensichtlich einen Zusammenhang zwischen Dosis und Zeitraum. Dieser ist auch biologisch erklärbar, doch dazu später.

Zu ganz abenteuerlichen Ergebnissen gelangt man, wenn man die als linear unterstellte Abhängigkeit von Dosis und Wirkung auf Kollektive, also große Gruppen von Menschen überträgt. Sie besagt nichts anderes, als das die gleiche Strahlungsenergie immer zur gleichen Zahl von Schäden (Krebsfälle) führt. Die Absurdität dieser Aussage offenbart sich schon jedem Laien: Wenn bei einer bestimmten Strahlendosis ein zusätzlicher Krebsfall pro 1000 Untersuchten auftritt, kann man wohl kaum davon ausgehen, dass, wenn man 1 Million Menschen mit einem Tausendstel dieser Dosis bestrahlt, wieder genau ein zusätzlicher Krebsfall auftritt oder gar, wenn man 1 Milliarde Menschen mit einem Millionstel bestrahlt. Genau dieser Unsinn, wird uns aber tagtäglich in den Medien aufgetischt. Nur durch diese Zahlendreherei gelangt man zu den bekannten Studien, die uns z. B. "tausende Tote" durch Reaktorunglücke wie Fukushima und Tschernobyl vorrechnen wollen.

Die Entstehungsgeschichte

Wenn man sich mit Strahlenschutz beschäftigt, muß man sich vergegenwärtigen, dass es sich um ein relativ junges Fachgebiet handelt. Natürliche Strahlungsquellen gibt es schon immer. Insofern hat die Biologie auch gelernt damit umzugehen und Gegenmaßnahmen zu ergreifen. Wäre das nicht so, gebe es überhaupt kein Leben auf der Erde. Die technische Nutzung hingegen, begann erst mit der Entdeckung der Röntgenstrahlung 1895 und der Kernspaltung in den 1930er Jahren. Bereits 1902 erschienen die ersten Veröffentlichungen zum Gesundheitsrisiko durch Röntgenstrahlen. Im Jahr 1927 beobachtete Hermann Joseph Muller die spontane Mutation von Genen und konnte durch Röntgenstrahlen Mutationen bei Taufliegen herbeiführen. Er zeigte, dass energiereiche Strahlung zu einer Veränderung des Erbgutes führen kann. Für diese Entdeckung wurde er 1946 mit dem Nobelpreis für Medizin ausgezeichnet.

Bereits 1925 wurde der erste Grenzwert zum Strahlenschutz für Röntgenärzte auf 680 mSv/Jahr festgelegt. Dieser Grenzwert hatte über 30 Jahre bestand. Man war — und ist heute eigentlich noch immer — der Meinung, dass bis zu einem Schwellwert von etwa 700 mSv pro Jahr keine dauerhafte gesundheitliche Schädigung nachweisbar ist. Im Vergleich hierzu gelten heute für beruflich strahlenexponierte Personen 20 mSv/Jahr bzw. 50 mSv/Jahr im Einzelfall. Für Feuerwehrleute gilt pro Einsatz 15mSv, im Lebensrettungsfall 100 mSv und im Katastrophenfall (einmal im Leben) 250 mSv. Der letzte Wert, ist übrigens exakt der Gleiche, den die Japanischen Sicherheitsbehörden nach dem Unfall in Fukushima als Grenzwert für die mit der Schadensbeseitigung beschäftigten Personen angesetzt haben. In Fukushima wurden bisher zwei Elektriker durch radioaktives Wasser im Turbinenraum mit 170 mSv und 30 weitere mit mehr als 100 mSv verstrahlt. So viel zu den (erträumten?) Tartarenmeldungen in deutschen "Qualitätsmedien" zur "Reaktorkatastrophe in Fukushima".

Nach dem 2. Weltkrieg und den ersten Atombombenabwürfen wurde ionisierende Strahlung von der Politik zu einem wissenschaftlichen Rätsel ausgebaut. Der kalte Krieg befeuerte die Angst vor einem Atomkrieg und langsam wurde eine Radiophobie erschaffen. Die begleitenden Untersuchungen der Opfer von Hiroshima und Nagasaki zeigten ein eindeutiges und erwartetes Bild: Bei hohen Dosen ergab sich ein linearer Zusammenhang zwischen Dosis und Krebserkrankung. Aber ebenso eindeutig war, dass unterhalb 200 mSv (20 rem) keine erhöhten Raten feststellbar waren. Unterhalb von 100 mSv (10 rem) waren sie sogar kleiner als in den Kontrollgruppen.

Schon damals verlagerte man solche Probleme gerne in die UNO. Das United Nations Scientific Committee on the Effects of Atomic Radiation, verabschiedete insbesondere auf Betreiben der Sowjetunion, die lineare Dosis-Wirkungsbeziehung ohne Schwellwert (LNT) (UNSCEAR 1958). Die Begründung war so einfach und klar, wie der Klassenstandpunkt: Die bei hohen Dosen gemessene Dosis-Wirkungs-Beziehung wird linear hin zu kleinen Dosen extrapoliert. Es gibt keinen Schwellwert, da schon kleinste Mengen ionisierender Strahlung irgendeinen biologischen Effekt auslösen. Besonders der zweite Teil, ist so aussagefähig wie: Nachts ist es dunkel. Da man ungern der UNO widerspricht, wurde ein Jahr später das LNT-Modell von der International Commission on Radiation Protection übernommen (ICRP 1959). Bemerkenswert ist nur das "Klein gedruckte" des Berichts, das deshalb im Original wiedergegeben werden soll [National Council on Radiation Protection and Measurements. Principles and Application of Collective Dose in Radiation Protection. NCRP Report No. 121. Bethesda, MD. NCRP, 1995;45]:

 "…essentially no human data, can be said to provide direct support for the concept of collective dose with its implicit uncertainties of nonthreshold, linearity and dose-rate independence with respect to risk. The best that can be said is that most studies do not provide quantitative data that, with statistical significance, contradict the concept of collective dose…

Ultimately, confidence in the linear no threshold dose-response relationship at low doses is based on our understanding of the basic mechanisms involved. …[Cancer] could result from the passage of a single charged particle, causing damage to DNA that could be expressed as a mutation or small deletion. It is a result of this type of reasoning that a linear nothreshold dose-response relationship cannot be excluded. It is this presumption, based on biophysical concepts, which provides a basis for the use of collective dose in radiation protection activities".

Soll wohl heißen, wir wissen selbst, dass das Blödsinn ist, was wir hier beschließen, aber wir können (aus politischen Gründen?) nicht anders. Interessant sind die beiden Hauptsätze der Lehre vom Strahlenschutz. Wenn man auf einem weißen Blatt Papier keine Buchstaben erkennen kann, darf man trotzdem nicht ausschließen, dass es sich um eine Tageszeitung handeln könnte. Eine Argumentationsweise, die man sonst nur aus der Homöopathie oder Esoterik gewöhnt ist. Um es noch einmal ganz deutlich zu sagen, es gibt keine Messung, die eine erhöhte Krebsrate infolge kleinster Dosen ionisierender Strahlung nachweist. Eher das Gegenteil ist der Fall (Hormesis)! Alles spricht für einen Schwellwert. Allenfalls die Höhe des Grenzwertes ist strittig. Geschulte "Atomkraftgegner" wissen um diese Zusammenhänge und weichen solchen Diskussionen schnell aus. Die Meldungen von dubiosen Leukämiefällen in der Nähe von Kernkraftwerken sind ähnlich dem Ungeheuer vom Loch Ness aus der Mode gekommen. Sie taugen nicht einmal mehr fürs Sommerloch. Immer weniger "Atomexperten" mögen öffentlich an ihre Prophezeiungen über "Millionen von zusätzliche Krebstoten in ganz Europa" infolge der Reaktorunglücke in Tschernobyl und Fukushima erinnert werden. Zu offensichtlich ist der Unsinn. Jede noch so gruselige Gespenstergeschichte nutzt sich schnell ab, wenn man das Gespenst nicht vorführen kann.

Nicht nur "Atomkraftgegner", sondern auch andere interessierte Kreise beschränken sich deshalb heute auf den zweiten Hauptsatz des Strahlungsschutzes: Jedes einzelne Photon oder radioaktive Partikel kann zu einem Bruch in der Erbsubstanz führen. Dies ist unbestritten der Fall. Nur, führt jede kaputte Zündkerze zum Totalschaden eines Autos? Natürlich nicht. Entscheidend ist, wie schnell man den Schaden erkennt und ihn repariert. Die entscheidende Frage für die Beurteilung des Risikos durch ionisierende Strahlung ist deshalb, wie viele Schäden ohnehin in einer Zelle auftreten und wie die Reparaturmechanismen funktionieren. Mit den heute zur Verfügung stehenden Methoden kann man die Kopie der Erbsubstanz in lebenden Zellen beobachten. Es ist beileibe kein mechanischer Kopiervorgang, sondern eine "Chemiefabrik" in aggressiver Umgebung. Ohne auf die Zusammenhänge hier im Einzelnen eingehen zu können, kann man zusammenfassend sagen, die täglich auftretenden Fehler durch Radikale, Temperatur etc. gehen in die Milliarden —  in jeder einzelnen Zelle, wohl gemerkt. Wenn also ein einzelner Fehler tatsächlich ausreichen würde, um Kerbs auszulösen, wäre längst jedes Leben ausgestorben. Ähnlich kann man heute die Schäden durch die natürliche Hintergrundstrahlung bestimmen. Sie beträgt ungefähre o,oo5 DNA-Fehler pro Zelle oder andersherum: Alle 200 Tage wird jede Zelle durch die natürliche Radioaktivität nachhaltig geschädigt. Selbst von diesen Schäden (Doppelbrüche) ist nur jeder 500ste nicht reparierbar und führt zu Mutationen. Anschließend greift der Mechanismus der Selbstvernichtung: Über 99% der mutierten Zellen werden entfernt. Kennt man diese Zusammenhänge, ist einsichtig, warum es einen entscheidenden Unterschied zwischen einer kurzzeitigen hohen Dosis und einer geringen dauerhaften Belastung gibt. Im ersten Fall hat der Körper einfach zu wenig Gelegenheit für Reparaturmaßnahmen.

Zusammenfassend kann man sagen, dass die Anzahl der Mutationen infolge unserer Körpertemperatur, Nahrungsaufnahme und Atmung millionenfach höher ist, als die durch die natürliche Strahlung hervorgerufenen Mutationen. Wie soll also eine noch geringere zusätzliche Strahlung das Krebsrisiko merklich erhöhen?

Die Yucca Mountain Frage

Yucca Mountain ist das traurige Gegenstück zum Endlagerstandort Gorleben. Im Jahr 2011 wurde das Endlager unter der Regierung von Präsident Obama aufgegeben. Seit dem, bricht auch in den USA eine erneute Diskussion zur "Atommüllfrage" los. Interessant ist hierbei, dass die US-Umweltbehörde 2001 eine maximale Strahlenbelastung von 15 mrem pro Jahr (0,15 mSv/a) (für 10.000 Jahre nach Schließung des Lagers gefordert hatte. Im Jahre 2009 erweiterte sie nach gerichtlichen Auseinandersetzungen den Zeitraum auf 1.000.000 Jahre. Für diesen zusätzlichen Zeitraum wurde eine maximale Belastung von 100 mrem pro Jahr (1 mSv/a) gefordert.

Eine jährliche Strahlenbelastung von 0,15 mSv (15 mrem) entspricht 1/20 der (durchschnittlichen) natürlichen Strahlenbelastung in den USA. Erstmalig wird auch in der Presse die Sinnhaftigkeit solcher Grenzwerte hinterfragt. Es wird der Vergleich mit jemandem gezogen, den man an eine viel befahrene Kreuzung stellt und zur Lärmminderung auffordert, leiser zu atmen, da man mit einem Stethoskop deutlich seine Atemgeräusche hören könne. Ich finde, treffender kann man es nicht, in die durch unsere Sinne unmittelbar erfahrene Alltagswelt, übersetzen.

Die mörderische Kraft der Angst

Noch zwei Jahre nach dem Reaktorunglück in Fukushima sind 160.000 Menschen aus der "Schutzzone" evakuiert und 70.000 Menschen ist die dauerhafte Rückkehr verwehrt. Eine Tatsache, die immer mehr Kritik hervorruft. Nach offiziellen Zahlen sind bereits 1.100 Menschen infolge der Evakuierung gestorben. Die Bandbreite der Todesursachen geht von mangelnder medizinischer Versorgung während der Evakuierung, bis hin zum Suizid infolge der psychischen Belastung durch die "Wohnumstände". Ein Phänomen, das bereits hinlänglich durch die Evakuierungen in Tschernobyl bekannt war. Lang andauernde Evakuierungen erzeugen die gleichen psychischen Belastungen wie Flucht und Vertreibung.

Es erscheint daher sinnvoll, die Freisetzung mal in bekannte Maßeinheiten zu übersetzen. In Fukushima wurden etwas über 40 Gramm I-131 freigesetzt, die überdies bis heute längst wieder zerfallen sind. Ebenso knapp 4 kg Cs-137. Ein wegen seiner Halbwertszeit von 30 Jahren relevantes Nuklid. Verstreut und damit verdünnt, über hunderte von Quadratkilometern Land und offenes Meer. Die biologische Halbwertszeit im menschlichen Körper für Cäsium beträgt übrigens nur 70 Tage. Durch gezieltes Essen von "freigemessenen" Lebensmitteln wäre die Strahlenbelastung damit fast beliebig klein zu halten. Zugegeben, hören sich diese Mengen in "Greenpeace-Sprech" gleich viel gruseliger an: Es wurden 199.800.000.000.000.000 Bq des Schilddrüsenkrebs auslösenden Jod-131 und 12.950.000.000.000.000 Bq des stark radioaktiven Cäsium-137 bei der Explosion des Katastrophenreaktors ausgestoßen. Wer sich allein durch große Zahlen in Furcht und Schrecken versetzen läßt, sollte zukünftig besser nicht mehr über Voodoo-Zauber oder den Glauben an Hexen lächeln.

ALARA oder AHARS

Risiken sind immer relativ. Jeder Fünfte von uns, wird bis zu seinem 70sten Lebensjahr an Krebs erkrankt sein. Jeder Dritte, eine Herz- Kreislauferkrankung erleiden. Demgegenüber beträgt das Risiko an Krebs zu sterben, nach einer Bestrahlung mit 1 Sv (100 rem) etwa 1:100 oder nach einer Bestrahlung mit 10 mSv (1 rem) weniger als 1:1.000.000.

Was bedeutet es für jemanden, der ein persönliches Risiko von 1:100 hat zu sterben, wenn diesem ohnehin vorhandenem Risiko noch eine Wahrscheinlichkeit von 1:1 Million hinzugefügt wird? Das ist die entscheidende Frage, die gestellt werden muß und die letztlich jeder für sich beantworten muß. Oder noch eindeutiger formuliert: Auf welche Lebensqualität ist jeder einzelne bzw. eine Gesellschaft bereit zu verzichten, um die Wahrscheinlichkeit an Krebs zu sterben, um (beispielsweise) ein Millionstel zu verringern? Wenn man gewisse Risikosportarten oder Tabak- und Alkoholkonsum in unserer Gesellschaft betrachtet, kann man gespannt auf die Antwort sein. Wem das zu abstrakt ist, dem mag vielleicht folgende Rechnung etwas mehr sagen: In den letzten 40 Jahren wurden allein in den USA mehr als 150 Milliarden Euro für den Strahlenschutz ausgegeben. Eine Abschätzung nach LNT ergibt, dass dadurch etwa 100 "virtuelle Leben" gerettet worden sind. In wie vielen Fällen war unsere Gesellschaft bereit, für die Lebensverlängerung eines realen Lebens 1.500 Millionen Euro auszugeben? Wem es jetzt vor Empörung von seinem weichen Sofa in seiner warmen Stube reist, sollte sich mal anschauen wie viele Kinder immer noch sterben müssen, weil ihnen eine Hand voll Dollar für Medikamente oder Trinkwasser fehlen. Ganz neben bei, erhält er noch die Antwort, warum immer mehr Länder nach "billiger" Kernenergie streben und Wind- und Sonnenstrom bestenfalls für ein Luxusgut halten. Jemanden, der ohnehin nur eine Lebenserwartung von weniger als 50 Jahren hat, läßt ein theoretisches Krebsrisiko ab 90 ziemlich kalt.

Bisher wurde in der Kerntechnik immer nach dem Prinzip „As Low As Reasonably Achievable (ALARA)“ (so niedrig wie vernünftigerweise erreichbar) gearbeitet. Ein in sich schlüssiges Prinzip, so lange man davon ausgeht, dass es keinen Schwellwert gibt und alle Dosen additiv wirksam sind. Inzwischen diskutiert man immer mehr einen Übergang zu "As High As Reasonably Safe (AHARS)" (so hoch, wie sicherheitstechnisch erforderlich). Für die Frage der Evakuierung nach Unfällen, erscheint ein Übergang zu AHARS zwingend erforderlich. Eine Evakuierung kann immer auch tödlich sein. Das Risiko steigt ganz erheblich an, wenn sie überhastet oder mit starker Angst verbunden, erfolgt. Die Ausdehnung auf unnötig große Gebiete oder unnötig lange Zeiträume verstärkt diesen Effekt noch. Beispielsweise zeigen sich bereits heute "soziale Schäden" bei Kindern und Jugendlichen in Fukushima. Hervorgerufen, durch die zwangsweise Unterbringung in Notunterkünften und erschwerte Ausbildungsbedingungen. Man kann sich teilweise des Eindrucks nicht erwehren, daß dies politisch gewollt ist. Insbesondere, wenn man immer wieder liest, dass der oberste Wunsch bei den "Vertriebenen", die möglichst schnelle Rückkehr in ihre alte Umgebung ist. Gleiches kennt man auch aus Tschernobyl. Bemerkenswert ist dabei, dass der Gesundheitszustand der illegalen (inzwischen längst geduldeten) Rückkehrer in die Verbotene Zone, deutlich besser ist, als der, der zwangsweise Umgesiedelten. Obwohl die Rückwanderer sogar Landwirtschaft zur Eigenversorgung auf dem "verseuchten" Grund betreiben.

Etwas anders stellt sich das ALARA Prinzip beim Arbeitsschutz dar. Natürlich sollte jede gesundheitliche Belastung am Arbeitsplatz möglichst klein gehalten werden. Man sollte aber nicht so blauäugig sein zu glauben, es ginge nicht auch um wirtschaftliche Interessen. Rund um den Strahlenschutz hat sich eine ganze Industrie etabliert. Auf jeder Messe werden neue Mittelchen vorgestellt, die noch ein paar Promille Verbesserung versprechen. In Behörden sind ganze Karriereplanungen auf eine stetige Ausweitung aufgebaut. Gerade, wenn sich die Anzahl der Objekte durch einen "Ausstieg aus der Kernenergie" verringert, ist der Stellenkegel nur zu halten, wenn man ständig neue Probleme schafft, die man vorgibt anschließend zu lösen. Ein Schelm, wer hier an die Asse denkt. Trotzdem gilt auch hier, man kann jeden Euro nur einmal ausgeben. Was man für den Strahlenschutz ausgibt, kann man nicht mehr für andere Zwecke verwenden und jeden dieser Euros müssen wir selbst bezahlen. Dabei ist es gleich, ob aus Steuermitteln oder höheren Energiepreisen. Es lohnt sich also schon, einmal selbst darüber nach zu denken und sich eine eigene Meinung zu bilden.

Dr. Klaus-Dieter Humpich

Dieser Artikel ist zuerst im Blog „www.nukeklaus.de“ erschienen.




Regierung der Niederlande kritisiert IPCC und ruft nach Reformen

Regierungen auf der ganzen Welt wurden vom IPCC aufgefordert, über die Zukunft des IPCC nachzudenken. Die Niederlande haben ihre Antwort jetzt dem IPCC zugesandt und diese auf der Website des KNMI veröffentlicht.

Ich würde sagen, dass Holland ziemlich kritisch mit dem IPCC ins Gericht geht und mit der Art und Weise seiner derzeitigen Arbeit. Der folgende Abschnitt erschien mir am interessantesten:

Das IPCC muss sich gemäß seinen Prinzipien verhalten! Wir glauben, dass die Begrenzung des IPCC auf die anthropogen verursachte Klimaänderung nicht wünschenswert ist, vor allem, weil natürliche Klimaänderungen ein Grundbestandteil des Gesamtverstehens des Klimasystems sind, einschließlich der anthropogen induzierten Klimaänderung. Die Niederlande sind auch der Ansicht, dass das Wort ‚umfassend’ [comprehensive] entfernt werden muss, weil die Erstellung umfassender Zustandsberichte nahezu unmöglich wird, und zwar wegen des immer größer werdenden Wissens, und das IPCC wäre besser beraten, spezielle Berichte zu erstellen zu Themen, die neu und kontrovers sind.

Beiden Punkten stimme ich zu. Die Nahezu-Besessenheit des IPCC mit dem Treibhaus-Antrieb hat den Fortschritt in der Klimawissenschaft meiner Meinung nach massiv behindert. Darum bin ich froh, dass meine Regierung diesen Punkt jetzt anspricht. Und in meinem Buch (in holländisch) De Staat van het Klimaat bin ich zu dem Ergebnis gekommen, dass das IPCC in seinem 4. Zustandsbericht nicht erfolgreich war, einen „umfassenden“ Bericht zu erstellen. Ich stimme auch zu, dass das IPCC kontroversen Themen viel mehr Aufmerksamkeit schenken muss. Die Behandlung kontroverser Themen im AR4 und auch im AR 5 war aus zwei Gründen nicht zufrieden stellend: Es gibt nicht genug Spielraum, um notwendige Details zu besprechen, und die Autorenteams sind fast durchweg verzerrt in Richtung des Konsens’ und räumen daher Minderheiten-Ansichten nicht genug Raum ein.

Die Niederlande möchten auch die äußerst umfangreichen Papierberge, die das IPCC produziert, beendet und durch kürzere, im Web basierende (Spezial-)Berichte ersetzt sehen:

Das IPCC braucht transparentere, konzentrierte und auf neuestem Stand befindliche Beurteilungen. Der Gebrauch des Internets dehnt sich immer weiter aus. Es wäre einfacher, die Beurteilungen des IPCC ständig zu aktualisieren, wenn sie im Internet wurzeln würden. Die Digitalisierung führt auch zu einer Zunahme der Transparenz der Berichte. Zum Beispiel, zusätzlich zu internen Links in der SPM [= Summary for Policy Makers] zu den zugrunde liegenden Kapiteln (was im AR 4 bereits geschehen ist) könnte man Links in die Kapitel einfügen, die auf relevante Teile wissenschaftlicher Veröffentlichungen verweisen, um den Zugang zu den Quellen zu vereinfachen.

Die Zustandsbeschreibung sollte dynamischer sein, und zwar durch regelmäßige Aktualisierungen der Kapitel mit nur einer Runde von Experten-Begutachtung und durch Verkürzung der Erstellungszyklen. Die Berichte werden derzeit schon nach wenigen Jahren nach der Veröffentlichung als ziemlich veraltet angesehen.

Wieder stimme ich dem neuen Format zu. Auch möchte Holland die WG’s [Working Groups] I und II in eine Arbeitsgruppe zusammengefasst sehen:

Zwei Arbeitsgruppen anstatt drei. Zum Beispiel ist es möglich, die WG I so auszuweiten, dass Themen der WG II, die eng mit Informationen der WG I zusammenhängen, dorthin übertragen werden. Ein Beispiel ist der SREX-Sonderbericht, in dem Klimaextreme und Informationen bzgl. der Risiken kombiniert sind. WG III würde sich dann mit Anpassungs- und Abschwächungsmaßnahmen nebst deren Auswirkungen auf die Umwelt befassen. Auf diese Weise gäbe es zwei Arbeitsgruppen, die den Zyklus verkürzen, aber auch die Konsistenz im Erstellungszyklus verbessern und die Synthese vereinfachen würde. Ein gesonderter Synthese-Bericht würde nicht gebraucht werden, wenn die zweite Arbeitsgruppe ihre Informationen mit der ersten Arbeitsgruppe abstimmen würde, desgleichen in den Zusammenfassungen.

Pachauri

Ohne seinen Namen zu erwähnen, haben die Niederlande klar gestellt, dass sie gerne den Rücktritt Pachauris sehen würden. Sie ziehen es vor, „eine Organisation zu haben, die geführt wird von einem geschäftsführenden Direktor“ anstelle eines gewählten Vorsitzenden. Ein solcher geschäftsführender Direktor könnte auch eine politisch neutrale Sprecherfunktion besser ausüben als ein gewählter „Vorsitzender“, schreiben sie. Damit verweisen sie implizit auf Pachauri, der für seine politischen Statements bekannt ist.

Skeptiker

Ich bin also allgemein sehr zufrieden mit diesen Ratschlägen und überzeugt, dass sich das IPCC erheblich verbessern würde, wenn all diese Punkte umgesetzt werden würden. Das Einzige, was ich wirklich vermisse, ist der explizite Ratschlag, Skeptiker mit ins Boot zu holen. Das war tatsächlich der Hauptratschlag in meinem Buch: man ordne jedem Leitenden Autor zwei Skeptiker zu, um die Mainstream-Wissenschaft ehrlich zu halten. Dieser einfache Ratschlag ist der einzige Weg, auf dem das IPCC jemals ausgewogener und objektiver werden kann. Dennoch, meinen Glückwunsch an die holländische Regierung für diese kritische Haltung.

Marcel Crok, De Staat van het Klimaat

Link: http://www.thegwpf.org/dutch-government-criticises-ipcc-limitation/

Übersetzt von Chris Frey EIKE




Eine neue Methode, wie von Bürgerinitiativen Großwindradanlagen verhindert werden können

Windradanlagen können in einer modernen Industrienation allein schon wegen der geringen Leistungsdichte des Windes niemals wirtschaftlich sein. Sie sind fatal für unsere geschützten Greifvögel und Fledermäuse (hier). Die Propagierung von Windrädern weist daher die verantwortlichen Kommunalpolitiker als Umweltschädiger aus, die für den eigenen Profit oder für die Gemeindekasse billigend das Töten von Flugtieren, die Verschandelung ihrer Landschaftsumgebung und die Schädigung von Anrainern in Kauf nehmen. Bundes- und Landespolitiker, wie insbesondere die grüne Landesregierung in Baden-Württemberg, gehören ebenfalls zu den Umweltschädigern, denn sie schaffen die gesetzlichen Voraussetzungen für die Zerstörung unserer Natur.

Die Verlogenheit der grünen Windrad-Agenda geht schon daraus hervor, dass einschlägige grüne Aktivisten zwar den Schutz des Juchtenkäfers instrumentalisierten (um den Stuttgarter Hauptbahnhofneubau zu torpedieren), das tägliche Vogel- und Fledermaustöten durch Windräder aber bis heute schweigend und ungerührt billigen. Die Farbe „grün“ hat längst nichts mehr mit Umweltschutz zu tun, sondern steht heute ausschließlich für das ideologische Ziel der Gesellschaftsveränderung und der Deindustrialisierung Deutschlands.

Es bleibt zu hoffen, dass dies die deutschen Wähler bei der Bundestagswahl im September berücksichtigen und dem grünen Umweltzynismus, zu dem auch die extrem naturschädlichen Maismonokulturen für Biogas gehören, eine deutliche Absage erteilen. Da alle großen Parteien, einschließlich der inzwischen wohl verschwindenden FDP, den energiepolitischen Irrsinn der „Energiewende“ mittragen, ist die Auswahl auf dem Stimmzettel freilich nicht groß. Zur Zeit sieht es aber so aus, als ob die AfD eine sachgerechte Energie- und Klimapolitik in ihr Parteiprogramm aufnehmen wird. Es gibt also zumindest einen Hoffnungsschimmer für die wirtschaftliche Vernunft und den Schutz unserer Umwelt. 

Gegen die Bestrebungen der Bundes-, Landespolitikpolitiker sowie vieler Gemeinden, Windparks  zu errichten, formieren sich inzwischen immer mehr Bürgerinitiativen, ein stellvertretendes Beispiel unter unzähligen weiteren hier. Im vorliegenden Beitrag soll im Folgenden nur die Problematik der Wirtschaftlichkeit von Windparks im Binnenland beleuchtet werden. Die bereits angesprochene Nutzlosigkeit und Umweltschädigung von Windradanlagen wird nicht thematisiert. Vergessen oder nachrangig sind diese Aspekte deswegen nicht!

Um eine verlässliche Wirtschaftlichkeitsprognose für den Stromertrag aus Windrädern erstellen zu können, ist die Befolgung der nachstehenden Agenda gemäß anerkannter Praxis in der Windradbranche obligatorisch:

Es muss eine Messung mit einem fest installierten Mast über eine Zeitdauer von mindestens einem Jahr auf möglichst mindestens 2/3 der geplanten Nabenhöhe der Windkraftanlagen durchgeführt werden.

Ergänzend sind mastlose Messungen mittels Fernerkundungssystemen wie SODAR oder LIDAR zulässig. Die alleinige Verwendung von Fernerkundungssystemen (LIDAR oder SODAR) ohne Mastmessung erlaubt wegen der Fehleranfälligkeit dieser Messungen allerdings keine brauchbare Aussage über die Windhöffigkeit eines Standortes.

Auf diese vorbereitenden Messungen kann nur dann verzichtet werden, wenn Langzeitdaten von unmittelbar benachbarten Windparks vorliegen. Windatlanten, wie sie unter anderem vom TÜV Süd herausgegeben werden, lassen allenfalls eine erste (oft hoffnungslos falsche) Grobabschätzung für einen Standort zu. Die Herausgeber solcher Atlanten betonen denn auch zutreffend, dass die angegebenen Werte lediglich Näherungen sind, deren Verifizierung durch vor Ort durchgeführte Messungen unverzichtbar ist!

Bei allen einschlägigen Strömungsmaschinen, wie beispielsweise Turbinen, (rückwärts laufenden) Kreiselpumpen und schließlich auch Windrädern geht die Strömungsgeschwindigkeit des Strömungsmediums mit der dritten Potenz in die von der Strömungsmaschine erbrachte Leistung ein (Leistung = Energie / Zeit). Diese unabänderliche physikalische Naturgesetzmäßigkeit ist für die Wirtschaftlichkeit eines Windparks entscheidend.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/v3Gesetz.jpg

Bild 1: Nur ausreichend hohe Windgeschwindigkeiten erlauben eine akzeptable Leistungsabgabe des Windrads. Ein Windrad, wie z.B. die weiter unten erwähnte Enercon E-92 ist für die Nennleistung aus rund 14 m/s Windgeschwindigkeit ausgelegt (bei anderen Typen ändert sich dieser Wert). Weht der Wind nur halb so stark, also mit 7 m/s, liefert die E-92 nur noch den Bruchteil von 1/(2∙2∙2) oder 12,5% der Nennleistung.

Weil die hohen Strömungsgeschwindigkeiten überproportional zum Energieertrag des Windrads beitragen, wird nun auch noch die Häufigkeitsverteilung der unterschiedlichen Windgeschwindigkeiten zu einem maßgebenden Faktor der Energieeffizienz. Es ist nützlich, sich diesen Zusammenhang einmal an einem, zum Zweck der Veranschaulichung vereinfachten Zahlenbeispiel vor Augen zu führen. Betrachten wir dazu zwei unterschiedliche Windradstandorte A und B, die beide die gleiche jahresgemittelte Windgeschwindigkeit von 4 m/s aufweisen mögen:

Im Standort A komme diese Windgeschwindigkeit konstant über das ganze Jahr vor. Im Standort B ergebe sich das Jahresmittel dagegen aus zwei konstanten unterschiedlichen Geschwindigkeiten, zum einen aus v = 7 m/s über die Zeitdauer eines halben Jahres und aus v = 1 m/s über die restliche Zeit. Der Jahresmittelwert von B ist daher der gleiche wie von A, nämlich 70,5+10,5 = 4 m/s. Die Energieerträge beider Standorte weichen jedoch dramatisch voneinander ab. Das Verhältnis der Jahresenergieerträge beträgt nach dem geschilderten Potenzgesetz [7∙7∙70,5 + 1∙1∙1∙0,5] / (4∙4∙4∙1) = 172/64 = 2,7. Der Standort B liefert daher rund den DREIFACHEN Jahresenergieertrag von A  – bei wohlgemerkt gleichen jahresgemittelten 4 m/s Windgeschwindigkeit. 

Das folgende Bild zeigt eine Messung aus der Praxis. Die beiden Standorte A und B unterscheiden sich praktisch nicht in ihrer mittleren Windgeschwindigkeit von rund 6 m/s. Der Standort B liefert aber das 1,35-fache des linken Standorts an elektrischer Energie. Der Grund ist sein Anteil an Windgeschwindigkeiten über 9 m/s, den Standort A nicht aufweist. Diesen Nachteil kann A auch mit seinem wesentlich höheren Anteil an v = 6 m/s nicht wettmachen.

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Messung.jpg

Bild 2: Eine konkrete Messung der Häufigkeitsverteilung für zwei Standorte

Fazit: Bei gleicher Durchschnittswindgeschwindigkeit, aber unterschiedlicher Häufigkeitsverteilung der Windgeschwindigkeiten zweier miteinander verglichener Standorte können sich starke Differenzen im Energieertrag ergeben. Die Kenntnis der jahresgemittelten Wind-Durchschnittsgeschwindigkeit alleine ist daher für die Abschätzung der Energieausbeute eines Windrades nicht ausreichend.  Der Standort mit größeren Windgeschwindigkeitsfluktuationen – wenn die Fluktuationsmaxima bei relativ großen Windgeschwindigkeiten liegen – liefern infolge des erwähnten Potenzgesetzes einen größeren Energieertrag. Es ist daher unverzichtbar, nicht nur die mittlere Windgeschwindigkeit, sondern auch die Häufigkeit der Geschwindigkeitsverteilung über das Jahr zu kennen, um den zukünftigen Energieertrag einer Windradanlage realistisch abschätzen zu können. Diese Forderung können nur Langzeitmessungen erfüllen.

Kein Planer, der am Energieertrag seiner Anlage ernsthaft interessiert ist, kommt somit um eine lang andauernde Messung herum (von mindestens einem Jahr). Da inzwischen von vielen Windparkplanern oft alle Bedenken bezüglich der Wirtschaftlichkeit beiseite geschoben und zunächst nur die DWD- oder TÜV-Karten für eine Vorabprognose herangezogen werden sind erhebliche Zweifel an der späteren Real-Wirtschaftlichkeit vieler derzeitig geplanter Projekte angebracht.

Sven Johannsen, einer der Autoren dieses Artikels, befasst sich im internationalen Rahmen mit der Bewertung und Prüfung von Investitionsgütern im Bereich erneuerbarer Energien und verfügt unter anderem auch über die erforderlichen professionellen Messeinrichtungen zur Windmessung. Als Fachmann für meteorologische Windmessungen und Windertragsgutachten hat er sein Handwerk in einer der windstärksten OnShore-Gegenden unserer Erde erlernt, der kanadischen Provinz Prince Edward Island. Er berät und unterstützt erfolgreich viele deutsche Bürgerinitiativen.

Ein konkretes Beispiel, die Gemeinde Birkenau im Odenwald, ist bestens geeignet, die wirtschaftliche Unsachgemäßheit aktuell geplanter Windradparks im deutschen Binnenland zu entlarven. Ein Planer möchte in Birkenau drei sogenannte Schwachwindanlagen des Typs Enercon E-92  aufstellen. Er ging gemäß Windatlas von einer vorhandenen Jahresdurchschnitts-Windgeschwindigkeit von 5,75 m/s auf einer Höhe von 140 m über Grund aus. Sven Johannsen hatte dort im Auftrag einer Bürgerinitiative mit einem 60 m Windmessmast und einer über 6 Monate andauernden Messung nachgewiesen, dass mit einer Durchschnittsgeschwindigkeit von nur 3,6 m/s, bezogen auf die Nabenhöhe der geplanten WKA und unter Berücksichtigung der lokalen Häufigkeitsverteilung des Windes sich noch nicht einmal die Anschaffungskosten der drei geplanten Anlagen in 20 Jahren erzielen lassen! In diesem Zusammenhang ist zu erwähnen, dass aus Messungen in tieferer Höhe als der Windradnabenhöhe durch Umrechnung zuverlässig auf die Verhältnisse in Nabenhöhe geschlossen werden kann hier.

Mit diesen Sachargumenten konnte die ortsansässige Bürgerinitiative die Mehrheit der politischen Vertreter ihrer Gemeinde davon überzeugen, für die Aufstellung eines gemeindebezogenen Teilflächennutzungsplans zu stimmen, damit selber das Ruder in die Hand zu nehmen und den Windparkplaner erst einmal außen vor zu lassen.

Windmessergebnisse erlauben somit, eine konkrete Abschätzung des erwarteten Energieertrags vornehmen zu können, was die meisten Projekte schon im Vorfeld ausschließt und auch viele Gemeindemitglieder, bei denen die Profiterwartung an erster Stelle steht, stark ernüchtert. Dies hilft dann dem allgemeinen Bürgerwillen der betroffenen Gemeinden, die vielen Groß-Windkraftanlagen und Windparkbauvorhaben zu STOPPEN, die mit dem allseits berüchtigten § 35 des BauGB ermöglicht werden. Wie kann dies konkret erfolgen? Der HEBEL ist die Unvollständigkeit des § 35 des BauGB. §35 spezifiziert NICHT die GRÖßE von Windkraftanlagen. Die Gemeinde kann und darf somit, wenn die politische Mehrheit seiner Bürger es denn will, Größenbeschränkungen für Windkraftanlagen vorschreiben.

Im hier beschriebenen Beispiel „Birkenau“ wurde vom Autor Johannsen übrigens ebenfalls nachgewiesen, dass mit nur 10 bis 12 KLEIN-Windkraftanlagen mit einer Gesamtleistung von ca. 130 KW  (hier moderne, vertikale Windkraftanlagen, die nur für die direkte Versorgung mehrerer Häuser an Stelle einer Netzeinspeisung nach EEG in Frage kommen) und mit nur knappen 12% der Großanlagen-Errichtungskosten der gleiche Stromanteil OHNE Natur- und Bürgerbeeinträchtigung  produziert werden könnte. Ob sich solche Kleinanlagen rechnen und ob sich private Nutzer für diese Kleinanlagen finden lassen, ist eine andere Problematik, die hier nicht weiter verfolgt werden soll. Selbstversorgung mit Kleinwindanlagen bedeutet natürlich, dass diese Anlagen nur zusammen mit einem Batteriespeicher betrieben werden können, der in der Kostenrechnung eingeht.

Zurück zur Gemeindepolitik! Entscheidend ist, dass die grundsätzliche Entscheidungsfreiheit der Gemeinde, Größenbeschränkungen für Windkraftanlagen vorzuschreiben, zumindest bis heute durch keine Maßnahme beschränkt werden kann.

Da bei einen gemeindlichen, teilbereichsbezogenen Flächennutzungsplan die Gemeinde Größenbeschränkungen für Windkraftanlagen vorgeben darf, lassen sich auf diese Weise ohne Probleme die vielen Groß-Windkraftanlagen und Windparkbauvorhaben nach dem allseits berüchtigten § 35 des BauGB verhindern!

Es kommt jetzt nur noch darauf an, über eine vernünftige Gemeindepolitik die Profiteure von Groß-Windradparks aus dem eigenen Vorgarten herauszuhalten – das ist wohl der schwerste, weil gemeindepolitische Teil der Aufgabe (Geld verdirbt bekanntlich den Charakter). Der Schutz unserer Umwelt, unserer Landschaften und das Aufwachsen unserer Kinder in einer intakten Naturumgebung sollte es den betroffenen Gemeinden und ihren verantwortlichen politischen Gemeindevertretern wert sein.

Vielleicht helfen unser Beitrag und die unzähligen früheren EIKE-Beiträge über Windradanlagen dabei mit, dass sich Leser einmal näher über den wirtschaftlich-technischen Abersinn der deutschen Energiewende und insbesondere der Windrad-Aktion informieren. Viele Gutwillige, die die Energiewende immer noch emotional mittragen, werden mit verlässlicher Information über die Fakten ihre Meinung vermutlich schnell ändern.

Desweiteren empfehlen die Autoren den Landesregierungen Wirtschaftlichkeitsvorgaben (= nicht zu unterschreitende Jahres mittel-Windgeschwindigkeiten) in ihre Windpark-Genehmigungsverfahren aufzunehmen.

Mit dieser Maßnahme würde offenbar werden, dass fast alle Windradstandorte im deutschen Binnenland ungeeignet sind. Der für die deutsche Volkswirtschaft und die Natur schädliche Windrad-Spuk fällt dann von alleine in sich zusammen, und der in dieser EIKE-News beschriebene Umweg über die Gemeindepolitik würde sich erübrigen.

Kontaktdaten von Sven Johannsen für weiter technische Informationen: Tel.: 0152-53692510, Email: sven@z-1100r.com 




Die Schiefergas-Revolution versetzt den russischen Staatskapitalismus in Unruhe

Alle Mächtigen im Russland Putins haben sich zu einer heiligen Allianz zusammen geschlossen, um dieses Gespenst zu bannen: Präsident und Premierminister, Oligarchen und Bürokraten, trendige Umweltaktivisten und Politspione des Kreml. Mr. Putin hat Schiefer als zu teuer und die Umwelt ruinierend denunziert. Alexej Miller, Chef von Gazprom, hat die Revolution beschrieben als einen „Mythos“ und eine „Blase, die bald platzen wird“. „Wir sind skeptisch hinsichtlich Schiefergas“, sagt er. „Wir sehen für uns keinerlei Risiken“. Aber kürzlich ist die Haltung des regierenden Clans nuancierter geworden. Mr. Putin räumt inzwischen ein, dass es „wohl doch eine echte Schiefer-Revolution“ geben könnte und drängt die russischen Energieunternehmen, sich der „Herausforderung durch Schiefer“ zu stellen.

Die gleiche Ambivalenz konnte man auf dem internationalen Energieforum in St. Petersburg vom 20. bis 22. Juni finden. Das Forum projizierte das übliche Bild von Russland als einem Land, das aus der Kälte kam und der Gemeinschaft des globalen Business beigetreten ist. Fast 3700 Geschäftsleute und Funktionäre kamen zusammen, um die Art von Dingen zu diskutieren, die diese Leute immer auf Tagungen diskutieren: Reduktion der Korruption, neues Wachstum entfachen, den Handel zu befreien.

Es gab bei dem Treffen nicht eine einzige öffentliche Sitzung zum Thema Schiefer. Aber wie Banquos Geist schwebte es durch die Bankettsäle. Es tauchte auf in Unterhaltungen im Pepsi-Cola-Café und der Mercedes-Benz Star Bar, und zwar mit Phrasen wie „Game Changer“ und „störende Innovation“. Es war Thema einer Sitzung hinter verschlossenen Türen unter dem Vorsitz von Daniel Yergin, einem amerikanischen Energieberater. Teilgenommen haben auch die Chefs von einem Dutzend der weltgrößten Energieunternehmen. Alexander Novak, der Energieminister, sagte dem Auditorium, dass es Steuerreformen geben werde, um unkonventionelles Öl und Gas voranzubringen. Aber der in seine Anti-Schiefer-Haltung zurück fallende Mr. Putin sagte auf dem Forum, dass das nicht wettbewerbsfähig sei, „Schwärze“ im Trinkwasser und viele „Explosionen“ verursachen würde.

Die Schiefer-Revolution verändert das Gleichgewicht der Macht zwischen dem russischen Bären und seinen europäischen Verbrauchern. In der Vergangenheit war sich Russland seiner Wirtschaftskraft hinsichtlich Energie so sicher, dass es sich in der Lage wähnte, Kunden einschüchtern zu können: So wurde der Gasexport in die Ukraine während Vertragsverhandlungen in den Jahren 2006 und 2009 unterbunden. Aber die durch Schiefer angetriebene Transformation von Amerika von einem abnehmenden Energieverbraucher zum größten Gaserzeuger der Welt und ein potentieller großer Exporteur, drückt den Gaspreis auf dem Weltmarkt. Verflüssigtes Gas aus dem Nahen Osten, das Amerika nicht mehr haben will, wird jetzt den Europäern angeboten. Letzte Woche wurde ein Konsortium gewählt, das Gas aus Aserbeidschan nach Westeuropa pumpen soll, was die Abhängigkeit von russischen Lieferungen weiter reduziert. Die Europäer merken, dass sie Marktmacht haben: Bulgarien hat kürzlich in einem neuen Zehnjahresvertrag mit Russland einen Preisnachlass um 20% ausgehandelt. Andere sind auch auf dem Wege, sich aus ihrer Abhängigkeit von einem Land zu befreien, das Energie als Waffe der Außenpolitik benutzt hat. Polen und die Ukraine beabsichtigen, ihre eigene Versorgung mit Schiefergas zu entwickeln, auch aus ökonomischen Gründen.

Gazprom ist dieser Tage ein verwundeter Riese, und Schiefer ist eines der Dinge, das ihn am meisten geschmerzt hat. Im Jahr 2008 verfügte er über ein Marktkapital von 367 Milliarden Dollar, und Mr. Miller spekulierte, dass sein Unternehmen das erste Billionen-Dollar-Unternehmen der Welt werden würde. Jetzt liegt der Wert bei 78 Milliarden Dollar, und sein Geschäftsmodell – Geld in den Kreml zu pumpen für den Schutz vor Wettbewerb – sieht ruiniert aus.

Gazprom in Verlegenheit bringen

Agilere Unternehmen wie Statoil in Norwegen haben sich an die Gasschwemme angepasst, indem sie den Verbrauchern „Spotpreise“ anbieten an Stelle von Preisen, die sich am Ölpreis orientieren. Die Europäische Kommission erwägt, Gazprom zu zwingen, seine Pipelines zu verkaufen und Kartellstrafen bis zu 14 Milliarden Dollar zu zahlen. Und heimische Wettbewerber wie Novatek fragen, warum ein Unternehmen, das „verschlafen“ hat, sich immer noch an einem Monopol für Gasexporte erfreuen soll.

Der Aktienkurs von Novatek ist seit 2008 um 60% gestiegen, während der von Gazprom um drei Viertel gefallen ist. Man hat riesige Ambitionen einschließlich einer Partnerschaft mit Total in Frankreich, in Nordwest-Sibirien eine Gasverflüssigungs-Anlage zu bauen, um Gas nach Asien und Europa zu verschiffen. Novatek ist eine neue Art von Unternehmen, das sich aus einem Splitter entwickelt hat und nicht aus Resten der Sowjetunion, aber es ist nicht das erste. Gennadi Timtschenko, einer von Putins Verbündeten, hat seine Aktienbeteiligung im Jahr 2009 um 23% erhöht. Es erfreut sich auch der Unterstützung anderer Energiegiganten wie Rosneft, Russlands größtem Ölerzeuger, der plant, seine Anteile am heimischen Gasmarkt bis zum Jahr 2020 zu verdoppeln, teilweise auch mit Schiefer. Aber das Gazprom-Monopol bzgl. von Gasexporten los zu werden würde nichtsdestotrotz einen Schritt in die richtige Richtung markieren.

Einige Analysten weisen darauf hin, dass Russland sehr wohl in der Lage ist, den Energie-Aufruhr zu überstehen. Es verfügt selbst über eigene potentiell riesige Reserven an Schiefergas und –öl, was Putin zu erwähnen pflegt, wenn er denn mal in Schieferlaune gerät. Russland kann sowohl nach Westen als auch nach Osten schauen auf energiehungrige Märkte wie China. Vielleicht hat das Schiefergespenst wie so viele andere fiktive Geister noch rechtzeitig eine Warnung ausgesprochen: Wenn man die Profite weiterhin in fetter werdende Monopole investiert anstatt Innovationen voranzutreiben, wird man wahrscheinlich erniedrigt. Putin und Co. müssen ihre feindlichen Versuche aufgeben, den Schiefer-Geist zu bannen und stattdessen auf das hören, was er ihnen zu sagen versucht: was gut ist für Gazprom ist, ist nicht notwendigerweise auch gut für Russland.

Link: http://www.economist.com/news/business/21580131-shale-gas-revolution-unnerves-russian-state-capitalism-spooked-shale

Übersetzt von Chris Frey EIKE




Australien und ACORN-SAT messen höhere Tiefst-Temperaturen als die (angegebenen) Höchsttemperaturen! Wie das?

Es ist ein Datensatz mit täglichen Daten, was ich mag. Und sie scheinen etwas von Anthony Watts und seinem Surface Station Project gelernt zu haben, es gibt Photos und Beschreibungen und Metadaten von jeder einzelnen Station. Außerdem sind die Daten gut auf Fehler untersucht und überprüft worden. Auf der Site heißt es:

Experten-Begutachtung

Alle wissenschaftlichen Arbeiten in dem Bureau sind Gegen­stand von Begutachtungen durch Experten. In Anerkennung des öffentlichen Interesses an ACORN-SAT als Basis für Analysen zur Klimaänderung hat das Bureau zusätzlich eine internationale Begutachtung seiner Arbeitsweisen und Methoden initiiert.

Eine Reihe weltweit führender Experten traf sich 2011 in Melbourne, um die Methoden zur Entwicklung von ACORN-SAT zu begutachten. Sie kamen zu dem Ergebnis, dass die Methoden und Datenanalysen des Bureaus unter den besten der Welt liegen.

und

Methoden und Entwicklung

Die Erstellung einer modernen homogenisierten australischen Temperaturaufzeichnung erfordert extensive wissenschaftliche Kenntnisse – zum Beispiel darüber, wie Änderungen der Technologie und Verschiebungen der Station die Konsistenz der Daten mit der Zeit beeinflussen.

Die Klimadaten-Experten des Bureau of Meteorology haben die digitalisierten Daten sorgfältig analysiert, um eine konsistente – oder homogene – Aufzeichnung täglicher Temperaturwerte während der letzten 100 Jahre zu erhalten.

Als Ergebnis davon war ich begeistert, die Sammlung dieser Temperaturdaten zu finden. Also habe ich ein R-Programm geschrieben und die Daten zur Untersuchung herunter geladen. Aber gerade als ich damit fertig war und mit meiner Untersuchung nach bester klimawissenschaftlicher Tradition beginnen wollte, ging plötzlich alles schief!

Was war geschehen? Bei der Forschung nach dem ACORN-SAT-Datensatz war ich zufällig auf eine Website gestoßen mit einem Beitrag vom Juli 2012, etwa vier Monate nach der Veröffentlichung des ACORN-SAT-Datensatzes. Der Autor stellte die überraschende Behauptung auf, dass an einer ganzen Reihe von Tagen in verschiedenen Aufzeichnungen im Datensatz die tägliche Tiefsttemperatur HÖHER lag als das Tagesmaximum … oh, das war gar nicht schön!

Nun, ich dachte mir, dass neue Datensätze manchmal Kinderkrankheiten aufweisen, und da dieser Beitrag von vor fast einem Jahr stammte und kurz nach der Veröffentlichung des Datensatzes erschienen war, dachte ich, dass man dieses Problem inzwischen gelöst habe…

…aber dann kam ich endlich zu Verstand und erinnerte mich, dass dies das Australian Bureau of Meteorology (BoM) war, und da wusste ich, dass ich ein Narr wäre, dies nicht zu checken. Die Reputation des Bureaus ist nicht Gold, sondern tatsächlich Zinn … also schrieb ich ein Programm, das alle Tage an allen Stationen mit diesem speziellen Problem finden sollte.

Von allen 112 ACORN-SAT-Stationen hatten nicht weniger als 69 zumindest einen Tag in der Aufzeichnung, an dem die Tiefsttemperatur dieses Tages höher lag als die Höchsttemperatur des gleichen Tages. Im gesamten Datensatz fanden sich 917 Tage, an denen das Minimum höher lag als das Maximum…

Ergebnisse wie diese hasse ich absolut. Für die meisten Anwendungen spielt dieses Ergebnis fast keine Rolle. Es sind tägliche Datensätze, wobei jede Station 100 Jahre lang Daten besitzt, 365 Tage im Jahr. Das bedeutet, dass der gesamte Datensatz aus 4 Millionen Daten besteht, so dass diese 917 Fehler gerade mal 0,02% der Daten ausmachen, falls … Aber es bedeutet auch, dass man den Ergebnissen einfach nicht trauen kann, wenn ich diese Daten verwende. Es bedeutet, wer auch immer diesen Datensatz zusammengestellt hatte, hat nicht seine Hausaufgaben gemacht.

Und traurigerweise bedeutet es auch, dass wir nicht wissen, was sie noch alles nicht getan haben könnten.

Noch einmal, es geht nicht darum, dass diese Probleme im ACORN-SAT-Datensatz aufgetaucht waren. Alle neuen Datensätze weisen Anfangsfehler auf.

Es geht darum, dass die Autoren und Kuratoren des Datensatzes ihrer Verantwortung nicht gerecht geworden sind. Sie hatten ein Jahr Zeit, dieses einfachste aller Probleme zu lösen, und soweit ich das sagen kann, haben sie in dieser Hinsicht gar nichts getan. Sie passen nicht auf, so dass wir nicht wissen, ob die Daten gültig sind oder nicht.

Ich muss zugeben, diese Art schäbiger „veröffentliche es“-Klimawissenschaft wird langsam zur Gewohnheit…

DIE ERGEBNISSE

Station, Anzahl der Fehlertage (an denen die Tiefsttemperatur höher liegt als die Höchsttemperatur)
Adelaide, 1
Albany, 2
Alice Springs, 36
Birdsville, 1
Bourke, 12
Burketown, 6
Cabramurra, 212
Cairns, 2
Canberra, 4
Cape Borda, 4
Cape Leeuwin, 2
Cape Otway Lighthouse, 63
Charleville, 30
Charters Towers, 8
Dubbo, 8
Esperance, 1
Eucla, 5
Forrest, 1
Gabo Island, 1
Gayndah, 3
Georgetown, 15
Giles, 3
Grove, 1
Halls Creek, 21
Hobart, 7
Inverell, 11
Kalgoorlie-Boulder, 11
Kalumburu, 1
Katanning, 1
Kerang, 1
Kyancutta, 2
Larapuna (Eddystone Point), 4
Longreach, 24
Low Head, 39
Mackay, 61
Marble Bar, 11
Marree, 2
Meekatharra, 12
Melbourne Regional Office, 7
Merredin, 1
Mildura, 1
Miles, 5
Morawa, 7
Moree, 3
Mount Gambier, 12
Nhill, 4
Normanton, 3
Nowra, 2
Orbost, 48
Palmerville, 1
Port Hedland, 2
Port Lincoln, 8
Rabbit Flat, 3
Richmond (NSW), 1
Richmond (Qld), 9
Robe, 2
St George, 2
Sydney, 12
Tarcoola, 4
Tennant Creek, 40
Thargomindah, 5
Tibooburra, 15
Wagga Wagga, 1
Walgett, 3
Wilcannia, 1
Wilsons Promontory, 79
Wittenoom, 4
Wyalong, 2
Yamba, 1

Link: http://wattsupwiththat.com/2013/06/28/australia-and-acorn-sat/

Übersetzt von Chris Frey EIKE