1

Die Hockeystick Affäre: Erklären oder zurücktreten!

Abweichung zwischen gefilterten Hadley-Daten (rot) und den gesamten verfügbaren Daten (schwarz)
Abweichung zwischen gefilterten Hadley-Daten (rot) und den gesamten verfügbaren Daten (schwarz)

Steve McIntyre hat seit 2003 die den Rekonstruktionen der Climate Research Unit (CRU), die mit dem Hadley Centre des UK Met Office verbunden ist, zugrundeliegenden Daten gefordert. Er konnte zunächst nur nachweisen, daß die mathematische Methodik, die der 1999 von Mann et al. präsentierten Hockeystick-Kurve zugrunde lag, falsch war. Kürzlich wurden die für die Baumring-Temperaturrekonstruktion benutzten Daten trotz der jahrlangen Weigerung der daran beteiligten Wissenschaftler wie Dr. Briffa jetzt endlich offengelegt (wegen einer Veröffentlichung in den Philosophical Transactions der Royal Society, die auf die Einhaltung strenger Regeln bezüglich der Offenlegung von Daten achtet). McIntyre konnte aus den Daten ableiten, dass bei der Temperaturrekonstruktion nur eine kleine Datenauswahl berücksichtigt wurde, um die These vom beispiellosen Temperaturanstieg im 20. Jahrhundert zu stützen. Die Gesamtdaten unterstützen die These durchaus nicht (siehe Graphik). externer Link Quelle (englisch, externer Link

Diese News erschien bei Klimasketiker Info. Details dazu hier.

Die gesamte Hockeystick Tragik-Komödie hat Gastautor Rudolf Kipp nochmals aufbereitet: Interessierte finden sie hier.

Eigentümlich frei Autor von Jörg Janssen hat dieser dramatischen Entwicklung ebenfalls einen Artikel gewidmet. Wetterscientology: Die Kriminologie der Klimatologie


* John Houghton sagte auch:

"I believe that God is committed to his creation, a commitment he has demonstrated by sending Jesus into the world to be the saviour of our human race. God has not left us to do it on our own. That he is there to help us wit the the great task has been a great source of strength to me in my work at IPCC ehem. Co-Chairman IPCC"

Quelle: JAMES SCHLESINGER, FIRST U.S. SECRETARY OF ENERGY IN “THE  THEOLOGY OF GLOBAL WARMING”

Weitere Hockeystick Infos hier




Wäre ein Aus für den Europäischen Emissionshandel eine Katastrophe?

Die Entscheidung des Europäischen Gerichtshofs den EU-Staaten ein höheres Maß an Autonomie bei der Wahl ihrer Emissionsziele für die Nationale Allokationspläne zuzugestehen wird von einigen Kommentatoren als ein schleichendes Ende der europäischen Emissionshandels interpretiert. Hardliner befürchten, das Europa seine ambitionierten Klimaziele wirtschaftlichen Problemen unterordnet. Auch wenn dieses Urteil noch etwas verfrüht erscheint, so weist diese Entscheidung auf ein fundamentales Problem des europäischen Treibhausgashandels hin. Seine Kosten sind im Vergleich zum Nutzeffekt für das Klima und für die einzelnen Länder extrem hoch. Für klimapolitische Vorreiter war dieses Problem jedoch stets von untergeordneter Bedeutung. Ihnen ging es um Planerfüllung, um auf internationalen Verhandlungen mit dem erreichten prahlen zu können. 

Tatsächlich ist die Idee des Treibhausgashandels bestechend einfach und elegant. Da eine effiziente Verteilung knapper Güter versagt, wenn keine Eigentumsrechte existieren oder einzelnen Individuen zugeordnet werden können, kamen findige Ökonomen vor Jahrzehnten auf die Idee, diesem Manko durch eine künstliche Verknappung bislang öffentlicher Umweltgüter abzuhelfen. Sie versprachen sich davon, dass der Marktmechanismus wieder in Gang gesetzt wird und der Preis für den neugeschaffenen Handelsgegenstand dessen tatsächliche Knappheit signalisiert. Das würde die Unternehmen zu Innovationen und die Konsumenten zur Sparsamkeit motivieren. Gerade in der Umweltpolitik, die ihre Legitimation zu großen Teilen aus der mangelnden Zuordnung von Einkommensrechten zu Umweltgütern zieht, erhoffte man sich mit diesem Verfahren eine rasche Verbesserung der Umweltbedingungen bei gleichzeitig geringerem Kostenaufwand. So elegant der Emissionshandel in der Theorie ist, so anspruchsvoll ist seine Implementierung und seine Wirkung hängt maßgeblich von den Eigenschaften des Umweltproblems ab. Zum einen kann der Emissionshandel seine Vorteile nur dann ausspielen, wenn er alle Schadstoffemissionen aus allen erdenklichen Quellen einschließt, zum anderen kommt es darauf an, dass das zu lösende Umweltproblem tatsächliche eine starre Zielsetzung rechtfertigt. Für einen erfolgreichen Einsatz dieses Instruments ist es maßgeblich, ob die simulierte Verknappung der Umweltinanspruchnahme durch die Wirtschaft tatsächlich der realen Knappheit entspricht. Ist dies nicht der Fall, so äußern sich kritische Stimmen, wirkt der Emissionshandel wie ein Schnellzug, der in den falschen Bahnhof geleitet wird. 

Bei der Einführung des Emissionshandels in Europa wurden diese Bedenken nie besonders ernst genommen. Natürlich gab es immer wieder Bedenkenträger unter den Experten, aber dennoch führte umweltpolitischer Aktivismus zu einer symbolischen Klimapolitik, die in ihrer Bilanz nur hektische Betriebsamkeit statt echter Wirkung gegen den globalen Ausstoss von Treibhausgasen brachte. Auch das eigentliche Ziel des Emissionshandels, die Kosten der Emissionsminderung so niedrig wie möglich zu halten, wurde bei der Umsetzung des Projekts nie ernsthaft verfolgt. Bei den üblichen Versuchen übermäßige Ambitionen mit der Realität von Interessengruppenkompromissen zu kombinieren, wurde das denkbar schlechteste Ergebnis erreicht. Von Anfang an war klar, dass eine Verteuerung der Energie durch den Emissionshandel zum Verlust der Wettbewerbsfähigkeit energieintensiver Industrien in Europa führen würde, mit dem Ergebnis von Standortverlagerungen und einer Mehrnachfrage nach Energiegütern aus dem außereuropäischem Ausland. Während für die Bürger Europas Energie immer teurer wurde und ihnen nichts weiter übrig blieb als den Gürtel enger zu schnallen, verpuffte der Reduktionseffekt bei den Treibhausgase durch die globale Mehrproduktion der Industrie. Kein Wunder, dass die einheimischen Industrien, vor allem in Osteuropa, jetzt den Riegel vor den Verlust der weiteren Wettbewerbsfähigkeit schieben wollen. Aber auch innerhalb Europas wurde das Ziel des Emissionshandels verfehlt, weil man sich nicht auf eine Politik einigen konnte, die alle Sektoren gleichermaßen mit einbezog. Im Ergebnis wenden die Unternehmen und Verbraucher in Europa für die Vermeidung von Kohlendioxid Kosten auf, die sich zwischen den Sektoren bis um den Faktor zehn unterscheiden. Wer wenig Klimaschutz zu hohen Kosten erzwingt, kann sich wahrlich nicht als Klimaschützer bezeichnen. Die EU-Kommission hat dies nicht davon abgehalten, sich trotzdem auf jeder internationalen Klimaschutztagung das Mäntelchen der Führungsposition umzulegen. 

Ohne Beachtung blieb auch die Erkenntnis der Ökonomen, dass der Emissionshandel nur das Instrument der Wahl ist, wenn dem zu bekämpfende Schadstoff tatsächlich erhebliche Schadwirkungen zugeordnet werden können. Doch ist es ein Allgemeinplatz, dass die vermeintliche Klimawirkung des Kohlendioxids nicht von jeder einzelnen Tonne, sondern von der Gesamtmenge in der Atmosphäre abhängt. Starre Zielsetzungen in einem engen zeitlichen Korsett, wie sie der Emissionshandel umsetzen helfen soll, sind daher nicht das angemessene Klimaschutzkonzept. Es ist irrelevant, ob eine bestimmte Minderung heute, in ein zwei Jahren oder auch in einem Jahrzehnt erreicht wird. Wichtig ist allein, dass die Kosten jeder Emissionsminderung nicht höher als die Schäden zusätzlicher Emissionen sind. Ein starrer Zielpfad nimmt jedoch keine Rücksicht auf Wirtschaftskrisen oder Veränderungen der relativen Energiekosten, er schreitet voran, koste es was es wolle. Auch hier ist es kein Wunder, dass sich die gebeutelten Unternehmen in Polen und Estland die engen Fesseln der europäischen Kommission nicht gefallen lassen wollen. Deren Kosten sind im Vergleich zu den Nutzen der Emissionsminderungen enorm. Hier wäre ein flexibler Ansatz notwendig gewesen, der von vornherein die Nutzen-Kosten-Bilanz der Klimapolitik nicht aus dem Auge verliert. 

Vor diesem Hintergrund kann ein Aus für den europäischen Emissionshandel wahrlich nicht als Katastrophe bezeichnet werden. Selbst unter der Prämisse eines dringenden klimapolitischen Handlungsbedarfs würde dies die Chance für eine Öffnung für neue, kreativere Klimaschutzstrategien öffnen, die vor allem der Anpassung an unvermeidliche Probleme klimatischer Veränderungen, seien sie nun durch den Menschen verursacht oder nicht, mehr Platz einräumen. Tatsächlich gilt es die Märkte für mehr Innovationen im Energiebereich zu fördern, was aber nicht viel mehr bedeutet, als die heutigen Fesseln der Industrie- und Energiewirtschaft zu lockern, aber auch unwirtschaftliche Subventionen rigoros abzubauen. Wer Effizienz im Klimaschutz erwartet, der sollte nicht engstirnig auf die schlechte Umsetzung eines an sich guten Instruments wie den Emissionshandels pochen, sondern auf den Wettbewerb einer Vielzahl von Ideen hoffen, auch wenn diese in den Lehrbüchern nicht so prominent vertreten sind. So unsicher wie unsere Klimazukunft ist, so vermessen sind Patentrezepte, vor allem dann, wenn sie nicht einmal das bekannte Wissen berücksichtigen. Den Artikel der SZ finden Sie hier

Steffen Hentrich
Referent

Friedrich-Naumann-Stiftung für die Freiheit
Liberales Institut

 Lesen Sie dazu auch den Artikel der New York Times. EU EMISSIONS TRADING SCHEME MAY DESTROY EUROPE’S COMPETITIVENESS




Arktiseis III:Das Ende der Arktischen Schmelzsaison – Ein Resümee!

Diese Tage genügt ein Blick aus dem Fenster um zu erkennen, dass der Sommer vorüber ist und der Herbst langsam Einzug hält. Und weil in diesem Jahr neben Weihnachten außerdem noch die Weltklimakonferenz in Kopenhagen vor der Tür steht, können wir sicher sein, dass ähnlich wie die Menge an Lebkuchen und Schokonikoläusen in den Geschäften auch die Zahl der Publikationen zum Thema Klimawandel und seine Folgen in der Presse in Richtung Dezember rasant ansteigen wird.

Und ebenso sicher können wir sein, dass sich ein nicht geringer Teil dieser Publikationen mit der Eisentwicklung an den Polen beschäftigen wird. Die Arktis und die Antarktis bergen mit ihren riesigen Massen an gespeichertem gefrorenen Wasser nun einmal die beste Grundlage für Horrorszenarien, welche das Wort Sintflut enthalten.

Der Verlockung, dieses Potenzial auch zu nutzen erliegen nicht nur Klimaforscher. Auch die Medien, welche sich ohnehin begeistert auf alles werfen, was sich irgendwie als Katastrophenmeldung verwerten lässt, finden an Arktis und Antarktis großen Gefallen. Süße Eisbären und Pinguine und die globale Katastrophe in einer Meldung unterbringen zu können, stellt nun mal einen unwiderstehlichen Reiz dar.

Arktiseis als Sommerloch-Füller

Daher haben auch in diesem Sommer wieder verschiedene Horrorszenarien über die Entwicklung des Eises in der Antarktis die Presse erreicht. Zwei Fragen waren dabei besonders im Fokus. Zum einen bis wann das Eis in der Arktis im Sommer ganz verschwunden sein wird und zum anderen ob das Arktiseis in diesem Jahr ein erneutes Minimum erreicht.

Ebenfalls den Weg in die Presse gefunden hat das neue Lieblingskind der Arktisforscher, nämlich die Eisdicke, beziehungsweise das Eis-Volumen. Weil der Rückgang der Eisbedeckung in der Arktis seit 2007 eine Pause eingelegt hat, will man uns alarmistisch bei der Stange halten, indem man uns erzählt, dass aber auch die Eisdicke abgenommen habe und dass das 2008 und 2009 neu gebildete Eis ja noch dünnes schwaches “Baby-Eis” sei, welches dann im Sommer schnell wieder wegschmelzen würde.

Letzteres ist allerdings bislang nicht eingetreten, so dass aus dem Baby-Eis möglicherweise bald ausgewachsenes Eis wird und die Arktisforscher sich ein neues Thema suchen müssen.

Die Geschichte der Nordost-Passage

Als besonders kreativer Beleg für den Klimawandel kann die “erstmalige Befahrung der Nordost-Passage durch zwei deutsche Schiffe” betrachtet werden. Durch das verschwindende Eis wäre diese Route Meldungen zufolge erstmals schiffbar gewesen (hier und hier). Richtig an der Geschichte ist vermutlich nur, dass es die ersten deutschen Schiffe waren die diese Passage genommen haben. Tatsächlich jedoch ist die Nordost-Route eine seit 1935 kommerziell und militärisch genutzte Schiffahrtsroute (hier), durch welche in manchen Jahren über 200.000 Tonnen Ladung bewegt wurden. Man kann sogar Kreuzfahrten buchen.

Auf dem Höhepunkt der diessommerlichen Arktis-Schmelze-Berichterstattung am 11. August schrieb dann der Spiegel: “Forscher befürchten neuen Eisschmelze-Rekord” und die “Welt” titelte gar: “Sommer 2009 ist für die Arktis verheerend”. Anlass für die Meldungen war eine Publikation eines amerikanischen Forscherteams, welches sich mit der Eisentwicklung in der Arktis beschäftigt hatte. Als besonders besorgniserregend sahen die Wissenschaftler das schnelle Abschmelzen des Eises im Juli an. Außerdem betonte der Hauptautor, dass das Eis in der Arktis außergewöhnlich dünn und verwundbar sei. Daher, so warnte er, könnte die Eisfläche bis September noch unter die Tiefstwerte schrumpfen.

Wer schätzt am besten?

Ein ähnliches Unterfangen, nämlich das Vorhersagen der Eisentwicklung anhand von Modellen und Beobachtungen, gab es auch bei uns in Europa. Erinnern wir uns zurück. Im Juni stellte das Alfred-Wegener-Institut in einer Pressemeldung folgende Frage: “Neues Rekordminimum der arktischen Meereisbedeckung?” und gab die Wahrscheinlichkeit dafür damals mit 28 Prozent an.

Die Wissenschaftler vom AWI nahmen im Rahmen eines europäischen Forschungsprojektes, welches ganz unspektakulär DAMOCLES getauft wurde, an einer Art Wettbewerb teil. In diesem gaben verschiedene Teams von Klimawissenschaftlern Prognosen für die minimale Ausdehnung der arktischen Eisbedeckung ab und ermittelten so, welches Modell die beste Prognose produzieren kann. Europa sucht die Super-Modellierer sozusagen.

Im Moment sieht alles danach aus, dass in der Arktis das Minimum der Eisbedeckung für dieses Jahr erreicht ist. Nach zwei Tagen wachsender Eisfläche um diese Jahreszeit erscheint dies sehr wahrscheinlich. Damit bietet sich die Gelegenheit, die Vorhersagen der Wissenschaftler einmal mit der Realität zu vergleichen. Und dabei fällt einem schnell auf, dass das Eis in der Arktis wohl wenig von Modellrechnungen hält. Im August lag die beste Schätzung der Forscher bei fünf Millionen Quadratkilometern. Das echte Eis war 240.000 Quadratkilometer größer. Das ist in etwa die Fläche von Großbritannien.

Eigene Grafik, Datenquelle:http://www.arcus.org/search/seaiceoutlook/2009_outlook/full_report_august.php </dd></dl>

Eisentwicklung zeigt positiven Trend

Wenn man sich den Verlauf der Eisentwicklung in der Arktis der letzten Jahre anschaut, dann kann von einer Abnahme der Eisbedeckung oder gar von einem beschleunigten Abschmelzen momentan keine Rede sein. Ganz im Gegenteil. Das Eis in der Arktis wächst seit 2007. So erleben wir 2009 im zweiten Jahr in Folge einen Zuwachs beim sommerlichen Tiefstand. Im Vergleich zu 2008 hat die Eisfläche in diesem Jahr um über 530.000 Quadratkilometer zugenommen, was ungefähr der Fläche Frankreichs entspricht.

Eigene Grafik, Datenquelle: http://www.ijis.iarc.uaf.edu/en/home/seaice_extent.htm </dd></dl>

Legt der Klimawandel eine Pause ein?

Die zunehmende Eisbedeckung der Arktis wird jedenfalls kaum geeignet sein, den Alarmisten als Munition für die Verhandlungen in Kopenhagen zu dienen. Man darf also gespannt bleiben, welche weiteren “Hot-Spots” uns bis dahin noch präsentiert werden. Und es bleibt auf jeden Fall weiter interessant zu beobachten, wie lange die Prediger des kommenden Erwärmungskollaps noch öffentliches Gehör finden wenn die von ihnen prophezeiten Entwicklungen auch weiterhin ausbleiben.

Einige von ihnen scheinen bereits für einen solchen Fall vorzubauen. So hat Mojib Latif, einer von Deutschlands prominentesten Klimaforschern, kürzlich auf der Weltklimakonferenz der UN in Genf offen von der Möglichkeit gesprochen dass die globale Erwärmung eine 20- bis 30-jährige Pause einlegen könnte. Demnach wäre bis 2020 oder 2030 keine weitere Erwärmung zu erwarten. Latif folgerte daraus: “Die Leute werden sagen das die Globale Erwärmung verschwindet.” Er betonte, er wäre “keiner der Skeptiker… aber wir müssen uns selbst die hässliche Fragen stellen oder andere Leute werden es tun”. (“I am not one of the skeptics,” … “However, we have to ask the nasty questions ourselves or other people will do it.” ) (hier, hier , hier und hier)

Sollte sich diese Prognose als zutreffend erweisen und in den nächsten zehn oder 20 Jahren keine weitere Erwärmung eintreten, dann müssen sich die Klimaforscher in der Tat auf einige “hässliche Fragen” gefasst machen. Nur steht zu befürchten, dass für die Folgen der Klimaforschung ganz andere zu bezahlen haben.

Weiterführende Links:

Arktische Eisausdehnung aktuell (NSIDC)

Eisentwicklung in der Arktis seit 1979 (NSIDC)

Antarktische Eisausdehnung aktuell (NSIDC)

Eisentwicklung in der Antarktis seit 1979 (NSIDC)

Arktische Eisausdehnung 2002-2009 im Vergleich (IARC-JAXA)

Arktische Eisausdehnung aktuell (Arctic ROOS)

AMSR-E sea ice concentration IFM Hamburg

Arktische Eisausdehnung 1978-2009 (Cryosphere Today)

Antarktische Eisausdehnung 1978-2009 (Cryosphere Today)

Temperaturen in der Arktis im Jahresverlauf (DMI)

Global Sea Surface Temperatures (climate4you)

EIKE Gastautor Rudolph Kipp; Der Beitrag erschien zuerst auf Readers Edition




Asse und Gorleben: Die wahre Geschichte!

Gorleben hat schon unendlich viel Geld gekostet und Zeit verbraucht, was Mi­nister Gabriel nicht davon abhielt, es jetzt für „politisch tot“ zu erklären, um gleichzeitig die Suche nach einem neuen Standort anzu­mah­nen. Bei einem neuen Standort würde alles von vorne anfangen, und nach weiteren 20 Jah­ren würde sich auch der neue irgend­wann als politisch ungeeignet heraus­stellen, und wie­der hätte man Milliarden nutzlos ausgege­ben. Im Oktober 2006 (Heft 39) be­richtete Der Spiegel, Minister Gabriel beabsichtige, mehrere Standorte alternativ zu untersu­chen, um den ‚bestgeeigneten’ zu finden. Bei diesem Konzept blieben Finanzen und Logik glei­chermaßen auf der Strecke: Für Gorleben und Konrad wurden bereits 2,1 Mrd. € ausgegeben, und wie viele Standorte man auch untersuchte, man wüsste nie, dass nicht ein anderer noch besser ist! Ein Standort muss geeignet sein, mehr lässt sich weder bezahlen noch nachweisen.

Bei der letzten großen Protestaktion gegen Castor-Transporte erklärte Claudia Roth in einem Radiointerview genau, wa­rum Gorleben ungeeignet sei: Die Grube Asse hätte als Pilotanlage versagt und das beweise, dass auch Gorleben nicht geeignet sei. Aus fachlichen Gründen ist diese Gleichset­zung nicht nur falsch sondern auch dumm, wie im folgenden gezeigt werden soll.

Unbestreitbar ist Asse als Pilotanlage falsch betrieben worden, und es ist auch keine Entschuldi­gung, dass man zur Zeit der Einlagerung vor Jahrzehnten noch nicht wissen konnte, welche Bri­sanz dieser Komplex einmal haben würde. Das Verhalten des Salzes war schließlich bekannt. Das grundsätzliche Problem der Asse ist nicht der Umstand, dass man die Fässer nicht ord­nungsgemäß in Reih’ und Glied aufgestellt hat – das hätte das heutige Problem nicht verhindert –, sondern dass man sie in ausgebeutete und aufgelas­sene Strebe eingelagert hat, die sich zu nahe am Rande des Salzstockes befinden, und dass diese Einlagerungskammern nicht anschließend dicht abgeschlossen wurden. Ihre randnahe Lage er­gab sich aus dem Umstand, dass sich dort die Salzarten befanden, die man gewinnen wollte. Wa­rum verursachen die randnahe Lage und das Offenlassen das Problem?  Die Kenntnis einiger Fakten kann helfen, die Gründe für das Prob­lem zu verstehen.

Bildung der Salzstöcke

Bis vor ca. 240 Millionen Jahren war Mitteleuropa über einen Zeitraum von ca. 10 Millionen Jahren von einem flachen Meer bedeckt. Dieses ‚Zechstein-Meer’ war nach Nordwesten mit dem Ozean verbunden, und da warmes Klima herrschte, verdunstete aus dem Zechstein-Meer viel Wasser. Frisches Ozean-Wasser floss nach und vergrößerte mit seiner gelösten Salzfracht die Salzkon­zentration des Meeres soweit, dass das Salz auskristallisierte und als mehrere hundert Meter mächtiger Stapel horizontal abgelagert wurde. Als diese Periode zu Ende ging, wa­r im Raume Hanno­ver sogar eine Schicht von etwa 1200 m Salz abgelagert worden. In den darauf­folgenden geologi­schen Perioden wurden über dem Salz bis zu 1500 m jüngere Sedimente ab­gelagert. Ihr Gewicht konnte das Salz nicht aushalten – und musste es auch nicht, denn es kann sich unter Auflast langsam bruchlos verformen und sehr langsam ‚fließen’ – viskoplastisch wird dieses Verhalten genannt. Salz ist außerdem leichter als die jüngeren Sedimente. Wegen beider Eigen­schaften ist es in Jahrmillionen in die Bereiche mit geringe­rer Auflast gewandert und dort in die überlagern­den Schichten eingepresst worden. Die Abbildung 1 illustriert mit 8 parallelen Schnitten diese Ent­wick­lung in den aufeinanderfol­genden geologischen Epochen an Beispiel des Salzstockes Gorleben.

 

Abbildung 1: Zeitliche Entwicklung eines Salzstockes durch Salzaufstieg (Quelle: Bundesanstalt für Geowissenschaften und Rohstoffe – BGR)

Das aufsteigende Salz hat die umge­benden Gesteine seitlich verdrängt und ist pilzar­tig als ‚Salz­stock’ aufgestiegen. Dieser Aufstieg geht zu Ende, wenn der größte Teil des ursprünglichen Salzlagers ausgewandert und in den Salz­stock einge­presst worden ist. Unter der norddeutschen Tiefebene existieren viele solcher Salz­stöcke, und jeder hat seine eigene Geometrie und innere Struktur. Im allgemeinen sind sie bis zu 3000 m tief und wenige bis viele Kilometer lang, bei einer Breite bis zu einem Kilometer.

Beim Salzstock Gorleben begann dieser Aufstieg schon bald nach der Ablagerung der Se­dimente in der ‚Buntsandsteinzeit’ etwa ab 240 Millionen Jahren und setzte sich in der Folgezeit fort. Zu Beginn der Tertiärzeit, also vor 65 Millionen Jahren, reichte der Salzstock bis an die Oberfläche. Im Alttertiär ging der Aufstieg zu Ende, weil in der Region die für die Abwanderung des Salzes verfügbare Menge weitgehend ausge­presst war, also aufgestiegen ist. Danach wurde der Salz­stock im Jungtertiär und im darauf folgenden Quartär von bis zu 160 m Sedimenten überlagert (Abbildung 2). In dieser Zeit, also seit etwa 23 Millionen Jahren, ist der Salz­stock nur noch um ca. 0,03/a mm aufge­stiegen, also um 3 mm in 100 Jahren. Er ist seitdem praktisch sta­bil. Viermal wurde er in den Eiszeiten der letzten 650.000 Jahre für jeweils Zehn­tausende von Jahren von mächtigen Gletschern belastet. Die Sedimente wurden verdichtet, der Salzstock blieb erhalten.

 

Abbildung 2: Überlagerung des Salzstockes von Gorleben nach dem Auslaufen des Salsaufstieges im Jungtertiär und Quartär (Quelle: Bundesanstalt für Geowissenschaften und Rohstoffe – BGR)

Dichtigkeit der Salzstöcke

Die Salze liegen in kristallisierter Form vor. Die Grenzflächen zwischen den Kristallen sind ge­schlossen; sie blei­ben es, wenn sich die Salzkörper sehr langsam ver­formen. Wie alle Kristalle, sind Salzkristalle jedoch spaltbar und deshalb können sie oder Grenz­flächen zwischen ihnen bei großen Drücken aufge­presst werden.

Die Gesteinsschichten in der Umgebung der Salzstöcke enthalten Grundwas­ser. An den Kontakt­flächen der Salzstöcke wird deshalb solange Salz abgelöst, bis das Wasser gesät­tigt ist. Ob das viel ist und ständig erfolgt, oder wenig und dann stagniert, wird von der Ge­schwindigkeit be­stimmt, mit der sich das Grundwasser erneu­ern kann. Erfolgt der Grundwasseraus­tausch wegen ungünstiger hydrogeologischer Verhältnisse schnell, löst das Grund­wasser den Salzstock auf – er verschwindet, und es bleiben nur noch die unlösli­chen Reste zurück – sog. ‚Restbrekzien’ (Ab­bildung 3). Salzstöcke sind des­wegen ent­weder nicht mehr vor­handen oder sie sind dicht, denn das den Salz­stock umgebende stag­nie­rende Grundwas­ser ist mit Salz gesättigt und kann deshalb kein weiteres Salz auf­nehmen. Das salzge­sättigte Wasser ist außerdem schwe­rer und fließt nicht nach oben. Ein noch existierender Salz­stock be­weist folglich, dass keine Grundwas­sererneue­rung statt findet, und der Salzstock erhalten bleibt. Diese Gesetzmäßigkeiten sprechen dafür, dass die Salzstöcke auch in Zukunft so bleiben wie sie in den letzten Jahrmillionen wa­ren, ande­renfalls gäbe es sie nicht mehr.

Eine besondere Situation liegt über den Salzstöcken vor: Analog zum seitlichen Außenrand der Salzstöcke hat sich das dort vorhandene Grundwasser mit gelöstem Salz gesät­tigt, unlösliche Gesteinspartien sind als Restbrekzie erhalten geblieben. Bei schnellem Was­seraustausch wäre der Salzstock in der geologischen Vergangenheit zur Tiefe hin abgelaugt wor­den und würde nicht mehr existieren. Er existiert noch, weil wegen günstiger hydrogeologi­scher Gegeben­heiten kein Wasseraustausch statt fand, oder so ge­ring war, dass er wirkungslos blieb. Abbildung 3 zeigt die Restbreckzie über dem Salzstock Gorleben. Ihre geringe Mächtigkeit von einigen zehn Metern beweist, dass die Ablaugung unerheblich geblieben ist, und das wird auch zukünftig nicht anders ein.

 

Abbildung 3: Restbrekzie über  dem Salzstock Gorleben (Ausschnitt) (Quelle: Bundesanstalt für Geowissenschaften und Rohstoffe – BGR)

Problem der Asse

In der Tiefe der Einlagerungskammern von ca. 500 m herrscht im Nachbargestein ein Wasser­druck von ca. 50 bar. Für den Salzstockrand ergibt sich daraus ein sehr großer Wasserdruck, der auf die stehen gebliebene Salzbarriere zwischen Außenrand und Einlagerungskammer einwirkt. Er bewirkt, dass einzelne Grenz­flä­chen zwischen den Salzkristal­len aufgepresst werden und Grundwasser von außen in die Einla­gerungskammern einsickern kann. Von 12 m³ pro Tag ist die Rede, das sind 500 l/h bzw. 8,3 l/min bzw. 0,13 l/sec, also je Minute ungefähr ein Wassereimer voll. Selbstverständlich ist das nicht akzeptabel. Aber es ist kein Wassereinbruch, denn dann handelte es sich um viele Kubikmeter pro Sekunde.

Die Einsickerung von Grundwasser aus dem Nachbargestein wäre vermieden worden, hätte man die Kammern im In­neren des Salzstockes ange­ordnet, also weit genug vom Rand entfernt, und wären sie nach ihrer Füllung ver­schlos­sen wor­den. Das kann man heute noch tun. Eine solche Sanierung wäre die einfachste und vermut­lich preiswerteste Lösung. Das jedenfalls ist die Lehre aus dem Fall Asse. Falsch ist, wenn von manchen das Zurücksi­ckern der Salzlauge in das Nach­bargestein befürchtet wird. Sowenig wie aus einem abge­tauchten U-Boot Wasser durch ein Loch in der Schweißnaht gegen den Wasser­druck nach außen fließen kann, sickert infiltrierte Lauge freiwillig gegen den Außendruck zurück ins Nachbargestein, und damit in den Wasser­kreislauf.

Gorleben

Am 2.9.2009 zitierte Alexandra Jacobson in der Neuen Westfälischen Jochen Stay mit der Er­kenntnis, “Dass Gorleben ungeeignet sei, weil der Salzstock direkten Kontakt zum Oberflächen­wasser habe, sei zum Glück nun auch einer breiteren Öffentlichkeit bekannt geworden“. Diese Tat­sache ist richtig, widerlegt aber die Folgerung, die Herr Stay für sich ab­leitet oder die für den Leser beabsichtigt ist. Sie beweist vielmehr, dass das Grundwasser den Salzstock nicht auflöst, denn auch hier wirken die zuvor be­schriebenen Gesetzmäßigkeiten: sie garantieren, dass der Salzstock auch in Zukunft so bleibt wie er in den letzten Jahrmillionen war.

Rein zufällig (!) vor der Wahl  ist kürzlich bekannt geworden, dass Kanzler Kohl seinerzeit eine Beurteilung der Physikalisch-Technischen Bundesanstalt modifiziert haben wollte, die 1983 we­gen einer angeblich unzureichenden Mächtigkeit von tonigen Sedimenten über zentralen Berei­chen des Salzstockes eine Kontamination der Biosphäre für möglich hielt. Tatsächlich spielt die Mächtigkeit der tonigen Schichten als Teil der jungen Sedimenten keine Rolle: Auch to­nige Se­dimente sind durchlässig, wenn auch sehr viel weniger als sandige. Selbst sehr große Durchläs­sigkeitsunterschiede sind für diese Pro­zesse unerheblich, denn die Durchlässigkeitsunter­schiede werden durch die langen Zeiträume kompensiert, und über dem Salzstock sind die jun­gen Sedi­mente ohnehin mit salz­gesät­tigtem Grundwasser gefüllt. Das wäre auch bei anderen Mächtig­keiten der tonigen Sedimente nicht anders gewe­sen, und diese Gegeben­heiten wer­den auch künftig vorliegen, weshalb eine Kontamina­tions­gefahr ausgeschlossen werden kann.  Als Mit­glieder einer früheren Niedersächsischen Landesregierung haben die Minister Gabriel und Trit­tin das noch ebenso positiv beurteilt.

Folgerungen

Claudia Roths Beurteilung ist fachlich falsch. Warum ist sie auch dumm? Die wissen­schaftlich-technische Entwicklung ist das Ergebnis von Versuch und Irrtum, was sicher auch Frau Roth weiß. Ohne diese dem Menschen eigene Vorgehensweise wäre unsere durch­schnittliche Lebens­erwartung kaum höher als 30 Jahre, und es herrschte noch mittelalterliches Handwerk, hätte man bei Fehl­schlägen aufgegeben. Bekanntlich hat man sich um Verbesserungen bemüht und war dabei erfolg­reich. Deshalb kom­men wir heute schneller von A nach B als zur Postkutschenzeit – und auch Frau Roth wird dar­auf nicht ver­zichten wollen. Wa­rum sollte man nach soviel Investi­tio­nen, das, was man im Fall Asse gelernt hat, nicht auch in Gorleben anwen­den? Ein ver­nünfti­ger Grund für einen solchen Verzicht ist nicht zu erkennen.

Der tatsächliche Grund ist klar: Da ‚Anti-Atom’ für viele die Existenzgrundlage ist und/oder Wähler­stimmen verspricht, kommt vor Wahlen jedes vermeintliche Argument gegen Asse, Gor­leben, Krümmel etc. wie gerufen, mag es auch noch so falsch und nicht selten sogar ziemlich albern sein – „löchrig wie Schweizer Käse“ – , wobei auch dieser Vergleich falsch ist, denn seine Lö­cher sind nicht miteinander verbunden! Eigentlich sollten sich in Demokratien wahlkämp­fende Führungskräfte schämen, mit plumper Bauernfängerei auf Stimmenfang zu gehen. Es ist schon atemberaubend, mit welcher Sicherheit sich Politiker zu Sachverhalten äußern, von denen sie erkennbar keine Ahnung haben, wenn sie damit nur Wählerstimmen gewinnen können.

Aller­dings sind solche Politiker leider in ‚bester’ Gesellschaft, wenn man bedenkt, welchen Blödsinn man selbst in renommierten Zeitungen lesen kann: So wird im Spiegel CO2 schon mal als giftig bezeichnet, obwohl es mit Wasser die Grundlage unserer Nahrungskette ist. Nach dem Zeit-Dossier von Roland Kirbach (10.9.2009) „…könnte der …Salzstock Asse einstürzen und 126000 Tonnen Atommüll freisetzen.“ Das wirkt dramatisch, und ist ja wohl auch so beabsich­tigt, hat aber mit der Realität nichts zu tun. Wenn Häuser wegen Erdbeben oder das Stadtarchiv in Köln wegen Baufehler einstürzen, suchen wir tagelang – und oft vergeblich – nach Verschüt­teten, und das nur wenige Meter unter der Erdoberfläche. Sollte das Bergwerk Asse denn wirk­lich einstür­zen, was sehr wahrscheinlich überhaupt nicht oder zumindest noch nicht so schnell geschehen wird, würde der Atommüll nicht freigesetzt, sondern in 500 m Tiefe begraben und dabei mit vielen hundert Metern Salz überdeckt.

Der Salzstock von Gorleben ist sachlich ge­eignet, darf es aber aus politischen Gründen nicht sein, denn er eignet sich vorzüglich immer wieder zur Stim­mungsmache und beeinflusst Wahl­entscheidungen – und wie wirksam das funktioniert, wissen wir aus bitterer Erfahrung.

Gegen­wärtig befinden sich auf der Welt 443 Atomkraftwerke im Betrieb, sind 47 im Bau und 81 in der Planung. Deutschland ist von Ländern umgeben, die Atomkraftwerke betreiben; Frank­reich ge­winnt sogar 78% seines Stromes auf diese Weise. Wer dezidiert die Atomkraft für un­verant­wortbar hält, weil sie nach seiner Meinung eine Gefahr für die Menschheit darstellt, und wer den Mut hat zu glauben, nur er wüsste trotz unserer bitteren Erfahrung mit deutscher Hybris schon wieder den richtigen Weg, müsste doch eigentlich versuchen, die anderen Länder, die das Gegenteil praktizieren, von ihrem fal­schen Weg abzubringen. Was nutzt uns Anti-Atom, wenn  weltweit und vor allem in den Nachbarländern Atomkraftwerke betrieben werden, Atomunfälle wirken schließlich global. Da man weiß, dass sich die anderen Länder nicht von uns belehren lassen, geschieht das nicht. Man ist ja, beispielsweise in Frankreich, auch sicher nicht der Mei­nung, dass die eigenen Fachleute und die Politiker dumm und verantwortungslos sind. Unsere diesbezügliche – vernünftige – Zurückhaltung beweist aber auch, was wirklich mit der Aus­stiegs- und Anti-Atom-Politik gemeint ist: Angst zu ma­chen, um Wählerstimmen zu gewinnen.  Und das ist wirklich verantwortungslos!

Apropos Gorleben: Nach seinem Beispiel wird in New Mexico seit Jahrzehnten ein Salz­stock als Endlager betrieben.

Dipl.-Geologe Prof. Dr. Friedrich-Karl Ewert, EIKE

Related Files




Meinungsfreiheit in der Wissenschaft in Gefahr? Wissenschaftler warnt vor bestellter Wissenschaft!

War in einer so wichtigen politischen Streitfrage der nuklearen Entsorgung Riesenhuber wirklich ahnungslos? Dann war er als Minister falsch am Platz. Zumal es ein Gegen-Gutachten des Quartärgeologen Prof. Duphorn gab, der sich vom Befürworter zum Gegner des atomaren Endlagers Gorleben wandelte.

Hat sich prinzipiell nichts geändert? Welche Einflussnahme übt die Politik heute zum „heißen“ Thema Klimawandel aus? Zum Beispiel veröffentlichte der Geophysiker Georg Delisle von der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) 2007 in einer renommierten Fachzeitschrift einen Forschungsbeitrag, der Kritik am IPCC-Bericht übt. Im Wesentlichen geht es darum, dass laut Delisle die Permafrostböden in der Arktis im 21. Jahrhundert nicht gefährdet sind.
In einem “vertraulichen” Dossier des Bundesumweltamtes, das sofort in der taz stand, wurde die Arbeit der Hannoveraner Behörde als “irrelevant”, “eindeutig falsch”, “anmaßend” und “fernab jeder Realität” gegeißelt (Überschrift des taz Artikels: „ Die Amtliche Lüge vom prima Klima”. Dem entgegen hat die American Geophysical Union, (AGU), die jüngste Klima-Publikation von G. Delisle zum “AGU Journal Highlight” gekürt.

Die Kanzlerin, die den Klimawandel als hervorragendes Instrument für milliarden-schwere Einnahmen aus dem CO2-Emissionshandel benutzen will, weiß wahrscheinlich (auch) erwartungsgemäß – ähnlich wie Riesenhuber damals – nichts von den Angriffen auf Delisle und die BGR.

Der wachsende Druck der Politik geht offensichtlich in Richtung Zwang und Gehirnwäsche. Dazu  SPIEGEL ONLINE (17.09.2009): „Immer mehr Industrieländer gehen dazu über, den Klimaschutz auch durch Gesetze zu erzwingen. In Großbritannien wächst laut einer Umfrage die Angst vor einer Klima-Polizei und drakonischen Strafen.“ Gerät auch die Meinungsfreiheit zu Klimawandel und Klimaschutz jetzt in ernste Gefahr?

Prof. Dr. Werner Kirstein




Mehr CO2 bedeutet Ertragsteigerung in der Landwirtschaft

Der CO2-Gehalt der Luft hat von Mitte des 19. Jahrhunderts bis zur Jahrtausend wende von 0,028 auf 0,038% (280 bis 380ppm) zugenommen, was im Wesent lichen auf anthropogene Aktivitäten, wie Nutzung fossiler Energien zurück-geführt wird. Da etwa zur gleichen Zeit die globale Temperatur um 0,7oC anstieg, wird auf einen Zusammenhang geschlossen. In der Annahme eines weiteren An stiegs des CO2-Gehaltes und damit auch der Temperatur werden mittels Compu tersimulationen mögliche Szenarien vorausgesagt, die in der Lage sind, die Menschheit auszulöschen. 

In diesem Zusammenhang wird völlig ausgeblendet, dass das Spurengas CO2 eine Grundlage für das Leben auf unserem Planeten darstellt. Grüne Pflanzenteile synthetisieren aus CO2, Wasser und Sonnenenergie Glukose, den Grundstoff für alle natürlichen organischen Verbindungen und die Primärenergie für alle lebensnot wendigen Auf-, Um-und Abbauprozesse in tierischen und pflanzlichen Zellen.

Ältere, wie neuere Versuche in geschlossenen Systemen haben übereinstimmend ergeben, dass der derzeitigen CO2-Gehalt der Luft nicht für ein optimales Pflan zenwachstum ausreicht und ein Anheben Mehrerträge bringen, die nach Hoch rechnungen auf einen CO2-Anstieg von 100ppm Ertragsteigerungen von 30 bis 70 % bewirken. (). Darüber hinaus erhöhen Syner gieeffekte die Wirkung anderer WachstumsfaktorenFür gärtnerische Intensivkul turen ist die CO2-Düngung eine gängige Kulturmaßnahme.

Untersuchungen über den Einfluss des seit Mitte des 19. Jahrhunderts steigenden CO2-Gehalt der Luft auf die ebenfalls steigenden Erträge landwirtschaftlicher Früchte liegen nicht vor. Sie bedürfen der Klärung und sind Gegenstand dieser Arbeit.

Grundlagen dafür sind Ertragserhebungen aus den Alten Bundesländern Deutschlands (ABL) für Winterweizen (Getreide) und Zuckerrüben (Hackfrucht), die von 1949 bis 2007 vorliegen (und die mittleren jährlichen CO2-Gehalte der Luft von 1850 bis 2000).

Abb.1 zeigt die Entwicklung der Getreide-und Zuckerrübenerträge von 1950 bis 2000 im dreijährigen Mittel. In diesem Zeitraum sind W-Weizenerträge von 27 auf 79dt/ha, d. h. um 192% und für Z-Rüben von 320 auf 577dt/ha, d.h. 80% ge stiegen. Der CO2-Gehalt stieg in diesem Zeitraum von 307 auf 362ppm.

 2000

In Abb. 2 sind die Erträge von W-Weizen und Z-Rüben in Abhängigkeit zum CO2-Gehalt gesetzt. Sie ergeben für den Untersuchungszeitraum lineare, hoch signifikante Relationen.

Aus den Darstellungen in Abbildungen 1 und 2 ist zwingend zu folgern, dass der steigende CO2-Gehalt die Erträge von W-Weizen und Z-Rüben entscheidend beeinflusst hat. An der Plausibilität besteht kein Zweifel; denn: 

Zwischen Wachstumsfaktoren bestehen Synergieeffekte; jede Verbesserung eines Faktors erhöht auch die Effizienz der übrigen. So erbringt z. B. bei vergleichbarer Grundversorgung der gleiche Düngeraufwand auf einem fruchtbaren Boden einen höheren Mehrertag als auf einen weniger fruchtbaren.

Um den Einflüsse von Standorten auf die CO2-Wirkung nachzugehen, wurden die Ertragsentwicklungen von Schleswig-Holstein und Baden Württemberg ver glichen. Schleswig-Holstein mit Seeklima ist Gunststandort für Winterweizen. Die Erträge nehmen im Bundesgebiet von Nord nach Süd ab. Baden-Württemberg mit wärmerem, aber stark variierendem Binnenlandklima ist dagegen Gunststandort für Zuckerrüben, die Erträge nehmen von Süd nach Nord ab.

Abb. 3: Beziehungen zwischen CO2-Gehalt und W-Weizen (obere) und Z-Rüben (untere Darstellung) in Schleswig-Holstein und Baden-Württemberg.

Die Darstellungen in Abb. 3 zeigen, dass die Erträge in den Gunststandorten nicht nur höher lagen sondern mit zunehmender CO2-Versorgung auch stärker anstiegen. So betragen die Regressionskoeffizienten bei Weizen in SH 1,19 gegenüber 0,81 in BW und bei Z-Rüben in BW 5,20 gegenüber SH 4,73. CO2 hatte somit auf den jeweils günstigeren Standorten einen höheren Wirkungsgrad.

Pflanzen benötigen zum Aufbau der organischen Substanz, die schon von der Be gründern der Pflanzenernährung, Carl Sprengel und Justus von Liebig, erkannten 10 Hauptnährelemente*: Kohlenstoff (C), Wasserstoff (H), Sauerstoff (O), Stick stoff (N), Phosphor (P), Schwefel (S), Kalium (K), Calcium (Ca), Magnesium (Mg) und Eisen (Fe). Mit Fortschreiten der Chemie wurde die Bedeutung der Spu­renelemente erkannt: Bor (B), Kupfer (Cu), Mangan (Mn), und Zink (Zn).

Die Zusammensetzung der organischen Substanz für Landpflanzen beträgt im Mit tel C106, H180, O45, N16 und P1 (Wikipedia). Daraus ergibt sich für Weizenkorn eine Zusammensetzung bezogen auf Trockensubstanz von 57% Kohlenstoff, 32% Sau erstoff, 8% Wasserstoff und 3% Mineralstoffe*. Die Werte von Zuckerüben liegen bedingt durch den etwas höheren Gehalt an Mineralstoffen von 5% geringfügig niedriger

Die Relationen zwischen Versorgung mit Nährelementen und Wachstumsfaktoren zum Ertrag zeigt Abb. 4. Bei starkem Mangel bewirkt bereits eine geringe Verbes serung der Zufuhr einen starken Anstieg des Ertrages. Dieser nimmt mit zuneh mender Sättigung bis zum Ereichen des Ertragsgrenzwertes ab. Überver sorgungen führen zum nicht ertragswirksamen Luxuskonsum und wirken bei stark überhöhtem Angebot toxisch mit Verminderung von Ertrag und Qualität.

Die volle Ertragsleistung ist nur erreichbar, wenn alle Wachstumsfaktoren -d. h. auch die nicht durch anthropogene Aktionen beeinflussbaren -im Optimum liegen. Unter natürlichen Wachstumsbedingungen ist das nicht erreichbar. Dabei werden die Erträge am stärksten von dem Faktor begrenzt, der am weitesten im Minimum liegt. Bei seiner Optimierung ist die Wirkung umso höher, je günstiger die Situati on bei den anderen Faktoren ist. wie die unterschiedlichen Ertragsent-wicklungen von W-Weizen und Z-Rüben in Schleswig-Holstein und Baden-Württemberg zeigen. Nährelemente sind alle Elemente, die Pflanzen für ihre Entwicklung benötigen. Mit Nährstoff werden nur die Elemente bezeichnet, die in mineralischer Form aufgenommen werden. Wasser und CO2 gehören nicht dazu. Zu Mineralstoffen gehören außer Nährstoffen auch nicht ertrags wirksame Ballaststoffe wie Silizium (Si) und Aluminium (Al).

Nährstoffe

Wie die Ergebnisse eines umfangreichen Versuchswesen eindeutig zeigen, war die Mineralstoffernährung landwirtschaftlicher und gärtnerischer Kulturen in den Alten Bundesländern aus natürlichen und durch überhöhte Mineraldüngerauf wendungen angereicherter Bodengehalte in Verbindung mit der Düngung seit den 1950er Jahren für das volle Ertragsniveaus ausreichend. Steigerungen der Dünge gaben bewirkten keine Mehrerträge. Die Versorgung lag überwiegend im Bereich des Luxuskonsums, Ertragseinbußen durch Überversorgung waren nicht auszu-schließen. Mindererträge durch Nährstoffmangel waren auf extensiv wirtschaf tende Betriebe, Nutzungsänderungen und Neukultivierungen beschränkt. Ihr An teil an der landwirtschaftlichen Nutzfläche war gering und hatte keinen Einfluss auf die Durchschnittserträge

Wasser

Landpflanzen bestehen zu 10 % (Samen) bis zu über 90% (Blätter) aus Wasser. Es ist das Medium, in dem die lebensnotwenigen Umsetzungen stattfinden, ist Reak tionspartner für Umsetzungen (Zuckersynthese) und Transportmittel für organische und mineralische Stoffe. Die Nährstoffaufnahme im Boden ist an die Anwesenheit von Wasser gebunden.

Der Transpirationskoeffizient – der Bedarf an Wasser für die Produktion von ei nem Kilogramm Trockensubstanz -nimmt mit der Versorgung von Nährstoffen und CO2 ab, d. h. , es wird weniger Wasser für die Produktion benötigt je besser die Versorgung ist. 

Die für die pflanzliche Produktion verfügbare Wassermenge ist abhängig von Klimafaktoren, wie Temperatur, Niederschlagsmenge und -verteilung und dem Was serhaltevermögen des Bodens. Wasser ist in Trockengebieten nach dem CO2-Gehalt der Luft der ertragsbegrenzende Wachstumsfaktor. Da jede Ertragssteigerung einen höheren Wasserverbrauch mit sich bringt, wird Wassermangel auf weiteren Standort zum begrenzenden Minimumfaktor für die pflanzliche Produktion.

Kohlenstoff.

Kohlenstoff, dessen Anteil in organischen Verbindungen über 50 % beträgt, ist das einzige Nährelement, das aus der Luft assimiliert und sofort in organischen Verbindungen eingebaut wird, d. h. sofort in Ertrag umgemünzt wird.

Der optimale CO2-Gehalt der Luft für Winterweizen beträt 1.200ppm (0,1205%), für Zuckerrüben liegt kein Wert vor. Die Versorgung hat sich bei Weizen 2000 von 23,4 auf 30,2% des Optimums verbessert, sie liegt aber nach wie vor im Be reich des starken Mangels, wo bereits geringe Veränderungen des Angebotes hohe Ertrags-und Wachstumssteigerungen bewirken. ( Abb.4, Tab 1)

Bis in die zweite Hälfte des 19. Jahrhunderts beschränkte sich die Düngung von Ackerland auf Verwendung von „Natur“-Dünger, der aus dem biologischen Kreis lauf stammt und über Tierhaltung auf nicht bewirtschafteten Flächen entzogen wurde. Es kann davon ausgegangen werden, dass die Ernährung mit Mineralstof fen unzureichend war und eine Ergänzung durch mineralische „Kunst“-Dünger die Erträge erhöhte. Da der im absoluten Minimum liegende

CO2-Gehalt ebenfalls anstieg, muss diesem wegen der Wechselwirkung zwischen den Nährelementen ein wesentlicher Anteil am Ertragszuwachs zugemessen werden, denn jede Verbesserung eines Wachstumsfaktors erhöhnt die Effektivität der übrigen, wobei von dem Element, das am weitesten vom Optimum entfernt ist, die stärkste Wirkung ausgeht.

Die für W-Weizen und Z-Rüben gezeigten Ertragssteigerungen von 1950 bis 2000 sind auf andere Getreidearten übertragbar, wie Ertragsauswertungen von Dölger (2008) für die übrigen Getreidearten ergeben. Sie liegen bei Wintergetreidearten deutlich höher und unter den Getreidearten spricht Weizen am stärksten auf die verbesserte CO2-Ernährung an (Tab. 2).

 

Weitere mögliche Einflussfaktoren.

Vom Landbau werden als wesentliche Ursache der Ertragssteigerung Pflanzen schutz, Züchtung und verbesserte Bodenbearbeitung angesehen.

Ertragsausfällen durch tierische oder pflanzliche Schädlinge, die in der Vergan genheit zu z. T. verheerende Ertragsausfällen führten, wird durch prophylaktische Maßnahmen begegnet. Spätestens seit den 1960er Jahren ist der Pflanzenschutz so effektiv, dass keine gravierenden Ertragsbeeinflussungen zu verzeichnen sind.

Die Pflanzenzüchtung hat die Ertragsentwicklung der Kulturpflanzen entschei dend, aber nur indirekt mitgeprägt. Sie entwickelt Sorten, die verbesserte Stand ortsbedingungen – wie Versorgung mit Nährelementen, Bodenbearbeitung -opti mal nutzen können. So wären Lokalsorten des 19. Jahrhunderts nicht in der Lage das Ertragspotential heutiger Standorte voll auszuschöpfen. Andererseits könnten die neuen Hochleistungssorten ihre volle Leistungsfähigkeit unter den Anbaubedingungen früherer Jahrhunderte nicht entfalten. Wahrscheinlich wären sie den jeweiligen Lokalsorten im Ertrag sogar unterlegen.

Die Bodenbearbeitungstiefe betrug bis Mitte des im 19. Jahrhunderts 12 bis 15cm. Sie stieg durch Verbesserung der Pflugtechnik und seit Mitte des 20. Jahrhunderts durch Maschineneinsatz auf 30 bis 35 cm. Durch Vergrößerung des Wurzelungs raumes und Brechen undurchlässiger Bodenschichten werden Wasser- und Nährstoff- vor allem aber die Wassergehalte in Unterboden und Untergrund intensiver genutzt. Dies hat zweifellos zu Ertragserhöhungen beigetragen, ihr Anteil ist schwer abzuschätzen. Auch hier muss davon ausgegangen werden, dass die Standortsverbesserung auch die Effizienz des steigenden CO2-Gehaltes erhöht hat.

Bisher wurden die hohen Ertragssteigerungen von Nahrungspflanzen seit Mitte des 19.Jjahrhunderts ausschließlich auf bessere Ernährung mit Mineralstoffen,
verbesserte Anbautechniken und Pflanzenzüchtung zurückgeführt. Dem während dieses Zeitraumes steigenden CO2-Gehalt der Luft wurde keine Bedeutung beigemessen. Die vorliegende Arbeit beweist, dass CO2 daran einen bedeutenden Anteil hatte und seit Mitte des 20. Jahrhunderts der dominierende Faktor war.

Da die CO2-Versorgung weiterhin im starken Mangel liegt, wird sich ein weiterer Anstieg des CO2-Gehaltes der Luft positiv auf die Ertragsniveaus landwirtschaftlicher Früchte auswirken. Wo die Grenze des Wachstums liegen wird, ist schwer abzuschätzen. 

Mit zunehmenden Erträgen gerät Wasser mehr und mehr ins Minimum. Es ist
schon jetzt auf schwachen Standorten und in niederschlagsarmen Jahren der begrenzende Faktor und wird sich bei weiter steigenden Erträgen auch bessere Standorte erfassen.

Unbekannt sind ferner die maximal erreichbaren Ertragspotentiale von Kulturpflanzen. Das Ertragspotential für W-Weizen beträgt z. Z. bei 150 -175dt/ha. Ist damit das Ende erreicht oder sind wesentliche Steigerungen durch Züchtung möglich?

Die durch steigenden CO2-Gehalt der Luft ausgelösten Ertragssteigerungen der Landwirtschaftlichen Produktion haben sich positiv auf die Menschheit ausgewirkt. Sie haben wesentlich zu dem bis dahin nicht bekannten hohen Lebensstandard in den Industrienationen beigetragen. Durch die steigenden Erträge verbilligten sich die Lebensmittelpreise. Wurden bis Mitte des 20. Jahrhunderts noch über 50% des Einkommens für die Ernährung benötigt, sind es heute 12 % bei einem deutlich höheren Anteil an hochwertigen tierischen Produkten. Die Folge waren erhöhte Nachfragen an industriellen Gütern und Dienstleistungen, die  weltweit einen bis dahin nicht bekanntem Innovationsschub auslöste.

Sie hat entscheidend dazu beigetragen, dass die Nahrungsmittelversorgung der steigenden Weltbevölkerung nicht vollends zusammengebrochen ist. Wenn die Weltbevölkerung bis Mitte dieses Jahrhunderts nochmals um 3. Mrd. wachsen soll und bei 9 Mrd. zum Stillstand kommt, und weiterhin die Nachfrage nach hochwertigeren Lebensmitteln und Bioenergie steigt, ist dazu eine Verdoppelung der landwirtschaftlichen Produktion notwendig. Wird dann das derzeitige CO2-Angebot ausreichen? 

Der Autor dankt Herrn Dipl.-Geoökolol. Hans-Peter für Gestaltung und Anfertigung der Abbildungen

Literatur:

v. Alvensleben, A., 2002: Kohlendioxid und Klima. Vortrag vor Old Tabele Frei burg.

Anonym: Statistisches Bundesamt, Land-und Forstwirtschaft, Fachserie3, Reihe 1 Jahrgänge 1950 -2001

Atmospheric CO2. Enrichment, 2003: Just What the Food Doctor Ordered, CO2-Science, Editorial, Vol. 6 Nr. 15

Fink, A., 1979: Dünger und Düngung, Verlag Chemie, Weinheim

Dölger, D., 2008: Entwicklung der Flächenproduktivität auf verschiedenen Stand-orten Mitteleuropas, DLG-Kolloquium, Berlin

Malberg, h., 2009: Über die kritische Grenze zwischen unruhiger und ruhiger Son ne und ihre Bedeutung für den Klimawandel, Beiträge zur Berliner Wetterkarte, http://www.Berliner-Wetterkarte.de

Mengel,K., 1968: Ernährung und Stoffwechsel der Pflanze, Fischer Verlag, Stutt gart

Wikipedia – Photosynthese: http//de.wikipedia.org/wiki/Photosynthese

LLD. a. D. Dr. rer. hort. Werner Köster Reuterkamp 15 D-3184o Hessisch Oldendorf Fax: 05158-990882 e-mail: koester-w@t-online.de

Dr. Werner Köster EIKE

Related Files




Mehr CO2 macht die Erde grüner !

Die CO2-Konzentration wächst jährlich im Mittel um 1,8 ppm pro Jahr, entsprechend etwa + 0,5 %. Dies bedeutet in 20 Jahren rund + 10 %. In anderen Worten, die biologischer Produktion ist  entsprechend dem Faktor 0,6 mit dem Zuwachs an CO2 gewachsen. Der Zuwachs entspricht nicht dem Faktor weil außer CO2 noch andere Faktoren wie die Strahlung der Sonne, Niederschläge und andere Faktoren eine Rolle spielen.

Es wird erwartet, dass die CO2-Gehalt der Atmosphäre bei unverminderten Emissionen bis zum Jahr 2100 um ca. 50% auf ca. 560 ppm ansteigt. Aufgrund der erwähnten Fakten erwartet Solomon, dass die globale biologische Produktivität bis dann um 25 % zunimmt. Durch einfache Vergleichsrechnung läßt sich daraus ableiten, dass die Erde dann imstande sein wird, etwa 8,5 Milliarden Menschen zu ernähren. CO2 ist eine unabdingbare Lebensgrundlagen für die Pflanzen und damit für das gesamte Leben auf der Erde. Diese Tatsache (und Schulweisheit) scheint durch die Verunglimpfung von CO2 als „Schadstoff“ oder „Klimakiller“ weitgehend verdrängt worden zu sein.

In der Erdgeschichte sind wiederholt CO2-Konzentrationen von 4000 bis 6000 ppm aufgetreten (heute: 385 ppm). Pflanzen entfalten ihr optimales Wachstum bei ca. 1000 ppm, dem langfristigen Mittelwert der Erdgeschichte.

Lesen Sie dazu den detaillierten Artikel in "What’sUp"

Dr. D.E. Koelle EIKE

In June 2009, Anthony Watts reposted an article by Lawrence Solomon that pointed out that the Earth is greener than it has been in decades if not centuries. NASA’s animations of this Earth (the map of its bio-product), for example the low-resolution one.

In less than 20 years, the "gross primary production" (GPP) quantifying the daily output of the biosphere jumped more than 6%. About 25% of the landmass saw significant increases while only 7% showed significant declines. Note that the CO2 concentration grows by 1.8 ppm a year, which is about 0.5% a year. It adds up to approximately 10% per 20 years. In other words, the relative increase of the GPP is more than one half of the relative increase of the CO2 concentration. The plants also need solar radiation and other things that haven’t increased (or at least not that much) which is why the previous sentence says "one half" and not "the same as". Because the CO2 concentration in 2100 (around 560 ppm) may be expected to be 50% higher than today (around 385 ppm), it is therefore reasonable to expect that the GPP will be more than 25% higher than it is today. Even by a simple proportionality law, assuming no improvements in the quality, transportation, and efficiency for a whole century, the GPP in 2100 should be able to feed 1.25 * 6.8 = 8.5 billion people, besides other animals.?

Of course, in reality, there will be lots of other improvements, so I find it obvious that the Earth will be able to support atleast 20 billion people in 2100 if needed. On the other hand, I think that the population will be much smaller than 20 billion, and perhaps closer to those 8.5 billion mentioned previously.




Global Cooling – Paradigmenwechsel des IPCC?

Mojib Latif ist Leiter des Leibniz-Instituts für Meereswissenschaften der Universität Kiel, Spezialist für Computer-Klimamodelle und renommierter IPCC-Autor. Was steckt hinter seiner Aussage

http://www.newscientist.com/article/dn17742-worlds-climate-could-cool-first-warm-later.html

die einem Paradigmenwechsel der IPCC-Klimawissenschaft gleichkommt?

Tatsächlich messen Meteorologen schon seit dem Jahre 2000 eine Abnahme der Erdtemperatur, ohne dass dies öffentliche Resonanz erfuhr. Allerdings dürften aufmerksamen Zeitgenossen die letzten harten Winter und das Ausbleiben der üblichen Klagen von Skiliftbetreibern über zu wenig Schnee und auch die allmähliche Zunahme der arktischen Eisflächen

http://arctic-roos.org/observations/satellite-data/sea-ice/ice-area-and-extent-in-arctic 

nicht entgangen sein. Die Erde kühlt sich ab, obwohl die Konzentration von CO2 weiter zunimmt – von 0,030% auf 0,038%, also um 0,008% Volumenanteil der Luft während der letzten 100 Jahre. Die Wissenschaft ist sich einig, dass CO2 als Treibhausgas erwärmend wirkt. Allerdings ist die Stärke dieses Effekts unsicher. Aus dem Statement von M. Latif ergibt sich daher die Frage nach der Ursache der jüngsten Abkühlung. Die Klimaforschung bietet leider nur Vermutungen an. Die weitaus wahrscheinlichste betrifft unser Zentralgestirn, die Sonne.

Der auf die Erde treffende Energiefluss der Sonne ist zwar praktisch konstant und kommt daher als Ursache für maßgebende Änderungen von Erdtemperaturen in Klimazeiträumen nicht in Frage. Unsere Sonne ist indes alles andere als ruhig. Über viele Millionen Kilometer ins All hinausschießende Sonnenfackeln, stark variierende Sonnenfleckenzahlen und dramatische Änderungen des Sonnenmagnetfelds sind ihre Kennzeichen. Besonders heftige Sonnen-Störungen sind wegen ihrer gefährlichen Auswirkungen, wie Unterbrechungen des Funkverkehrs, Strahlungsgefährdung von Astronauten in Raumstationen, bis hin zum Zusammenbrechen landesweiter Hochspannungsnetze, gefürchtet. Die Dynamik der Sonne hinterlässt ferner Isotopen-Spuren in geologischen Sedimenten, die analysiert und mit den zeitgleichen historischen Erdtemperaturen verglichen werden können. Die Klimaforscher Nir J. Shaviv und Ján Veizer haben aus solchen Analysen einen nahezu perfekten Gleichklang zwischen Sonnenaktivität und Erdtemperaturen über viele hundert Millionen Jahre Erdgeschichte nachgewiesen (s. pdf Shaviv_Veizer und Shaviv). Ab Beginn des 17. Jahrhunderts begann dann mit Hilfe des Fernrohrs die systematische Zählung von Sonnenflecken. Ihre Anzahl entspricht der Stärke des Sonnenmagnetfeldes. Die „kleine Eiszeit“ am Ende des 17. Jahrhunderts, die uns in vielen Winterbildern holländischer Maler, etwa der berühmten „Heimkehr der Jäger“ von Pieter Breughel vor Augen geführt wird, ging mit einem fast völligen Verschwinden der Sonnenflecken einher. Der gute Gleichklang (Korrelation) von Sonnenaktivität und Erdtemperatur ist inzwischen lückenlos bis zum heutigen Tage gesichert (s. pdf Svensmark, Borchert und Malberg, ferner http://www.eike-klima-energie.eu/news-anzeige/klima-sonnenflecken-und-kosmische-strahlung/ und

http://www.eike-klima-energie.eu/news-anzeige/klima-sonnenflecken-und-kosmische-strahlung-teil-ii/).

Forscher wie Nicola Scafetta und Bruce J. West (s. pdf Scafetta und Scafetta_West) wenden dazu ganz neuartige statistische Verfahren an und bestätigen mit ihnen die Gültigkeit dieses Gleichklangs auch für die wenigen Zeitabschnitte, in denen die klassische mathematische Korrelation keine guten Ergebnisse ausweist.   

Seit ihrem Maximum im Jahre 2001 sind die Sonnenflecken in dramatischer Abweichung von den bekannten Zyklen inzwischen komplett verschwunden. Wir werden somit aktuell wieder mit dem gleichen Phänomen konfrontiert, wie zur kleinen Eiszeit des 17. Jahrhunderts. Analysen der Sonnenforschung zeigen zudem, dass dieser beunruhigende Zustand vermutlich noch Jahrzehnte anhalten wird (s. pdf livingston_penn). Zukünftig deutlich kälteres Klima ist daher wahrscheinlich, im ungünstigsten Fall werden wieder extreme Verhältnisse auftreten.

So überzeugend der statistische Nachweis des Sonneneinflusses auf unser Klima auch ist, darf nicht vergessen werden, dass noch weitere Mechanismen die Klimaentwicklung bestimmen. Vom Vulkanismus, über die bis heute nicht voll verstandenen Oszillationen eines El Nino und der jedem Meteorologen geläufigen NAO, bis hin zur Klimawirksamkeit von Aerosolen und Treibhausgasen reicht die Anzahl der „üblichen Verdächtigen“. Zum statistisch gesicherten Gleichlauf von Sonnendynamik und Klima fehlt außerdem noch eine durch Messungen belegte physikalische Erklärung. Bis heute gibt es hierzu nur Hypothesen. Die wahrscheinlichste basiert auf einem zuerst von den Forschern Eigil Friis-Christensen, Knud Lassen und Henrik Svensmark vorgeschlagenen Mechanismus: Das variierende Sonnenmagnetfeld moduliert die Anzahl der auf die Erde treffenden elektrisch geladenen Partikel der kosmischen Strahlung. Diese Partikel sind an der Keimbildung von abkühlenden Wolken beteiligt, so dass über eine längere Wirkungskette das Sonnenmagnetfeld die Erdtemperatur steuert (s. pdf Svensmark). Es ist aber noch nicht gelungen, diese Hypothese zweifelsfrei zu bestätigen. Die Natur ist offenbar viel komplexer, als vermutet. Der Gleichklang Sonne-Klima ist bis heute nur bestens statistisch gesichert.

Die Aussage von M. Latif auf der Genfer Klimakonferenz wird nunmehr verständlicher. Als IPCC-Autor spricht er von einem Wiedereinsetzen der CO2-bedingten Erwärmung nach der prognostizierten Kältephase (s. pdf-File seines Genfer Vortrags unten, hier am 6.10. eingefügt). Tatsächlich wurde von IPCC-Forschern der Einfluss der Sonne auf Erdtemperaturen zu Gunsten der Rolle des CO2 bislang weitgehend ignoriert. Hält die Abkühlung in den nächsten Jahren weiter an, sind aber zweifellos harte Fragen zum Klimaeinfluss des menschgemachten CO2 unvermeidbar. Können extrem kostspielige CO2-Vermeidungsmaßnahmen angesichts eines eventuell unmaßgeblichen Einflusses dieses Treibhausgases im Hinblick auf wichtigere Umweltmaßnahmen, wie etwa die Versorgung von Dürregebieten unserer Erde mit sauberem Trinkwasser, noch verantwortet werden? 

Prof. Dr. Horst-Joachim Lüdecke

Dipl.-Physiker

(EIKE-Pressesprecher)

Related Files




Solarthermie! Wer findet den kleinen Unterschied?




Offener Brief an Kanzlerin mit über 300 Unterschriften bis heute nicht beantwortet!

Deswegen hat EIKE am 11.9.09 einen Erinnerungsbrief geschrieben, den wir hier im Wortlaut wiedergeben.

Sehr geehrte Frau Bundeskanzlerin,

Ende Juli d.J. übersandten wir Ihnen einen offenen Brief zum Klimawandel. Darin äußerten wir unsere schweren Bedenken zur gegenwärtigen Klimaschutzpolitik, weil sie für unsere Volkswirtschaft schädlich ist und auf falschen Informationen und Annahmen beruht. Die beobachteten globalen Temperaturänderungen – zum Klimawandel verkürzt- der letzten 120 Jahre sind, wie wir im Anhang nachgewiesen haben, natürliche Variationen und zeigen keinerlei irgendwie steuerbaren von Menschen gemachten Einfluss. Dieser wurde auch nirgendwo – auch nicht vom IPCC – nachgewiesen. Tausende von Wissenschaftlern weltweit teilen diese Einschätzung.

Trotz des überaus wichtigen Themas haben wir bis heute keine Antwort erhalten. Vielleicht ist dieser Brief Ihnen bisher nicht vorgelegt worden, vielleicht wurde er auch nur im täglichen Regierungsgeschäft samt Wahlkampf übersehen. Daß er absichtlich unbeantwortet blieb, wollen wir ausschließen.  Wir erlauben uns deshalb Ihnen eine Kopie dieses Briefes samt Anhang zu übermitteln. Den offenen Brief hatten zur Zeit seines Versandes über 130 kompetente Wissenschaftler und Bürger unterschrieben, inzwischen sind es über 300 (darunter nicht nicht wenige Mitglieder Ihrer Partei). Wir bitten daher nochmals,  diesen Brief zur Kenntnis zu nehmen und uns darzulegen, wie Sie mit dieser für unser Land so wichtigen Frage in Zukunft umgehen wollen. 

Wir verbleiben mit freundlichen Grüssen

 Dr. Holger Thuß Michael Limburg

EIKE  Präsident Vizepräsident

Europäisches Institut für Klima und Energie

http://www.eike-klima-energie.eu/

Anlagen: offener Brief vom 26.7.09, 

Unterschriftenliste mit > 290 Unterzeichnern, Kernaussagen

Für diejenigen die den Bürger ebenfalls unterstützen wollen, sie finden ihn rechts unter der Sonne oder hier:http://www.eike-klima-energie.eu/klima-anzeige/klimawandel-offener-brief-an-kanzlerin-merkel-temperaturmessungen-ab-1701-widerlegen-anthropogen-verursachte-temperaturschwankungen/




Frankfurter Rundschau und Greenpeace wissen es genau: Der gekaufte Protest der Öl-Multis; die Lobby begehrt auf

Das darf nicht sein, das weiß doch jeder, das die nur Böses im Schilde führen. Und mit ihnen all die hunderttausende von deren Beschäftigten, die weltweit täglich für diese üblen Burschen arbeiten, und fröhlich, scheinheilig aber wohl nichtsahnend, die armen Erdenbüger mit dem "Umweltgift CO2" versorgen. Aber, da hat die FR ein wachsames Auge drauf, denn nur Greenpeace, BUND, NABU und CO wollen wirklich allein unser Heil!

Zugespielt wurde uns dieser Text von einem Ex-Greenpeace Mitglied, das wegen der Klimaverdummung von Greenpeace verärgert austrat. Eine wachsame Greenpeacefrau*, die es bei der Stange halten wollte, versorgte ihn mit diesem überzeugenden Text.  Zuvor gab aber Greenpeace in einem anderen Schreiben zu:

 “…Wir sehen uns außer Stande jede Entwicklung in der Klimaforschung zu kommentieren, da wir meist nicht wissenschaftlich, sondern politisch arbeiten…”

Na, endlich! Diese Vermutung hatten wir schon länger

Lesen Sie selbst, was sich Klein Ostermann so ausmalt.

Der gekaufte Protest der Öl-Multis Die Lobby begehrt auf

Washington. Was die Gegner der Gesundheitsreform können, mag Jack Gerard gedacht haben, das können wir auch. Der Mann ist Präsident des American Petroleum Institute (API), einem Lobbyarm von Amerikas mächtiger Öl- und Gasindustrie. Vorige Woche schickte Gerard ein Rundschreiben an Verbandsmitglieder, zu denen Multis wie Shell, Exxon Mobile oder ConocoPhillips gehören.

Pech nur, dass die E-Mail Greeenpeace zugespielt wurde. Gerard hatte vergeblich gebeten, das Schreiben vertraulich zu behandeln: "Wir wollen nicht, dass Kritiker unseren Spielplan kennen."

Wie die Gegner der Gesundheitsreform will die Öl-Lobby lautstarke Proteste inszenieren – um Obama und seine Demokraten unter Druck zu setzen und so das neue Klimagesetz zu verhindern……..

Den ganzen Artikel finden Sie hier: 

http://www.fr-online.de/in_und_ausland/politik/aktuell/?em_cnt=1889471&em_loc=1231

Leserbriefe hier: leserbrief@fr-online.de 

* Greenpeace Aktivistin: Angela Schadt Information und Förderer-Service

Greenpeace e. V. 22745 Hamburg

 M.L.




Klimakatastrophenangst: Über Kopenhagen, Schellnhuber, Latif und andere. Oder , was haben „Wissenschaft“ und Angstmache miteinander zu tun?

Um einen solchen Flop zu verhindern wird  -besonders vom Potsdamer Schellnhuber- schwerstes Geschütz aufgefahren. Kein noch so abstruser Vergleich ist da gewaltig genug:  Meinte er doch kürzlich den Klimawandel mit der "gesicherten gemeinsamen Vernichtung" während des kalten Krieges vergleichen zu müssen, zu deren Verhinderung jedes, aber auch jedes Mittel  recht sei:  Originalton Schellnhuber: "In the agonizing times of the cold war, the logic of mutually assured destruction (MAD) fueled the arms race that brought humanity to the edge of annihilation. Striking parallels exist between the political situation then and the international climate change negotiations today. The United Nations Climate Conference (COP15)  in Copenhagen in December 2009 can only be successful if the logic of MAD is turned upside down, transforming it into mutually assured decarbonisation.  In a novel spirit of trust, each country needs to commit to the most ambitious targets and measures that are technologically and economically feasible,  on the firm assumption that all other countries will do the same."

Eifrig wird dabei die Vorgabe des Lehrmeisters und ehemaligen Chef des IPCC John Houghton befolgt, der seine Kollegen mit dem Satz aufklärte "Wenn wir keine Katastrophen ankündigen, wird uns keiner zuhören". Nun, da müssen eben Katastrophen her, da heißt es klotzen und nicht kleckern. Zusammen mit anderen Gesinnungsgenossen, traulich vereint – man kennt sich, man hilft sich- im "Wissenschaftlichen Beirat der Bundesregierung Globale Umweltveränderungen (WBGU)" legte man soeben ein "Sondergutachten" getarnt als "Budgetansatz"vor : den "Kassensturz für den Weltklimavertrag"

Danach sollte in Kopenhagen eine drastische Reduzierung der gesamten technischen CO2 Emissionen auf 750 Mrd. t für die ganze Welt beschlossen werden. Das wäre gleichbedeutend mit einer Reduktion auf Nahe Null für alle Industrieländer. Eine freiwillige (?) Selbstzerstörung!

Natürlich  müssen auch immer wieder dieselben schlimmen Katastrophen herhalten, um diese absurde in "wissenschaftlichen" Gewand vorgetragene Forderung zu unterstützen. Diesmal war wieder dem Grönlandeis die Rolle des Schurken zugedacht. Es würde – wenn man nicht jetzt sofort alles herunterführe-  sofort beginnen abzuschmelzen. Leider mußte der Mitkatastrophiker Rahmstorf bei Vorstellung des Gutachtens einräumen, …auch bei einer Begrenzung der Erderwärmung auf 2°C können ein Abschmelzen des Grönlandeises nicht völlig ausgeschlossen werden. Ein Anstieg des Meeresspiegels um rund sieben Meter wäre die Folge. Immerhin hätten sie die Katastrophe, die bei Nichtbefolgung dieses Ratschlages zur völligen Vernichtung der westlichen Industrienationen, eintritt, mit sagenhaften 67% Wahrscheinlichkeit errrechnet.

Da interessiert es keinen Menschen, dass der Meeresspiegel überhaupt nicht daran denkt anzusteigen, daß das Eis in Grönland an den Rändern taut, in der Mitte aber umso stärker wächst, auch die Arktis legt wieder zu.

Abbildung: Meerespiegelprognosen des IPCC* und anderer. Fazit: Die Sintflut kommt nicht! (Quelle NIPCC)

* Die abgebildete Grafik ist im vorderen Teil  irrtümlich fehlerhaft. Wie uns Leser HADUG mitteilte. Die Prognoseangabe ist für 1991 ist zu hoch. Die Prognoseangabe für 1995 müsste 13 -94 cm lauten.

Evtl. ist der Berichterstatter des NIPCC dieser Meldung von 1989 gefolgt:"A senior U.N. environmental official says entire nations could be wiped off the face of the Earth by rising sea levels if the global warming trend is not reversed by the year 2000. Coastal flooding and crop failures would create an exodus of "eco-refugees," threatening political chaos, said Noel Brown, director of the New York office of the United Nations U.N. Environment Program, or UNEP. He said governments have a 10-year window of opportunity to solve the problem. –The Miami Herald, 5 July 1989.

Den genauen Hintergrund für diesen Irrtum kennen wir jedoch nicht, und bitten den Fehler zu entschuldigen.

Der andere Katastrophenprofesseror aus Kiel – Mojif Latif- ist da viel schlauer. Der sucht sich jetzt schon Hintertürchen, da auch die Globaltemperatur seit 10 Jahren partout nicht den Modellprognosen folgen wollte und nicht steigen will. Derselbe Latif, der noch vor kurzem der Bildzeitung sagte: "Die Erwärmung entwickelt sich wie vorhergesagt. Die Modelle wurden auch an vergangenen Klimaänderungen getestet. Es gibt keinen Grund, den Modellen zu misstrauen" behauptet jetzt bei einem der vielen UN Klimakongresse in Genf, daß die Erde die nächsten 10 Jahre, vielleicht sogar 20 Jahre abkühlen würde. So genau wüßte er das nicht. Schuld daran seien die bisher nicht in die Modelle eingeflossenen Meeresströmungen. Letztere gibt es zwar schon immer, aber der Meeresklimaforscher Latif hat sie wohl erst jetzt entdeckt. Aber danach, würde die Klimakatastrophe bestimmt wieder kommen, ganz bestimmt.

Michael Limburg EIKE




Endlager Gorleben: geeignet oder ungeeignet?

Vor kurzem zitierte Alexandra Jacobson in der „Neuen Westfälischen“ Jochen Stay mit der Erkenntnis, “Dass Gorleben ungeeignet sei, weil der Salzstock direkten Kontakt zur Oberfläche habe, sei zum Glück nun auch einer breiteren Öffentlichkeit bekannt geworden“.  “.  Diese Tat­sache ist richtig, beweist aber genau das Gegenteil: Der Salzstock von Gorleben besteht in dieser Form seit ca. 80 Mill. Jahren.  Salzstöcke sind pilzförmige Körper von bis zu 1000 m Tiefe und vielen hundert Metern Breite und Länge. Das Gebirge in ihrer Umgebung enthält Grundwas­ser, und das reicht bis an den Außenrand der Salzstöcke. An den seitlichen Rändern und an der Oberfläche wird Salz abgelöst. Ob das viel ist und ständig erfolgt, oder wenig und dann stagniert, wird von der Geschwindigkeit bestimmt, mit der das Grundwasser sich erneu­ert. Erfolgt der Grundwasseraustausch schnell, löst das Grundwasser den Salzstock auf – er verschwindet. Salzstöcke sind deswegen entweder nicht mehr vorhanden oder sie sind dicht! Das den Salz­stock umgebende stagnierende Grundwasser ist gesättigt und kann kein weiteres Salz auf­nehmen. Das salzgesättigte Wasser ist außerdem schwerer und fließt nicht nach oben. Diese Gesetzmäßigkeiten garantieren, dass der Salzstock auch in Zukunft so bleibt wie er in den letzten Jahrmillionen war. Der Salzstock von Gorleben ist sachlich geeignet, darf es aber aus politischen Gründen nicht sein, denn er eignet sich zur Stimmungsmache und beeinflusst Wahlentscheidungen – und wie wirksam das funktioniert, wissen wir spätestens seit 1933.

Das Problem der Endlagerung muss dringend gelöst werden, denn der vorhandene Abfall muss entsorgt werden. Gorleben hat schon unendlich viel Geld gekostet und Zeit verbraucht.  Bei einem neuen Standort würde alles von vorne anfangen – und nach weiteren 20 Jahren würde sich auch der neue irgendwann dann auch als politisch ungeeignet herausstellen. Dass man immer noch Nuklearabfall in Fässer einbetoniert und in die Tiefsee versenkt  und damit direkt in den Wasserkreislauf, stört nicht und wird offensichtlich für ungefährlicher gehalten, als den Abfall dort zu begraben, wo er dem Wasserkreislauf für immer entzogen bleibt.  Apropos Gorleben: Nach seinem Beispiel wird in Neu Mexico seit Jahrzehnten ein Salzstock als Endlager betrieben.

Zum Atomausstieg: Gegenwärtig werden auf der Welt 443 AKW betrieben, sind 47 im Bau und 81 in der Planung. Selbstverständlich sind die Menschen dort alle dumm und verantwor­tungslos. Nur in Deutschland weiß man es besser und lässt sich in seiner Überzeugung durch nichts beirren, obwohl die Welt ja nicht das erste Mal an unserem Wesen genesen sollte. Es ist nicht zu fassen, wie viele Landsleute immer noch nicht aus der Geschichte gelernt haben, wozu Hybris und besserwissende Überzeugung schließlich führen.

Einstein hatte Recht: „Zwei Dinge sind unendlich: das Weltall und die Dummheit der Menschen“. 

Diplom-Geologe Prof. Dr. rer nat. Friedrich-Karl Ewert. 




Medien-Enten und Fliegen mit vier Beinen

um eine maximale Desinformation der Bevölkerung und Einstimmung auf Ökoideologie. Ziel ist „Klimaschutz“, initiiert und oktroyiert von einem paradoxen Bündnis aus Links-Ideologen, Versicherungswirtschaft, Energieunternehmen sowie Windrad- und Photovoltaikherstellern. Wer hier wohl am Ende auf der Strecke bleibt? Die Vernunft ist schon längst zur Strecke gebracht. Stellvertretend braucht man nur die Webseite des Baden-Württembergischen Umweltministeriums zu lesen, nach der inzwischen die Feuerwehren auf Grund des Klimawandels öfter ausrücken müssen . Diese Meldung verdient Beachtung bei der Jahreswahl der schönsten „Klimazitrone“. Der schwäbische Geist des Dichtens und Denkens war ja bekanntlich noch nie in die Baden-Württembergischen Amtsstuben eingezogen.

 Nach wie vor besteht die Hauptfehlinformation der Medien in Meldungen, dass Extremwetterereignisse zugenommen hätten, Meeresspiegel ungewöhnliche Anstiege aufzeigten und das Arktis-Eis am verschwinden sei. Nichts trifft weniger zu. Der Nachweis ist nicht schwer, denn es geht hier schließlich nicht um Meinungen oder Vermutungen sondern um handfeste Messungen, die im Internet nachprüfbar sind. Stellvertretend zum Thema „Extremwetter“, „Hurrikane“ usw. sei das Studium der Sec. 2.7 des IPCC-Berichts von 2001 empfohlen (insbeondere die Zusammenfassung). Der Bericht 2007 geht dann auf Extremereignisse überhaupt nicht mehr ein, weil das Thema wissenschaftlich inzwischen erledigt ist. Zu Meeresspiegeln den Bericht von Klaus-Eckard Puls (EIKE-Pressesprecher). Und zum Arktis-Eis hier.

 Unsere heutigen Klimaverhältnisse sind im Gegensatz zu den meisten Medienaussagen so konstant und moderat wie kaum jemals zuvor in der Geschichte des Homo Sapiens. Es gab vor längeren Zeiten Klimastürze von mehreren Graden Celsius innerhalb eines Menschenlebens. Heute sind es nur Schwankungen von fast unmessbaren Zehntelgraden in 100 Jahreszeiträumen. Konstantes Klima ist natürlicherweise unmöglich. Auch den Alpen-Gletscherschwund, der meist als Haupt-Indiz für Ungewöhnliches herhalten muss, gab es jedesmal schon in Warmphasen wie dem römischen oder dem mittelalterlichen Klimaoptimum. Die Alpen waren damals praktisch Gletscherfrei. Anderenfalls hätte sie Hannibal mit seinen Elephanten nicht überqueren können und den „Ötzi“ hätte man nicht in so großer Höhe gefunden.

 Wo ist er denn nun, der in den Medien beschworene gefährliche Klimawandel? Und vor allem, wo bleiben die Katastrophen? Um der Sache die Krone aufzusetzen: Die Klimakatastrophen sollen durch den Anstieg von 30 auf 38 CO2-Molekülen in 100.000 Luftmolekülen in einem Zeitraum von grob 100 Jahren (CO2-Anstieg von 0,030%v auf 0,038%v) verursacht worden sein! Ein Bewohner vom Mars, der in Jahrtausendintervallen die Erde besucht und die neueste Klima-Hype mitbekommt, erinnert sich: Hatten wir das nicht schon einmal – in harmloserer Form? Im gesamten Mittelalter hatten Fliegen nämlich vier Beine – so von der Autorität Aristoteles in seinen naturwissenschaftlichen Schriften niedergelegt. Niemand hat nachgesehen und nachgezählt und wenn doch, wollte er das Geschrei der Böotier oder gar schlimmeres vermeiden. Und heute? Natürlich haben auch heute wieder Fliegen vier (Klima)Beine. Sie glauben es nicht? Dann müssen Sie schon selber nachzählen, Autoritäten oder gar Medien sind grundsätzlich keine Hilfe. Die Enten fliegen weiter!

 Prof. Dr. Horst-Joachim Lüdecke

Dipl.-Physiker

(EIKE-Presssprecher)

P.S. herzlichen Dank an alle Mithelfenden bei der redaktionellen Arbeit mit den „Medien-Enten“, insbesondere an einen sehr engagierten, anonymen Helfer aus der ehemaligen DDR (diese Leute sind gegen ideologisch gesteuerte Falschmeldungen besonders allergisch).

Related Files