1

Klimaänderung: Die anti-industrielle Agenda (ewige Wachsamkeit erforderlich!)

Wenn Sie glauben, dass die globale Erwärmung zyklisch und zumeist natürlichen Ursprungs ist; der menschliche Beitrag gering und nicht gefährlich ist; und wenn Sie versuchen, den menschlichen Eingriff in Gestalt von Kürzungen der Kohlendioxidemissionen, die Billionen Dollar kosten, die Milliarden von Menschen in den Entwicklungsländern in Armut gefangen halten und daher mehr Schaden als Nutzen bringen – dann müssen Sie sich bewaffnen und darauf vorbereitet sein, in unseren politischen Zeiten aktiv zu werden.

Präsident Obama hat uns wirklich gewarnt durch seine Aussage: “the most important policy he could address in his second term is climate change.” [etwa: „Das Wichtigste in meiner zweiten Amtszeit wird die Klimaänderung sein!“]

Die vor uns liegende Herausforderung –  Herausforderung der Kirche des Umwelthypes/Alarmismus
Die andere Seite

  • Die evangelikale Climate Initiative, in den Ring geworfen mit einer Zuwendung in Höhe von 475 000 Dollar von der Hewlett Foundation, Befürworter von Bevölkerungskontrolle, posaunt weiterhin dessen alarmistische Sichtweise als die dominante evangelische Position in die Welt hinaus – obwohl die Cornwall Allianz deren Wissenschaft und Wirtschaftsansichten Punkt für Punkt widerlegt hat, und zwar hier.
  • Das Evangelical Environmental Network, stark unterstützt vom Rockefeller Brothers Fund und ebenfalls Befürworter von Bevölkerungskontrolle, hat die Unterstützung für Restriktionen bei der CO2-Emission mit „pro Leben“ gleichgesetzt, wobei es die wahre Bedeutung von „pro Leben“ verschleiert hat, mit der drohenden Spaltung der Pro-Leben-Bewegung und dem Risiko, dem Kongress die Kontrolle der Kräfte Pro-Abtreibung Jahrzehnte lang zu überlassen – obwohl die Cornwall Allianz den Artikel Protecting the Unborn and the Pro-Life Movement from a Misleading Environmentalist Tactic: A Joint Statement by Pro-Life Leaders verfasst hat, wobei ähnliche Behauptungen der EEN [?] hinsichtlich Quecksilber abgelehnt worden sind.
  • Der frühere Vizepräsident der National Association of Evangelicals und zuständig für Regierungsangelegenheiten Richard Cizik mit erheblichen finanziellen Zuwendungen vom Milliardär und Medienmogul und Befürworter der Bevölkerungskontrolle Ted Turner und seiner Organisation United Nations Foundation sowie vom Milliardär George Soros setzt sein Betreiben der Regierungsprogramme zur Familienplanung fort, und zwar als „sowohl göttlich als auch grün“ zum Kampf gegen die globale Erwärmung.
  • Der Sozialist Jim Wallis’s Sojourners, ebenfalls mit erheblicher Unterstützung durch Soros, hat in diesem Jahr einen Direktor für Kampagnen zur Klimaänderung eingestellt, um seinen Einfluss zu vergrößern.

„Klimaänderung” – was die Befürworter „globale Erwärmung” genannt haben, bis die Erde vor 17 Jahren aufgehört hat, sich zu erwärmen – wurde inzwischen zur Mutter aller Entschuldigungen für die Ausgabe von Trillionen Dollar, die Vernichtung von Millionen Arbeitsplätzen, die Fesselung von Milliarden Menschen in bitterer Armut in armen Ländern, die weiter um sich greifende Kontrolle der Regierung über unser Leben und die Bildung einer abgehobenen globalen Regierung, die niemandem Rechenschaft schuldig ist.

Der Professor für Klimaänderung und Marxist/Solzialist Mike Hulme von der University of East Anglia, ein eifernder Verfechter „post-normaler Wissenschaft”, schrieb in seinem Buch Why We Disagree about Climate Change:

„Ich schlage vor, dass das Problem der Klimaänderung nicht als ein Umweltphänomen geringer Bedeutung gelöst werden kann… Es geht wirklich nicht darum, das Klima-Chaos zu stoppen. Stattdessen müssen wir sehen, wie wir den Gedanken der Klimaänderung – die Matrix ökologischer Funktionen, Machtbeziehungen, kulturelle Reden und die Geldflüsse, die die Klimaänderung freisetzt – neu überdenken, um zu ergründen, wie wir unsere politischen, sozialen, ökonomischen und persönlichen Projekte über die kommenden Jahrzehnte weiterführen können…

Klimaänderung ist zu einem Phänomen geworden, das inzwischen bis weit über seine Ursprünge hinaus in der Naturwissenschaft Eingang gefunden hat… Klimaänderung ist zur ‚Mutter aller Dinge‘ geworden, das Schlüsselthema, innerhalb dessen die gesamte Umweltpolitik – von Global bis lokal – eingerahmt ist… Anstatt zu fragen ‚Wie können wir [das Problem der] Klimaänderung lösen?‘ müssen wir die Frage umdrehen und fragen: ‚Wie sehr verändert der Gedanke der Klimaänderung den Weg, auf dem wir unsere persönlichen Ziele erreichen…?“‘

Da ist es kein Wunder, dass bei meiner Teilnahme am UN-Klimagipfel 2009 in Kopenhagen das Transparent, das ich am häufigsten gesehen habe und das von über 40 000 Protestierern durch die Straßen getragen worden ist (von denen die größten Gruppen die Internationale Sozialistische Jugendbewegung [the International Socialist Youth Movement] und die Community Party [?] waren) die Aufschrift trug ‚Systemveränderung, nicht Klimaänderung‘ – d. h. gib uns den globalen Sozialismus, keine freien globalen Märkte!“

Nach seinem Scheitern, das Cap-and-Trade-Gesetz durch den Kongress zu bringen, ließ Obama seine EPA uns drakonische Maßnahmen auferlegen, zuerst durch das „Ergebnis“, dass CO2 – undabdingbar für das Leben auf der Erde und das wir mit jedem Atemzug ausatmen – ein „gefährlicher Verschmutzer“ ist, weil es zur globalen Erwärmung führt; und dann durch das Festlegen von Restriktionen bei seiner Emission, zunächst von Fahrzeugen, dann von stationären Quellen wie Elektrizitätswerke.

Obwohl sie nicht über die wissenschaftlichen Verdienste zum Klimaalarmismus der EPA zu urteilen hatten, haben die Gerichte der Nation bisher jede juristische Auseinandersetzung mit den Aktionen der EPA abgelehnt. Falls diese Politik nicht durch den Kongress umgekehrt wird, wird das Ergebnis folglich zu einem Verlust von Trillionen Dollar durch verloren gehende ökonomische Produktion sowie zum Verlust von Millionen Arbeitsplätzen während der nächsten beiden Jahrzehnte führen; und – sehr bald schon – zu nach oben schießenden Strompreisen führen und damit konsequenterweise zu steigenden Preisen für alles, was mit Strom erzeugt und transportiert wird – was nahezu für alles gilt.

Im vorigen Monat erklärte eine dreiteilige Serie mit dem Titel „Evangelicals and Climate Change“ (June 12, June 20, and June 27) die Rolle der Cornwall-Allianz als führendes Organ für Evangelikale, die den Klimaalarmismus ablehnen und sich bemühen, die Armen der Welt vor schmerzhaften und nutzlosen Bemühungen des Kampfes gegen die globale Erwärmung zu beschützen.

Die Christian Post zitierte unsere Evangelische Erklärung zur globalen Erwärmung, die von Hunderten evangelischer Wissenschaftler, Ökonomen Theologen und anderen Führern abgesegnet worden ist und die auf unserer grundlegenden Studie , A Renewed Call to Truth, Prudence, and Protection of the Poor: An Evangelical Examination of the Theology, Science, and Economics of Global Warming basiert. Das repräsentiert nicht nur das Denken von Cornwall, sondern auch jenes vieler anderer Evangelikalen, einschließlich der Southern Baptist Convention, die größte Konfession in Amerika.

Aber wir stehen einem harten Kampf in der religiösen Gemeinschaft gegenüber. Der Klimaalarmismus hat mächtige, gut finanzierte Quellen, um die evangelikale Gemeinschaft zu beeinflussen. Man überlege sich, wem und was wir hier versuchen zu widerstehen:

Die Cornwall-Allianz hat ebenso wie viele andere Gruppen gesunder Wissenschaft und Wirtschaft viel Arbeit vor sich, um dem Klimaalarmismus und anderen Umwelthypes zu begegnen. Nicht nur das Verstehen der Wissenschaft, Wirtschaft und Politik des Kampfes um die Klimaänderung, sondern auch das Unterlegen mit Weltanschauungen und ethischen Dingen ist unabdingbar, um diesen Kampf zu gewinnen und die Kirchen davon abzuhalten, ihre Botschaft und Mission durch eine Bewegung kompromittieren zu lassen, die ihren fundamentalen Glauben unterminiert.

E. Calvin Beisner

Link. http://www.masterresource.org/2012/07/climate-alarmism-challenge-remains/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Die Übersetzung dieses Textes war phasenweise sehr schwierig, weil es öfter Stilbrüche gab.  Wie auch immer, hier werden die massiven Probleme angesprochen, die beim Kampf gegen den Klimaalarmismus außerhalb von Politik und Wissenschaft auftreten. Deswegen habe ich diesen Artikel übersetzt.

Chris Frey




Die Energiewende wirkt: Solarfirmen gehen pleite- Minister verlagern Offshore Haftungsrisiko auf Verbraucher- Siemens soll planen 10.000 Leute zu entlassen- Mieten steigen in den Himmel

(von ACHGUT) zur Pleite der Solarfirma Sovello. So mal eben 1000 Mitarbeiter bekommen ihre Kündigung. Dass zuvor von RWE nochmals 2400 Leute entlassen werden sollen hat auch so richtig keiner mitgekriegt. Damit erhöht sich die Zahl zu Entlassenden bei RWE auf stolze 10.400. Nicht alle in Deutschland, welch Glück, aber alle sind Opfer der "Energiewende". Sie werden sich sehr darüber freuen, wenn ihr dann ehemaliger Chef Peter Terium lt Handelsblatt meint:

In meinen Augen ist die Energiewende ein faszinierendes Ereignis. Natürlich ist das eine große Herausforderung – vergleichbar mit der ersten Reise zum Mond. ….RWE gestaltet die Energiewende nach Kräften mit."

Das wird bestimmt spannender als Peterchens Mondfahrt. Zumindest für Herrn Terium.

Auch der von Peter Löscher zum "grünen" Riesen umgebaute Siemenskonzern kommt nicht umhin seine Fehler durch die Mitarbeiter bezahlen zu lassen. Bis zu 10.000 Mitarbeiter sollen gehen, schreibt die Berliner Morgenpost

Großprojekte wie Kraftwerksbauten oder große Zugaufträge blieben aus. Die Investitionszurückhaltung der Kunden nehme zu, der Konzern spüre vor allem in den industriellen kurzzyklischen Geschäften stärkeren konjunkturellen Gegenwind. Nun muss Siemens runter von diesen Kostenblöcken.

Aber es gibt auch hausgemachte Probleme: Komplett verschätzt hat sich der Vorstand etwa bei komplexen Netz-Anbindungen von Windparks in der Nordsee. Weil Siemens dem Zeitplan hinterherhinkt, schrieben die Münchner bis Ende Juni bereits rund 500 Millionen Euro in den Wind….

Da müssen und wollen die Minister Altmeier und Rösler helfen. Kosten darf es natürlich nur die anderen etwas: Während Altmeier die Superidee hat die Haushalte durch Arbeitslose nur per "Energieberatung" zu entlasten, geht er und sein Kollege von der ehemals liberalen FDP Phillip Rösler in der Höherbelastung eben dieser energieberatenden Haushalte weiter in die Vollen. Sie sollen zahlen, wenn es Offshore mal wieder nicht so klappt und die Netzbetreiber deswegen ins Obligo geraten. Netzbetreiber  Tennet-Chef Lex Hartman dazu im SPON Interview :

SPIEGEL ONLINE: Die Verbraucher macht es weniger glücklich. Am Ende müssen wieder mal sie für die Planungsfehler der Energiewende zahlen. Tennet dagegen ist fein raus – und wird am Ende gut verdienen.

Hartman: Ich kann den Unmut der Verbraucher verstehen. Wahr ist aber auch: Die Energiewende ist politisch gewollt. Wir tragen unseren Teil zu diesem Projekt bei. Doch das können wir nur mit Hilfe der Verbraucher.

Die Bundesregierung sieht das hingegen als:


Offshore-Windparks: Mit neuem Schwung

und verkündet unverdrossen:

"Offshore-Windkraft ist ein Pfeiler der Energiewende. Jetzt ist geklärt, wer haftet, wenn die Anlagen ihren Strom nicht zum Verbraucher transportieren können, weil die Stromleitung nicht fertig oder länger gestört ist. Der Bundeswirtschaftsminister dazu im Interview."

Das kann diese bisher subventionsverwöhnte Branche gut gebrauchen, denn nicht nur Nordex sondern auch…

Windanlagenbauer Vestas streicht weitere 1400 Stellen

Kopenhagen – Der krisengebeutelte dänische Windanlagenbauer Vestas will bis zum Jahresende weitere 1400 Stellen streichen und damit 250 Millionen Euro einsparen. Dies teilte der Nordex-Konkurrent am Mittwoch in Kopenhagen zusammen mit endgültigen Zahlen für das zweite Quartal mit.

schriebt der Stern.

Doch hierzulande wartet Konkurrent Nordex hingegen immer noch auf die Trendwende denn:

Nordex:Eine Trendwende sieht anders aus

Der Windturbinenhersteller Nordex rechnet 2012 mit schwarzen Zahlen. So richtig trauen die Anleger dem Management aber nicht. Die Aktie notiert nur knapp über ihrem Mehrjahrestief. Nordex hat das erste Halbjahr wegen des Preisdrucks in der Branche erneut mit einem Verlust abgeschlossen. 

Viel schlechter noch sieht es bei den Solarherstellern aus: Solarworld schockiert Anleger titelt die FTD und schreibt: Für Solarworld sieht es düster aus: Nach millionenschweren Abschreibungen und tiefroten Zahlen in den ersten sechs Monaten erwartet Vorstandschef Frank Asbeck entgegen früheren Ankündigungen nun auch im Gesamtjahr erneut einen operativen Verlust. An der Börse brach die Aktie im frühen Handel am Montag um 11,5 Prozent auf 1,17 Euro ein.

Da nützt auch ein als Ablenkungsmanöver geplantes Embargo gegen chinesische Solarhersteller nicht viel, denn die drehen den Spieß einfach um

"Deutschen Solarfirmen droht Handelskrieg mit China"

titelt die Welt und führt aus

"Anti-Dumping-Klagen europäischer Hersteller werden von Peking nun offenbar mit gleicher Münze heimgezahlt. Die Konsequenzen könnten verheerend sein. Jetzt schaltet sich sogar die Kanzlerin ein." 

wenn erst die Klimadonna Merkel Hand anlegt, dann kann es wohl nur noch verheerender werden. 

Schon jetzt beklagt "Bild" zu Recht, dass

"Wohnen immer teurer!" wird und rechnet vor, dass GAS um PLUS 80 PROZENT, und HEIZKOSTEN sich VERDREIFACHT haben. Da fällt die  MIETEN mit PLUS 23,5 PROZENT stark gegen ab. 

"Kostentreiber sind vor allem die Nebenkosten: Strom verteuerte sich seit 1991 um 80%, der Gaspreis hat sich verdoppelt, die Heizkosten liegen – je nach Heizart – sogar doppelt oder dreifach so hoch"

Und das ist alles erst der Anfang: Immerhin machen sich langsam auch grüne Politiker aller Parteien Sorgen um die Energiezukunft:

"Die große Angst der Süddeutschen vor dem Blackout"

fasst wieder mal die Welt zusammen 

Natürlich nur Sorgen in der ihnen eigenen Art. Statt vom falschen Weg abzulassen und die "Energiewende" schlicht und entfach abzublasen, die Subventionen runter zu fahren und wieder in den Zustand ante zurückzukehren, sollen die schädlichen und falschen Subventionen weiter erhöht werden, denn

..Gaskraftwerke sollen laut Gesetz ja nur dann Energie liefern, wenn zu wenig aus erneuerbaren Quellen zur Verfügung steht. Und das ist immer seltener der Fall. Doch ein Kraftwerk nur als Einspringer vorzuhalten, rechnet sich nicht – es sei denn, es fließt Geld dafür, dass es vorgehalten wird…Einen solchen sogenannten Kapazitätsmechanismus fordern vor allem Bayern und Baden-Württemberg. Bayern hat in seinem Energiekonzept bis zu fünf neue Gaskraftwerke vorgesehen. "

Und so wir es wohl weitergehen, bis alles hier zerschlagen ist und Peterchens Terium Mondfahrt mit großem Aufprall endet. 

Gute Nachrichten gibt es derzeit leider nur im Ausland:

Die Energiewende der anderen 

titelt neidvoll das Handelsblatt und führt aus, dass

"die neu entdeckten Öl- und Schiefergasvorkommen bescheren den USA günstige Energiequellen. Das lockt Unternehmen. Wirtschaftlich längst abgehängte Landstriche und Branche erfahren eine neue Blüte. ..Die Erdgasförderung in den USA steuert im laufenden Jahr auf ein Rekordhoch zu. Die Ölförderung erreichte im Juli den höchsten Stand seit 1999. In einem im März veröffentlichten Bericht schrieben Analysten der Citigroup, die „Reindustrialisierung“ der Vereinigten Staaten könnte bis 2020 bis zu 3,6 Millionen neue Stellen und einen BIP-Zuwachs von bis zu drei Prozent schaffen. ..Die Aussicht auf kostengünstige Energieträger dürfte ganzen Wirtschaftszweigen Wettbewerbsvorteile bescheren, darunter Stahl- und Aluminiumherstellern, Automobilbauern und Chemie- und Düngemittelkonzernen und ..„Angesichts des Booms beim Schiefergas, werden die Gaspreise in den USA wohl deutlich wettbewerbsfähiger als im Nahen Osten, weil es hier kein politisches Risiko gibt.“

Der komplette Artikel hier:

Bleibt nachzutragen, dass die Gaspreise in den USA in den letzten Monaten um satte 80 % gefallen sind. Bei uns hingegen ziehen sie weiter an. Sie Bildbericht oben.

Das alles sind nur die Nachrichten der letzten 14 Tage. Doch es wird noch viel, viel schlimmer kommen, egal, wie nett wir lächeln.

Daher bleibt uns nur, uns warm anzuziehen, denn Revolutionen liegen den Deutschen nicht so. Aber fordern dürfen wir noch. Daher fordern wir wie Günter Ederer auf ACHGUT

Weg mit dem EEG und diesem Wirtschaftsminister!

und erweitern unsere Forderung um

Weg mit der Energiewende und alle Verantwortlichen in die Produktion. Am besten Offshore.

Michael Limburg EIKE




Die Daten führender IPCC-Wissenschaftler zeigen, dass die globale Temperatur seit 1990 um noch nie da gewesene 1°C GEFALLEN ist

Die folgenden Darstellungen stammen aus einer Zusammenstellung von Rainer Hoffmann von Solarkritik.de.

Video: Warum seit über 150 Jahren keine gefährliche globale Erwärmung existiert ! (V3. v. 29.08.2012; link hier)

Karten aus dem Jahr 1990

1991: Hier folgt eine Darstellung der deutschen Regierung, die auf Schönwiese basiert. Globale Temperatur im Jahr 1991: 15,5°C

1988: Der Spiegel berichtete von einer globalen Temperatur von 15.5°C:

1992: In seinem Buch Klima im Wandel schreibt Christian-Dietrich Schönwiese auf den Seiten 72 und 73: die globale Temperatur abgeleitet aus Satellitenmessungen betrage 15,5°C.

Rainer Hoffmann zeigt noch andere Quellen aus den frühen neunziger Jahren, die eine Mitteltemperatur von 15,5°C vor 20 Jahren stützen. Damals schienen diese 15,5°C Konsens in der wissenschaftlichen Gemeinschaft zu sein.

Karten von heute

Schauen wir jetzt 20 Jahre später auf Darstellungen des Jahres 2012. Die IPCC-Wissenschaftler sagen uns, dass die gegenwärtige globale Mitteltemperatur 14,5°C beträgt. Warum diese Abnahme?

In diesem Jahr 2012 haben sich die Bosse Hans-Joachim Schellnhuber und Stefan Rahmstorf in der aktuellen 7. Auflage ihres Buches Der Klimawandel (s. nächste Karte unten) auf Hadley bezogen und sagen, dass die heutige mittlere globale Temperatur bei 14,5°C liege. Das ist ein ganzes Grad weniger!

Mojib Latif hat am 12. März 2012 bei einem Vortrag in Hamburg die gegenwärtige globale Temperatur von 14,5°C bestätigt.

Auch der 4. Zustandsbericht des IPCC aus dem Jahr 2007 zeigte die Zahl 14,5°C als mittlere globale Temperatur.

Quelle: http://www.bmbf.de/pub/IPCC2007.pdf

Bei einer solchen Abkühlungsrate, also von 15,5°C 1990 auf 14,5°C 2012 würden wir am Ende des Jahrhunderts tief in einer Eiszeit stecken.

Wie kann man von einer globalen Erwärmung sprechen, wenn die Tempertatur von 15,5°C in den frühen neunziger Jahren auf nur 14,5°C heute gefallen ist? Werfen die Klimawissenschaftler einfach nur mit Zahlen um sich?

Wieviel ist 14,5 °C– 15,5°C ? Die Antwort lautet -1,0°C. Aber das IPCC sagt uns, es sei +0,5°C.

Diese Zahlen beweisen, dass hier irgendetwas Willkürliches, Faules und Betrügerisches hinsichtlich der Klimadaten vorgeht, mit denen die Öffentlichkeit heute gefüttert wird. Es bedeutet, dass kein Mensch eine Ahnung hat, wo die globale Temperatur tatsächlich liegt.

Pierre Gosselin NoTrickszone

More on this here.

Außerdem gibt es auf Solarresearch.org eine interessante Zusammenstellung dazu: http://solarresearch.org/sk2010/INFO/Bundestag1992_KeineGlobaleErwaermung_20120806_15Grad.pdf

Link: http://notrickszone.com/2012/08/16/data-from-leading-ipcc-scientists-show-global-temps-have-dropped-unprecendented-1c-since-1990/

Übersetzt von Chris Frey EIKE




Unsere radioaktive Welt

Hat hier schon  jemand schlechte Erfahrungen mit Radioaktivität gemacht? Nein, aber man glaubt den Angstmachern. Stellen wir uns eine typische Strahlengläubige vor: Grün, geschieden, mit Bindestrichnamen. Am 15. April 2011 las sie beim Frühstück auf der Titelseite der Hannoverschen Allgemeinen Zeitung: „Caesium-Alarm im Atomlager Asse. In 750 m Tiefe seien bei Proben 240.000 Becquerel des radioaktiven Isotops Caesium 137 festgestellt worden.“ Sie ist entsetzt. Zwar ist die Asse weit weg, und dann befindet sich dies schreckliche Caesium immerhin 750 m unter der Erde, aber wie schlimm es trotzdem ist, erkannte sie daran, dass es die Zeitung auf der ersten Seite brachte. Offenbar war das Caesium nicht mehr in den Fässern, sondern lief frei im Bergwerk herum. Wer damit nun in Berührung kam! Dass es sie selbst nicht betraf, konnte sie nicht beruhigen, denn ihr stand Schlimmeres bevor.

Im Gegensatz zu vielen Strahlengläubigen, welche von der Arbeit anderer leben, ging unsere Gläubige noch einer ordentlichen Tätigkeit nach, und sie musste zum Arbeitsplatz mit der Straßenbahn fahren. Da war es morgens immer sehr voll, einen Sitzplatz bekam sie fast nie, sondern stand im Körperkontakt mit anderen Menschen. Nun ist jeder von Natur aus eine Strahlenquelle von etwa 8.000 Becquerel. Die Aktivität des Caesiums von 240.000 Becquerel entspricht also derjenigen von 30 Menschen, und in der Bahn waren noch viel mehr Leute!

Dieser Transport von radioaktivem Material, d.h. der Straßenbahnwagen, enthielt beinahe eine Million Becquerel an Radioaktivität allein durch die Fahrgäste. Das Konstruktionsmaterial ist auch nicht ohne! Ein Becquerel bedeutet, dass sich pro Sekunde ein Atom umwandelt und dabei mindestens ein Alpha-, Beta- oder Gammateilchen in die Gegend schießt. Der Mensch enthält ungefähr

Kalium 40                    4.400 Becquerel

Kohlenstoff 14            3.100 Becquerel

Rubidium 87                   600 Becquerel

Blei 210                            15 Becquerel

Dazu kommen noch Thorium, Radium, Polonium und Uran, jeweils nur wenige Becquerel, aber als Alphastrahler besonders gefährlich.

Unserer Gläubigen wurde ganz schlecht, als sie an all diese Isotope auch in ihrem eigenen Körper dachte. Aber dagegen lässt sich nichts machen, außer abnehmen: Mit der Körpermasse wird auch die Radioaktivität geringer. Da das nun alles so schlimm ist, sagte sie sich, darf aber kein Becquerel dazukommen. Ihre Kollegen forderte sie auf, stets Abstand zu halten.

Ihr graute schon vor der Rückfahrt. Eins nahm sie sich fest vor: Den Körperkontakt mit ihrem Lebensabschnittspartner hatte sie bisher als angenehm empfunden. Aber dabei immer gegen die Strahlenangst ankämpfen? Nein, der LAP musste weg.

Nun ist unsere eigene Radioaktivität nicht einmal das Schlimmste, was uns die Natur zumutet. Aus dem Weltraum und vor allem aus dem Erdboden kommt mehr Strahlung. Diese Umgebungsstrahlung ist unterschiedlich. Im Bayrischen Wald ist die Strahlenintensität überall mindestens doppelt so hoch wie im Flachland. Die Strahlengläubigen halten das für sehr gefährlich. So schreibt ein Umweltinstitut München e.V.:

„Verursacht auch die natürliche Hintergrundstrahlung Gesundheitsschäden?

Ja. Die allgemeine Krebsrate (Mortalität) korreliert in Bayern hochsignifikant mit der Hintergrundstrahlung. Aus den Zahlen geht hervor, dass etwa 10 % der spontan auftretenden Krebsfälle durch die Hintergrundstrahlung bedingt sind.

Aber auch die Säuglingssterblichkeit ist in Bayern mit erhöhter Hintergrundstrahlung signifikant gegenüber der im restlichen Bayern erhöht.“

Stellen wir uns einmal Eltern vor, die im Bayrischen Wald leben und dies glauben. Sie trifft das Unglück, das ihr Kind im ersten Lebensjahr stirbt. Dann können sie sich selbst die Schuld am Tod ihres Kindes geben, sie hätten rechtzeitig wegziehen müssen. Bei nur 50 % mehr Strahlung, d.h. einem Millisievert pro Jahr, steigt angeblich die Säuglingssterblichkeit um 21 %. Wenn ein Kind stirbt, fragen sich die Eltern immer: „Sind wir schuld, hätten wir es verhindern können?“ In einem Fall von 5 ist das so, sagt der ehemalige Mitarbeiter dieses Instituts, Herr Dr. Alfred Körblein. Wer seine Familienplanung noch nicht abgeschlossen hat, sollte also wirklich vor der Wahl des Wohnortes beim Bundesamt für Strahlenschutz anfragen, alles andere wäre verantwortungslos, oder?

Allerdings: Die Wirklichkeit sieht ganz anders aus. An manchen Orten der Welt ist die Umgebungsstrahlung zehnfach höher. Seriöse Untersuchungen finden dort keine höhere Kindersterblichkeit und keine Erhöhung der Krebsraten.

Zurück zum „Umweltinstitut e.V.“ Verantwortlich für solche Aussagen über die Bösartigkeit der Natur ist auch der Vorstand des Umweltinstituts, Herr Maximilian Demmel, Dipl.-Kfm., Ing.(grad), und speziell Frau Christina Hacker, zuständig für den Bereich Radioaktivität. Sie hat Amerikanistik, Soziologie und Philosophie studiert. Naturwissenschaften und Mathe waren wohl schon in der Schule nicht ihr Ding.

Es ist überhaupt erstaunlich, was für Leute sich mit Radioaktivität und Strahlenwirkung befassen, z.B. Herr Dr. Thomas Huk, Privatdozent im Institut für Sozialwissenschaften der TU Braunschweig. Er ist 1. Vorsitzender einer gegen ungefähr alles gerichteten Bürgerinitiative, die sich mit „BISS“ abkürzt. Laut Braunschweiger Zeitung vom 03.08.2012 sagte er: „Es ist allgemein anerkannt, dass es keine Schwellenwerte gibt, unterhalb derer radioaktive Strahlung harmlos ist. Das Bundesamt für Strahlenschutz (BfS) schätzt die Zahl der jährlichen Todesfälle durch dieses Radon in Deutschland auf 1.900.

Wirkliche Kenntnisse erwirbt man nur durch eigene Tätigkeit. Aber wer lesen kann und das auch tut, gewinnt doch einen Überblick. Leider ist Herr Huk noch nicht dazu gekommen. Allgemein anerkannt? Zu der Wirkung niedriger Strahlendosen gibt es eine umfangreiche Literatur mit großer Bandbreite. Hunderte von Arbeiten befassen sich mit möglichen positiven Wirkungen niedriger Strahlendosen. Die Arbeit von Prof. Feinendegen ist für Herrn Huk wohl zu wissenschaftlich, aber für Laien gut geeignet ist das Buch des Amerikaners Ed Hiserod: Underexposed. What if radiation is actually good for you? Man muss die Schlussfolgerungen des Autors nicht übernehmen und auch nicht alle seine statistischen Daten glauben, aber: Die positive Strahlenwirkung kleiner Dosen ist eine Möglichkeit, die nicht im Widerspruch mit den Ergebnissen von nunmehr 100 Jahren strahlenbiologischer Forschung steht.

Von der positiven Wirkung kleiner Strahlendosen ist man in den 8 deutschen Radon-Heilbädern überzeugt, und auch im österreichischen Bad Gastein. Dort fahren Patienten in einen „Heilstollen“. Die Luft darin enthält Radon, etwa 50.000 Becquerel pro m³. Das BfS meint, Wohnungen mit mehr als 100 Bq müsste man sanieren. Gastein behauptet Heilerfolge von 90 %. Sind das nun Erfolge für vielleicht ein paar Jahre, und anschließend bekommt dann jeder seinen Lungenkrebs? Das wäre aufgefallen.

Um nicht missverstanden zu werden: Ich propagiere gar nicht die positive Strahlenwirkung. Aber aufgrund jahrzehntelanger Berufstätigkeit im Strahlenfach kenne ich den ganzen Bereich und kann sagen: „Allgemein anerkannt“ ist falsch. Herr Huk stützt sich auf das andere Extrem, wo über Strahlenwirkungen schlicht gelogen wird. Es gibt eben die Protestindustrie, welche davon lebt, den Menschen Angst zu machen.

Nun zu „Schwellenwerten.“ Steht nach einem Gewitter die Terrasse 2 cm hoch unter Wasser, die Türschwelle ist aber 3 cm hoch, dann läuft auch bei offener Tür kein Wasser in den Wohnraum. Benutzt man das Wort „Schwelle“ für Schadstoffe, dann lässt sich diese Schwelle nicht nachmessen, man erkennt sie an den Wirkungen. Keine Wirkung bedeutet, die Dosis hat die Schwelle nicht überschritten. Unter 100 Millisievert hat noch niemand ehrlich biologische Strahlenwirkungen nachweisen können. Wenn das keine Schwelle ist, was sonst?

Die Radon-Toten hat das BfS vermutlich nach der LNT-Hypothese (linear no threshold) berechnet. LNT geht so: Verliert jemand 5 l Blut, ist er tot. Verliert er ein Tausendstel, also 5 ml, dann macht das nichts. Kleine Beeinträchtigungen heilen vollständig. So kann man sich das auch bei kleinen Strahlenwirkungen vorstellen. Auch DNA-Schäden repariert die Zelle. Aber nun LNT: Wenn 1.000 Menschen je 5 ml Blut verlieren, so sind das zusammen wieder 5 l, also gibt es auch genau einen Toten. So unwahrscheinlich das klingt, nehmen wir trotzdem an, bei Strahlen wären Wirkungen auch bei kleinsten Dosen denkbar. Aber genau ein Fall, mit dem man real rechnen kann? Das ist nun wirklich unseriös.

Gefährlich ist für den Strahlengläubigen schon die natürliche Welt, und da erzeugt der Mensch noch künstliche Strahlung! Wer ein ganzes Jahr, 24 Stunden pro Tag und 365 Tage im Jahr, am Zaun des Zwischenlagers Gorleben herumsteht, bekommt eine Dosis von maximal 0,3 Millisievert ab, mehr ist nicht erlaubt. Das ist etwa die Dosis, welcher man durch die Radioaktivität des eigenen Körpers ausgesetzt ist. Schreckliche Sache: Greenpeace behauptet gefunden zu haben, es sind 0,305 Millisievert (HAZ 27.10.2011). Wer sich mit Strahlenmessungen auskennt, kann über die dritte Stelle hinter dem Komma nur lachen, so genau bekommt das keiner hin. In den umliegenden Dörfern kommt gar nichts mehr an, nicht einmal Greenpeace behauptet etwas anderes.

Aber da trat Herr Dr. Hagen Scherb in Aktion, Mitarbeiter des Helmholtz Zentrums München, früher GSF. Er wird als Biostatistiker bezeichnet und findet Strahlenwirkungen auch dort, wo gar keine zusätzliche Radioaktivität gemessen wird und nach Ausbreitungsrechnungen auch nicht sein kann.

Herr Scherb behauptet, in den Orten des Wendlandes um Gorleben herum würden wegen des Castor-Lagers Mädchen nicht geboren, oder jedenfalls weniger als normal. Von 1996 bis 2011 kamen dort 231 Kinder zur Welt, davon 111 Mädchen. Nach Bundesdurchschnitt hätten es 112,41 Mädchen sein müssen, also rund ein und ein halbes Mädchen mehr. Das heißt: Bei 229 Frauen war alles normal, aber anderthalb Frauen (falls Sie sich das vorstellen können) hätten vielleicht lieber ein Mädchen gehabt, bekamen aber einen Jungen, und nur wegen dieser Castor-Behälter!

Diese schlimme Nachricht brachten alle Medien. Aber selbst Öko-Institute machen da nicht mit. In einer anderen Sache hatte ich einen Briefwechsel mit dem Öko-Institut Freiburg. Mir schrieb der zuständige Fachmann, Herumstochern in statistischen Unsicherheiten würde er ablehnen, Wirkungen müssten immer auch dazu passende Ursachen haben.

Als ehemaliger Mitarbeiter des Helmholtz Zentrums habe ich mich dort über Herrn Scherb per E-Mail beschwert. Mich rief darauf der Chef der Öffentlichkeitsarbeit an und sagte mir, wie unglücklich man dort über Herr Scherb wäre. Um zu zeigen, dass aber sonst doch noch ordentliche Arbeit geleistet wird, schickte er mir einen ganzen Karton voller Informationsmaterial.

Ich verstehe, dass das Helmholtz Zentrum mit Herrn Scherb sehr vorsichtig umgehen muss. Das Zentrum lebt von Geldern, welche bewilligt oder verweigert werden von Politikern, die wohl mehrheitlich Herrn Scherb für den besten Mitarbeiter des Helmholtz Zentrums halten.

Sucht man Zusammenhänge, wie das Herr Scherb tut, dann wird man auch immer welche finden. So könnten schlechte Spielergebnisse örtlicher Fußballvereine mit der Nähe zu einem Kernkraftwerk erklärt werden. Und wenn die Ergebnisse gar nicht so schlecht sind? Dann könnten sie ohne das Kraftwerk noch besser sein.

So wurde nach dem Unfall 1986 in Tschernobyl bezüglich der Säuglingssterblichkeit in Bayern argumentiert. Die ist erfreulicherweise von Jahr zu Jahr zurückgegangen, aber es sterben doch noch pro 1.000 Geburten etwa 4 Kinder im ersten Lebensjahr. Auch nach 1986 ging die Säuglingssterblichkeit weiter zurück, aber es wurde behauptet: Wegen Tschernobyl nicht mehr so schnell. Aus der offiziellen Statistik war das nicht abzulesen, aber es wurde eben behauptet.

Die Differenz zwischen den tatsächlichen Zahlen und den niedrigeren ausgedachten ergab angeblich: Vielen 100 Säuglingen hat Tschernobyl den Tod gebracht.

Das richtige Grauen vor Radioaktivität kommt auf, wenn über Mutationen berichtet wird. Dabei sehen wir ständig Mutanten: Weiße Katzen, Pferde, Kaninchen, Ziegen; weißes Geflügel, außerdem Goldfische, Möpse, Dackel, Pekinesen. Die vielen unterschiedlichen Tomatensorten haben manchmal wirklich mit Strahlung zu tun, es sind künstliche Strahlenmutanten, erzeugt sozusagen durch atomares Gärtnern.

Meine eigenen Tomaten, die ich immer wieder selbst aus Kernen ziehe, bestrahle ich nicht. Aber dieses Jahr war eine Pflanze mit gar nicht tomatenartigen Blättern dabei: War es Unkraut? Als biologisch interessierter Mensch wollte ich das wissen und habe sie im Garten ausgepflanzt. Trotz der abweichenden Blattform war es eine Tomatenpflanze, die kleinere, aber sonst ganz normale Tomaten brachte.

Ob diese Veränderung damit zusammenhängt, dass ich 30 Jahre lang „beruflich strahlenexponiert“ war, also total verstrahlt bin, und außerdem von den früheren Kernwaffenversuchen her noch radioaktives Strontium in meinen Knochen habe? Wohl kaum, Mutationen sind etwas ganz natürliches.

Warum beobachtet man dann keine Mutationen in der freien Natur? Weil Mutanten ohne menschliche Fürsorge nicht lange leben. Die Häufigkeit von Mutationen ist in der Natur nicht geringer, und es werden auch immer mal weiße Rehe, weiße Krähen und andere Abartigkeiten gefunden, die es dann aber nicht lange machen. Schwarze Panther sind etwas besser dran, einige leben jahrelang und können ihre Gene sogar weitergeben.

Was geschieht, wenn durch Strahlung die Zahl der Mutationen größer wird? Der Züchter will es so. Ist es aber nicht schrecklich, wenn einem in Tschernobyl die Kaninchen mit den zwei Köpfen entgegenhoppeln und man sich vor fast schweinegroßen Ratten fürchten muss? Solche Übertreibungen sind für die ganz Dummen; für Halbgescheite gibt es die „Gorleben Rundschau“. Da stand in Heft 3, 2009: „Tierwelt in Tschernobyl verändert.“ Der Verfasser behauptet, dort wäre eine hohe Zahl missgebildeter Tiere gefunden worden, sagt aber auch, dass diese keine Überlebenschancen haben. Das, behauptete er, hätte dazu geführt, dass in einigen Gebieten praktisch kein Tierleben mehr vorhanden ist. Wo sonst 100 kleine Tiere pro Quadratmeter leben, wäre es dort oft nicht einmal ein Tier.

Nun kann Strahlung höchster Dosis das Leben ganz auslöschen, allerdings nicht durch Mutationen. Man sterilisiert mit Strahlung. Geht die Strahlung zurück, kommt das Leben schnell wieder. Bei meinem Besuch in Tschernobyl im Jahr 1992 zeigte man mir die Reste von Bäumen, welche regelrecht totgestrahlt waren. Zur Zeit meines Besuches 6 Jahre nach dem Unglück war an einer solchen Stelle die Umgebungsstrahlung immer noch 70 mal höher als normal. Das reichte aber nicht mehr, um die Vegetation zu vernichten, es kamen schon wieder kleine Birken hoch.

Kleintiere haben enorme Vermehrungsraten. Für eine Spinne oder eine Schnecke ist es wie ein Lottogewinn, das Erwachsenenalter zu erreichen. Auf jede, die das schafft, kommen hunderte, die auf der Strecke bleiben. Ein Anteil von Mutanten erhöht daher nur die Lebenschancen der anderen. Eine erhöhte Mutationsrate hat in der Natur überhaupt keinen Einfluss!

In Tschernobyl konnte das besonders an Fischen gezeigt werden. Die haben im Kühlteich des Kraftwerks wirklich was abgekriegt, und man muss schon eine erhöhte Mutationshäufigkeit annehmen. Aber ein Fisch hat Tausende von Nachkommen. Einige Jahre nach dem Unglück stellte man fest: Die Fische waren munter, gesund und zahlreich.

Nun ging am 14. August 2012 durch die Medien: „Forscher entdecken Fukushima-Mutationen“. In Erinnerung an die vielen erlogenen Tschernobyl-Informationen denkt man zunächst: Stimmt gar nicht. Aber nehmen wir einmal an, diese mutierten Falter gibt es wirklich. Mutationen eben, wie bei Tomaten. Bei Tomaten ist ein Anteil an Strahlenmutanten sicher, ob sie nun aus einem Biobetrieb stammen oder nicht. Bei den Schmetterlingen ist das unwahrscheinlich. Erst wenn 1.000 Millisievert in einem kurzen Zeitraum einwirken, findet man eine doppelt so hohe Mutationsrate wie von Natur aus. Die höchsten Werte in der Umgebung des Kraftwerks Fukushima betragen 50 Millisievert, für jemanden, der sich ein ganzes Jahr an der betreffenden Stelle aufhält. Schmetterlingsraupen brauchen aber kein Jahr bis sie ausgewachsen sind.

 

Entweder ist die ganze Geschichte erlogen, oder es gibt diese Veränderungen tatsächlich, dann haben sie nichts mit dem Reaktorunfall zu tun. Eine Veränderung der Natur stellen sie in keinem Fall dar; solche Schmetterlinge haben im Freien keine Überlebenschance.

Die ganze Aufregung über Strahlung bezieht sich auf Intensitäten, die in unserer Welt ganz natürlich sind. Das folgende Bild aus Kerala stammt aus einem Reiseprospekt, ohne Warnung vor Radioaktivität. Sollte man das Reisen dorthin verbieten und die Bevölkerung umsiedeln?

(Übersetzung aus dem Japanischen: Dr. Hermann Hinsch)

Der Sand erscheint dunkel, weil er Körner aus Monazit enthält, und in denen ist radioaktives Thorium. Alles reine Natur!

Dr. Hermann Hinsch

jhhinsch@t-online.de

Dr. Hinsch ist Physiker mit dem Fachgebiet Strahlungsphysik. Er lebt und arbeitet in Hannover 

Update: 26.8.12

Die ARTE Doku über Tschernobyl können Sie hier auf Youtube ansehen 




Energiesparen durch ökologischen Unfug

Der Physiko-Chemiker Prof. Dr. Friedrich-Schmidt-Bleek, ehemals Vizepräsident des (rot-grünen) Wuppertal Instituts, hat schon in den 1990er Jahren vorgerechnet, dass ein Mittelklassewagen, bevor er auch nur einen einzigen Kilometer gefahren ist, einen virtuellen „ökologischen Rucksack“ von 25 Tonnen mit sich herumschleppt. Bei heutigen Wagen der oberen Mittelklasse kann der „ökologische Rucksack“ wegen des inzwischen durch den Einsatz von elektronischen Sicherheitsvorrichtungen stark gewachsenen Leergewichts schon dreimal so groß sein. Ein solcher Wagen schleppt also einen virtuellen Rucksack von über 70 Tonnen mit sich herum. Der „ökologische Rucksack“ ist ein denkbar einfaches Maß für die Umweltbelastungen durch beliebige Industrieprodukte. Ich lasse jetzt einmal die berechtigte Kritik an dem der Berechnung des „ökiologischen Rucksacks“ zugrunde liegenden MIPS-Konzepts beiseite. MIPS bedeutet Material-Input je Service-Einheit. Dabei werden alle für die Herstellung eines bestimmten Produktes notwendigen Roh- und Hilfsstoffe samt des Bergwerks-Abraums und der bei der Rohstoff-Verarbeitung anfallenden Abfälle sowie die bei der Rohstoffgewinnung und -verarbeitung eingesetzten Energien (umgerechnet in Masse-Äquivalente) zusammengezählt und auf Dienstleistungs-Einheiten (z.B. die jährliche Kilometerleistung eines wagens) umgerechnet.

Der „ökologische Rucksack“ des während der etwa 20-jährigen Lebenszeit des Pkw verbrauchten Kraftstoffs ist übrigens kaum größer als die Summe der Umweltbelastungen, die bei der Herstellung des Pkw entstehen. Wird ein Pkw also vorzeitig verschrottet, bedeutet das in der Öko-Bilanz seines gesamten Lebenszyklus einen Verlust, der durch andere Vorteile nicht aufgewogen werden kann. Die „Umweltprämie“ ist ökologisch eindeutig kontraproduktiv. In Wirklichkeit handelte es sich dabei lediglich um eine indirekte Subvention der notleidenden Automobilindustrie. Diese Einsicht hat die neue französische Regierung unter dem sozialistischen Staatspräsidenten François Hollande nicht davon abgehalten, die „Umweltprämie“ sogar noch zu erhöhen, um den Herstellern von Elektro- und Hybridfahrzeugen auf die Sprünge zu helfen. Käufer von E-Mobilen sollen nun vom französischen Pleite-Staat 7.000 Euro, Käufer von Hybrid-Autos 4.000 Euro erhalten.

Wärmegesetzes (EEWärmeG) novelliert werden. Finanziert werden soll die Prämie durch Aufschläge auf die Öl- und Gaspreise. Zur Kasse gebeten werden also auf jeden Fall die Mieter. Diese werden der Regierung für diese Aktion zum Schutz eines virtuellen Weltklimas sicher dankbar sein.

Edgar Gärtner EIKE

Anmerkung der Redaktion:

Zu dieser traurigen Geschichte passt auch die Aufforderung der EU-Kommission an die nationalen Regierungen das Glühlampenverbot mittels eigens einzustellender Kontrolleure durchzusetzen. So schreibt Die Welt am 20.8.12:

Brüssel fordert Kontrollen bei Glühbirnen

– Die EU-Kommission hat die deutschen Behörden aufgefordert, das ab September geltende Handelsverbot für Glühlampen durch Kontrollen zu überwachen. Eine Sprecherin von Energie-Kommissar Günther Oettinger reagierte damit im "Tagesspiegel am Sonntag" auf Berichte, wonach von dem Verbot ausgenommene "stoßfeste Spezialglühlampen" derzeit verstärkt angeboten werden. "Um derartige Lampen legal zu verkaufen, müssen Hersteller aber sichtbar auf die Packung schreiben, dass diese Birnen nicht für Haushaltslampen bestimmt sind", sagte Kommissionssprecherin Marlene Holzner…

Internet:

Ökologischer Rucksack

MIPS-Konzept

MIPS Online

Das Geschäft mit der Energiesparmasche

Regierung plant Abwrackprämie für alte Heizungen




Der anthropogene Treibhauseffekt – eine spektroskopische Geringfügigkeit

Update 25.9.12

Aufgrund der überaus aktiven Diskussion hat Dr. Hug seinen Artikel nochmals überarbeitet, evt. schlecht verständliches verständlicher dargestellt und evtl. fehlendes ergänzt. Sie finden den vollständigen aktualisierten Beitrag als pdf im Anhang

Zusammenfassung: Ganz offensichtlich wird die Wirkung des anthropogenen Treibhauseffekts weit überschätzt, denn insbesondere der CO2-Treibhauseffekt war bis auf unbedeutende, spektroskopisch begründbare Restbeträge („Peakflanken“) bereits zu Zeiten Goethes ausgereizt. Wegen des weitgehenden „Sättigungseffekts“  ist der anthropogene Anteil der Treibhausgase für die gegenwärtige Klimaänderung von untergeordneter Bedeutung. Vielmehr geht die Varianz der Erdoberflächentemperatur mit der Wolkenbedeckung einher, die wiederum von der Fluktuation des solaren Magnetfelds abhängt. Dabei hat eine größere Wolkenbedeckung des Globus in etwa die gleiche Auswirkung wie Vulkanasche nach einem Ausbruch. Der Einfluss der Wolkenbedeckung lässt sich mit den Klimamodellen des IPCC nur äußerst unzulänglich abbilden. Klimamodelle sind auch deshalb ein spektroskopisches Artefakt, weil sie mit gewillkürten Flusskorrekturen arbeiten müssen, deren Beträge den des anthropogenen Treibhauseffekts um ein Vielfaches übersteigen.

1. Was ist unter dem Begriff „Sättigung“ des Treibhauseffekts zu verstehen?

Klimaforschung ist eine in Politik gegossene Naturwissenschaft. Da beide Handlungsfelder nicht von einander zu trennen sind, gab es im Vorfeld von Rio92 in den unter Einfluss der Politik agierenden Medien ein flächendeckendes Meinungsbombardement über die kommende Klimakatastrophe.

Unter dem Eindruck der Medienhype versuchte man als Naturwissenschaftler in den neunziger Jahren etwas über die spektroskopischen Grundlagen des propagierten Klima-Harmagedons  in den allgemein gelesenen Periodika zu erfahren – und biss auf Granit. Weder in „Nature“ noch in „Science“ oder in „Scientific American“ (deutsch „Spektrum der Wissenschaft“) erschien ein informativer Artikel über den grundlegenden spektroskopischen Mechanismus des „Treibhauseffekts“ und dessen Grenzen (Emissionsspektren des Erdkörpers, Strahlungstransport, Anwendung des Planckschen-Strahlungsgesetzes auf die Besetzung von Schwingungsrotationsbanden bei CO2, Integration über dem Halbraum zur Berechnung des „Treibhauseffekts“ einer Stoffmengenportion von CO2, Festlegung und Definition der als normal geltenden Mitteltemperatur (288 K) im Rahmen einer Konferenz usw.). Auch Roger Revelle, der den späteren US-Vizepräsident Al Gore am College mit der Treibhausgastheorie bekannt machte, publizierte hierzu keine brauchbare Information [2].  Es war fast so, als hätte man Angst, die Karten aufzudecken.

Da man von den allgemein gelesenen Wissenschaftsjournalen im Stich gelassen wurde und die Propagandawalze in dem Medien unaufhörlich trommelte, möchte man als Chemiker erfahren, ab welchen CO2-Gehalt der Treibhauseffekt aus spektroskopischen Gründen unter realistischen Annahmen ausgereizt ist. Dies insbesondere, wenn man beruflich mit der Quantifizierung von Analyten mittels spektroskopischer Methoden befasst ist und weiß, dass es immer einen Konzentrationsbereich gibt, ab dem die Messstrahlung nahezu komplett absorbiert wird. Es verhält sich ähnlich wie beim Eintropfen von schwarzer Tinte in ein Wasserglas. Je mehr man zufügt, desto mehr des einfallenden Lichts wird absorbiert bis die Absorption schließlich vollständig ist (Transmission t = 0).

Ganz irreführend war ein Aufsatz von 1984 in der Mitgliederzeitschrift der Gesellschaft deutscher Chemiker, den so genannten „Blauen Blättern“ [5]. In dieser Veröffentlichung, auf die ich weiter unten zurückkomme, wird die „Rolle der treibhauswirksamen Spurengase“ mit Hilfe von Transmissionsspektren erläutert. Ein deutlicher Hinweis, dass es beim Treibeffekt um die atmosphärische spektrale Strahldichte (vereinfacht Emission) durch atmosphärische Spurengase  geht, wird nur unterschwellig beschrieben. Angeregt durch die Literaturstelle [5], unternahm ich Messungen zur Transmission (bzw. Absorption oder Extinktion) in einer Gasküvette, um festzustellen, inwieweit der Treibhauseffekt des CO2 „ausgereizt“ ist.

Wird durch Treibhausgase beispielsweise 35 % der vom Erdboden ausgehend Strahlung bei einer bestimmten Wellenlänge in einer bestimmten Höhe absorbiert, dann ist die Absorption (früher Aa = 0,35 (bzw. a = 35 %) Die Transmission (früher T) beträgt t  = 0,65  bzw. t  = 65 %.

Da die Absorption von IR-Strahlung („Wärmestrahlung“) quantitativ dem Bouguer-Lambert-Beer-Gesetz (eine e-Funktion) folgt, sollte es eine „fließende Grenze“ geben, ab der bei zunehmender Konzentration des Absorbers keine wesentliche Steigerung der Absorption a erfolgt bzw. die Transmission t gegen Null geht (Bild 1).

Bild 1: Transmission und Konzentration

Die Betrachtung der Transmission t zur Abschätzung des anthropogenen Treibhauseffekts ist nicht vollkommen falsch, weil nämlich die „Emissionsfähigkeit“ der Treibhausgasmoleküle mit der Absorptionsfähigkeit gemäß dem Kirchhoffschen Strahlungsgesetz korreliert. Deshalb sollte es einen („fließenden“) Konzentrationsbereich geben, ab dem der atmosphärische Treibhauseffekt CO2 nicht mehr nennenswert ansteigt. Ich bezeichne dies als „Sättigung“, die es, wenn man in immer kleineren Kleinigkeiten kramt, tatsächlich nicht gibt. Nicht ganz korrekt aber anschaulich verhält es sich mit der „Sättigung“ ähnlich wie mit dem Grenzwert einer geometrischen Reihe. Beispiel:

Für eine solche geometrische Reihe gilt:

Dabei ist a1 das Anfangsglied und q der Quotient zweier aufeinander folgender Glieder (q¹1). In der obigen geometrischen Reihe ist a1 = 1 und q = 0,5 (z. B. ¼ : ½ = 0,5). Setzt man jetzt beispielsweise n = 11 resultiert

und für n = 12 erhält man:

Der Zuwachs zwischen S11 auf S12 beträgt: DS = 1,9995117 – 1,9990234 = 2,777 . 10-4 entsprechend 0,014 %. Bezeichnet man den Grenzwert dieser arithmetischen Reihe als „vollständige Sättigung“ (S¥ = 2), dann ist der Betrag von S12 nur noch um

von dieser vollständigen „Sättigung“ entfernt.

Natürlich beruht der Treibhauseffekt auf der Emission von IR-Strahlung durch atmosphärische Spurengase und nicht auf der Absorption bzw. der Transmission von IR-Strahlung durch dieselben. Weil aber

–       erstens IR-aktive Spurengase gemäß dem Kirchhoffsche Strahlungsgesetz genau so emittieren wie sie absorbieren,

–       kann zweitens der „Sättigungscharakter“ des Treibhauseffekts in einfacher Näherung mit Hilfe des Bouguer-Lambert-Beer-Gesetzes abgeschätzt werden.

Nun basiert dieses Gesetz nicht wie oben auf einer geometrischen Reihe sondern auf einer e-Funktion, die als Potenzreihe gegen Null konvergiert (vgl. a. Bild 1).

Angenommen für eine Absorptionsbande des CO2 wird für eine bestimmte CO2-Konzentration in einer bestimmten Höhe willkürlich der Zahlenwert x = 8 eingesetzt, dann resultiert

Werden die Bedingungen gleich gehalten und lediglich die CO2-Konzentration verzehnfacht, erhält man

Man kann das Spiel beliebig weiter machen und gelangt schnell an die Grenzen eines Taschenrechners und später auch an die eines Supercomputers ( . Anschaulich gesprochen heißt das, die tatsächliche „Sättigung“ wird erst in einer reinen CO2-Atmosphäre mit unendlicher Schichtdicke erreicht. Erst dann ist die Transmission formal t = 0 und die Absorption a = ¥. Das ist natürlich Unsinn, aber orthodoxe Anhänger der Treibhausgastheorie können immer argumentieren, es gibt auch bei stetig steigenden CO2-Gehalt keine Sättigung des Treibhauseffekts und damit ein endloses Diskussions-perpetuum-mobile in Gang halten.

Nebenbei bemerkt hatte 1995 der englische Chemiker Jack Barrett  in der Spectro Chimica Acta auf die bereits längst gegebene „Sättigung“ der Treibhauseffekts hingewiesen und damit eine heftige Kontroverse ausgelöst [3, 8, 9, 10, 11]. Der damalige Chairman und spätere Co-Chairman des IPCC, Sir John Houghton, rief Barrett nach Erscheinen der Publikation an und verlangte, er solle seine Veröffentlichung zurückziehen. Außerdem verständigte Sir Houghton die Leitung des Imperial Colleges, an dem Barrett damals arbeitete. Diese untersagte ihm umgehend unter Androhung von Konsequenzen weitere kritische Veröffentlichungen zum Treibhauseffekt [35].

2. Der Treibhauseffekt

Fälschlicherweise wird oftmals angenommen, der Treibhauseffekt sei mit der Absorption von Infrarotstrahlung (IR-Strahlung) durch atmosphärische Spurengase (CO2, CH4, Wasserdampf u. a.) identisch. Durch strahlungslose Deaktivierung der angeregten Moleküle („Thermalisierung“) würde sich die Luft erwärmen und ihre Wärmeenergie auf die Erdoberfläche übertragen. Ähnlich wie eine heiße Flüssigkeit die Wandung eines Behälters durch Wärmeübertragung erhitzt.  Der Treibhaushypothese nach verhält es sich genau umgekehrt:  Die Erdoberfläche wird fast ausschließlich durch Bestrahlung erwärmt und die Atmosphäre nimmt ihre Wärmeenergie durch direkten Kontakt mit dem Erdboden auf.

Die Bestrahlung der Erdoberfläche setzt sich aber aus zwei Teilen zusammen:

1.      Die direkte Solareinstrahlung (abhängig von der Wolkenbedeckung)

2.      Strahlung durch den atmosphärische Treibhauseffekt (im wesentlichem ausgereizt)

Die Existenz einer atmosphärischen Gegenstrahlung, die den Treibhauseffekt charakterisiert, lässt sich zwar leicht nachweisen, aber bereits die Größenordnung des natürlichen Treibhauseffekts kann nur berechnet werden und die ihm zugeschriebene Auswirkung auf das Klima entzieht sich vollkommen der Verifikation [20]. Im gleichen Maß entziehen sich Klimacomputermodelle vollkommen der Falsifikation. Man kann mit ihnen jegliche Entwicklung prophezeien, ohne je befürchten zu müssen, gegenwärtig widerlegt zu werden.

Zum Verständnis des CO2-Treibhauseffekts ist zunächst einmal die „ganz normale“ Infrarot-Absorption atmosphärischer Spurengases zu betrachten [2].  Da IR-aktive Verbindungen mit mehr als zwei Atomen meist verschiedene Absorptionsbanden bzw. Emissionsbanden besitzen, muss  geklärt werden, welche der Absorptions-/Emissionsbande des CO2 von Bedeutung ist. Hierüber geben Satellitenspektren Auskunft [4].

Bild 2: Satellitenspektren, oben über der Sahara, unten über der Arktis

Die gestrichelten Linien im Bild 2 sind die idealen Planck-Strahlungskurven der Erdoberfläche berechnet bei unterschiedlichen Temperaturen in K. Die „gezackte Linien“ repräsentieren neben der ungehinderten Emission der Erdoberfläche die Emissionsgraphen der atmosphärischen Treibhausgase. Die stets offenen Strahlungsfenster liegen bei 800 – 1000 cm-1 und 1050 – 1300 cm-1. Die roten Pfeile im Bild 1 kennzeichnen die ν2-Bande um 15 μm (667 cm-1). Deshalb ist nur diese relativ schwache Bande von Bedeutung und nicht die wesentlich stärkere n3-Bande um 4,2 μm (2349 cm-1). Außerdem erkennt man, die Atmosphäre emittiert tatsächlich IR-Strahlung („Treibhauseffekt“). Dies sieht man ganz deutlich im Satellitenspektrum über der Arktis (unteres Spektrum im Bild 2). Die Bodentemperatur beträgt dort nämlich ca. 200 K (-73 °C), während die Atmosphäre in etwa 10 km Höhe eine höhere Temperatur von ca. 210 K (-63 °C) aufweist. Dies ist ein erster Hinweis darauf, dass der den IPCC-Computermodellen zugrunde liegende Strahlungstransport die Verhältnisse nicht korrekt beschreibt. Es handelt sich vielmehr um einen Energietransport infolge der natürlichen Konvektion. Dabei steigt wärmere Luft unter Abkühlung auf und gibt ihre Energie oberhalb einer Höhe von 10 km als „ungestörte Emission“ ins Weltall ab.

Die im Bild 2 deutlich erkennbaren Strahlungsfenster, die bei wolkenfreien Himmel stets offen sind, veranlassen einige Skeptiker zu argumentieren, selbst wenn es einen Treibhauseffekt gäbe, könne dieser nicht die behauptete Erwärmung der Erdoberfläche verursachen, weil die Auskühlung durch die Strahlungsfenster mindest so groß wie die Wirkung des Treibhauseffekts.

Andere Skeptiker sagen, weil „klimawirksame“ Spurengase wie CO2 usw. IR-Strahlung nicht nur absorbieren sondern im gleichem Maße auch emittieren (Kirchhoffsches Strahlungsgesetz), besitzen „Treibhausgase“ eine kühlende und keine erwärmende Wirkung. Dies beweisen u. a. die im Bild 2 mit rotem Pfeil markierten Maxima des Emissionsspektrums von CO2, der die Abgabe von Strahlungswärme ins Weltall präsentiert. Die gleichen Skeptiker sagen, gäbe es wirklich einen Treibhauseffekt, müsste die Oberfläche der Arktis (200 K) auf die Temperatur erwärmt werden, die in ca. 10 km Höhe herrscht (210 K). Außerdem verstoße der Treibhausgaseffekt gegen den 2. Hauptsatz der Thermodynamik, weil kältere, höher gelegene Luftschichten nicht dem wärmeren Erdboden durch „Rückstrahlung“ erwärmen können (vgl. Temperaturgradient im Bild 10).

3. Eigene Messungen

Weil, wie eingangs erläutert, in den allgemein gelesenen wissenschaftlichen Journalen keine auch nur annähernd brauchbare Information zur Spektroskopie des Treibhauseffekts veröffentlicht wurde, habe ich die Absorption des Kohlendioxids einmal in einem Industrielabor und einem Hochschullabor gemessen und die Transmission einzelner Banden, so weit sie erfassbar waren, auf die Atmosphäre hochgerechnet.

Ein Teil der Messungen (vgl. Bild 4) wurden mittels einer 10-cm-Küvette mit IR-durchlässigem Fenster durchgeführt, die mit synthetischer CO2-freier und wasserfreier Luft gefüllt war. Danach wurde mit einer Mikroliterspritze CO2 zugegeben, so dass 357 ppm CO2 zugegen waren (CO2-Konzentration von 1993). Weiter wurden soviel Wasser zugefügt, bis 2,6 % Wasserdampf vorlagen. Als IR-Strahlungsquelle diente ein Globar, ein elektrisch auf 1000-1200 ºC geheizter Siliziumkarbid-Stab mit nachgeschaltetem variablen Interferenzfilter. Nach der Aufnahme dieses Spektrums wurde mit CO2 aufgestockt, so dass 714 ppm enthalten waren. Die Messung erfolgte zum einem FT-IR-Spektrometer „Bruker IFS 48“.

Um den Einfluss von Fremdgasen zu überprüfen wurde reines CO2 und CO2 in Gegenwart von He sowie N2 bei 1020 mbar mit einem Perkin Elmer System 2000 FT-IR-Spektrometer gemessen. Bild 3 zeigt das Ergebnis. Im Strahlengang des Spektrometers befand sich jedes Mal die gleiche Anzahl an CO2-Molekülen. Reines CO2, das die niedrigste Absorption hat, wurde bei einer Schichtdicken von 0,35 mm gemessen. Die anderen in einer 10-cm-Küvette in Gegenwart von He (mittlere Absorption) und Stickstoff (größte Absorption).

Bild 3: Spektrum von CO2 (rein) und in Gegenwart von He sowie N2

Deutlich erkennbar ist, dass in bodennahen Schichten angeregte CO2-Moleküle durch strahlungslose Deaktivierung (Thermalisierung“) in den Grundzustand zurückkehren. Ähnlich wie es Jack Barrett in seiner Spectro Chimica Acta-Publikation 1995 feststellte.

Der Bereich, der nach IPCC-Angaben den zusätzlichen – anthropogenen – Treibhauseffekt präsentiert, ist durch Pfeile im Bild 3 kenntlich gemacht. Nun kann man argumentieren, wählt man eine Küvette mit einer Länge von 1 000 m findet man an den Rändern mehr „klimawirksame“ Absorptions-/Emissionsbanden. Dies insbesondere, wenn man eine Wegstrecke vom Erdboden bis zur Tropopause (ca. 10 000 m) wählt. Wie gesagt, das Diskussions-perpetuum-mobile lässt sich endlos in Gang halten.

3.1 Auswertung der eigenen Messungen

Bild 4 zeigt das unbearbeitete Spektrum der 15 µm-Bande für 357 ppm CO2 und 2.6% H2O.

(Bild 4: Unbearbeitetes Spektrum der 15 µm-Bande (ν2-Bande)

Deutlich sind wie im Bild 3 der R– (ΔJ = + 1) und der P– (ΔJ = – 1) sowie der Q-Zweig (ΔJ = 0) der n2-Bande zu erkennen. Der Extinktionskoeffizient im MaximumJ = 0) ergab sich zu:

e = 20,2 m2 mol-1 (ν2 bei 667 cm-1)

Um die Absorption zu berechnen, wurde der durchschnittliche CO2-Gehalt der Atmosphäre mit c = 1,03.10-3 mol/m3 angenommen. Setzt man die oben gemessenen molaren Extinktionen nebst der Konzentration und der Schichtdicke der Troposphäre (h = 10 km = 104 m) in das Lambert-Beer’sche-Gesetz ein, so erhält man eine Extinktion (Formelzeichen nach DIN: A) von

A(n2) = 20,2 m2 mol-1 × 1,03.10-3 mol/m3 × 104 m = 208

Dies bedeutet, dass die Transmissionen in der Mitte der Absorptionsbande bei den um 1997 gegebenen 357 ppm CO2 bei T(n2) = 10-208 liegt (Bild 5).

Bild 5: Spektrales Auswertungsschema

Dies ist ein extrem geringer Transmissionswert, der eine Steigerung des Treibhauseffektes bei Verdopplung des klimawirksamen Spurengases in diesem Bereich vollkommen ausschließt.

Setzt man den molaren Extinktionskoeffizient e für die n2-Bande sowie die Volumenkonzentration in mol/m3 (357 ppm CO2) in das Lambert-Beersche-Gesetz ein und nimmt eine Schichtdicke von 10 m an, resultiert eine Extinktion von

A = 20,2 m2 mol-1 × 0,0159 mol/m3× 10 m = 3,21

Dies entspricht einer Transmission von T = 10-3.21 = 0,6 Promille. Mit anderen Worten: Bereits nach 10 m absorbiert die Q-Bande 1 – T = 99,94% der IR-Strahlung.

Bei der Absorption an den Peakflanken ist die Extinktion naturgemäß kleiner. Deshalb stellt das IPCC 1990 fest, die Schwingungsrotationsbanden im mittlerem Bereich der 15 mm-Bande seien so gut wie gesättigt („saturated“), weshalb sie zum  „Treibhauseffekt“ bei weiter erhöhter Konzentration kaum beitragen. Aber:  „The effect of added carbon dioxide molecules is, however, significant at the edges of the 15 µm band, and in particular around 13,7 and 16,3 µm [14]“. D. h. Der vom IPCC als gefährlich eingestufte anthropogene Treibhauseffekt soll vor allem auf IR-Banden des Kohlendioxids unterhalb von 625 cm-1 bzw. auf oberhalb von 729 cm-1 beruhen [vgl. a. 36]. Was diese Aussage bedeutet, erkennt man am Besten, wenn man sich das Bild 3 noch einmal anschaut.  Abgesehen davon stützen sich  IPCC-Forscher auf eine vollkommen unbedeutende Oberschwingung des CO2 bei 9,6 mm, die, wie bei Oberschwingungen üblich, 15 bis 30mal schwächer ist als die zugehörige Grundschwingung. Hinzu kommen noch andere „Treibhausgase“ wie N2O, CH4 usw., auf die ich hier nicht eingehen kann. Selbst das Schwefelhexafluorid (SF6), das u. a. zur Füllung von Autoreifen verwendet wurde, damit die Fahrzeuge leiser dahinrollen, musste vor Jahren der befürchteten Klimakatastrophe weichen.

Natürlich existieren diese o. g. „edges“ um 15 mm, denn die Rotationsquantenzahl J geht von J = + 1 bis J = + ¥ und von J = – 1 bis J = – ¥. Bedauerlicherweise werden aber die „ungesättigten Bereiche“ des 15 mm-CO2-Spektrums an den Rändern immer schwächer.

Da die Besetzung (NJ/NJ=0) der Rotationsschwingungsniveaus der Boltzmann-Verteilung (Gleichung 4)

(B = Rotationskonstante, J = Rotationsquantenzahl, h = Planck-Konstante, c = Lichtgeschwindigkeit, k = Boltzmann-Konstante, T = thermodynamische Temperatur)

gehorchen, sind bei hohen Rotationsquantenzahlen (J) zu einem gegebenen, fixen Zeitpunkt („Momentaufnahme“)  nur sehr wenige CO2-Moleküle vorhanden, die in diesem Bereich absorbieren und entsprechend dem Kirchhoffschen Strahlungsgesetz emittieren („Treibhauseffekt“).  Wie schwach die Banden besetzt sind, kann man anhand folgender HITRAN-Daten überprüfen [6]:

Wellenlänge  Absorptionskoeffizient pro Molekül in10-22­ cm-1/(molec . cm2)
13,5 mm (= 741,7 cm-1) 76
15,0 mm (= 666,7 cm-1) 79 452 (Bandenmitte)
12,5 mm (= 797,3 cm-1) 46

Um die Absorption an den Peakflanken abzuschätzen, wurde bei den eigenen Messungen als Arbeitshypothese angenommen, die Extinktion soll sich bei Verdopplung des CO2-Gehalts um die Größenordnung A = 3 (t = 10-3) erhöhen. Hierzu wurde das Gesamtintegral der Banden bis zu den auslaufenden Enden des R- und P-Zweiges bei A = 0 ermittelt (s. Bild. 5). Anschließend wurden die digital abgespeicherten Spektren ab einer Extinktion, die dem Wert  A = 3 (Gesamtweg Erdboden-Troposphäre) entsprachen bis zu den auslaufenden Enden (A = 0) des R- und P-Zweiges integriert.

Da die Messwerte nur schwer reproduzierbar waren, wurden sämtliche Messungen 30mal wiederholt, so dass die „edgesannähernd erfasst werden konnten. Diese „edges„ begannen beim P-Zweig bei 14,00 µm und beim R-Zweig bei 15,80 µm und liefen jeweils bis zur Grundlinie A = 0. IPCC lässt die Banden an den Rändern bei 13,7 und 16 µm beginnen und an der „HITRAN-Erfassungsgrenze“ enden [14]. Den eigenen Messungen nach ergaben sich für die n2-Bande:

15 µm-Bande 357 ppm 714 ppm
Gesamtintegral 624,04 cm -1 von 703,84 cm -1 0,5171/cm 1,4678/cm
Summe der Flanken-Integrale 1,11.10-4/cm 9,79.10-4/cm

Tabelle: 15 µm-Bande (Gesamtintegral und Flankenintegrale A = 0 bis A = 3)

Natürlich lassen sich Extinktionen nicht mit dem Planckschen-Strahlungsgesetz kombinieren. Das ist auch gar nicht die Absicht. Aber der aus daraus abschätzbare relative Zuwachs bei Verdopplung des CO2-Gehalts ist entscheidend. Er entspricht der Differenz der Flankenintegrale bei 714 ppm und 357 ppm im Verhältnis zum Gesamtintegral bei 357 ppm.

(9,79.10-4/cm 1.11.10-4/cm) / 0,5171/cm = 0,17 %

Wie bereits erwähnt, es handelt sich nur um eine Abschätzung und nicht um einen exakten Messwert. Dennoch macht er deutlich, auf welch geringfügigen Größen sich die seinerzeit im Spiegel (33/1986) prophezeite „Klimakatastrophe“ stützt.

3.2. Kritik der eigenen Messungen

Obwohl die oben angegebenen Messwerte relativ ungenau sind, hatte ich sie seinerzeit veröffentlicht, weil

–       erstens jeder Chemiker und nicht direkt mit der Klimaforschung befasste Physiker, wohl wissend um die Eigenschaften IR-aktiver Spurengase, unter Eindruck der Medienhype davon ausgehen musste, dass eine Verdopplung des atmosphärischen CO2 zu einer erheblichen Steigerung (eventuell sogar Verdopplung) des Treibhauseffekts führen sollte. Ich jedenfalls und ca. 30 Chemiker aus Industrie und Hochschule hatten nach meiner eigenen ca. 20 Jahre zurückliegenden Rundfrage in etwa mit einer Verdopplung des Treibhauseffekts bei 100 % mehr CO2 gerechnet.

–       Zweitens die Geringfügigkeit des anthropogenen Treibhauseffekt bei der Information der Medien durch die direkt damit befassten „Klimamodellierer“ vornehm verschwiegen wurde. So etwas aber „gehört Sonntags auf den Tisch.“

Interessanterweise werden meine Messergebnisse auch durch die Aussage des Nobelpreisträges Paul Crutzen gestützt. Dieser schrieb1993 in einem Lehrbuch [21]: „Es gibt bereits so viel CO2 in der Atmosphäre, dass in vielen Spektralbereichen die Aufnahme durch CO2 fast vollständig ist, und zusätzliches CO2 spielt keine große Rolle mehr.“ Demnach ist der Treibhauseffekt auch nach Aussage dieses Nobelpreisträgers nahezu „gesättigt“. Man kann es auch so ausdrücken: Ein Treibhaus heizt sich bestenfalls geringfügig (Spureneffekt!) stärker auf, wenn man das normale Fensterglas gegen ein zehn Zentimeter dickes Panzerglas austauscht!

Die zur Messung verwendeten FT-IR-Spektrometer werden im Chemie- und Pharmabereich sowohl in der Industrie als auch an den Hochschulen mit großem Erfolg eingesetzt (vgl. Bild 3 und 4). Sie besitzen aber nur einen Spiegelweg von 5…15 cm. Dies ergibt eine Auflösung der IR-Banden von 0,2…. 0,07 cm-1.  Da die „ungesättigten“ Spektralbereiche ungewöhnlich schwache IR-Banden betrifft, benötigt man Spektrometer, die eine Auflösung von 0,0004 cm-1 erbringen [6]. Hierzu muss man ein FT-IR-Spektrometer bauen, das theoretisch über einen Spiegelweg von 2.500 cm (25 m!) verfügt. Nur dann lassen sich die äußerst schwachen IR-Banden messen, auf die sich die Klimamodellierer des IPCC stützen. Es sind Banden, mit einer „Absorptionsstärke“ von nur 0,05 % der 15 mm CO2-Hauptbande!

Die üblicherweise in der Industrie und Hochschulforschung verwendeten FT-IR-Spektrometer mit geringerer Auflösung kosten je nach Ausstattung zwischen 4 000 bis 10 000 Euro. Ein FT-IR-Spektrometer, wie das Bruker IFS 125 HR, mit denen man die Akkuratesse der HITRAN-Datenbank erreichen kann, kostet mindest 125 000 Euro. Ein Industriechemiker, der eigenmächtig ein solches Gerät beispielsweise zur Strukturaufklärung organischer Moleküle anschaffen würde, müsste mit seiner sofortigen Kündigung rechnen. Und das zu recht! Geräte dieser Art sind nur dann sinnvoll, wenn man Spureneffekte messen möchte. Deshalb findet man die Geräte vor allem in Instituten, die sich im Auftrag der Politik mit atmosphärischen Ultraspuren beschäftigen. Das Geld hierfür stammt vom Steuerzahler.

4. Vergleich mit den offiziellen Daten des IPCC

Nimmt man die offiziellen Zahlen (IPCC), dann beträgt der „natürliche“ Treibhauseffekt“ 324 W/m2 [22, 23]. Bei Verdopplung des CO2 (100 % Steigerung!) wird nach Übereinkunft („best guess“) angenommen, dass sich der Strahlungsantrieb um 3,7 W/m2 erhöht [23, 24]. Im Bild 6 sind die Verhältnisse dargestellt.

Bild 6: Prozentuale Erhöhung des Treibhauseffekts bei Verdopplung des atmosphärischen CO2-Gehalts gemäß der offiziellen Angaben des IPCC

Auch das Bild 6 belegt die oben beschriebene weitestgehende Sättigung, denn die Steigerung des Treibhauseffekts bei CO2-Verdopplung beträgt nur geringfügige 1,2 %. Dies ist in der Klimaforschung bekannt. Deshalb wird versucht, den „Sättigungscharakter mit dem Argument zu entkräften, das Klima sei ein so empfindliches System, dass es bereits von kleinsten Änderungen des Strahlungsantriebs aus dem Gleichgewicht gebracht werden kann. So wird behauptet, die Abkühlung zwischen 1930 und 1970 sei durch die Staubbelastung der Industriegesellschaft verursacht. Dies ist falsch. Die Abkühlung war durch das geänderte Magnetfeld der Sonne verursacht, wie aus dem Bild 15 (rot eingekreist) hervorgeht.

Neben der HITRAN-Datenbank kann zur Berechnung des allgemeinen und anthropogenen Treibhauseffekt das von der US-Airforce und der Fa. Spectral Sciences Incorporated  entwickelte MODTRAN-Programm genutzt werden, dem sich auch die Forscher des IPCC bedienen. David Archibald hat mit Hilfe des MODTRAN-Programms der Universität Chikago [37] die Abhängigkeit der Erdoberflächentemperatur vom atmosphärischen CO2-Gehalt berechnet. Das verblüffende Ergebnis zeigt das Bild 7.

Bild 7: Wirkung des CO2 und Anstieg der mittleren Erdtemperatur

Der höchste Anstieg der mittleren Erdoberflächentemperatur wird von 20 ppm CO2 bewirkt. Danach fällt der Einfluss des CO2 rapide ab. Dies verwundert nicht, denn der Einfluss der „edges“ wird bei höherem CO2-Gehalt immer geringer. Nicht zuletzt deshalb war der CO2-Treibhauseffekt bereits zu Goethes Zeiten weitgehend ausgereizt.

5. Erdoberflächentemperatur, Treibhauseffekt und CO2-Konzentration

Zur Berechnung der irdischen Oberflächentemperatur ohne Treibhausgasatmosphäre  wird allgemein und nicht nur von den IPCC-Forschern eine einfache Gleichung benutzt, die auf dem Stefan-Boltzmann Gesetz beruht.

                                                                                                 

A ist dabei die Albedo – das durchschnittliche „Rückstrahlvermögen“ der Erde (nicht mit der Extinktion A verwechseln!). Sie wird mit A= 0,3 angenommen. Tatsächlich existierten in der Vergangenheit auch andere Angaben. Die Solarkonstante, die in Wirklichkeit gar nicht so konstant ist, hat den Wert Fs = 1368 W/m2. Weiterhin enthält die Gleichung die Stefan-Boltzmann-Konstante s = 5,67 . 10-8 W.m-2.K-4.

Rechnet man mit diesen Angaben, so resultiert für die Oberflächentemperatur der Erde:

Das Ergebnis ist fragwürdig. Die Erde ist nämlich kein wasserloser Gesteinshaufen im Weltall. Sehr wahrscheinlich liegt die irdische Mitteltemperatur ohne Treibhausgase um einiges höher! Aber bleibt man zunächst einmal dabei, dann beträgt die spezifische Ausstrahlung der Erdoberfläche bei dieser Temperatur (Formelzeichen M nach DIN 5031, Teil 1):

M1 = (1-0,7) . 0,25 . 1368 W/m2 = 239 W/m2

Für die Klimanormalperiode bezeichnet, hat man sich vor Jahren unter Konsensbildung auf eine Mitteltemperatur von  + 15 °C (T = 288 K) geeinigt. Benutzt man jetzt das „unveränderte“ Stefan-Boltzmann-Gesetz

und berechnet damit die spezifische Ausstrahlung der Eroberfläche erneut, resultiert:

Folglich erhöht der „natürliche“ Treibhauseffekt, mit einer hypothetische Erwärmung von DT = 288 K – 225 K = 33 K (33 °C), die spezifische Ausstrahlung der Erdoberfläche um

DM = M2  – M1 = 390,0 W/m2 – 239,0 W/m2 = 151 W/m2

Wie bereits oben erläutert, wird bei Verdopplung des CO2 (100 %ige Steigerung) ein zusätzlicher Strahlungsantrieb von 3,7 W.m-2 angenommen (anfänglich gab IPCC 4,2 W.m-2 an, die Größenordnung entzieht sich der Falsifikation und beruht auf Konsens – „best guess“!).

Nimmt man  die besagten 3,7 W.m-2, dann steigt die spezifische Ausstrahlung der Eroberfläche von 390,0 W.m-2 auf 393,7 W.m-2. Setzt man diesen Wert in die Stefan-Boltzmann-Gleichung (Gleichung 6) ein, resultiert als Erdoberflächentemperatur:

Demnach erhöht sich die Temperatur bei CO2-Verdopplung (100 % mehr CO2!) von 288,0 K auf 288,7 K. Das entspricht gerade einmal DT = 288,7 K – 288,0 K = 0,7 K (0,7 °C) und nicht mehr. Die Klimamodellierung hätte keinerlei politische Beachtung gefunden, wenn man nicht die Hypothese der Wasserdampfverstärkung in die Diskussion eingebracht hätte. Diese lässt sich jedoch glücklicherweise falsifizieren, wie im nächsten Absatz dargelegt wird.

6. Die Wasserdampfverstärkung

Da eine Erwärmung von lediglich 0,7 °C bei 100 % mehr CO2 zu wenig erscheint, hat man sich vor Jahren darauf geeinigt, dass diese geringfügige Temperaturerhöhung gemäß der altbekannten Clausius-Clapeyronschen-Gleichung deutlich mehr Wasser aus den Ozeanen verdunsten lasse. Weil Wasserdampf ein Treibhausgas ist, fällt deshalb Temperaturerhöhung durch CO2 wesentlich höher aus. Originalton IPCC [25]: „Der ‚Wasserdampf-Feedback’ ist nach wie vor der durchweg wichtigste Rückkopplungseffekt, der die von den allgemeinen Zirkulationsmodellen als Reaktion auf eine CO2-Verdopplung vorhergesagte globale Erwärmung verursacht.“ Wenn dies richtig ist, muss besonders in einer kälteren Periode, während der die direkte Solarstrahlung nicht so viel Wasser verdunsten lässt, dennoch der Wasserdampfgehalt (Balken in Bild 8) über den Ozeanen parallel mit dem atmosphärischen CO2-Gehalt ansteigen (rote Strich-Punkt-Linie in Bild 8). Dies ist eindeutig nicht der Fall ist, wie das Bild 8 belegt [32]. Deshalb können sich die Klimamodellierer auf keinen Fall auf den durchaus einleuchtenden, hypothetischen Wasserdampfverstärkungsmechanismus berufen, der eine viel zu große Temperatursteigerung prophezeit.

Bild 8: Prozentuale Abweichung des Wasserdampfgehalts über dem Atlantik [s. a. 34]

Um Missverständnissen vorzubeugen: Mit der  Prozentangabe im Bild 8 ist natürlich nicht die relative Luftfeuchte gemeint, die niemals höher als 100 % sein kann, sondern vielmehr die Abweichung des Wasserdampfgehalts nach oben und nach unten um den Messwert von 1950. So liegt der absolute Wasserdampfgehalt 1956 um 25 % höher als 1950. 1968 liegt der Wasserdampfgehalt um ca. 45 % niedriger, obwohl der CO2-Gehalt weiter angestiegen ist! Auch wenn der Zeitraum relativ kurz gewählt ist, so belegt er eindeutig, dass die Wasserverdunstung über den Ozeanen nicht mit dem steigenden CO2-Gehalt korreliert. Die Wasserdampfverstärkung, auf denen sämtliche Vorhersagen der Klimamodelle beruhen, existiert nicht.

7. Die Strahlungstransportgleichung

Bei der Berechnung des Treibhauseffekts wird ein „Schicht- oder Kaskadenmodell“ zugrunde gelegt nach dem innerhalb der Atmosphäre eine ständige Absorption (I) und Emission (L) stattfindet. Diesem fiktiven Strahlungstransport liegt die Schwarzschild-Gleichung zugrunde, die ursprünglich entwickelt wurde, um das Verhalten von Atomen in einer Sternenatmosphäre zu beschreiben [12]. Bei einem infinitesimalen Weg dz, dem Absorptionskoeffizienten sa und der Teilchenzahl n gilt hierfür im lokalen thermodynamischen Strahlungsgleichgewicht (LTE):

Die Größe L ist hierbei die Strahldichte (vgl. DIN 5031, Teil 1), welche die Emission gemäß der temperaturabhängigen Planck-Strahlungsgleichung angibt.

Dass innerhalb der Atmosphäre ein Strahlungstransport stattfindet, meint man belegen zu können, indem man die gemessenen Satellitenspektren mit den berechneten vergleicht. Das Ergebnis ist verblüffend, wie das Bild 9 belegt.

Bild 9: Links das gemessene Emissionsspektrum der Erde (Satellitenspektrum); rechts das  mit Hilfe der Strahlungstransportgleichung berechnete Emissionsspektrum

Das lokale thermodynamische Strahlungsgleichgewicht (LTE) begründet man mit dem Kirchhoff’schen Gesetz der Wärmestrahlung. Danach ist das Emissionsvermögen eines Körpers genau so groß wie sein Absorptionsvermögen. Das Ganze hat nur einen Haken. Es existiert kein „Strahlungsenergieerhaltungssatz“, wie er bei diesem Mechanismus stillschweigend vorausgesetzt wird. Tatsächlich setzt man bei der „nachvollziehenden“ Berechnung der Satellitenspektren das gemessene atmosphärische Temperaturprofil in die Plank-Strahlungsgleichung ein, wie im Bild 10 gezeigt.

Bild 10: Strahlungstransport, Planck-Gleichung und gemessener Temperaturgradient

Zur Erinnerung: Beim Treibhauseffekt geht es auch um den Temperaturgradienten (Temperaturprofil“), den die Atmosphäre im Kontakt mit dem Erdboden unter adiabatischer Expansion annimmt. Lässt man sich dies durch den Kopf gehen, dann wird das Ergebnis – die Temperatur bzw. der Temperaturgradient – in die Planck-Gleichung eingesetzt (vgl. Bild 10), um dann daraus das temperaturabhängige Emissionsspektrum der Atmosphäre und des Erdkörpers zu erhalten (vgl. auch Bild 2).  Deshalb ist die Übereinstimmung der im Bild 10 gezeigten Spektren kein Beweis für den Strahlungstransport innerhalb der Atmosphäre. Es ist vielmehr ein Beweis, dass man im Kreis herumrechnet und sich dann über den mathematisch „bewiesenen“ Treibhauseffekt im Sinne eines Strahlungsenergieerhaltungssatzes freut. Natürlich kann man auch die gemessene Emission innerhalb einer Schicht (Strahldichte L) in die Planck-Gleichung einsetzen, um dann die Temperatur zu erhalten. Auch dann wird im Kreis herum gerechnet.

Experimentelle Untersuchungen und die allgemein akzeptierte Theorie belegen eindeutig, dass die Molekülfluoreszenz anders funktioniert wie die Atomfluoreszenz, bei der die absorbierte Strahlung zu 100 % wieder emittiert wird. Dies geschieht in einem Atomabsorptionsspektrometer (AAS-Gerät), mit dem man in der Instrumentellen Analytik Metalle in Proben quantifiziert (z. B. Cd in einer Bodenprobe).

Das LTE setzt eine „100%ige Molekülfluoreszenz“ voraus, die nicht existiert – auch nicht im IR-Bereich (vgl. a. Bild 3) [26, 27]. Während angeregte Atome nur unter Emission von Strahlung in den Grundzustand zurückkehren können, erfolgt die Relaxation bei Molekülen wegen der Rotations- und Schwingungsfreiheitsgrade meist strahlungslos gemäß den Prinzipien des Jablonski-Diagramms [28].  Deshalb reichte es eigentlich vollkommen aus, wenn man den „theoretischen“ Treibhauseffekt ohne jegliche Absorption nur mit der – temperaturabhängigen – Planck-Gleichung beschreibt, die man mit den jeweiligen Bandenstärken „klimawirksamer“ Spurengase und der „Anzahl IR-aktiver Moleküle in einem Luftvolumen“ multipliziert. Berücksichtigung man den Raumwinkel, erhält man die thermische Emission der Atmosphäre innerhalb eines Halbraums.

Fazit:

Dass eine atmosphärische Wärmestrahlung gemäß dem Planck-Gesetz gegeben ist, ist eine Selbstverständlichkeit. Solange aber ein atmosphärisches Temperaturprofil (oben kälter – unten wärmer) existiert, und die Konvektion erheblich zum Energietransport beiträgt, solange ist die Hypothese, im offenen System der Atmosphäre wird die Energie einer erdbodennah absorbierten IR-Strahlung mittels Strahlungstransport von unten nach oben weitergereicht, falsch. Es gibt nämlich keinen „Strahlungsenergieerhaltungssatz“. Vielmehr übertragen angeregte „erdbodennahe Treibhausgasmoleküle“ ihre Energie im Wesentlichen auf die nicht IR-aktiven Hauptbestandteile des Atmosphäre (N2 und O2).

Interessanterweise wird die Strahlungstransportgleichung angewandt, wenn man das Abkühlungsverhalten großer Glaskörper mittels Modellierung kontrollieren will, etwa bei der Herstellung von Spiegelteleskopen. Dies funktioniert sehr gut. Weil es nämlich in einer erstarrten Glasschmelze bei 600 K keine Konvektion gibt!

8. Was Klimamodelle nicht können

Klimamodelle sind Computeralgorithmen (sprich: „Rechenvorschriften“, welche die meinungsabhängigen Vorgaben der Programmierung widerspiegeln) und nicht die Realität. Weil die Komplexität des Klimageschehens gegenwärtig und auch in absehbarer Zukunft mit keinem Computer realitätsorientiert erfassbar sein dürfte, handelt es sich mehr um politische Instrumentarien, denn um exakte Naturwissenschaft.

8. 1 Die Flusskorrekturen

Der Hypothese nach soll der „natürliche“ Treibhauseffekt den Globus um 33 °C aufheizen. Irrigerweise wird dabei angenommen, die Erde, die zu 70 % mit Wasser bedeckt ist, würde sich ähnlich verhalten wie der vollkommen wasserlose Mond. Nimmt man an, nur die ersten 10 m Wassertiefe der Ozeane würden die mittlere Erdtemperatur thermostatisch regeln, ergibt die Rechnung, dass die Ozeane im Temperaturbereich von  –18 °C bis +15 °C eine Energiemenge von 1,57.1018 MJ speichern. Hierzu die Gegenrechnung: In 24 Stunden werden durch den irdischen Treibhauseffekt 1,43.1016 MJ umgeschlagen [23]. Der gesamte natürliche Treibhauseffekt macht somit nur 0,9 % der Energie aus, die in den Ozeanen bei einer Wassertiefe bis zu 10 m gespeichert ist. Die Folge sind erhebliche Schwierigkeiten bei der Kopplung atmosphärischer Zirkulationsmodelle („General Circulation Atmospheric Models“) mit ozeanischen Zirkulationsmodellen („General Circulation Oceanic Models“). Diese Probleme lassen sich nur mit Hilfe so genannter „Flusskorrekturen“ überwinden, deren Beträge, wie das Bild 11 belegt, um ein Vielfaches größer sind als der anthropogene Treibhauseffekt. Die rechte Säule in Bild 11 stellt den Strahlungsantrieb des CO2 bei Verdopplung dar. Danach ist allein schon die 100 W/m2-Flusskorrektur zur Kopplung Ozeanoberfläche-Atmosphäre rund 27-mal (!) größer als der anthropogene Treibhauseffekt bei CO2-Verdopplung (3,7 W/m2).

Bild 11: Anthropogener Treibhauseffekt (rechte kleine Säule) im Verhältnis zu den bei der Klimamodellierung angewandten Flusskorrekturen

Es soll nicht unerwähnt bleiben, dass von einschlägigen Instituten in neuerer Zeit verlautbart wird, man benötige keine Flusskorrekturen mehr. Tatsächlich kommen Klimamodelle nach wie vor nicht ohne sie aus.

8. 2 Die Wolkendichte

Bei der Abschätzung des Strahlungsantriebs der Wolken kommen Klimamodelle zu äußerst unterschiedlichen Ergebnissen. So findet das „Bureau of Meteorology Research Center“ (BMRC) von Australien, dass die Wolken eine Abkühlung von ca. 1 W/m2 erbringen, während das Labaratoire de Météologie Dynamic (LMD) aus Frankreich meint, Wolken würden eine Erwärmung von ca. 1,7 W/m2 bewirken (Bild 12). Auch das ist beachtenswert!

Bild 12: Strahlungsantrieb der Wolken mit unterschiedlichen Klimamodellen gerechnet

8. 3 Modellabhängige Parameter

In der bereits mehrfach zitierten Veröffentlichung von Hermann Flohn [5] stellt dieser in einer Graphik den globalen Temperaturanstieg gemäß einschlägiger Computermodellierungen vor (Bild 13). Flohn referiert in dem Aufsatz den Stand der Klimamodellierung von 1984, auf der wenig später in geringfügig verbesserter Form der Erdumweltgipfel Rio92 basierte.

Bild 13: Mittlere Erdbodentemperatur und modellabhängiger Parameter

Interessant ist bei dem einfachen Modell, das Flohn referiert, der modellabhängige Parameter „D“, der die Steigung der jeweiligen Geraden angibt.

Je größer D ist, desto stärker fällt der Temperaturanstieg aus. Die Größe n ist das Verhältnis der mit Unsicherheit belasteten Strahlungsbilanz aller Spurengase zur Strahlungsbilanz von CO2:

B und C bezeichnet Flohn vornehm als „Sensitivitätsparameter“, die u. a. natürlich die Wasserdampfverstärkung berücksichtigen (B= 1,8 W . m . K-1, C = 6,5 W . m . K-1). Flohn gibt für die Parameter einen Unsicherheitsfaktor von ca. 20 % an. D. h. je nach dem, wie n, B und C gewählt werden, resultieren im Computer (!) dramatischere oder weniger dramatischere Klimaänderungen. Dass es heute ausgefeiltere Modelle gibt, daran zweifle ich nicht, aber so lange der Wasserdampfverstärkungsmechanismus in ihnen enthalten ist, so lange sind höchste Zweifel angebracht.

8. 4 Die Vergangenheit

Weiterhin versagen Klimamodelle bei der Reproduktion der Vergangenheit. So können sie bis heute nicht die im Bild 14 gezeigte Abkühlung zwischen 1930 und 1975 ohne Zuhilfenahme von Kunstgriffen (atmosphärischer Staubeintrag durch die Industriegesellschaft!) nachvollziehen. (Die tatsächliche Ursache des ungewöhnlichen Verlaufs zeigt Bild 15.)

Bild 14: CO2-Gehalt und Temperaturverlauf

Im Sachstandsbericht des IPCC von 2001 tauchte noch eine Kurve auf, die das römische und das mittelalterliche Klimaoptimum zeigte, Zeiten, die mindestens so warm waren wie heute. So wurde Grönland 875 vom Wikinger Erik „der Rote“ Thorvaldsson besiedelt, der Bischof von Trondheim konnte damals seinen eigen Wein ernten und es existierten hochgelegene Gebirgsdörfer, die während der kleinen Eiszeit aufgegeben wurden und heute infolge des Gletscherrückgangs wieder auftauchen. Das stört. Deshalb kursierte in IPCC-Kreisen die Formulierung „We have to get rid of the Medieval Warm Period“. Dem wurde nachgekommen. 1999 veröffentlichte Michael E. Mann et al. Die berühmte Hockeystick-Kurve [1], in der sämtliche vorindustriellen Erwärmungsperioden „weggebügelt“ waren und die Gegenwart als wärmste Periode seit dargestellt wurde. Stephen McIntyre und Ross McKittrick haben die Studie inzwischen gründlich widerlegt [38]. U. a. konnten fast beliebige Zahlen in den Mann benutzte Programm eingesetzt werden, immer resultierte ein „Hockeystick“.

9. Die Alternative

Da treibhausgasfixierte Computer-Klimamodelle nicht nur im Zeitraum zwischen 1930 bis 1970 versagen sondern auch die kleine Eiszeit (14. bis 18. Jh.) und das mittelalterliche Klimaoptimum (11. – 13. Jh.)  nicht nachbilden können, muss es einen anderen entscheidenden Mechanismus geben.

Sehr viel spricht dafür, dass dies die Wolkendichte ist, die von der kosmischen Strahlung beeinflusst wird, wie der Direktor des Centre for Sun-Climate Research des Danish National Space Center, Henrik Svensmark, seit Jahren betont [39]. Die kosmische Strahlung besteht überwiegend aus Protonen, die als Echo des Urknalls in unser Sonnesystem eindringen. Gelangen diese positiv geladenen Kernbausteine in die Atmosphäre, so führen sie über einen noch nicht restlos geklärten Mechanismus zur Kondensation von Wasserdampf  –  Wolken entstehen.  Erhöht sich bei höherer Solaraktivität das Magnetfeld der Sonne, dann werden die Protonen stärker abgeschirmt. In der Folge entstehen weniger Wolken und die einfallende Sonnenstrahlung kann die Erdoberfläche (Ozeanoberflächen!) stärker erwärmen. Deshalb folgt der globale Temperaturverlauf der Schwankung des solaren Magnetfelds (Bild 15).

Bild 15: Solares Magnetfeld und Globaltemperatur [29, abgewandelt]

Wie Messungen zeigen, war im übrigen die Solaraktivität seit dem Jahr 850 noch nie so hoch wie nach 1940 [30]. Auch im Wärmehaushalt der Weltmeere macht sich die wolkenbedeckungsabhängige Schwankung der solaren Einstrahlung stärker bemerkbar.  Somit dürfte der anthropogene Treibhauseffekt eine kleine, aufgesetzte Größe auf einer natürlichen Klimaschwankung sein.

Abgesehen davon erscheint die unter Punkt 5 (Gleichung 5) vorgerechnete Temperatur von – 18 °C, welche die Erde ohne Treibhausgase angeblich hätte, viel zu niedrig angesetzt sein. Sie entspricht aber der offiziellen Doktrin, die – und das muss betont werden – eine Hypothese ist. Weil, wie bereits hervorgehoben, die Erde kein wasserloser Gesteinshaufen im Weltall ist, sondern zu 70 % mit Wasser bedeckt ist, muss die direkte Absorption im nahen Infrarotgebiet (NIR) und die sehr verzögerte Strahlungsemission von Ozeanwasser stärker berücksichtigt werden.

((Bild 16: Wolkenbedeckung (Wolkendichte) und globale Temperatur))

Aus dem Bild 16 geht hervor, dass sich die globale Wolkenbedeckung zwischen 1986 und 2000 von 69 % auf 65 % reduzierte (linke Ordinate, „fallend“ aufgetragen). Parallel hierzu stieg die globale Mitteltemperatur (rechte Ordinate, „steigend“ aufgetragen).

Während die Temperaturschwankungen in der Sahara im Tagesverlauf ohne weiteres bis zu Dd = 50 °C betragen können, verhalten sich Meere wesentlich träger. Der Gesamtwärmeumsatz (Wärmeenergie nicht Wärmeleistung!) eines Meeres ist die Summe vieler Größen:

Qges = (QS – QA) – QK – QV – QT + QC + QE + QF + QR

QS = im Meer absorbierte Sonnen- und Himmelsstrahlung (= „Treibhauseffekt“)

QA = effektive Ausstrahlung

QK  = „fühlbarer“ Wärmeübergang Luft-Wasser

QV  = latenter Wärmeübergang Luft-Wasser (Verdunstung, Kondensation)

QT  = Wärmetransport durch Strömung

QC  = chemisch-biologische Prozesse

QE  = Wärmezufuhr aus dem Erdinnern

QF  = Reibungswärme

QR  = radioaktiver Zerfall

Da die Speicherfähigkeit des Wassers erheblich über der von Gesteinen liegt, ist es ausgeschlossen, dass sich die Erde bei einer Trägheit des Systems Wasser-Luft nachts schlagartig um 50 °C herunterkühlen. Denn insbesondere die Abstrahlungsleistung dQA/dt unterscheidet sich wegen der wesentlich höheren Wärmespeicherungsfähigkeit von Meerwasser deutlich von jener der Sahara. Gemäß der Stefan-Boltzmann-Gleichung (Gleichung 6) hängt nämlich die spezifische Ausstrahlung der Erdoberfläche mit der Temperatur unmittelbar zusammen. Je höher die letztere ist, desto größer ist auch die Abstrahlung.

Aus der obigen Aufzählung geht aber hervor, dass der Energiegehalt des Meerwassers auch auf der Wärmezufuhr aus dem Erdinnern, auf chemisch-biologischen Prozessen, auf radioaktiven Zerfall und auf Reibungswärme beruht. Die Größe QF  (Reibungswärme) in der obigen Aufzählung hängt von der Windgeschwindigkeit ab.  Wie H. Volz auf einer Tagung der Bayerischen Akademie der Wissenschaften berichtete, differiert die  spezifischen Ausstrahlung bei den Windstärken 0 und 7 in einer Größenordnung von  DM = 11,1 W/m2 [31]. Die Ein- und Ausstrahlungsbilanz geht aber von einer ruhenden See aus. Addiert man diese Größe zur spezifischen Ausstrahlung bei 15 °C, so erhält man:

M = 239,0 W/m2 + 11,1 W/m2 = 250,1 W/m2

Eingesetzt in die Gleichung 2 resultiert für die Temperatur T  = 257,7 K (- 15,3 °C). Diese Temperatur liegt um 2,7 °C höher, als die besagten – 18 °C. Die Treibhausgase erhöhen dann die Mitteltemperatur nicht um 33 °C sondern „nur“ um 30,3 °C, insofern die These richtig ist, wonach die „normale“ Mitteltemperatur der Erde + 15 °C beträgt. Wie hoch war diese eigentlich während des mittelalterlichen Klimaoptimums (11. – 13. Jh. ) und während der „kleinen Eiszeit“ (14. bis 18. Jh)?

Ein weiteres kommt hinzu. Etwa 50 % der Sonneneinstrahlung, die den Erdboden erreicht, ist Wärmestrahlung (nahes und mittleres IR). Diese wird vom Meerwasser absorbiert. Die strahlungsfixierte Treibhausgastheorie saldiert nur die Einstrahlung und Ausstrahlung im Tagesverlauf als könnten sich die Weltmeere auf der Nachtsseite schlagartig auf – 18 °C abkühlen. Die Trägheit der Ozeane ist aber mit einer Relaxationszeit bis zu 200 Jahren sehr hoch. Folglich dürfte die mittlere globale Gleichgewichtstemperatur der Ozeane ohne atmosphärische Treibhausgase eher um + 4 °C (Wasser höchster Dichte am Grunde eines zugefrorenen Gewässers) denn bei – 18 °C liegen.

Als ich vor einiger Zeit einmal mit einem ehemaligen Leiter eines Klimarechenzentrums korrespondierte und ihn fragte, wie hoch die irdische Mitteltemperatur ohne Ozeane anzusetzen sei aber mit dem gegenwärtigen atmosphärischen Treibhausgasgehalt, erhielt ich zur Antwort, dies sei eine interessante Frage, die man aber bislang nicht durchgerechnet habe.

Zusammenfassung

·        Der anthropogene Treibhauseffekt ist im wesentlichem ausgereizt, wie die Messung der Transmission von IR-Strahlung belegt. Eine globale Klimakatastrophe ist daher selbst bei einer CO2-Verdoppelung nicht zu erwarten.

·        Die Steigerung des Treibhauseffekt von 324 W . m-2 auf um 327,7 W . m-2 bei 100 % mehr CO2 ist eine 1,2 %ige Geringfügigkeit (s. Bild 6), die man nur mit Hilfe des hypothetischen Wasserdampfverstärkungsmechanismus künstlich vergrößern kann.

·        Zweifellos enthält die Atmosphäre gemäß der Clausius-Clapeyronschen-Gleichung mehr Wasserdampf, wenn es wärmer wird. Jedoch lässt sich der hypothetische  Wasserdampfverstärkungsmechanismus, ohne den die Klimamodelle nicht auf die politisch erwünschten Temperatursteigerungen kommen, in der Realität nicht nachzuweisen. Weil sich somit der atmosphärische Wasserdampfgehalt nicht an der Konzentration der Treibhausgase orientiert, erhöht sich die globale Mitteltemperatur bei 100 % mehr CO2 bestenfalls um 0,7 K (0,7 °C). Natürlich lassen sich genügend „Computermodellierungen“ anstellen, die eindeutig beweisen, dass die Wasserdampfverstärkung als positive Rückkopplung den CO2-Treibhauseffekt verstärkt.

·        Computerklimamodelle kommen u. a. deshalb zu falschen Ergebnissen, weil der hypothetische Wasserdampfverstärkungsmechanismus vollkommen überwertet wird.

·        Der atmosphärische Temperaturgradient beruht auf einem Energietransport und nicht auf einem Strahlungstransportmechanismus mit dem fiktiven LTE. Deshalb wird der atmosphärischen Rückstrahlung – dem Treibhauseffekt – eine zu große Bedeutung zugemessen.

·        Klimamodelle müssen mit – gewillkürten – Flusskorrekturen arbeiten, deren Größenordnung den des anthropogenen Treibhauseffekts um ein Vielfaches übertreffen. Im anderen Fall „hat (man) als Modellierer … die Wahl, entweder ohne Flusskorrektur mit einem unrealistischen Klimazustand zu operieren, oder die Flusskorrektur mit ihren Schwächen zu akzeptieren, dafür aber ein realistisches Klima zu erhalten.“ [33]

· Die Abbildung des Klimas in der Vergangenheit mit Computeralgorithmen gelingt nicht ohne massive Korrekturgrößen.

·        Die globale Mitteltemperatur ohne Treibhauseffekt dürfte um einiges höher als bei 255 K (-18 °C) liegen.

·        Das Klima hängt stärker von der Variation der Wolkenbedeckung ab als vom Gehalt atmosphärischer Treibhausgase.

·        Das IPCC ist eine politische Organisation, die sich eines Wissenschaftlergremiums bedient, um volkspädagogische Lernziele durchzusetzen.

Abschließend möchte ich die Leser darauf aufmerksam machen, dass dem gegenwärtigen CO2-Gehalt je nach Literaturstelle ein unterschiedlicher Temperatureffekt zugeordnet wird. In dem von von J.T. Houghton herausgegebenen Buch „The Global Climate“ geben Kondratjew und Moskalenko 7,2 K an [15]. Die Autoren zitieren sich dabei selbst [16]. Besorgt man sich das in Kyrillisch geschriebene Buch und schaut auf der angegebenen Seite nach, so findet man keinerlei Information darüber, wie Kondratjew und Moskalenko auf die o. g. 7,2 K kommen. Andererseits scheint man sich doch recht sicher zu sein, denn die Angaben der Autoren werden gerne zitiert [17]. Allerdings gibt es Widersprüche, denn K.P. Shine [18] gibt einen anderen Wert an, nämlich 12 K und R. Lindzen [19] geht davon aus, dass dem CO2 nur etwa 5% des natürlichen Treibhauseffekts zuzuordnen sind. Das wären 1,65 K und damit weniger als ein Viertel des bei IPCC benutzten Werts von 7,2 K.

Literatur

[1] Michael E. Mann, Raymond S. Bradley und Malcolm K. Hughes (1999): Northern Hemisphere Temperatures During the Past Millennium: Inferences, Uncertainties, and Limitations, in: Geophysical Research Letters, Vol. 26, No. 6, S. 759–762

[2] R. Revelle, Scientific American, 247, No.2, Aug. 1982, 33-41
[3] J. Barrett, Spectrochim. Acta Part A, 51, 415 (1995)
[4] R.A. Hanel et al. Journal of Geophysical Research, 77, 2629-2641 (1972)
[5] H. Flohn, Nachr. Chem.Tech.Lab, 32, 305-309 (1984)
[6] L.S.Rothman et al., Appl.Opt. 26, 4058 (1987)
[7] H. Hug, Chemische Rundschau, 20. Febr., S. 9 (1998)
[8] P. S. Braterman, Spectrochim. Acta Part A, 52, 1565 (1996)
[9] K. Shine, Spectrochim. Acta Part A, 51, 1393 (1995)
[10] J. Houghton, Spectrochim. Acta Part A, 51, 1391 (1995)
[11] R. S. Courtney, Spectrochim. Acta Part A, 53, 1601 (1997)
[12] R. P. Wayne, Chemistry of Atmospheres, Oxford University Press,
2nd. Edition, 44-49 (1991),
[13] Murry L. Salby, Fundamentals of Atmospheric Physics, Academic Press, 198-257 (1996)
[14] Climate Change 1990. The IPCC Scientific Assessment, p. 49
[15] K.Ya. Kondratyev, N.I. Moskalenko in J.T.Houghton, The Global Climate, Cambridge
Universitiy Press, 225-233 (1984)
[16] K.Ya. Kondratyev,N.I. Moskalenko, Thermal Emission of Planets, Gidrometeoizdat,
263 pp (1977) (Russisch)
[17] C.D. Schönwiese, Klimaänderungen, Springer-Verlag Berlin Heidelberg, p. 135 (1995)
[18] K. P. Shine, A. Sinha, Nature 354, 382 (1991)
[19] R. S. Lindzen, Proc. Nat. Acad. of Sciences, 94, 8335 (1997)

[20] R. Raschke, R. Hollman, Strahlungsübertragung in der Atmosphäre, Modellierung und Messung, Preprint zum CO2-Kolloquium der DECHEMA in Frankfurt/Main am 11.10.2001

[21] T. E. Graedel, Paul J. Crutzen, Chemie der Atmosphäre, Spektrum Akademischer Verlag, Heidelberg, Berlin, Oxford 1993, S. 414

[22] IPCC, Climate Change 2001, Chap.  1.2.1 Natural Forcing of the Climate System

[23] J. T. Kiehl, K. E. Trenberth, Bull. Amer. Meteor. Soc., 78 (1997) 197

[24] IPCC, Climate Change 1994, Radiative Forcing of Climate Change and Evaluation of the IPCC IS92 Emission Scenarios, Cambridge University Press, S. 174

[25] IPCC, Climate Change 2001, Working Group I: The Scientific Basis. Contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panal on Climate Change, Chap. 7.2.1.1

[26] H. Hug, Energy & Environment, 11, 631, (2000)

[27] N. D. Coggeshall and E. L. Saier, J. Chem. Phys., 15, 65, (1947), Fig. 1

[28] Matthias Otto, Analytische Chemie, Wiley-VCH Verlag, Weinheim (2000), S. 280 ff

[29] S. Solanki, M Schüssler, M Fligge, Nature, 408 (2000) 445

[30] I. G. Usoskin, S. K. Solanki, M. Schüssler, K. Mursula, K. Alanako, Phys. Rev. Let., 91 (2003) 211101-1

[31] Rundgespräche der Kommission für Ökologie, Klimawandel im 20. und 21. Jahrhundert: „Welche Rolle spielen Kohlendioxid, Wasser und Treibhausgase wirklich?“ Bayerische Akademie der Wissenschaften, Verlag Dr. Friedrich Pfeil, Müchen, April 2005, S. 93

[32] Wasserdampfgraphik nach H. Flohn, BdW 12/1978, S. 132

[33] U. Cubasch, Phys. Bl. 51 (1995) 269

[34] H. Hug, Die Angsttrompeter, Signum Verlag, München, 2006, S. 227

[35] Privatmitteilung Jack Barrett, 2001 und 2012

[36] E. Raschke et al., Chemische Rundschau, 23. Okt., S. 9 (1998)

[37] http://www.davidarchibald.info/papers/Failure%20To%20Warm.pdf

[38] Stephen McIntyre, Ross McKitrick, Geophysical Research Letters, Vol. 32, L03710, 5PP., 2005

[39] Henrik Svensmark, A&G, February 2007, Vol. 48, p 1.18

Heinz Hug, für EIKE; Wiesbaden August 2012

Related Files




Der grüne Dämmwahn wird immer teurer!

Woher diese Feuchtigkeit stammt, lässt sich leicht erklären: Die Dämmschicht verhindert tagsüber die Aufheizung der Außenmauern durch die Sonnenstrahlen. Nachts geben die Mauern deshalb kaum Wärme nach außen ab. Die Außenhaut der Dämmung kühlt daher rasch so weit unter den Taupunkt ab, dass sich Kondenswasser darauf niederschlägt. Durch unvermeidliche feine Risse in der Außenhaut dringt die Feuchtigkeit in die Dämmung ein, kommt aber am Tage vor allem an der Nordseite des Gebäudes wegen der wasserdichten Kunststoff-Farbe kaum wieder heraus. Einmal vollgesaugt, isolieren die Dämmplatten nicht besser als ein nasser Pullover. Oft sieht man an den grünen Fassaden regelmäßig angeordnete weiße Punkte. Dort sitzen die Dübel, mit denen die Dämmplatten am Mauerwerk befestigt sind. Sie bilden Wärmebrücken, an denen der Außenputz trocken bleibt und Algen nicht gedeihen können.

Die Dübel deuten somit klar auf den Denkfehler, auf dem die Vorschriften der deutschen Energieeinsparverordnung (EnEV) von 2004 beziehungsweise 2009 beruhen. Nach dieser Verordnung müssen Immobilienbesitzer beim Fälligwerden einer routinemäßigen Fassadenrenovierung gleich das ganze Haus mit Dämmplatten versehen. Sie können sich aber nach Paragraph 25 der EnEV dieser Pflicht entziehen, wenn ihnen ein anerkannter Architekt oder Bauingenieur die Unwirtschaftlichkeit der geforderten Maßnahmen bescheinigt. Das ist für diese eine leichte Übung, zumal die Schutzgemeinschaft für Wohnungseigentümer und Mieter im vergangenen Jahr auf eine schriftliche Anfrage hin von den zuständigen Ministerien keine Belege für einen Einspareffekt der Fassaden-Dämmung bekam. Diese Belege gibt es nicht! Versuche, die in den 80er Jahren am Fraunhofer-Institut für Bauphysik in Valley/Oberbayern durchgeführt wurden, haben sogar ergeben, dass der Energiebedarf durch die Fassadendämmung steigt. Seither wurden keine neuen Versuche mehr angesetzt.

Während auf der Außenfassade Algen gedeihen, machen sich im Innern der vorschriftsmäßig gedämmten Wohngebäude oft Schimmelpilze breit, weil die modernen Isolierfenster mit Dichtungslippe und Dreifach-Verglasung den Luftaustausch unterbinden. Abhilfe soll dann der Einbau einer Zwangsbelüftung schaffen. Hinzu kommt nach einer Untersuchung des Instituts für Bauforschung in Hannover ein deutlich höherer Instandhaltungsaufwand für die Leichtbau-Fassaden infolge von Beschädigungen durch spielende Kinder oder Spechte, die dort gerne ihre Nisthöhlen anlegen. Das alles lässt die Kosten steigen, die von den Hauseigentümern entsprechend der EnEV auf die Mieter umgelegt werden können. Das sorgt für zusätzlichen Ärger, denn viele Mieter gelangen schnell an die Grenze ihrer finanziellen Leistungsfähigkeit und müssen dann ausziehen.

Die Dämmstoffindustrie, die sich ihren Milliardenmarkt nicht kaputtmachen lassen will, musste auf die inzwischen auch vom öffentlich-rechtlichen Fernsehen aufgegriffene Kritik reagieren. Um die hässliche Grünfärbung der gedämmten Fassaden zu vermeiden, setzen sie dem Putz und den Anstrich-Farben giftige Biozide zu. Doch diese werden vom Regen ausgewaschen und gelangen in Bäche und Flüsse. Eine Alternative zur Biozid-Behandlung ist die Verwendung teurerer Mineralfarben. Solange sich die Zusatzkosten auf die Mieter umlegen lassen, mag das einige Jahre gut gehen. Viel besser wäre jedoch eine Rückbesinnung auf Jahrhunderte lange Erfahrungen des Bauhandwerks: Doppelte Ziegelmauern mit großem Wärmespeicherpotenzial, zusammengehalten mit porösem Kalkmörtel, Fenster ohne Dichtlippe und Isolierglas, Heizung mit elektrisch betriebenen flächigen Infrarot-Strahlern, sofern ein Kachelofenbetrieb nicht möglich ist.

Ein besonderes Problem stellt der Brandschutz der mit 20 bis 30 Zentimeter dicken Styropor-Platten gedämmten Fassaden dar. In Frankfurt am Main brannten Ende Mai die mit Styropor gedämmten, aber noch nicht fertig gestellten Fassaden eines zu einem Studentenwohnheim umgebauten Büro-Hochhauses lichterloh. Seither hat es im gleichen Stadtviertel, dem Nordend, weitere vergleichbare Brände gegeben. Das hat in der Main-Metropole, deren städtisches Wohnbauunternehmen ABG die „Sanierung“ ihrer Liegenschaften nach dem so genannten Passivhaus-Standard vorantreibt, zu einer heftigen Debatte über die Vertretbarkeit des vergleichsweise billigen Dämmstoffs Polystyrol (Styropor) geführt. Der Chef der städtischen Feuerwehr Reinhard Ries warnte ausdrücklich vor der Verwendung dieses Dämmstoffs. Doch Frank Junker, der Geschäftsführer der ABG-Holdung versucht abzuwiegeln. In Deutschland käme kein Baumaterial auf den Markt, dessen Entflammbarkeit zuvor nicht ausführlich getestet worden sei, erklärte er gegenüber der Presse. Alternative Materialien wie Mineralwolle oder Zellulose kämen der „gemeinnützigen“ Wohnbaugesellschaft zu teuer. Die Debatte ist noch in vollem Gange, zumal nun auch die SPD, die Partei des amtierenden Oberbürgermeisters, eine kritische Überprüfung der Eignung von Polystyrol als Dämmstoff verlangt.

Edgar Gärtner EIKE




Ökonihilismus 2012, Selbstmord in Raten von Edgar L. Gärtner – eine Buchrezension

Doch der Reihe nach! Das Buch von Gärtner umfasst den gesamten Bereich des Ökologismus, wobei der Schwerpunkt auf der geistesgeschichtlichen, politischen und wirtschaftlichen Basis dieser ideologischen Bewegung liegt. Die in seinem Buch ebenfalls kurz geschilderten naturwissenschaftlichen Inhalte sind nicht zentral, hier gibt es bereits anderweitig eine einschlägigere und umfangreichere Literatur.

Im ersten Kapitel seines Buchs „Windmühlen im Krieg der Köpfe“ beschreibt Gärtner die geschichtlichen Anfänge und die Entwicklung des Ökologismus und geht insbesondere auf die EU-Öko-Agenda ein. Dabei wird die weltweite Sonderstellung der EU deutlich, die dem EU-Normalbürger leider kaum  bekannt ist. Tatsächlich steht die EU in ihrem fanatischen Wahn, alles anthropogenen CO2 zu beseitigen – koste es, was es wolle – weltweit alleine da.

Das „koste es , was es wolle“ ist keineswegs nur finanziell zu sehen. Natur- und Umweltschutz werden inzwischen hierzulande mit Füßen getreten, wie es insbesondere die Vögel und Fledermäuse zerschreddernden Windradparks belegen. Die Landschaftszerstörungen durch flächendeckende Windturbineninstallationen sind jetzt schon von einer Intensität, wie sie seit den Verheerungen des 30-jährigen Krieges in Deutschland nicht mehr gesehen wurden. Ein weiteres stellvertretendes Beispiel, dass Klimaschutz und Naturschutz nicht das geringste mieinander zu tun haben, ist der Biosprit. Er verursacht nicht nur Nahrungsmittelverknappung und Hunger in Entwicklungsländern. Die Maismonokulturen auf ehemaligen deutschen Weizenanbauflächen schaden der Artenvielfalt, und die hier eingesetzten Pestizide kontaminieren das Grundwasser. All dies schert die deutschen und EU-Ökokrieger nicht im geringsten. Paradoxerweise sitzen sogar Naturschutzverbände wie der BUND mit im Ökoboot. Man kann der Auffassung sein, dass alle BUND Mitglieder schleunigst ihre Mitgliedskarten abgeben sollten, denn mit Naturschutz hat dieser für die Windradindustrie werbende Verein mittlerweile nichts mehr zu tun.

Australien, Neuseeland und die Schweiz sind die einzigen, im Weltmaßstab allerdings  völlig unbedeutenden Länder, die der Öko-Agenda der EU mehr oder weniger engagiert folgen. Der wahre Musterschüler der CO2-EU-Vermeidungs-Paranoia ist indessen wieder einmal Deutschland. Dazu passt die jüngste Aussage unseres neuen Umweltministers Altmeier, dass eine weltweite CO2-Vermeidungsstrategie nur dann Erfolg haben könne, wenn Deutschland mit gutem Beispiel voranginge. Meint dieser Mann diese Absurdität ernst? Glaubt er wirklich, dass die CO2-Vermeidungsmaßnahmen Deutschlands in Indien und China mit zs. mehr als 2 Millarden Menschen mehr als ein nachsichtiges Lächeln hervorrufen? Man mag die von Altmeier beschworene Wiederauferstehung des gruseligen Untoten „Am deutschen Wesen soll die Welt genesen“ einfach nicht glauben. Aber mit einer eisernen Kanzlerin, die jedem Meinungsblümchen, das sich anschickt selber nachzudenken und eigene Denkpfade zu bevorzugen, sofort den Kopf abschlagen lässt, ist offenbar alles möglich – armes Deutschland!

Weitere Kapitel des Buchs von Gärtner (stellvertretend) lauten:

–         Glaubensfreiheit in Gefahr

–         Nachhaltigkeit: Von der Wissensanmaßung zur regulativen Idee

–         Nachhaltigkeit im Wettbewerb

–         Europa zwischen Hochmut und Verzweiflung

–         Grenzen der Gleichschaltung

Es ist angesichts der Fülle an Information, die dieses Buch bietet, nur schwer möglich eine Zusammenfassung zu erstellen. Wir wollen sie dennoch versuchen. Sie kann, in etwas überspitzter Form, wie folgt lauten: Nach dem braunen und der roten Faschismus in Deutschland sehen wir uns jetzt den Anfängen eines grünen Faschismus gegenüber. Gärtner belegt diese, ohne weitere Information ungeheuerlich klingende Aussage hinreichend mit Fakten. Wir können die Argumentation Gärtners bestätigen, denn die aktuelle Entwicklung ist leider nicht geeignet, seine Einschätzung zu entkräften. Faschismus ist bekanntlich gekennzeichnet durch:

–         Herrschaftsanspruch einer einzelnen Gruppe

–         Durchsetzung dieses Anspruchs mit undemokratischen Mitteln, d.s.   Aufhebung der Pressefreiheit, totalitäre Überwachungsmethoden usw.

Schauen wir uns als Beleg einen Ausspruch von Prof. Edenhofer vom Potsdamer Institut für Klimafolgenforschung an, der in einem NZZ Interview am 14.11.2010 verlautbaren ließ:

„…Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik, mit Problemen wie Waldsterben oder Ozonloch, fast nichts mehr zu tun.“

Wir sind der Meinung, dass diese Interviewaussage die Kriterien einer faschistischen Agenda perfekt erfüllen, denn der Klartext von Edenhofers Aussage lautet: „Wir“, d.h. eine bestimmte Gruppe (Kriterium 1) verteilen das Weltvermögen um und nehmen dabei in Kauf, dass diese Umverteilung nur mit undemokratischen Mitteln erfolgen kann ("nicht begeisert", Kriterium 2). Wir geben zu, dass diese Agenda mit Umweltpolitik – man kann hier auch Umweltschutz sagen – nichts mehr zu tun hat (Kriterium 2, der auserwählten Gruppe sind alle Mittel recht, sie nimmt für ihre Agenda auch massive Naturschädigungen in Kauf). So unsere Interpretation.

Um Ökofaschisten die ideologische Basis zu entziehen, empfehlen wir wärmstens das Studium des Buchs von E. Gärtner als Gegenentwurf einer freiheitlichen und demokratischen Auffassung, die es mit dem Naturschutz, der Würde und dem Besitz jedes einzelnen Mitbürgers ernst nimmt. Gärtners Buch hätte das Zeug, ein zweites „Deutschland schafft sich ab“ eines Thilo Sarrazin zu werden. Dies wird aber leider nicht erfolgen. Gärtner und sein Buchverlag TvR sind im Gegensatz zum ehemaligen Präsidenten der deutschen Bundesbank (noch) völlig unbekannt. Die freiwillige deutsche Medienselbstgleichschaltung – als Musterbeispiel darf die Süddeutsche Zeitung gelten (hier und hier) – hat bis jetzt Rezensionen von klimakritischen Büchern verhindert. In den zwei Diktaturen der deutschen Vergangenheit musste der Presse wenigstens noch gesagt werden, was sie zu schreiben hatte. Dies ist heute nicht mehr nötig. Die in deutschen Medienredaktionen mehrheitlich vertretenen grün-roten Ökologen garantieren, dass Hinweise der Obrigkeit, was über Klima und Energie zu schreiben ist, überflüssig geworden sind.

Wir wünschen Gärtners hervorragendem Werk die weiteste Verbreitung. Wenn die Klima- und Energieagenda in Deutschland ihren bisherigen Weg fortsetzt – und daran bestehen leider wenig Zweifel –  wird es zu Schäden kommen, die geeignet sind, die deutsche Volkswirtschaft in den Abgrund zu stürzen. Es ist zwar nur ein schwacher Trost, aber immerhin werden unsere Kinder und Enkel nach einem solchen Desaster sagen können, dass es auch im gleichgeschalteten Öko-Deutschland noch Widerstand gab.

Prof. Dr. Horst-Joachim Lüdecke

Michael Limburg

Sie können das Buch direkt beim Verlag (hier) bestellen, oder z.B. Bei Amazon über einen Klick den in der rechten Spalte gezeigten Buchtitel. 




DWD: Europa-Dürre ein Wetter-Phänomen, keine Klima-Katastrophe

Seit Jahrhunderten und selbst seit Jahrtausenden gibt es in allen Regionen der Erde Zirkulations-Schwankungen in der Atmosphäre, die zu länger anhaltenden Phasen von Niederschlägen oder – im Gegensatz dazu  –  zu Dürren führen können. Die alten Chroniken sind voll von derartigen Ereignissen, und die seit etwa 150 Jahren existierenden Archive der staatlichen Wetterdienste dokumentieren das auch. Solche "Großwetterlagen" können über Monate, ja sogar über einige Jahre anhalten, bzw. einen starken Trend zur Regenerierung zeigen. Die strengen naturwissenschaftlichen Ursachen und Zusammenhänge sind allenfalls in Ansätzen erschlossen.

Jedoch  – immerhin wissen wir zum Beispiel, daß es in nahezu allen Breiten unserer Erde atmosphärische Oszillationen gibt, die über Jahre oder gar Jahrzehnte bestimmte Strömungs-Muster in der Troposphäre "bevorzugen", und damit auch bestimmte Wetterlagen in Bodennähe: Phasen mit zeitlich und räumlich mehr oder eben weniger stark ausgeprägte Hochs und Tiefs. Als Beispiele seien hier genannt: Die Nordatlantische Oszillation (NAO), die Arktische und die Antarktische Oszillation (AO +AAO), die ElNino-SouthernOszillation-Schwankung (ENSO), die Pazifische Dekadische Oszillation (PDO im Pazifik) …u.a.m.

Leider zeigen alle diese Oszillationen keine auch nur annähernd zeitlich stringenten Perioden derart, daß man sie terminlich prognostizieren könnte! – ein Zustand, der im Übrigen ein bezeichnendes Licht auf die Zuverlässigkeit von Klimamodellen wirft.

In den Rahmen dieses atmosphärisch-chaotischen Witterungs- und Wetter-Geschehens sind auch wieder kehrende Regen- und Dürre-Perioden einzuordnen. Darüber muß man sich im Klaren sein, das sollte man wissen, wenn demgegenüber von Medien und von einigen Klima-Alarmisten immer wieder irgend welche Extrem-Wetter-Ereignisse zu angeblich "AGW-bedingten" Klima-Katastrophen-Signalen hoch-stilisiert und im Grunde genommen dafür "mißbraucht" werden.

V e r l i n k u n g e n:

(1)         http://www.eike-klima-energie.eu/news-cache/extrem-wetter-hysterie-und-kein-ende-oder-neues-aus-der-anstalt/

(2)         http://www.eike-klima-energie.eu/news-cache/aktuell-zur-durban-un-klimakonferenz-neuer-ipcc-bericht-zunahme-von-extremwetterlagen/

(3)         http://www.kaltesonne.de/?p=2962

(4)         http://wattsupwiththat.com/2012/08/16/quote-of-the-week-what-planet-does-michael-mann-live-on/

Zur aktuellen Situation:

Die Abbildung 1 zeigt die Niederschlags-Verhältnisse in Europa im Zeitraum November 2011 bis Mai 2012: In einem breiten Streifen von der Iberischen Halbinsel über Südfrankreich, die Alpenländer, das südliche und westliche Deutschland, Italien bis hin nach Griechenland und den Nahen Osten herrschte ein erhebliches Niederschlags-Defizit :

               

Abbildung 1

Niederschlags-Anomalie Nov. 2011 – Mai 2012

(nachzitiert nach: DWD, Trockenheit in Europa im Frühjahr 2012, www.dwd.de)

Handelt es sich dabei um ein "nie-da-gewesenes Rekord-Ereignis" ? Nein! …keineswegs, wie ein Autoren-Team des DWD sehr ausführlich dokumentiert (Trockenheit in Europa im Frühjahr 2012, 15.08.2012, www.dwd.de) :

"Rekorde der Trockenheit waren für 2012 kaum zu verzeichnen. So lag z.B. in Uccle (Belgien), wo die Zeitreihe im 19. Jahrhundert beginnt, selbst im trockenen März 2012 sowohl die monatliche Niederschlagsmenge als auch die Anzahl der Niederschlagstage noch deutlich höher als der Niedrigrekord von 1993. In Deutschland war der Frühling 2012 der 6. trockenste seit Beginn des 20. Jahrhunderts; die Niederschlagsmengen erreichten dort rund 60% des vieljährigen Flächenmittels (sowohl für 1961-90 als auch für 1981-2010)."

Und wie steht es mit den von Klima-Alarmisten und Medien so gerne behaupteten Langzeit-Trends?

Auch hier glatte Fehlanzeige:

"Langfristige Veränderungen : Die Zeitreihen der Gebietsmittel der Niederschlagssummen in den einzelnen Jahreszeiten (in Abb. 9 für Winter und Frühjahr dargestellt ; Anm.: a.a.O.) zeigen für keines der Gebiete einen markanten Trend, sondern eine mehr oder weniger ausgeprägte Jahr-zu-Jahr-Variabilität. Jahreszeiten von unter- und übernormalem Niederschlag wechseln in der Regel häufig ab." (vgl. Abbildung 2).

(Quelle: DWD a.w.o.a.O.)

 

Abbildung 2

Niederschlags-Trends Frühjahr 1901-2012

(Quelle: DWD, Trockenheit in Europa im Frühjahr 2012, www.dwd.de)

Und weiter der DWD a.a.O.:

"Die Ausprägung der einzelnen relativ trockenen und nassen Jahreszeiten variiert zwischen den einzelnen Gebieten und auch im zeitlichen Verlauf seit Beginn des 20. Jahrhunderts."

Oder doch noch ein Hoffnungs-Schimmer für die "Katastrophiker" ?

"Es deutet sich also an, dass zumindest regional, jedoch nicht generell die Anomalien extremer geworden sind." (DWD a.a.O.).

Dieses als Trostpreis für Alarmisten? Wohl kaum, denn ein "Global-Warming" ("AGW") wählt sich keine "Inseln an Land" und keine Provinzen aus für ausbleibende Niederschläge. Dieses hat eher etwas mit meteorologischen Luv- und Lee-Effekten, Topographischen Besonderheiten, Vegetations-Unterschieden, Eingriffen in die Landschaft etc. zu tun.

So ist auch kaum flächendeckender Dauer-Streß für Portugal zu erwarten (DWD a.a.O.) :

"Langzeittrends von Dürre-Ereignissen in Portugal wurden z.B. kürzlich von Martins et al. (2012) anhand von verschiedenen Dürre-Indizes für den Zeitraum ab 1941 untersucht. Dabei ergaben sich keinerlei Anzeichen für eine Veränderung der Dürrehäufigkeit. Dies steht im Einklang mit den o.g. weitgehend fehlenden jahreszeitlichen Trends des Niederschlages auf der Iberischen Halbinsel."

Doch immerhin auch hier ein kleines Schlupf-Loch für Alarmisten (?):

"Für den westlichen und zentralen Mittelmeerraum haben Sousa et al. (2011) jedoch für den PDSI und eine modifizierte Version davon einen Trend zu stärkerer Dürre gefunden."

Hier schließlich noch die Kern-Aussagen aus "Zusammenfassung und Fazit" des DWD (a.a.O.):

Zitat: "Langfristig seit Beginn des 20. Jahrhunderts zeigt sich zumindest großräumig kein signifikanter Trend zu mehr Trockenheit in Europa. Es gibt jedoch Anzeichen dafür, dass gebietsweise sowohl Trocken- als auch Starkniederschlagsperioden in den letzten ca. 35 Jahren eher extremer geworden sind, vor allem auf der Iberischen Halbinsel im Winter."

Reicht dieser Nebensatz für die Verifizierung der "Klima-Katastrophe" aus ? Wohl kaum, denn in jedem Fall macht selbst über längere Zeiträume von Jahren (vgl.w.o. "Oszillationen") insbesondere auch regional das Wetter die Dürre, nicht das Klima:

"…Die hauptsächliche meteorologische Ursache der Dürre wie auch der vorherigen im Frühjahr und im Herbst 2011 war ein ausgedehnter und verstärkter Hochdruckeinfluss in diesen Gebieten. Nach Sichtung der entsprechenden Daten und auch nach einigen neueren Untersuchungen in der Literatur besteht ein dringender Verdacht, dass in allen diesen Fällen ein über 2 Jahre anhaltender La-Niña-Einfluss bzw. zwei direkt aufeinanderfolgende La-Niña-Ereignisse die Hauptursache dafür waren, in Verbindung mit einer positiven Nordatlantik-Oszillation."

Dem DWD-Autorenteam gebührt m.E. Aufmerksamkeit und Anerkennung für diese sehr gut recherchierte, faktenreiche, fundierte und meteorologisch sehr interessante und auch spannende Arbeit mit zahlreichen vorzüglichen Graphiken. Es lohnt sich schon aus fachlichen Gründen, das zu lesen.

Darüber hinaus lohnt es sich auch, das zu lesen, bevor – wie leider zu erwarten ist  –  Klima-Alarmisten und Medien die Dürre 2012  zum Katastrophen-Signal für die "AGW-CO2-Treibhaus-These" erklären und somit "mißbrauchen".

Daher ist es auch bemerkenswert und anerkennenswert zugleich, daß die DWD-Autoren auf den heutzutage sonst genauso üblichen wie überflüssigen "CO2-Klima-Rettungs-Schwanz" in ihrer Publikation verzichtet haben.

Umfassendes Kompliment für diese Arbeit, liebe Kollegen. So bringt man Meteorologie spannend, anschaulich und glaubwürdig "unter’s Volk" !

Klaus-Eckart Puls,  EIKE

)*  H i n w e i s :

Auch die Dürre-Periode in den USA ist  k e i n  "nie-da-gewesenes Ereignis", sondern hat Vorläufer im 20. Jahrhundert !

Vgl. dazu z.B. :

(1)         http://www.kaltesonne.de/?p=5112

und hier eine sehr umfangreiche undefinedLinksammlung zu Dürren der Vergangenheit. Mit Dank an Sebastian Lüning

K.E.Puls EIKE




Die Mutter aller Falschmeldungen

Dies hat die Nachrichtensendung des öffentlichen Sendesystems [the public Broadcast System’s News Hour] nicht davon abbringen können, eine „neue Serie darüber zu senden, wie die Klimaänderung die nordwestlichen Pazifikstaaten der USA und die Reservate der Indianerstämme dort beeinflusst – durch Überflutung ihrer Reservationen und Bedrohung der Lachsfischerei in der Gegend“. Klimaänderung ist die Kurzbezeichnung für globale Erwärmung.

Während die Medien der Nation weiterhin die Falschmeldungen propagieren, welche Hoffnung besteht für die WAHRHEIT?

Wichtig hierbei: „Die jahrelange Berichterstattung von News Hour über die Klimaänderung wird durch eine Zuwendung der Rockefeller Foundation gefördert”. Die führenden Foundations der Nation haben die Falschmeldung von der globalen Erwärmung seit Jahrzehnten gefördert und tun das auch weiterhin.

Daher könnte eine weiterer Artikel über den Schwindel und die Falschheit der globalen Erwärmung überflüssig sein und wäre es auch, falls die Luftwaffe der USA nicht 59 Dollar pro Gallone für „grünen Biotreibstoff“ zahlen und die US-Flotte nicht das gleiche für ihre Große Grüne Flotte tun würde. Die Rechtfertigung hierfür ist die vollkommen falsche Beteuerung, dass „Alternativen“ gebraucht werden, falls wir nicht genügend Petroleum erzeugen oder importieren können.

Die USA schwimmen auf einem Öl-Ozean, aber momentan kann dieses Öl nur von in Privatbesitz befindlichen Ländereien gefördert werden, weil die Obama-Administration  alles in ihrer Macht Stehende getan hat, den Zugang dazu auf öffentlichem Landbesitz zu behindern und natürlich die Milliarden Barrel, die ‚off shore‘ verschlossen sind.

In genau der gleichen Weise, wie die Obama-Administration den Vorsitz innehatte beim Verlust von Milliarden an Subventionen und Kreditbürgschaften für Solarfirmen oder die lächerlich hohen Kosten der Windindustrie im Vergleich zu einem einzigen Kohlekraftwerk, stand im Zentrum von all dem die Behauptung, dass die globale Erwärmung durch Emissionen von „Treibhausgasen“ verursacht wird, Kohlendioxid, das die Welt gefährdet.

Vor Kurzem hat mein Freund Joseph L. Bast, der Präsident des Heartland Institute, im Blog American Thinker.com einen Artikel geschrieben mit dem Titel “IPCC Admits Its Past Reports Were Junk” [auf Deutsch bei EIKE hier]

Es hat mich überrascht, dass nur sehr wenige Menschen wissen, dass die Buchstaben IPCC als Akronym stehen für United Nations Intergovernmental Panel on Climate Change. Nur wenige Menschen wissen, dass der gesamte Schwindel der globalen Erwärmung vom IPCC erzeugt worden ist, geschweige denn was das ist.

Die meisten Menschen verbinden die globale Erwärmung mit Al Gore, der unter den prominentesten Befürwortern war und der gewarnt hat, dass „die Erde ein Fieber hat“ und dass es unser Untergang wäre, wenn wir nicht sofort damit aufhören, Kohlendioxid zu erzeugen. Gore und seine Mitarbeiter wollten „Kohlenstoff-Zertifikate“ auf Börsen weltweit verkaufen, und eine Zeit lang bereicherte er sich selbst in großem Stil.

In Australien hat die Regierung eine Steuer auf Kohlendioxid eingeführt, welche drauf und dran ist, das produzierende Gewerbe zu zerstören, weil Kohle und andere Mineralien nicht mehr gefördert werden.

Hier in den USA fährt die EPA fort zu behaupten, dass Kohlendioxid als ein „Verschmutzer“ im Rahmen der Gesetzgebung zu sauberer Luft (the Clean Air Act) angesehen werden müsse. Wenn sie damit Erfolg hat, wird sie ähnlich wie in Australien unserer Produktionsbasis und allen anderen Industriezweigen, die Energie erzeugen oder verbrauchen, die Grundlage entziehen.

Und der kleine Mann auf der Straße bleibt vollständig ahnungslos über den drohenden Ruin der Nation, der auf den Berichten des IPCC basiert. Diese Berichte hat das Inter-Academy Council (IAC), eine von den Wissenschaftsakademien der Welt gegründete Gruppe, um internationalen Institutionen als Ratgeber zur Verfügung zu stehen, schon lange als komplett falsch und grundlos genannt.

Am 27. Juni verbreitete das IPCC ein Statement, dass es den Prozess der Implementierung der Ratschläge einer IAC-Analyse vom August 2010 abgeschlossen habe. Die IAC-Analyse wurde erstellt, nachdem man untersucht hatte, wer zu den Berichten beigetragen hat, wer den Inhalt begutachtet hat (die gleichen Leute!) und wer die erstaunliche, völlig falsche Behauptung eines „Konsens“ in die Welt gesetzt hat.

Wie Bast schreibt: Das bedeutet, dass alle ‚Bekräftigungen‘ des Klimakonsens‘ durch die nationalen Wissenschaftsakademien weltweit – welche sich unterschiedslos auf die IPCC-Berichte als ihrer wissenschaftliche Basis beziehen – auf falschen oder unzuverlässigen Daten beruhen und daher nicht beachtet oder verworfen werden sollten“.

„Es bedeutet, dass die ‚Gefahrenanalyse‘ der EPA – mit seiner Behauptung, dass Kohglendioxid ein Verschmutzer und eine Bedrohung der menschlichen Gesundheit ist – falsch ist und verworfen werden sollte.“

Es ist schrecklich, in einer Nation leben zu müssen, die von Lügen regiert wird, die den öffentlichen Wohlstand in nutzlosen Technologien verplempert und unter der Tyrannei von Regierungsabteilungen und Agenturen, die diese Lügen für ihre eigenen Agenden und politischen Maßnahmen weiter verfolgen.

Solange sich der im Namen der globalen Erwärmung angerichtete Schaden nicht umkehrt, werden wir alle Opfer des IPCC, der EPA und anderer Einrichtungen bleiben, die danach trachten, jeden Aspekt unseres Lebens zu kontrollieren.

Die Pole schmelzen nicht, die Gletscher wachsen, die Ozeane steigen nur wenige Millimeter über Jahrhunderte, und derzeit kühlt sich die Erde ab.

© Alan Caruba, 2012

Link: http://www.nationalanxietycenter.blogspot.de/2012/07/mother-of-all-hoaxes.html

Übersetzt von Chris Frey EIKE




Energiesoli und Umverteilung soll die Energiewende retten!

Die weltweit hocheffizientesten Stromerzeugungsanlagen konnte man bisher immer in Deutschland besichtigen, dies zu Toppen, wird wohl kaum möglich sein. So langsam erfahren die Stromverbraucher scheibchenweise die Wahrheit über die Kosten, die diese politisch beschlossene, aber von den meisten Fachleuten als technisch/wirtschaftlich weit überzogene Energiewende bereits in ihren Anfängen ausgelöst hat und in Zukunft in deutlicherem Maße noch auslösen wird.

Nur mit massiver Untertreibung und trickreicher Verschleierung der Mehrkosten durch gesetzwidrig ausschließliche Nennung der Nettopreise, z.B. beträgt die derzeitige EEG- Umlage für den Verbraucher nicht 3,592 ct/kWh, sondern 4,27 ct/kWh, ist das Erneuerbare-Energien-Gesetz (EEG) der allgemein öffentlichen Diskussion vorenthalten worden. In Kürze werden es nicht nur 5 ct/kWh EEG-Belastung, sondern 6 ct/kWh mit weiter steigender Tendenz sein. Der nun ebenso listige „E- nergie-Soli“ Vorschlag zur Finanzierung der ausufernden Mehrkosten zu Lasten aller Strombezie- her schlägt dem Fass den Boden raus.

Der Aufbau Ost war eine wirkliche Solidaritätsaufgabe für unsere Land, um die sich Deutsche Bür- ger über 4 Jahrzehnte der schmerzlichen Teilung redlich bemüht hatten und die auch weltweit begrüßt wurde. Die singuläre Energiewende ist das mitnichten. Zwar wird dieses Vorhaben von unseren Nachbarländern interessiert beobachtet, aber mehr unter dem fachlichen Aspekt, dass es ein Wunder wäre, wenn dieses zu bezahlbaren Stromkosten gelingen könnte. Kein Land dieser Welt ist bereit, diesem Beispiel zu folgen. Die anderen Länder tun auch gut daran, zumindest sehen die Fachleute bei uns – die bisher stets Verantwortung für unsere Energieversorgung getragen ha- ben – das mit deutlicher Mehrheit so.

Die Basis dieser Verantwortung ist in §1 EnWG mit der Forderung: …“eine möglichst sichere, preisgünstige, verbraucherfreundliche, effiziente und umweltverträgliche leitungsgebundene Ver- sorgung der Allgemeinheit mit Elektrizität und Gas“ zu realisieren, gelegt. Die einzelnen Aspekte sind im Gesetz nicht alphabetisch genannt, die Preisgünstigkeit immerhin an zweiter Stelle, hinter der Sicherheit!

Der Aspekt der Verbraucherfreundlichkeit bedarf insbesondere der objektiven Information der Ver- braucher über die Möglichkeiten und Grenzen denkbarer Energiemixe, eine Bringschuld der leider die Versorger immer weniger nachkommen, ja sich sogar zunehmend einer Vernebelungstaktik bedienen, wie das im Falle des Energie-Soli Vorschlags sehr deutlich wird.

Hierzu möge ein Auszug aus dem Geschäftsbericht des RWE von 1902 zu denken geben:

„Wir betrachten es im Gegensatz zu den meisten Kommunalbetrieben nicht als unsere Aufgabe, unter Ausnutzung unserer Monopolstellung in einzelnen Gemeinden bei geringem Stromabsatz großen Gewinn zu machen, sondern wir gedenken, dadurch unsere Aufgabe für uns und für die Allgemeinheit zu erfüllen, dass wir den Kommunen, insbesondere der Eisenbahnverwaltung und der Industrie, zu den denkbar billigsten Preisen größtmögliche Strommengen zur Verfügung stel- len“.

Der damaligen Vorstand August Thyssen (neben Hugo Stinnes) schrieb an seine Direktoren in einer Konferenzeinladung:
„Ich bitte die Herren, zur Sitzung einige Butterbrote mitzubringen, damit wir durch das Mittagessen keine Zeit verlieren“.

Im Kontext dieser Historie passt die RWE-Anzeige in der Tagespresse vom 24.10.2011 mit dem Werbeslogan: „Der Preis bleibt! Viele Energieanbieter drehen an der Preisschraube – RWE nicht!

Es ist zu hoffen, dass alle Versorger wieder auf diesen Pfad der Tugend – die Preisführerschaft von unten übernehmen zu können – im Interesse aller Kunden bei einer durchaus nachhaltig erfolgrei- chen Unternehmensentwicklung zurück finden.

Derzeit sind weder die Verbraucherverbände, noch die Politiker aller Parteien, noch die Mehrheit

Versorgungsunternehmen, an niedrige Strompreise interessiert. Deren Strategie zum vermehrten Einsatz extrem teurer Stromerzeugung aus Sonnen- Wind-, Biomasse- und kleinen KWK- Kraftwerksanlagen erfordert zur kostendeckenden Finanzierung erheblich höhere Strompreise, als dies aus zentralen Großanlagen, nicht zuletzt hocheffizienten deutschen Braunkohle- und Kern- kraftwerken, möglich ist und bisher über Jahrzehnte erfolgreich realisiert wurde.

Die versorgungstechnische Wirkung der witterungsbedingt fluktuative Nichtverfügbarkeit bis zu na- hezu 100 % der installierten Leistung der Wind- und Photovoltaikanlagen, mit der Folge, deren Leistungsanteil abzüglich der noch verbleibenden Kohlekraftwerke durch noch zu bauende Gas- kraftwerke abzusichern, wird schlicht verdrängt.

Man geht davon aus, dass in unserer heutigen Welt technisch fast alles möglich ist, selbst die unse- re Erde umkreisende ISS hat ja bekanntermaßen eine intakte Stromversorgung an Bord. Man darf allerdings nicht fragen was dort oben die kWh kostet, die dortige Stromrechung auf unsere Haus- halte angewandt würde deren gesamtes Jahreseinkommen aus beruflicher Arbeit wohl sicher über- steigen.

Die über alle Parteien des Deutschen Bundestages politisch einvernehmlich verordnete Energie- wendestrategie steigert unzweifelhaft den Umsatz und damit auch die Gewinnerwartung aller Ver- sorgungsunternehmen, zumindest solange die deutschen Stromverbraucher nicht unter der Ener- giekostenlast zusammenbrechen, so wie das derzeit bei den angedachten „Energie-Soli“ – Umlage- empfängern – bislang sind das wohl nur die Hartz IV- Empfänger -, bereits jetzt der Fall zu sein scheint. Aber diese Gruppe wird energiekostenbedingt zahlenmäßig weiter anwachsen.

Die bereits vorgenommene stromkostenbedingte Fahrpreiserhöhung bei der Deutschen Bahn ist erst der Anfang einer neben der weiter galoppierenden EEG-Umlage zu erwartenden allgemeinen energiebedingten Teuerungswelle.

Die Akzeptanz der einzelnen Maßnahmen wird schwinden, wenn den Bürgern erst klar wird, dass mit jeder weiteren Windanlage und mit jeder weiteren Photovoltaikanlage der Strom nur teurer und die Versorgung nicht sicherer werden wird. Jede Verweigerung, die aufschiebender Wirkung entfal- tet, verschiebt zwar die Erfüllung der politisch gesetzten Ziele in weitere Ferne, verhindert aber notwendige Strompreiserhöhungen und verschlechtert mitnichten unsere bisher gewohnte Verso- gungssicherheit.

Unser neuer Umweltminister Peter Altmaier hat dies auch bereits erkannt und ist offensichtlich be- müht, die Zeitpunkte der Zielerreichung klugerweise in weitere Ferne zu verlagern.

Energieerzeugung

Die Bezahlbarkeit des Stromes scheint da eher nachrangig von Gewicht zu sein! Wenn alle Stromkunden das eben so sehen und bezahlen können, ist das auch ok.

Prof. Dr.-Ing. Helmut Alt Aachen

zuerst erschienen bei Bürger für Technik 




Das Grüne Jobwunder schreitet dynamisch voran

Die FTD schreibt am 14.8.12:

“Für Solarworld sieht es düster aus: Nach millionenschweren Abschreibungen und tiefroten Zahlen in den ersten sechs Monaten erwartet Vorstandschef Frank Asbeck entgegen früheren Ankündigungen nun auch im Gesamtjahr erneut einen operativen Verlust. An der Börse brach die Aktie im frühen Handel am Montag um 11,5 Prozent auf 1,17 Euro ein. Er will nun erneut mit Stellenstreichungen gegensteuern. 300 Arbeitsplätze sollen bis Ende 2012 wegfallen. Im Vorjahr mussten bereits 500 Mitarbeiter gehen. Aktuell beschäftigt Solarworld noch knapp 2600 Menschen. ‘Wir erwarten 2013 ein Ende der negativen Nachrichten‘, sagte Asbeck der Nachrichtenagentur Reuters. Wann Solarworld aber wieder Gewinne schreibe, das stehe ‘in der Sonne‘.”

gefunden bei ACHGUT; Spürnase Alexander Wendt

Bei den realen Sozialisten der untergegangen DDR hieß es :

„Genossen lasst Euch von der Wirklichkeit nicht täuschen“.

Nur ein DEJA VU?

Und das auch noch aus der FTD:

Das schmutzige Geheimnis der Energiewende

Langsam wird uns bewusst, dass diese Energiewende nicht nur stockt – sondern ein schmutziges Geheimnis hat. Langsam sickert es durch, so wie vor einigen Tagen, als Verbraucherschützer über die hohen Strompreise klagten: 2007 zahlte jeder Haushalt im Schnitt 35 Euro für alternative Energien. Ab 2013, wenn die Umlage von 3,5 Cent auf über 5 Cent steigt, werden es 185 Euro sein. Die vergangenen Jahre hat das kaum jemanden aufgeregt, weil viele Deutsche die Umlage als eine Art Spende für einen guten Zweck empfinden. Das kann man so sehen. Doch es ist etwas naiv. Denn das Geld wandert in die Taschen einer Branche, die wie die Auto- oder Pharmabranche in erster Linie ein Ziel hat: Sie will Geschäfte machen. Vor allem jetzt, da die Energiewende zu einem neuen Goldrausch geführt hat.
http://www.ftd.de/politik/deutschland/:windkraft-das-schmutzige-geheimnis-der-energiewende/70076643.html




Kernenergie ist keine Risikotechnik (Teil 2)-oder Die Kerntechnik als Opfer der Demagogie

Deutschland beendet seine gesicherte Stromversorgung durch Abschaltung seiner Kernkraftwerke mit der Begründung, weil in Japan etwas passiert ist. Es hat dort ein Erdbeben gegeben, als Folge davon einen Tsunami, und in Fukushima ein kaputtes technisches Gerät, eben ein Kernkraftwerk. Weite Landstriche wurden durch Erdbeben und Tsunami verwüstet, dadurch starben 20 000 Menschen. In der Kraftwerksruine gab es eine dreifache Kernschmelze und ausgetretene Radioaktivität, aber niemand kam dadurch zu Schaden. Evakuierungen wurden gemacht um Gesetzen zu gehorchen, aus radiologischen Gründen waren diese nicht notwendig (siehe Teil 1). Dennoch ist die Kerntechnik für die Deutschen nicht nur eine Risikotechnik, sondern oft sogar eine Hoch-Risikotechnik. – Warum? Das ist eine Folge von Demagogie. „Glauben fängt da an, wo das Wissen aufhört“. Wir wollen Wissen vermitteln, um dem Glauben an schädliche Demagogie entgegen zu wirken.

Menschliche Verhaltensweisen

Die Menschen verhalten sich nicht nach streng formulierbaren Gesetzen, es sind ganz andere Dinge maßgebend. Dazu wurden von amerikanischen Sozialpsychologen Grundlagen erkannt, das waren:

  1. Solomon Asch und
  2. Stanley Milgram.

1) Der Solomon-Asch-Versuch beschreibt menschliches Verhalten in einer Gruppe, in der sich eine Mehrheitsmeinung gebildet hat. Die Menschen sind bestrebt, sich der Mehrheitsmeinung – oder der vermeintlichen Mehrheitsmeinung – anzuschließen. Aus dieser Erkenntnis entwickelte Elisabeth Noelle-Neumann das Gesetz der „Schweigespirale“. Dabei ist es unwesentlich, ob diese Meinung nun falsch oder richtig ist. Auch bei sehr einfachen und leicht als falsch zu erkennenden Zusammenhängen folgen die Menschen der Mehrheit. Ein Beispiel: Eine steigende Mehrheit der Bürger in Deutschland glaubt, dass wir in Zukunft mit Wind- und Solarstrom versorgt werden können. Natürlich weiß auch diese Mehrheit der Menschen, dass abends die Sonne untergeht und der Wind meistens Flaute hat, es mit der Stromversorgung also nicht klappen kann. Dennoch GLAUBEN sie, jedenfalls behaupten sie es.

2) Der Stanley-Milgram-Versuch. beschreibt menschliches Gehorchen gegenüber einer Führungspersönlichkeit, der er sich unterordnet. In dem Versuch war es ein Wissenschaftler, dargestellt durch einen Menschen in einem weißen Laborkittel. In der Realität kann die Führungspersönlichkeit ein Bürgermeister, Pfarrer, Lehrer, Chef, Präsident, Kanzler sein, natürlich kommt immer auch eine Frau dafür infrage. Einer Führungspersönlichkeit wird mehr oder weniger blind geglaubt, es wird gehorcht – das wird nicht unbedingt zugegeben. Ein sehr schönes Beispiel ist der 14.3.2011, als die Kanzlerin ihren Führungsanspruch durchsetzte, indem sie ihren Beschluß zum Abschalten unserer Kernkraftwerke bekannt gab. Fast niemand wagte zu widersprechen, über 95% Zustimmung bei der Abstimmung im Bundestag, wie man es sonst nur aus Diktaturen kennt. Auch die Medien haben in der heutigen Zeit eine Führungsposition erreicht, was geschrieben steht, wird geglaubt. Insbesondere wird dem Fernsehen geglaubt.

Seit vier Jahrzehnten wird die Kernenergie verteufelt, zuerst von einzelnen Personen, dann zunehmend von den Medien, inzwischen von der gesamten staatlichen Führung. Seit 1998 werden die Erneuerbaren Energien als Ersatz hoch gelobt, obwohl das unmöglich ist. Die Agitation quer durch die Medien hat Wirkung gezeigt. Zu dieser Volksverführung wurde zusätzlich Geld eingesetzt. Nicht die Energieversorgungsunternehmen wurden zum Bau von Windrädern und Solarstromanlagen verpflichtet, obwohl es die Möglichkeit geboten hätte, in der Folge die „reichen Konzerne“ wegen des Kassierens der Subventionen zu brandmarken. Es wurde die breite Masse der Bürger zur Investition animiert, um eine große Gruppe von Profiteuren zu schaffen, die um des Erhalts ihrer Profite willen das EEG verteidigen.

Die sehr kleine Gruppe der Fachleute aus der Kernkraftbranche wurde als Lobbyisten diskreditiert, so blieben die Sachargumente zu Radioaktivität und Strahlen ungenannt. Dazu wird im folgenden einiges nachgeholt.

Irreführung mit den großen Zahlen zur Radioaktivität.

Bei den vermeintlichen bzw. manchmal auch echten Gefahren durch Radioaktivität spielen die Begriffe (Radio)-Aktivität bzw. die Konzentration der Aktivität, Dosis und Dosisleistung eine entscheidende Rolle. Zur Risikobeurteilung sind Dosis und Dosisleistung unverzichtbar, dagegen eignet sich zur Menschenverführung besonders der Begriff der Aktivität, weil hier mit großen Zahlen umgegangen wird. Große Zahlen erzeugen große Angst:

„Jedes Becquerel ist ein Becquerel zu viel“,

so ein klassisches Schlagwort im Kampf gegen die Kernkraft. Es ist ein unsinniges Schlagwort, denn Radioaktivität ist überall. Es wurde erfunden zum Zwecke der Volksverführung. Um das zu zeigen, sollen einige Zahlen zur Radioaktivität und deren Konzentration genannt werden.

Der Mensch nimmt mit seiner Atemluft und Nahrung auch Radioaktivität in seinen Körper auf, das summiert sich innerhalb eines Jahres auf:

10 Becquerel                         durch Uran (Uran ist als Spurenelement überall, auch in der Nahrung!)

30 000 Becquerel                  durch Kalium-40 mit Nahrung

25 000 Becquerel                  durch Kohlenstoff-14 mit Nahrung

250 000 Becquerel                durch das Edelgas Radon in der Atemluft

350 000 Becquerel                durch Radon-Zerfallsprodukte in der Atemluft

Zum Vergleich:

1000 Becquerel                     können in Skandinavien durch Radon in einem Liter Trinkwasser sein

1 000 000 Becquerel             werden bei einer Kur in einem Radon-Heilbad aufgenommen durch trinken,
                                                   Atmung, oder durch die Haut.

500 000 000 Becquerel                     werden bei nuklearmedizinischen Untersuchungen dem Patienten gespritzt.

Die Natur bietet uns ein weites Spektrum der Konzentrationen von Radioaktivität:

Der Mensch                            120 Becquerel pro kg Körpergewicht

Unsere Nahrung                      40 Becquerel pro kg, mit sehr weiten Schwankungsbreiten

Kalidünger                             30 000 Becquerel pro kg

Gartendünger (Mischung)       um 3000 Becquerel pro kg

Carnallit (Kalimineral)                        4500 Becquerel pro kg

Heilwasser bei Radon-Kuren   2000 bis 20 000 Becquerel pro kg Wasser

Gartenerde                             um 500 Becquerel pro kg

Granit                                     1000 bis 5000 Becquerel pro kg

Uranerz mit 0,2% Uran                       500 000 Becquerel pro kg

Auch der Mensch ist eine radioaktive Strahlenquelle. Meine schlanke und eher zierliche Frau mit ihren 55 kg stellt rund 6000 Becquerel dar, ein kräftiger Mann wie ein Herr Klitschko mit ca. 110 kg bedeuten schon 12 000 Becquerel. Natürlich „verstrahlt“ die Strahlenquelle mit 12 000 Becquerel sich selber und die Umwelt stärker als diejenige mit nur 6000 Becquerel, aber „gefährlich“ ist das nicht.

Vor Strahlung kann man sich durch großen Abstand schützen, daher sei Personen mit großer Strahlenangst empfohlen, sich durch möglichst großen Abstand vor der menschlichen Strahlenquelle zu schützen.

Und was macht der Mensch daraus?

Frau Ministerin Aigner hat in der Zeit nach der Tsunami-Katastrophe den „EU-Grenzwert“ für Lebensmittel von ca. 1000 Bq pro kg auf die Hälfte herab gesetzt. Das war blinder Aktionismus, durch nichts zu begründen. Wenn ein Mensch durch Lebensmittel 500 Becquerel verspeist, dann hat sein Körper für eine gewisse Zeit eine erhöhte Radioaktivität, die durch natürlichen Stoffwechsel bald wieder auf ihren Ursprungswert sinkt. 500 Becquerel werden andererseits 4 kg höheres Körpergewicht erreicht, und die gehen nicht so bald von allein zurück. 500 Becquerel durch Cs-137 ergeben eine Dosis, wie man sie durch ca. eine Stunde Flug auf Flughöhe in unseren Breiten erhält. Täglich werden Menschen beim Flug zig-tausendfach „verstrahlt“.

Der Mensch hat sehr strenge Regeln für den Umgang mit radioaktiven Stoffen aufgestellt, wenn diese im technischen Bereich anfallen:

·       So darf Stahl beim Rückbau von Kernkraftwerken– zum Beispiel von Reaktordruckbehälter – nur dann freigegeben werden, wenn seine spezifische Aktivität kleiner als 100 Becquerel pro kg ist.

·       In der Förderung von Erdöl und Erdgas setzen sich auf den Innenwänden von Rohrleitungen gern Krusten ab, die auch Radioaktivität enthalten. Beim Überschreiten der Grenze von 200 Becquerel pro kg müssen diese Ablagerungen überwacht werden.

·       In 2002 wurden aus einem mit Reinigungsabwasser gefüllten Transportfahrzeug in einem deutschen Kernkraftwerk versehentlich 700 Liter Abwasser mit 2,2 Mill. Becquerel in den Kanal geleitet, helle Aufregung in allen Medien, Suchtrupps messen sogar im Rhein, denn das war verbotene Freisetzung von Radioaktivität.

Zum Vergleich:
Wenn an einem touristisch interessanten Ort vier große Busse ankommen und die Menschen aussteigen, werden ebenfalls 2,2 Mill. Becquerel „freigesetzt“.
Wenn ein Landwirt 100kg Kalidünger auf seinen Acker ausbringt, werden noch mehr als 2,2 Mill. Becquerel „freigesetzt“.
Das Matterhorn ist ein Granitberg, seine Pyramide enthält ca. 10 000 000 000 000 000 Becquerel, 1000-fach mehr als die langfristig strahlende Aktivität in der ASSE – sollte man das Matterhorn endlagern?

Wenn unser Herrgott heute die Welt erschaffen hätte und müßte bei unseren Behörden wegen einer Dauerbetriebsgenehmigung für die Erde nachfragen, dann würde sie ihm verweigert werden, weil er die strengen Vorschriften der Strahlenschutzverordnung nicht beachtet hat.

Was seit Anbeginn vor hunderten von Millionen Jahren die Natur den Lebewesen und dem Menschen an Radioaktivität zumutet, was niemals in all der Zeit einen merklichen Schaden gebracht hat, das sollte der Mensch heute nicht als schädlich deklarieren.

von Dr. Lutz Niemann EIKE, August 2012

Literatur

Demagogie: http://www.buerger-fuer-technik.de/RezeptederDemagogie042011.pdf, Allensbacher Jahrbücher, Bücher von Prof. Walter Krämer, Prof. Hans-Matthias Kepplinger

Radioaktivität und Strahlen: H. Kiefer, W. Koelzer, „Strahlen und Strahlenschutz“, 2. Aufl. 1987, ISBN 3-540-17679-9; Karl Gertis, „Radon in Gebäuden, eine kritische Auswertung vorhandener Literatur“, ISBN 978-3-8167-7369-6; Hermann Hinsch, „Radioaktivität, Aberglaube und Wissenschaft“, 2010, ISBN 978-3-8423-3785-5;
eigene Berechnungen von Aktivitäten und deren Konzentrationen.




Augen zu und durch: Mit geschlossenen Augen durch die Energiewende

Update-Fortsetzung:

Nordrhein-Westfalens FDP-Chef Christian Lindner will das Erneuerbare-Energien-Gesetz abschaffen. „Ich bin dafür, dass wir im Herbst konkret über ein Ausstiegsgesetz nachdenken“, sagte Lindner gegenüber der Deutschen Presse-Agentur dpa

Text……Die Energiewende nach Fukushima war ein Super-GAU der politischen Kommunikation. Keine Entscheidung einer Bundesregierung hat ein derartiges Chaos verursacht wie der Ausstieg aus der Kernenergie. Die Opposition hätte die Verantwortlichen längst durch die öffentliche Arena geprügelt, wenn sie die Entscheidung nicht am liebsten selbst getroffen hätte.

Der Ersatz für Versorgungslücken bei Windstille und Wolken ist ungeklärt. Zum Ausbau der Stromnetze liegen nur ungenaue Pläne vor. Die Pläne für Stauseen zur Speicherung überflüssiger Energie erschöpfen sich in Absichtserklärungen. Die unterirdische Lagerung von CO2 aus Kohle- und Gaskraftwerken ist nicht allgemein verbindlich geregelt. Sicher ist nur, dass die Energiekosten weiter steigen, aber wie hoch sie werden, weiß wiederum niemand.

Wie konnte das geschehen? Eine erste Antwort gibt der Blick auf die politische Lage und Praxis von Angela Merkel. Der CDU drohten im April 2011 in Baden-Württemberg und Rheinland-Pfalz wegen der Anti-Atom-Proteste nach Fukushima Niederlagen bei den Landtagswahlen.

Zudem bestand die Gefahr, dass das Verfassungsgericht das Gesetz zur Verlängerung der Laufzeit von Kernkraftwerken für zustimmungsbedürftig erklären und es danach an der Bundesratsmehrheit scheitern würde. Wenn es anders entschieden hätte, wäre nach der Bundestagswahl 2013 eine Koalition mit SPD oder Grünen wegen der Verlängerung der Laufzeit von Kernkraftwerken schwierig gewesen. In der Zwischenzeit hätte sich Norbert Röttgen als Alternative zu Merkel profilieren können.

In dieser Situation musste einer Politikerin, die ihre Karriere radikalen Wendungen verdankt, der Ausstieg aus der Kernenergie als Mehrzweckwaffe erscheinen, die alle Probleme löst.

Deutsche Medien thematisieren Kernenergie häufig

Merkels situativer Politikstil alleine erklärt aber die Entscheidung für ein Moratorium und ihre absehbaren Folgen nicht, weil sie von weiten Teilen der Unionsführung mitgetragen wurde. Hinzu kam die spezifisch deutsche Reaktion auf das Seebeben, den Tsunami und den Reaktorunfall in Japan. Die deutschen Medien berichteten über diese drei Katastrophen nicht nur insgesamt wesentlich intensiver als die Medien in der Schweiz, in Frankreich und in Großbritannien. Sie befassten sich vor allem intensiver mit dem Reaktorunfall.

Das belegt eine Gegenüberstellung der Berichterstattung in jeweils zwei vergleichbaren Zeitungen und zwei Fernseh-Nachrichtensendungen in den vier Ländern: Die deutschen Zeitungen veröffentlichten nach dem Tsunami innerhalb eines Monats 311 Beiträge über Fukushima – und damit fast doppelt so viele wie im Durchschnitt die Zeitungen der anderen Länder. Die deutschen Fernsehsender sendeten dazu mit 160 Beiträgen fast anderthalbmal so viele wie die Sender im Ausland. Nicht eingeschlossen sind darin die zahlreichen Sonderseiten der Zeitungen und die Sondersendungen der Fernsehsender, die vor allem die deutschen Medien gemacht haben.

Die deutschen Medien thematisierten zudem viel häufiger die Kernenergie im eigenen Land. In Frankreich und England war das nur sehr selten ein Thema. Das Geschehen in Japan schien aus Sicht vieler deutscher Journalisten nur das zu bestätigen, was man hier schon lange zu wissen glaubte, nämlich die Unbeherrschbarkeit der Kernenergie.

Ihre Darstellung entsprach, wie Umfragen zeigen, der Sichtweise eines Großteils der Bevölkerung. In Deutschland ging es, anders als in Frankreich und England, nicht vorrangig um die japanischen Opfer des Tsunami, sondern um die deutschen Opfer der seit Tschernobyl verbreiteten Atomangst.

Das Gegenteil dessen erreicht, was geplant war

Der Beschluss zur zeitweisen Abschaltung deutscher Kernkraftwerke (Moratorium) hat die Diskussion über die Bedeutung des Reaktorunglücks in Japan für die Zukunft der Kernenergie in Deutschland zusätzlich angeheizt. Zwar waren bereits einen Tag nach dem Reaktorunfall in Fukushima die ersten Beiträge über die Zukunft der hiesigen Kernenergie erschienen.

Die Welle von Berichten über die Stilllegung von hiesigen Kernkraftwerken, ihre Notwendigkeit zur Energieversorgung, Anti-Atom-Demonstrationen in deutschen Städten und so weiter erreichte aber erst nach dem Moratorium ihren Höhepunkt. Die politisch Verantwortlichen haben folglich damit genau das Gegenteil dessen erreicht, was sie angeblich erreichen wollten, eine Beruhigung der Bevölkerung.

Die Konzentration der Berichterstattung auf die Kernenergie im eigenen Land ging in den deutschen Medien mit überwiegend negativen Aussagen über die Risiken der Kernenergie einher. Nach ihrer Darstellung bestätigte der Reaktorunfall von Fukushima die These, dass die Kernenergie generell unbeherrschbar ist. Fukushima erschien als Menetekel.

Die Diagnose wurde durch massive Forderungen nach einem Ausstieg aus der Kernenergie ergänzt: In der Presse war das der Tenor von 80 Prozent aller Aussagen zur Zukunft der Kernenergie, im Fernsehen war es der Tenor von sogar 90 Prozent. Dadurch entstand eine scheinbar ausweglose Situation, in der auch diejenigen das Vorgehen von Merkel mittrugen, die es für falsch hielten.

Zweckrational oder wertrational?

Bereits wenige Tage nach dem Moratorium, am 17. März, erkannte Merkel diese Chance und sprach vom „Atomausstieg mit Augenmaß“. Das führt zum Kern des Problems: der Rationalität politischer Entscheidungen und der Verantwortung dafür.

Der Soziologe Max Weber unterschied in seinem berühmten Essay über „Politik als Beruf“ (1919) „zweckrationales“ und „wertrationales“ Handeln. Nach Weber handeln Politiker zweckrational, weil sie erstens verschiedene Zwecke rational gegeneinander abwägen, zum Beispiel den Ausstieg aus der Kernenergie und die Sicherung politischer Macht, und weil sie zweitens die negativen Nebenfolgen bedenken, etwa die Kosten eines Ausstiegs aus der Kernenergie.

Dagegen handeln Journalisten wertrational, weil sie sich ohne Rücksicht auf die absehbaren Nebenfolgen nur von einem herausragenden Zweck leiten lassen, zum Beispiel dem Ausstieg aus der Kernenergie ohne Rücksicht auf die absehbaren Kosten.

Ob diese Annahmen zutreffen, klärt eine Analyse der Art und Weise, wie sich Politiker und Journalisten in elf Medien – „Die Welt“, „Frankfurter Allgemeine Zeitung“, „Süddeutsche Zeitung“, „Frankfurter Rundschau“, „taz“, „Handelsblatt“, „Bild“-Zeitung, „Der Spiegel“, „Focus“, ARD („Tagesschau“, „Tagesthemen“) und ZDF („Heute“, „Heute-Journal“) – in den vier Wochen nach Fukushima zum Ausstieg aus der Kernenergie äußerten.

Politiker haben in insgesamt 130 Beiträgen dieser Medien einen Ausstieg aus der Kernenergie gefordert, Journalisten deutlich seltener, in nur 26. Bedeutsam ist, dass nicht nur die Journalisten, sondern auch die Politiker im Zusammenhang damit nahezu nie auf die Kosten der Energiewende eingegangen sind. Politiker haben diesen Aspekt sogar noch seltener angesprochen als Journalisten (vier Prozent gegenüber zwölf Prozent der Aussagen). Beide haben sich damit ohne Rücksicht auf die Nebenfolgen, unter anderem die Kosten, von einem alles beherrschenden Ziel leiten lassen, dem Atomausstieg, und folglich nicht zweckrational, sondern wertrational argumentiert.

Das widerspricht den Annahmen Webers, entspricht aber dem Selbstverständnis eines Teils der Politiker. Das belegen ihre Reaktionen auf folgende Problembeschreibung: „Politiker dürfen bei ihren Entscheidungen nicht nur an Problemlösungen denken. Sie müssen auch unbeabsichtigte negative Nebenfolgen berücksichtigen, die dadurch entstehen können.“

Bei einer Befragung von Bundestagsabgeordneten aller Parteien schon vor Fukushima hielt es nur eine Minderheit (40 Prozent) für „sehr wichtig“, dass Politiker „auch unbeabsichtigte negative Nebenfolgen“ ihrer Entscheidungen berücksichtigen. Die meisten wollten nicht so weit gehen und meinten nur, es sei „durchaus“ (55 Prozent), aber eben nicht „sehr wichtig“.

Moralische Verantwortung?

Weber äußerte sich auch zur Verantwortung der Handelnden. „Verantwortungsethisch“ verhält sich, wer die Verantwortung auch für die absehbaren negativen Nebenfolgen seines Handelns übernimmt und sein Verhalten danach ausrichtet. Nach Weber gehört die Verantwortungsethik zur Zweckrationalität und ist typisch für Politiker.

Auch daran weckt die Abgeordnetenbefragung Zweifel. Dies belegen die Reaktionen auf folgende Problembeschreibung: „Entscheidungen von Politikern zur Beseitigung von Missständen können unbeabsichtigte negative Folgen haben. Sind Politiker für solche Folgen moralisch verantwortlich oder nicht verantwortlich?“ Nur ein Fünftel (18 Prozent) der Abgeordneten erklärten, sie seien „in jedem Fall dafür verantwortlich“. Mehr als zwei Drittel (70 Prozent) meinten dagegen, sie seien „dafür nur verantwortlich, wenn die negativen Folgen absehbar waren“ – was auf den Ausstieg aus der Kernenergie zutrifft.

Damit stellen sich zwei Fragen: Wie sieht es um die moralische Verantwortung der damals handelnden Politiker für die unbeabsichtigten, aber absehbaren negativen Nebenfolgen der Energiewende aus? Und wie kann man die Unterschiede, um nicht zu sagen Widersprüche, zwischen den Annahmen Webers und der beobachtbaren Praxis erklären?

Hinweise liefern erneut die Antworten der Abgeordneten. Vorgegeben war die These: „Politiker vertreten vor allem ihre Eigeninteressen und die Interessen ihrer Partei.“ Gefragt wurde, „auf wie viele Politiker“ nach ihren eigenen Erfahrungen dies zutreffe. Nahezu die Hälfte (45 Prozent) der Bundestagsabgeordneten erklärte, das treffe auf „alle, fast alle“ oder „die Mehrheit“ der Politiker zu. Ein weiteres Viertel (26 Prozent) meinte, es treffe auf „etwa die Hälfte“ zu. Folglich waren deutlich mehr als zwei Drittel der Ansicht, das sei typisch für die Hälfte oder sogar noch mehr ihrer Kollegen. Dagegen meinten nur relativ wenige (25 Prozent), das gelte für „eine Minderheit“.

Machtverhältnis zwischen Medien und Politik kehrt sich um

Dies führt zu einem letzten Aspekt der Problematik – die tatsächliche oder vermeintliche Macht der Medien.

Die Bundestagsabgeordneten und die gleichzeitig befragten Hauptstadtkorrespondenten sprachen übereinstimmend den Medien mehr Einfluss auf die Politik zu als der Politik auf die Medien. Anhand einer Skala von 0 („überhaupt kein Einfluss“) bis 10 („sehr großer Einfluss“) stuften die Politiker den Einfluss der Politik auf die Medien mit 5,3 den Einfluss der Medien auf die Politik mit 8,2 ein. Die Journalisten nannten Werte von 6,2 und 7,0. Hierbei handelt es sich um Einschätzungen, die auf eigenen Erfahrungen beruhen und entsprechend aussagekräftig sind.

Gestützt auf Vergleiche mit früheren Befragungen, kann man feststellen: In den vergangenen 40 Jahren hat sich das Machtverhältnis zwischen Medien und Politik umgekehrt. Die Folge ist eine fortschreitende Mediatisierung der Politik, ihre Anpassung an den mehr oder weniger kurzfristigen Medientenor.

Verstärkt wird die reale Machtverlagerung vom sogenannten Andere-Leute-Effekt: Wie die meisten Menschen glauben auch Politiker um so eher an eine starke unerwünschte Wirkung von Medienberichten auf andere Menschen, je größer die Zahl dieser Menschen und je größer die soziale Distanz zu ihnen ist. Deshalb schreiben Politiker den Medien einen besonders großen Einfluss vor allem auf Wähler zu.

Dies führt zur Ausgangsproblematik zurück: Die übertriebene Wahrnehmung der Macht der Medien verleitet angesichts eines übereinstimmenden Medientenors – wie in der Zeit nach Fukushima – auch besonnene Politiker zu Panikreaktionen, bei denen sie alle Bedenken vergessen. Sie wollen nur raus aus der Situation, und das so schnell wie möglich. Die Art und Weise des Ausstiegs aus der Kernenergie ist ein Beispiel dafür. Die Verantwortung für die Nebenfolgen übernimmt niemand, und den Preis bezahlen die Bürger.

Autoren: Hans Mathias Kepplinger ist Professor für empirische Kommunikationswissenschaft (em.) an der Universität Mainz. Richard Lemke ist sein Projektmitarbeiter.

Mit Dank übernommen von „Die Welt“ vom 13.8.12 Originalartikel hier

WEITERFÜHRENDE LINKS

·       Strompreise: Deutsche sehen die Energiewende skeptischer

·       Strompreise: Töpfer fordert mehr Gerechtigkeit bei Energiewende

·       Jahrhundertprojekt: KfW fördert Energiewende mit 100 Milliarden Euro

·       Preisvergleich: Grüner Strom ist kaum teurer als herkömmlicher




Der geheime Brief, den UEA und CRU uns allen vorenthalten will

Im Mai 2010 erbat Keith Briffa dringend unterstützende Feststellungen von seinen Kumpeln beim IPCC im Zusammenhang mit der Muir-Russell-Untersuchung. (Muir Russell hat sich nicht die Mühe gemacht, dass IPCC selbst zu fragen und gab sich mit Briefen von Briffas Kumpels zufrieden). In Briffas Eingabe an Muir Russell vom 19. Mai 2010 fügte er ein Supporting Document C genanntes Dokument hinzu, das so beschrieben wird: „Statements der AR 5 der WG1 TSU beim IPCC, vorbereitet zusammen mit dem früheren Vize und TSU der WG 1 für den AR 4“ [TSU = Technical Support Unit].

Am 22. Oktober 2010 verlangte Holland (FOI 10-122) hiermit nach dem Originaldokument, um festzustellen, wer genau der Absender war. Am 19. November 2010 erhielt er das folgende Dokument:

From: IPCC WGI TSU {Berne]
Sent: Sunday, May 16, 2010 4:58 PM
To: Phil Jones
Cc: ipcc.unibe.ch
Subject: Response to questions on IPCC WGI AR4 process
Dear Phil,
you asked for input from the IPCC AR5 WGI TSU to help you prepare answers to some questions raised in the context of the Muir Russell enquiry. Attached please find the response which has been prepared in consultation with the former Co-Chair and TSU of WGI for the AR4.
Best regards
IPCC WGI TSU

[Inhalt siehe vorigen Abschnitt. Bemerkenswert ist der Verweis auf den Anhang, der aber gar nicht dabei war. A. d. Übers.]

Am 2. März 2011 reichte Holland eine Folgeanfrage ein (FOI-11-048) und fragte nach dem Anhang, den die UEA am 16. Mai 2010 nicht mitgeliefert hat. Es war nicht wirklich eine weitere Anforderung, erhielt aber trotzdem eine neue Kennzahl. Holland fügte folgende Anfrage bei:

„Bitte übermitteln Sie mir Kopien aller E-Mails, datiert vom 25. Februar 2010 bis zum 16. Mai 2010, zwischen der IPCC WG1 TSU in Bern, Dr. Solomon oder Jonathan Overpeck und den Professoren Jones oder Briffa oder Dr. Osborn, die sich auf die Russell-Begutachtung oder den vierten Zustandsbericht des IPCC oder meine Anfrage bzgl. der Russell-Begutachtung beziehen.“

Am 30. März sandte die UEA eine Teilantwort, einschließlich eines Briefes vom 13. Mai 2010 von Briffa an den koordinierenden Leitautor des IPCC AR4 Overpeck und bettelte um  eine Aussage an das Muir-Russel-Panel und Overpecks Antwort vom gleichen Tag. Hinzugefügt war auch eine Cover-E-Mail von Stocker (dba IPCC WG1) an die IPCC-AR4-Leitautoren vom 26. Februar 2010 – gerade noch innerhalb des Zeitrahmens von Hollands Anfrage. Man beachte, dass dies an die Leitautoren des AR4 und nicht des AR5 ging.

Wie üblich hat die UEA den Anhang nicht mitgeschickt. Holland ist an solche Tricks der UEA gewöhnt (TM-Klimawissenschaft) und reichte eine weitere Anfrage im Mai 2011 ein, diesmal mit der Frage nach dem Anhang zur E-Mail vom 26. Februar 2010, die die tatsächliche Botschaft von Stocker an die AR4-Leitautoren enthielt.

UEA setzte Stocker (WG1) von der neuen Anfrage in Kenntnis. Am 6. Juni 2011 äußerte sich Stocker hochmütig zur verlangten Veröffentlichung seines Briefes an die AR4-Leitautoren (und dies ist die Sprache, die später in den jüngsten Bericht von UK zum FOI Eingang gefunden hat):

„… es würde nachteilige Auswirkungen auf international Beziehungen zwischen der WG1 des IPCC und akademischen Institutionen innerhalb von UK haben, weil es uns zwingen würde, unsere Arbeits-Arrangements mit den Experten zu überdenken, die für eine aktive Rolle im AR5 der WG1 von Ihrer und anderen Institutionen in UK ausgewählt worden waren“.

Obwohl Stocker diesen Brief mit dem Briefkopf des IPCC versandt hat, ist nicht klar, (und scheint höchst unwahrscheinlich), dass der Brief in irgendeiner Form vom IPCC sanktioniert worden ist, und vermutlich hat er ihn auf seine eigene Kappe genommen.

Die UEA lehnte Hollands Anfrage noch am gleichen Tag ab. Holland forderte eine interne Berufung. Geduldig sandte die UEA einen weiteren Informationsbrief an Stocker, der wiederum eine genauso hochmütige Ablehnung schrieb. UEA lehnte die interne Berufung ab.

Danach wandte sich Holland an die ICO [?]. Im Oktober 2011 setzte die UEA die WG1 erneut über die Berufung in Kenntnis und vermerkte, dass sie den Brief im Vertrauen an die ICO übermitteln würden (wie es das Gesetz in UK verlangt). Stocker wiederholte seine Drohung über die UK-Forscher. In jedem Brief lehnte es Stocker auch ab, irgendeinen IPCC-Funktionär namentlich zu erwähnen. Anstatt bescheiden zu werden [Instead of putting on his big boy pants…] verlangte der scheinheilige Stocker die Herausgabe sowohl des Namens als auch der Position desjenigen von der WG1, der den Brief geschrieben hatte (er selbst und Vize Dahe). (Die Identität führender Funktionäre wird übrigens unter der FOI-Gesetzgebung nicht als „persönliche“ Information angesehen).

…wir sind auch dagegen, wie jetzt verlangt deren Position innerhalb der WG1 TSU zu enthüllen. Dies wäre gleichbedeutend mit der Bekanntgabe des Namens, weil jedes Mitglied eine spezielle Amtsbezeichnung hat.

In der Entscheidung der ICO im Februar 2012 bezüglich meiner FOI-Anfrage nach einem damals unveröffentlichten Artikel, auf den sich der AR4 FOD bezog (von welchem angenommen worden war, dass er im Rahmen der IPCC-Prozeduren archiviert worden wäre), zitierte die ICO aus einer Vorlage von der UEA (die mir zur Verfügung zu stellen sowohl die ICO als auch die UEA abgelehnt haben). Darin hieß es:

In einem anderen Zusammenhang haben wir kürzlich genau solche Repräsentationen von der IPCC TSU mit Sitz in Genf erhalten, in denen sie explizit bemerken, dass die Veröffentlichung solchen Materials „…nachteilige Auswirkungen auf die internationalen Beziehungen zwischen der WG1 des IPCC und akademischen Institutionen innerhalb von UK haben würden, weil es uns zwingen würde, unsere Arbeits-Arrangements mit den Experten zu überdenken, die für eine aktive Rolle im AR5 der WG1 von Ihrer und anderen Institutionen in UK ausgewählt worden waren“.

Dieses Zitat stammt aus Stockers Brief. Man beachte, dass sich das IPCC-Hauptquartier in Genf befindet, während der Brief tatsächlich lediglich von der WG1 TSU mit Sitz in Bern kommt. Der Unterschied zwischen dem IPCC – eine internationale politische Organisation – und der WG1, einer Freiwilligengruppe von Wissenschaftlern, ist sehr bedeutend und wurde in der Eingabe der UEA weggelassen (der Unterschied wurde von Richard Tol in Kommentaren bei Bishop Hill beschrieben).

Am 1. März 2012 (FER0408711) hat sich die ICO ebenfalls gegen David Holland entschieden. Holland wandte sich an das Tribunal am 27. März (EA-2012-0070). Die Sache liegt in der Schwebe.

Am 27. Juli 2012 schrieb Holland an das IPCC. Dabei zog er dessen Augenmerk auf die UEA, die die Kommunikationen von Stocker als offizielle IPCC-Positionen dargestellt hat:

In ihrem Brief an den Bevollmächtigten vom 18. November 2011 stellt die UEA fest:

„Das IPCC hat klargestellt, dass die Veröffentlichung vertraulicher Dokumente das IPCC zwingen würde, Arbeitsvereinbarungen sowohl mit der UEA als auch anderen innerhalb von UK zu überdenken“.

Trotz der Klimagate-E-Mail 3529.txt (ebenfalls im Anhang), in der Dr. Solomon Professor Jones von der UEA gesagt hat, dass sie nicht für das IPCC gesprochen hat; und trotz der Klimagate-E-Mail 4752.txt (ebenfalls im Anhang) von Professor Jones an David Palmer an der UEA mit der Feststellung, dass die Vizevorsitzenden der Arbeitsgruppe nicht für den IPCc sprechen, hat die UEA also anscheinend den Informations-Bevollmächtigten dazu überredet, dass dies doch der Fall sei.

Holland bat das IPCC, dass die folgenden Bestätigungen vor dem Tribunal benutzt werden können:

„Zugunsten des Tribunals wäre ich dankbar, wenn Sie als Sekretär des IPCC bestätigen oder dementieren können, dass die im Anhang stehende Kommunikation von Professor Stocker an die UEA, von der UEA als die offizielle Sicht des Panels und als solche vom Bevollmächtigten akzeptiert, wirklich die offizielle Ansicht des Panels für Repräsentanten der Regierungen sind, denen sie zugestimmt haben.

Können Sie bestätigen oder dementieren, dass es die offizielle Sicht des IPCC ist, dass die zurück gehaltenen Informationen, auf die sich Professor Stocker und die UEA beziehen, nicht offen gelegt werden sollten?“

Dass IPCC hat es abgelehnt vor dem Tribunal zu bestätigen oder zu dementieren, dass die Sache in der Schwebe liegt.

[Übersetzung dieser Mail:

Sehr geehrter Mr. Holland,

Danke für Ihre E-Mail vom 26. Juli, in welcher Sie Klarheit über viele Punkte haben wollen, die für den aktuellen Fall vor dem First-Tier Tribunal (Informationsrechte) von Belang sind. Ihr Brief wurde dem Exekutivkomitee des IPCC zur Kenntnis gebracht.

Mit diesem Brief möchte ich Sie darüber informieren, dass das Exekutivkomitee des IPCC Ihr Anliegen auf seinem Treffen am 1. August 2012 behandelt hat. Die darin erhobenen Fragen betreffen spezielle Angelegenheiten in diesem Fall vor dem Tribunal. Unter diesen Umständen hat das Exekutivkomitee des IPCC beschlossen, dass es nicht in einer Position ist, um direkt Fragen von individuellen Personen oder Organisationen zu Dingen zu beantworten, die Teil eines laufenden Tribunal-Prozesses sind.

Danke für Ihr Verständnis.

Ende E-Mail]

Dabei ging es in der gesamten Angelegenheit nur darum, ob Stocker die Autorität besessen hat, im Namen des IPCC zu sprechen.

Der zynische Opportunismus der UEA wird durch die Position demonstriert, die Phil Jones in einer Klimagate-E-Mail eingenommen hat, in der er die UEA FOI-Funktionäre Palmer und Macgarvie informierte, dass die Vorsitzenden der Arbeitsgruppen „nicht das Mandat haben, für das IPCC zu sprechen“:

„Ich bin diese Woche auf einem Treffen des IPCC. Das IPCC hat Regeln und Ordnungen, die wir Ihnen in der Vergangenheit zugesandt haben. Tim kann diese noch einmal senden, falls Sie sie nicht haben. Ich habe hier mit jemandem gesprochen. Das IPCC ist nur ein kleines Büro in Genf, und die vielen verschiedenen Personen, die den Arbeitsgruppen vorstehen, haben nicht das Mandat, für das IPCC zu sprechen.“

Dies hat die Funktionäre der UEA FOI nicht davon abgehalten, Briefe von Jones’ Freund Stocker als offizielle IPCC-Positionen darzustellen.

Postscript 1:

Erinnern wir uns an den IAC-Bericht – in welchem klargestellt wird, dass das Exekutivkomitee des IPCC unabhängige Direktoren mit einschließt. Stocker und andere haben das sabotiert. Stattdessen zitierten sie die Vizevorsitzenden der Arbeitsgruppen vor das Exekutivkomitee: Stocker, Christopher Field von der WG2, Ottmar Edenhofer von der WG3.

Postscript 2:
Universitäten in UK haben sich indirekt auf Stockers Brief (ohne jede Erklärung von dessen Zusammenhang) bezogen , und zwar in ihrer Eingabe an das Unterhaus-Komitee zum FOI-Gesetz. Das Komitee zitierte aus dieser Eingabe,

208 … Universitäten in UK haben beobachtet, dass es schwer zu beweisen war, dass Förderungen nicht heimischen Universitäten zugute kamen:

(…) Beweise kommerzieller Partner, die von der Zusammenarbeit mit UK-Institutionen abgebracht worden sind, sind weitgehend anekdotisch. Allerdings hat die University of East Anglia in einem Fall, der die kürzlich vom Informationskommissar für Entwürfe veröffentlichter Studien festgelegten Environmental Information Regulations (EIR) betrifft, hervorgehoben, dass:

In einer anderen Angelegenheit haben wir kürzlich genau solche Repräsentationen von der IPCC TSU (TSU = Technical Support Unit) mit Sitz in Genf erhalten, in denen explizit festgehalten war, dass die Veröffentlichung solchen Materials „…nachteilige Auswirkungen auf international Beziehungen zwischen der WG1 des IPCC und akademischen Institutionen innerhalb von UK haben würden, weil es uns zwingen würde, unsere Arbeits-Arrangements mit den Experten zu überdenken, die für eine aktive Rolle im AR5 der WG1 von Ihrer und anderen Institutionen in UK ausgewählt worden waren“.

[369]

Der ganze Ablauf war also folgendermaßen: Das Komitee zitierte aus der Eingabe der UK-Universitäten, die wiederum aus der Entscheidung der ICO in meinem Fall zitiert haben (unter Berufung auf das Tribunal). Die ICO zitierte aus einer Eingabe der UEA in meinem Fall. Obwohl das in der Entscheidung festgelegt worden war, hat es die ICO abgelehnt, mir die Eingabe verfügbar zu machen, selbst als Antwort auf eine FOI-Anfrage. Die UEA wiederum zitierte aus Stockers Brief und machte Einwände geltend, seinen immer noch geheimen Brief an die Leitautoren des AR4 bekannt zu machen.

Ich frage mich, was in Stockers Brief stand. Und während Stocker seine Einwände mit der FOI-Gesetzgebung in UK einrahmt, ging der Brief an alle Leitautoren vom AR4, von denen viele für Regierungsagenturen und Universitäten in den USA, Kanada und Australien arbeiten, und bot ihnen andere mögliche Wege, den Brief zu erhalten, falls das IPCC die Dinge auf die harte Tour erledigen will.

Steve McIntyre

Link: http://climateaudit.org/2012/08/03/ipccs-secret-letter/#more-16628

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Die genauen Hintergründe der hier beschriebenen Vorgänge habe ich nicht zur Gänze verstanden. Ich habe das trotzdem übersetzt, denn das Schlaglicht, das hier auf die Machenschaften von IPCC und Co. Geworfen wird, spricht für sich. Mein Fazit: Ohne grobe Tricksereien in großem Stil wäre das IPCC nicht überlebensfähig. Umso größer die Schande, dass nicht nur unsere deutsche Bundesregierung die Verlautbarungen dieser Schummelinstitution zur Grundlage einer Politik macht, die uns Abermilliarden Euro an Steuer- und anderen Geldern aus der Tasche zieht sowie zu verheerenden, von allen „ Naturschützern“ sanktionierten Umweltschäden führt.

C. F.