1

Alternative Energien werden in Großbritannien die Lichter ausgehen lassen, gibt der Chef des Energiekonzerns National Grid zu

Die Verbraucher müssen sich damit abfinden, für ausgedehntere Perioden ohne Strom auszukommen, warnt Steve Holliday, Chef von National Grid, dem größten Stromversorger im Vereinten Königreich.

Bereits am 2. März wurde die Nachricht im Daily Telegraph verbreitet.

Britischen Familien wurde jetzt die schockierende Wahrheit über den Preis der grünen Energie erzählt. Sie müssen sich darauf vorbereiten, längere Zeit ohne Strom auszukommen,  warnt UK´s Top Elektrizitäts Chef.

Steve Holliday, National Grid-Chef, sandte diese deutliche Warnung über die Folgen des britischen "Going Green" an die Hörer des Radio 4’s TodayProgramm.

Das schockierende Geständnis gelangte sofort an den "Daily Telegraph (2. März 2011), der in dem Artikel unter der Schlagzeile "Die Ära des konstanten Stroms zu Hause ist zu Ende, sagt der Versorger Chef" darüber berichtete. 

National Grid ist eines der lukrativsten privatisierten ehemaligen staatlichen Monopolunternehmen weltweit. Die britische Nation ist bereits jetzt gezwungen, jährlich 18 Milliarden Pfund für überflüssige und unpopuläre „grüne” Steuern und Subventionen auszugeben.

Den Briten wird gesagt  Windkraftanlagen! Ob Sie es mögen oder nicht

Das große Unternehmen ist geradezu versessen darauf, eine schlecht durchdachte Agenda zu befolgen, die Energiepolitik "umweltfreundlicher" durch die Konzentration auf Windenergie zu machen. Wenn er direkt befragt wird, wie das Unternehmen vermeiden wolle, dass britische Lichter ausgehen, wenn der Wind nicht weht, antwortete Mr. Holliday kaltschnäuzig "Familien müssen sich daran gewöhnen, nur  dannStrom zu verbrauchen wenn er verfügbar ist, statt wie bisher, dass er ständig fließt."

Holliday’s Plan wird die Briten wieder in die schlechten und traurigen alten Zeiten der 1970er Jahre führen, als die Streiks der Bergarbeiter die Stromerzeuger zwang, die Versorgung einzuschränken und  den Arbeitern der Nation  die "drei-Tage-Woche" aufzwang. Worauf unentsorgter Müll und nicht bestattete Leichen sich hoch türmten und Bürger  einen trostlosen Winter in tiefstem Elend ertragen mussten.

 John Sullivan

 Lesen Sie den ganzen Artikel hier und diverse andere dazu hier 




In Nord NEW BRUNSWICK, Kanada, sind die Windräder eingefroren

Update: 

Umfrage der (britschen) Daily Mail*, ob im Vereinigten Königreich weiterhin in Windenergie investiert werden sollte:

Ja: 39%
Nein: 61 %

Der britische Mainstream ist offensichtlich besser informiert über den tatsächlichen Nutzen (und die Kosten!) der Windkraft als die Deutschen.

GDF SUEZ Energy, die Firma, der die Anlage gehört und die sie betreibt, arbeitet daran, die Windräder wieder in Gang zu setzen, sagte eine Sprecherin des Unternehmens. "Das Wetter können wir nicht machen," sagte Julie Vitek in einem Interview am Firmensitz in Houston, Texas. "Wir bemühen uns, besser damit umzugehen und probieren Einiges aus." Die Wetterbedingungen in Nord NEW BRUNSWICK hätten in diesem Winter verheerende Schäden  in den Windfarmen angerichtet. "Kaltes und trockenes Wetter, wie es normalerweise in jener Region vorherrscht, ist für uns gut. Kaltes und feuchtes Wetter kann problematisch werden, wenn keine wärmeren Tage mit Tauwetter dazwischen sind, wie es in diesem Jahr der Fall war. Diese Wetterlage war eine besondere Herausforderung.

Das Wetter hatte die Anlage auch im vergangenen Winter zeitweilig stillgelegt, nur wenige Monate nach Fertigstellung. Mehrere bis zu allen Turbinen waren für einige Tage wegen besonders schwerer Vereisung abgeschaltet.
Die Vereisung verändert die Aerodynamik der Rotoren und macht sie unwirksam. Zusätzlich führt erhöhtes Gewicht zur Stilllegung.

Die Arbeiter würden nun versuchen, den Eisansatz zukünftig zu verhindern, sagte Vitek. Die Abschaltung hatte keine Auswirkung auf die Beschäftigung in der Anlage. Dort sind 12 feste Dauerarbeitsplätze.

Suez hatte im Februar 2008  einen Vertrag erhalten, um eine Windfarm mit 33 Turbinen auf dem CARIBOU MOUNTAIN zu errichten. NB POWER hat sich vertraglich verpflichtet, 20 Jahre lang die 99 Megawatt Energieerzeugungskapazität abzukaufen. Die Anlage ist im November 2009 in Betrieb gegangen.

Seinerzeit wurde das Projekt dafür gelobt, dass NB POWER im Jahre 2010 sein Ziel einer Windenergiekapaziät von 400 Megawatt erreichen könnte. Die Anlage kann 19 000 Haushalte versorgen.
Melissa Morton, Sprecherin von NB POWER, sagte, der Vertrag würde keine periodenbezogenen Lieferungen vorsehen, stattdessen eine jährliche Menge. "Es gibt Zeiten, wo die Erzeugung geringer ist als erwartet und Zeiten, wo sie höher ist", sagte sie. "Wir zahlen nur für die Energie, die in unser Übertragungsnetz geht. Aber weil sich die Preise am Energiemarkt ständig ändern, haben wir keine Möglichkeit zu erkennen, ob NB POWER viel oder wenig für die Ersatzenergie bezahlt."

"Es kann teurer, kann aber auch billiger sein," sagte sie, aber die Schwankungen in der Erzeugung aus anderen Anlagen könnte das wettmachen. "Wir hoffen, dass es sich über eine 12-Monats-Periode ausgleicht. Das war schon immer so."

Trotz der Probleme mit aufeinanderfolgenden Wintern macht sich NB POWER keine Sorgen wegen der Verläßlichkeit der Versorgung vom CARIBOU MOUNTAIN.

Die Webseite von SUEZ behauptet, dass die Windfarmen jährlich mit etwa 35 Prozent ihrer Kapazität Strom erzeugen, darin wären auch tägliche und jahreszeitliche Schwankungen des Windes berücksichtigt.

David Coon, Geschäftsführer des CONSERVATION COUNCIL von NEW BRUNSWICK, sagte, dass der Winter stärkere Winde in die Provinz brächte, und das würde die Strom-Produktion der Windfarmen erhöhen. Die Probleme mit CARIBOU MOUNTAIN wären überraschend, weil andere Projekte in kalten Klimagegenden keine Schwierigkeiten hätten. "Ich weiss nicht, warum," sagte er, "es gibt viel mehr Windfarmen im Norden von uns in QUEBEC, und ich kann nicht verstehen, warum man Probleme hat."

NB POWER hat auch Verträge zur Stromlieferung von anderen Windfarmen in der Region.

Eine Windfarm der TRANSALTA im Süden von MONCTON hat 18 Turbinen und ist damit die größte Windfarm in ATLANTIC CANADA.

NB POWER hat auch Verträge zur Lieferung von Strom aus dem ACCIONA Windprojekt in LAMÈQUE und einen Vertrag mit einer weiteren SUEZ Windfarm auf der PRINCE EDWARD Insel. Auf der Insel betreibt SUEZ eine zweite Windfarm. SUEZ hat auch Einrichtungen in Mittel- und Südamerika und in Europa.

Von Greg Weston, Telegraph-Journal, 15. 2. 2011

Übersetzt von Helmut Jäger EIKE

Weiterführender Link. Windkraftanlagen liefern nicht bei Kälte

 * Mit Dank an – Wattenpresse – Infodienst des Wattenrates Ost-Friesland 

         




Klimaforscher Eric Steig von RealClimate beerdigt den Peer-Review Prozess endgültig

Wenn Sie nicht merken, was faul mit dieser E-Mail ist, dann machen Sie sich keine Gedanken, Sie sind in guter Gesellschaft. Unter den vielen Koryphäen, die hier nichts merken, befindet sich der Umwelt-Aktivist und Filmemacher Rupert Murray, der Mathematiker-Promi Simon Singh, der berühmte Nobelpreisträger Sir Paul Nurse und der gefeierte Guardian Doktor Ben Goldacre, um nur vier zu nennen. Jedem von ihnen habe ich zu erklären versucht, warum die Korrumpierung der Fachbegutachtung der Punkt ist, auf den es vor allem anderen bei den Klimagate E-Mails ankommt. Leider wollte keiner verstehen.

Ist das nicht zum Verzweifeln?

Ich muss noch eins draufsetzen. In meinem demächst erscheinenden Buch “Watermelons” erkläre ich die “Fachbegutachtung” (Peer review) wie folgt:

Die Fachbegutachtung ist die Probe, welcher der größte Teil der Forschung sich unterziehen und in welcher er bestehen muss  Wenn Forschungsergebnisse von der Wissenschaft ernstgenommen werden sollen, dann müssen sie zur Veröffentlichung in einer recht kleinen Anzahl von akademischen oder quasi-akademischen Journalen angenommen werden, z. B. von Nature, Science, Scientific American.

Die Fachbegutachtung ist kein fehlerloses System. In der Blütezeit der Wissenschaft im 20. Jh. wurde sie noch nicht einmal für notwendig gehalten: weder Watson & Crick noch Einstein ließen sich „fachbegutachten“. In der heutigen undurchsichtigen, zerfledderten Welt aber, wo viele wissenschaftliche Fächer immer unverständlicher und spezialisierter geworden sind, gilt die Fachbegutachtung als die Methode mit den wenigsten Fehlern zur Trennung echter Wissenschaft von Pseudowissenschaft.

Das gilt ganz besonders in der Gemeinde der Klimatologen. Im Vorfeld von Klimagate war eine der Hauptwaffen der Jünger des  “Konsensus” gegen abweichende Wissenschaftler, dass deren zahlreiche Papiere, die Löcher in die AGW-Therie rissen, nicht “fachbegutachtet” und deshalb falsch wären. Wie Phil Jones selbst in einer seiner E-Mails sagte:

“Die Fachbegutachtung ist das eigene System der Wissenschaft zu ihrem Schutz und zur Verhinderung, dass Pseudowissenschaft veröffentlicht wird.”

Das ist doch ganz klar, nicht wahr? Also schauen wir uns mal den Jones/Mann-Gedankenaustausch vor dem Hintergrund dieses Wissens an. Was wir dabei feststellen ist der Niedergang der „Fachbegutachtung“ in etwas, was mehr einer „Kumpelbegutachtung“ ähnelt. Der “Fachbegutachtungs“-prozess wurde korrumpiert – zumindest im heruntergekommenen Fach Klimatologie. Man kann sich nicht mehr darauf verlassen, dass er die Richtung weist zum Wahren oder zum Falschen, zum Richtigen oder zum Unrichtigen, zum Korrekten oder zum Unkorrekten, zum Plausiblen oder zum Nicht-Plausiblen. Und das alles, weil die an den Hebeln des Fachbegutachtungsverfahrens sitzenden Wissenschaftler einen Selbstbedienungsladen betreiben – das haben die Klimagate E-Mails enthüllt –  Wissenschaftler, die mehr an ihren eigenen privaten Interessen interessiert sind als an der objektiven Wahrheit.

Soweit einverstanden? In Ordnung. Dann können wir uns ja einer unglaublich komplizierten Geschichte zuwenden, die derzeit mächtig für Aufregung sorgt bei Watts Up With That?, Climate Audit und Bishop Hill. Einige meinen, dass diese Geschichte genauso viel Schaden für die Klimatologie anrichtet, wie es Klimagate für den „Konsens“ getan hat. Es geht um zwei Leute, deren Namen Sie vermutlich nie gehört haben – Eric Steig und Ryan O’Donnell. (Details dazu hier) 

Eric Steig gehört zu Michael Manns “Hockey Team” – der Gruppe von Wärme-Aposteln, die eine Webseite namens Real Climate betreiben, die ursprünglich gegen McIntyre and McKitrick gerichtet war und deren Behauptung, dass etwas mit Manns Hockey Stick nicht in Ordnung war. Nun dient Real Climate generell der Aufrechterhaltung der Behauptung von der Klimaerwärmung.

Im Jahre 2009 veröffentlichten Steig et al. ein Papier, das für so wichtig gehalten wurde, dass es in Nature zu einer Titelgeschichte wurde. Das Papier wollte eines der Hauptargumente der Skeptiker gegen die globale Erwärmung widerlegen. Dieses lautet: “Wenn der Klimawandel wirklich so katastrophal und universell ist, wie behauptet wird, warum bleibt es dann auf Antarktika seit 30 Jahren fortwährend kalt?“ Steigs Papier bewies das Gegenteil: auch Antarktika erwärme sich.

Oder doch nicht? Unter den Skeptikern, die die Verläßlichkeit von Steigs Papier anzweifelten, war Jeff Id (von der später untergegangenen Air Vent Webseite) und Ryan O’Donnell. Sie zeigten, dass die zum Beweis der Erwärmung benutzten statistischen Methoden auf höchst zweifelhaften Extrapolationen von Datenreihen beruhten, die von einer kleinen Anzahl von Stationen auf der Antarktischen Landzunge und der Küste stammten. (So etwas Ähnliches hat sich auch kürzlich ereignet, als die NASA dramatische “Erwärmung” in der Arktis meldete – und das lustigerweise dort, wo es keine Thermometer gab, um die Verläßlichkeit der NASA-Behauptungen zu überprüfen.)

Steig schlug anstelle einer Diskussion auf der Webseite von O’Donnell vor, Id et al. sollten doch ein fachbegutachtetes Papier veröffentlichen. Das wurde dann auch tatsächlich versucht. Dreimal dürfen Sie raten, wer für die Fachbegutachtung des Papiers von O’Donnell et al. ausgewählt wurde. Raten Sie, wer sich unter dem Pseudonym Reviewer A verbarg – und wer mit 88 Seiten Bemerkungen und Vernebelungen (mehr als das Papier umfaßte) – verhindern wollte, dass das Papier zur Veröffentlichung kam.

Ja. Sie haben’s erraten. Der geheimnisvolle Fachbegutachter war niemand anders als Eric Steig selbst. Das war sogar in der monströs korrupten Welt der “Klimatologie” ganz klar ein Regelverstoß. In keiner anderen wissenschaftlichen Disziplin würde ein Gutachter mit einem derart offensichtlichen Interessenkonflikt zur Revision eines Papiers aufgefordert werden, dessen Hauptzweck die Kritik an einem seiner eigenen Papiere ist.

Lassen wir nun einen gewissen Iapogus zu Wort kommen (ein Kommentator bei Bishop Hill, von dem ich diese Zusammenfassung abgekupfert habe):

Ryan [O’Donnell] vermutete von Anfang an, dass Steig selbst der Reviewer A war. Aber er hielt still. An einer Stelle im Begutachungsprozess schlug Steig vor, dass Ryan und Jeff [Id] eine andere statistische Technik anwenden sollten, was sie auch taten. Doch dann kritisierte Steig das Papier, indem er als Beispiel genau diese statistische Technik anprangerte (die er selbst vorgeschlagen hatte). Steig setzte sich somit selbst dem Vorwurf unprofessionellen Verhaltens aus, ein falsches Spiel betrieben zu haben. Das war’s, was Ryan dazu brachte, alles an die Öffentlichkeit zu bringen. Zwischenzeitlich zogen Gavin und die anderen Teammitglieder auf dem Real Climate (RC) Blog alle Register und unterdrückten jeglichen Kommentar, der auch nur irgendeine Frage zu diesen Vorgängen stellte. Das war nun der gründliche Beweis, dass die Fachbegutachtung in der KLimatologie kaputt ist.

Sie könnten jetzt sagen, dass ich derartige Geschichten nicht schreiben sollte. Das wären doch Haarspaltereien, die in der Klimatologen-Gemeinde (bestehend aus Warmisten und Skeptikern) ungeheuer wichtig sein mögen, in der wirklichen Welt aber kaum jemanden interessierten.

Bis zu einem gewissen Grade gebe ich Ihnen Recht. Die Klimawandeldiskussion – wie ich immer wieder in diesem Blog sage – ist im Wesentlichen eine politische und keine wissenschaftliche.
Unglücklicherweise gibt es in der wirklichen Welt viele Menschen – die Simon Singhs, die Sir Paul Nurses, die Ben Goldacres, die Robin Inces und ihre wachsame Twitter-Meute, die das anders sehen.

Es ist wichtig, diese Menschen zur Einsicht zu bringen, dass es nicht nur keine vernünftigen politischen oder wirtschaftlichen Gründe für ihre Ansichten gibt, sondern dass es auch mit den wenigen wissenschaftlichen Gründen ein Ende hat. Wenn die wissenschaftliche Erkenntnis zur Aufrechterhaltung der AGW-Theorie wirklich so steinhart ist, wie die Warmisten behaupten, warum, zum Teufel, brauchen sie dann diese Art von Korrumpierung und schmutzigen Tricks, die wir seit Klimagate kennen und die wir nun wieder bei RealClimategate feststellen müssen?

Gebt doch endlich auf, Leute, das Spiel ist aus.

PS: Noch was. Unzweifelhaft das Beste, was je dem gewissermaßen zweifelhaften und zweitrangigen Fach der Klimatologie passieren konnte, ist die Watts Up With That? Webseite. Unter ihren vielen Verdiensten ist das Aufzeigen eines Rettungsweges aus dem Disaster mit der Fachbegutachtung (peer review) nicht das kleinste. Die Zukunft gehört der kollegialen Begutachtung (“peer to peer” review), wie sie bei WUWT beispielhaft stattfindet. Dort ist ein Forum für Experten aus allen wissenschaftlichen Disziplinen entstanden, um viele Aspekte der Klimatologie rigoros zu begutachten und ohne die groteske Voreingenommenheit, die wir so häufig bei den Vertretern des „Konsens“ im IPCC bemerken konnten. Zu Recht ist WUWT zur Prämierung bei Best Science Blog in the 2011 Bloggies Awards eingereicht worden. Bitte unterstützen Sie die Wahl, geben Sie ihre Stimme frühzeitig ab, auch mehrfach!

James Delingpole Politics am 8. 2. 2011 Den Originalartikel finden Sie hier

Übersetzt von  Helmut Jäger EIKE

Anmerkung der Redaktion:

Einige der Kommentatoren erregen sich über die Aussage von James Dellingpole dass Steig´s "Review" 88 Seiten umfasste, dies aber nicht wahr wäre. Es wären nur so um die zwanzig gewesen. Interessanterweise sind dies dieselben Leute, die, in der Hoffnung jeweils vom eigentlichen Skandal ablenken zu können,  alles und  jedes Statement hier 2 x umdrehen, um einen Komma oder Rechenfehler zu finden, um sich dann aufzublasend sagend :"Seht her, das stimmt alles nicht!" Das ist best bekannte Praxis von politisierten Leuten denen es allein um Störung und Ablenkung geht.

Der eigentliche Skandal um den es hier geht ist aber: Dass Eric Steig von Nature zum anonymen Reviewer gemacht wurde. Und dass er diese Aufgabe übernahm. Weitere Infos dazu hier

Weiterführender Link: http://wattsupwiththat.com/2011/02/17/the-spectator-on-the-antarctic-ice-capades/

Auch der andere Versuch eines Kommentators diesen schweren Verstoß gegen gute wissenschaftliche Praxis zu entschuldigen, indem man die Einladung McIntyres als Peer Reviewer  zu Amman & Wahls Arbeit zur Verteidigung des Hockeysticks im Journal "Climate Change" mit der Berufung Steigs gleichsetzt, geht ins Leere, weil Amman & Wahl zwar in diesem Aufsatz McIntyre (und McKitrick) kritisierten, aber eben nicht über McIntyres Arbeit schrieben, sondern den fehlgeschlagenen Versuch unternahmen, die Hockeystick Methodik von Mann zu verteidigen. 

(s. The Hockey Stick Illusion von A.W. Montford S 205).




Über den solaren Anteil am kurz- und langfristigen Temperaturverhalten nach 1880 auf der regionalen und globalen Klimaskala

Wie in früheren Beiträgen zur BWK ausgeführt, wird das Klimasystem der Erde sowohl von kurz- als auch von langfristigen Prozessen permanent beeinflusst (angetrieben). Der resultierende Antriebsvektor bestimmt in jeder Klimaphase Richtung und Ausmaß des Klimaverhaltens. Zu den kurzzeitigen Einflussfaktoren zählen u. a. die Auswirkungen von Vulkanausbrüchen auf die solare Einstrahlung, die regelmäßigen atmosphärischen Auswirkungen der ENSO-Kaltphasen (La Niña) bzw. ENSO-Warmphasen (El Niño), aber auch Fluktuationen des solaren Energieflusses.

Zu den langfristigen Klimaprozessen zählte in allen Klimaepochen unseres Planeten der solare Klimaantrieb, d.h. die langfristige Änderung des solaren Energieflusses zur Erde. Der Wechsel von Warm- und Kalt-/Eiszeiten während der letzten rund 2 Mio. Jahre ist ein Beleg für den solaren Effekt. Auch wenn der solare Effekt im Glazial bzw. Interglazial andere zeitliche Dimensionen hatte, so ändert das nichts an der Tatsache, dass unser Klima auf allen Zeitskalen von der Sonne fortlaufend beeinflusst wird. 

Bei der folgenden Analyse geht es zum einen um die Frage, welchen Anteil der integrale (direkte und  indirekte) solare Effekt auf der kurzfristigen, quasi-dekadischen Klimasubskala hat, die durch Überlagerung vielfältiger Prozesse eine große Variabilität aufweist. Zum anderen gilt es zu untersuchen, wie hoch der Anteil des solaren Effekts am wahren, langfristigen Klimawandel ist. Die Antwort auf diese Frage wird zugleich klären, wie sicher die Behauptung von der Dominanz des menschlichen (CO2-) Klimaeinflusses auf die Erwärmung im 20.Jahrhundert ist.

Lange und zuverlässige Klimareihen wie in Europa liegen außerhalb von Europa nur begrenzt vor. Viele Klimastationen sind erst im letzten Drittel des 19. Jahrhunderts eingerichtet worden. Aus diesem Grund beginnt die vorliegende Analyse mit dem Sonnenfleckenzyklus ab 1883. Sie erfasst dabei den Zeitraum der globalen Erwärmung bis zum Ende des 20. Jahrhunderts. Seither fehlt nach den offiziellen Daten ein weiterer globaler Temperaturanstieg. Die Jahresmitteltemperaturen pendeln im letzten Jahrzehnt lediglich im El Niño-/La Niña- Rhythmus leicht auf und ab (Korrelation zu ENSO-Phasen: +0,95).

Lesen Sie den ganzen Beitrag in den Publikationen.

Horst Malberg, Univ.Prof. (A.D.) für Meteorologie und Klimatologie




An der Tankstelle gibt es jetzt Bio!

Die durch Brüssler Ökodiktatoren befohlene "Bio-"Verunreinigung des Sprits

– erhöht den Kraftstoffverbrauch
– senkt die Leistung (geringere Energiedichte des Bioethanols)
– erhöht den CO2-Ausstoss (diese Information ist natürlich nur für die relevant, die noch immer dran glauben, CO2 und Klima hätten dolle was miteinander zu tun …)
– gefährdet Motoren (Zerstörung oder mindestens Senkung der Lebensdauer durch Beschädigung von Leitungen und Dichtungen) und damit Milliardenwerte
– senkt gerade angesichts der sich global abkühlenden Winter ( http://notrickszone.com/2010/12/28/global-cooling-consensus-is-heating-up-cooling-over-the-next-1-to-3-decades/ – auf Deutsch hier) die Betriebssicherheit der Fahrzeuge (Ethanol enthaltendes Benzin nimmt mehr Wasser auf. Dieses kann bei entsprechenden Kältegraden als Eis ausfrieren und Leitungen verstopfen.)

Bis 2007 fuhr ich einen Audi A4 (Baujahr 2004), der bereits die damalige 5%-Verunreinigung mit Biosprit nicht vertrug (fing an, sehr peinlich schwarz zu qualmen) und ostwärts in Länder mit (noch) sauberem Spritangebot verschickt werden mußte. Auch Fahrzeuge vom Baujahr 2009 können durch einmaligen Tanken von E10 zerstört werden. Zuweilen sind es (bis in Produktionsjahr 2009!) nur einzelne Baumonate von Motoren wie bei Toyota (der Lieblingsmarke von Frau R. Künast). Kein Tankwart kann da sichere Auskunft geben.

Die Produktion des Biosprits
– zerstört Umwelt
– verknappt und verteuert Lebensmittel weltweit (http://www.n-tv.de/politik/Biosprit-verursacht-Hunger-article12373.html) Man könte ausrechnen, wieviel Hungertote die Lebensmittelverknappung so bringt – es gibt Schätzungen zwischen 10.000 und 500.000 pro Jahr.
– macht die ach so "grünen" Investoren noch reicher

Ich spar mir mal die seriösen Quellen, sondern zitiere den Medienkonzern Greenpeace (wo sie Recht haben, haben sie Recht!):

"… Wald, Weide- oder Brachland in Ackerland umzuwandeln, kann dazu führen, dass noch mehr Kohlendioxid (CO2) freigesetzt wird. E10 kann also nicht nur Autos ruinieren, sondern auch unsere Umwelt."
http://tinyurl.com/e10-ist-mist

"Die Treibhausgasbilanzen der Agrokraftstoffe sind damit nach Berechnungen des IEEP im Schnitt um 81 bis 167 Prozent schlechter als fossile Kraftstoffe. "
http://tinyurl.com/e10-ist-grosser-mist

Siehe auch:
http://www.spiegel.de/spiegel/vorab/0,1518,727639,00.html
http://www.handelsblatt.com/auto/technik/neue-benzinsorte-e10-der-oeko-wahnsinn;2720221
http://www.youtube.com/watch?v=nKWOwIHduBo&feature=related

Kein Mensch würde E10 in sein Auto tanken, wenn man die Kosten der Biospritherstellung bezahlen müsste. Deshalb werden die Mineralölgesellschaften zum Mindestanteil E10 im Verkauf gezwungen. Das sichern sie, in dem sie die anderen Sorten teurer machen. Politisch gewollt. Die gleiche fiese Nummer wie bei Solar- oder Windstrom. Die Hersteller werden mit steuerähnlich abgezockten Geld garantiert vergütet, die Kosten werden umverteilt auf Alle, Geringverdiener trifft es überproportional.

Unterm Strich auch hier eine Vermögensumverteilung von unten nach oben (zu den parteinahen Ökoinvestoren), befördert insbesondere durch sich als links darstellende Parteien. Dabei geht es nicht nur um die Verteuerung des Tankens, sondern um die Verteuerung aller Güter, da Spritkosten in den Preis aller Waren und Dienstleitungen eingehen.

Der jüngste (nicht gesundheitsrelevante) Dioxinverunreinigung in Futtermitteln war übrigens eine Nebenwirkung der Biospritproduktion. http://www.tagesschau.de/inland/dioxin112.html

Abschließend könnte die Ökosekte nun mit dem Argument kommen, dass Biosprit zur Einsparung von "Fossilen Brennstoffen" nötig sei. Zutreffend ist, dass wir eigentlich am Beginn des Erdölzeitalters stehen (aber das ist ein extra Thema):

Mein Vorschlag für den nächsten G20-Gipfel: Man möge zum "KLIMASCHUTZ" beschließen, die Globaltemperatur an den Dollarkurs zu koppeln.

Die E10-Einführung schlägt in ihrer Unsinnigkeit sogar das Glühlampenverbot. Wär schön, wenn mal ein paar mehr Leute aufwachen.

So sieht ein tropischer Wald in Indonesien nach der Produktion (hier Abholzung) von Biosprit aus:

Übrigens werden zur Produktion eines Liters Biosprit nicht selten etwa 4000 Liter Wasser verbraucht.

Und zum Schluß mal was Optimistisches: http://www.focus.de/wissen/wissenschaft/psychologie/tid-21092/wahrnehmung-die-welt-ist-besser-als-sie-denken_aid_586515.html

Hier ein frischer Artikel zum Überfluss an Gas:
http://www.manager-magazin.de/politik/artikel/0,2828,743545,00.html:
der entscheidende darin Satz lautet :
…..Geologen der Texas A&M University schätzen, dass die in Amerika entwickelten Bohr- und Förderungstechnologien die weltweit erschließbaren Gasreserven verneunfachen. "Es gibt heute Reichweiten von mehreren Hundert Jahren", sagt Auer. Dies wirke sich auch auf den Energiemix aus. "Es entwertet zum Beispiel die geplanten Pipelineprojekte." Man müsse sich fragen, was mit dem vielen Gas geschehen solle.

Gastautor O.K:

Lesen Sie dazu auch die treffende Kolumne von G. undefinedEderer




Weitere Mess-Unsicherheit (Fehler) von Oberflächentemperaturdaten quantifiziert! Deutlich größer als bisher angenommen!

Zusammenfassung

Die Unsicherheit der instrumentallen Messungen ist in früheren Schätzungen des globalen Oberflächen-Temperaturmittels noch nie vollständig behandelt worden. Der geschätzte durchschnittliche Messstationsfehler von ±0.2 C wurde fälschlicherweise als zufällig betrachtet und der systematische Fehler aus freien Variablen ist ständig vernachlässigt worden. Die systematischen Messfehler von drei ideal positionierten und gewarteten Temperatursensoren werden hier berechnet. Kombiniert mit dem durchschnittlichen Messstationsfehler von ±0.2 C wurde eine repräsentative untere Unsicherheitsgrenze von ±0.46 C für jede globale jährliche Oberflächentemperatur-Anomalie gefunden. Diese ±0.46 C zeigen, dass der Trend der globalen jährlichen Oberflächentemperatur-Anomalie von 1880 bis einschließlich 2000 statistisch nicht von 0 C unterschieden werden kann, er stellt daher eine untere Grenze der Kalibrierungs-Unsicherheit für Klimamodelle dar und für jede voraussichtliche physikalisch gerechtfertigte Proxy-Rekonstruktion von Paläo-Temperaturen. Die Rate und das Ausmaß der Erwärmung im 20. Jh.  sind daher nicht bestimmbar. Behauptungen eines noch nie dagewesenen Trends in der globalen Termperatur im 20. Jh. können nicht aufrecht erhalten werden.

Einführung

Die Rate und das Ausmaß der Klimaerwärmung im vergangenen Jahrhundert geben zu erheblicher internationaler Besorgnis und Forschung Anlaß [1, 2]. Die veröffentlichten Auswertungen der Quellen der Unsicherheit in den Aufzeichnungen der globalen jährlichen Oberflächentemperaturen sind bisher auf Ortsveränderungen der Messstationen gerichtet gewesen, auf räumliche Inhomogeneität der Messstationen, auf Instrumentenaustausch und auf Veränderungen in der Landnutzung und auf die Verstädterung.

Überprüfungen der Datenqualität von Landmessstationen und Anpassungen der Zeitreihen, die zur Unterstützung eine geschätzten Unsicherheit von etwa ±0.2 C bei einer globalen  Anomalie im Jahrhundertdurchschnitt von etwa +0,7 C angewendet worden sind, haben das Messungsrauschen nicht richtig beachtet und sie haben noch nie die unabhängigen Umweltvariablen beachtet, die die Auflösungsgenauigkeit der Sensoren im Feld beeinflussen. Die Auflösungsgenauigkeit im Feld bezieht sich auf die Fähigkeit eines Sensors zwischen ähnlichen Temperaturen, dem wirksamen Einfluß der Umwelt und den verschiedenen Quellen von Instrumentenfehlern zu unterscheiden.

In einer neuen Abschätzung globaler jährlicher Oberflächentemperaturen und deren Unsicherheiten haben Brohan et al. [11], hier folgend mit B06 zitiert, das Messgeräterauschen als vernachlässigbar beurteilt. Sie schreiben: „Der zufällig Fehler bei einer einzigen Thermometer-Ablesung beträgt etwa 0.2 C (1Standardabweichung) [Folland,et al., 2001] ([12]); der Monatsdurchschnitt beruht auf mindestens zwei Ablesungen pro Tag während der gesamten Monatsdauer, wodurch 60 oder mehr Werte gewonnen werden, die zur Durchschnittsbildung herangezogen werden. Daher beträgt der Fehler im Monatsdurchschnitt höchstens 0.2 /Quadratwurzel 60 = 0.03 C und dieser Wert wird nicht mit dem Wert einer anderen Station oder mit dem Wert für einen anderen Monat korreliert.

Ziffer [29] von B06 begründet diesen statistischen Ansatz damit, dass die monatlichen Temperatur-Aufzeichnungen der Bodenmessstationen als Summe aus einem konstanten Mittelwert plus Wetter-Rauschen verstanden werden. “Die Messstationstemperatur jedes Monats während der Normalperiode kann als die Summe zweier Komponenten betrachtet werden: einem konstanten Stationsnormalwert (C) und einem zufälligen Wetterwert (w, mit der Standardabweichung ?i).“ Diese Beschreibung und der Ansatz einer Reduktion von 1 / Quadratwurzel 60 als Messungsrauschen zusammen bedeuten, dass hier statistisch eine Mittelwertbildung des Signals der monatlichen Temperaturen vorgenommen wird.…

..Die „Freiwilligen“ und ich werden erwähnt (Anm. d. Ü.: Es handelte sich um ein Freiwilligen- Team, das unter Anthony Watts Anleitung die meisten U.S.-amerikanischen Bodenwetterstationen auf mögliche verfälschende Umwelteinflüsse untersuchte):

Die Güte einzelner Bodenmessstationen wird für die Vereinigten Staaten vielleicht am besten durch die empfehlenswerten und ausgezeichneten unabhängigen Auswertungen durch Anthony Watts und sein Freiwilligenkorps untersucht. Die Ergebnisse sind öffentlich zugänglich unter: http://www.surfacestations.org/. Ihr Ausmaß umfaßt das gesamte Netz der USHCN Bodenmessstationen. Danach verdienten 69% der USHCN Stationen eine Stationsbewertung von “schlecht” (poor) und weitere 20% nur ein “ausreichend” (fair) [26]. Aus dieser und begrenzteren veröffentlichten Untersuchungen von Stationsmängeln [24, 27-30] geht hervor, wie weit entfernt von „ideal“ die Güte der Stationsmessungen in den Vereinigten Staaten sind. In Europa hat eine kürzliche weitflächige Analyse der Güte von Stationsdatenreihen im Rahmen des European Climate Assessment [31] überhaupt keine Untersuchung der individuellen Stations-Sensorabweichungen erwähnt und ausgesagt: “es kann nicht garantiert werden, dass jede Temperatur- und Niederschlagsserie für Dezember 2001 genügend homogen ist in Bezug auf die tägliche Mittelwertbildung und Abweichung.“

Also, es hat offensichtlich nie eine Auswertung weder der Abweichung des Temperatursensor-Rauschens noch der stationsbezogenen Abweichungen stattgefunden für diejenigen Messstationen stattgefunden, deren Messungen in die globale Mittelwertbildung eingehen. Schlechte Stationsgüte wurde größtenteils denjenigen Stationen bescheinigt, die unabhängig untersucht worden sind. Schließlich haben Lin und Hubbard nachgewiesen [35], dass variable Bedingungen im Feld eine nicht-lineare systematische Auswirkung auf das Messverhalten der Sensorelektronik ausüben. Das deutet auf wahrscheinliche nicht-stationsbezogene Rauschvarianzen in den Zeitreihen der Temperaturmessungen der jeweiligen Bodenstationen hin.

4. Zusammenfassung und Ergebnisse

Die Annahme eines globalen stationseigentümlichen Sensor-Rauschens ist empirisch noch nicht überprüft worden und noch nicht bestätigt. Die geschätzte Unsicherheit im Rauschens setzt sich eher mit fort als mit . Die Unsicherheit in den monatlichen Mittelwerten würde außerordentlich vermindert, wenn die Positionierung der Bodenmessstationen verbessert würde und die Varianzen des Sensor-Rauschens bekannt, überwacht und empirisch als stationseigentümlich verifiziert würden.

Die Untergrenze der Unsicherheit von ±0.46 C zeigt, dass der Trend der gemittelten globalen Temperatur-Anomalien zwischen 1880 und 2000 statistisch nicht von 0 C auf der 1? – Ebene unterschieden werden kann. Daher ist die Schlussfolgerung unabweisbar, dass es derzeit unmöglich ist, einen globalen Erwärmungstrend des Klimas seit 1880 zu quantifizieren.

Das Papier kann vom Verlag Multi-Science bezogen werden: 

Ich bitte jeden, der diese Arbeit schätzt und mehr wissen will, den Verlag durch den Kauf einer Kopie des Papiers über die oben angegebene Adresse zu unterstützen.

Glückwünsche an Herrn Frank für sein schwere Arbeit und die erfolgreiche Publikation. Ich bin sicher, dass seine Arbeit noch zitiert werden wird.

Bei Jeff Id bei Air Vent gibt es eine technische Diskussion darüber, die einen Besuch wert ist.

Antony Watts

Zu einer vergleichbaren Aussage kommt R. Lindzen bei seiner Aussage vor dem Senatsausschuss 2007: (Seiten 10,11 & 12)

Die Übersetzung besorgte Helmut Jäger




Weltuntergangsstimmung bei der FAZ- PIK-Prof. betätigt sich als Nostradamus!

Zitat FAZ -Autor Levermann:

Die derzeitige Winterkälte in Europa ist alles andere als ein Beweis gegen die Erderwärmung. Klimaforscher prognostizieren bis zum Jahr 2200 einen Temperaturanstieg um acht Grad. Doch die fossile Zivilisation hat sich möglicherweise schon früher zerstört.

Leserbrief Goldmann:

An die Redaktion der FAZ: Sehr geehrte Damen und  Herren,

   in dem Beitrag von Herrn Anders Levermann –junger Professor am PIK; Physiker & Modellierer- werden wieder einmal schlimme, emotional gefärbte  Horrorszenarien als mögliche Konsequenz einer globalen Erderwärmung an die Wand gemalt, die von einem kühl recherchierenden  Wissenschaftler nicht, von  einem Politiker aber durchaus erwartet werden können. Seine  Projektionen und Wahrsagereien werden mit Sicherheit nicht eintreffen, weil die von ihm dafür vorausgesetzten Bedingungen einfach nicht gegeben sind.       

    So ist nach Spektralmessungen die Klimasensitivität des als Treibhausgas ausgemachten  C02 so gering, daß selbst bei der vollständigen Verbrennung sämtlicher verfügbarer Kohlenwasserstoffe der Erde es nur zu einem Temperaturanstieg von unter 1 Grad C kommen würde. Außerdem steht es zweifelsfrei fest, daß die gemessene C02-Erhöhung auf nunmehr 0.038% das Ergebnis einer Erwärmung , also Folge und nicht deren Ursache ist, also einfachen physikalischen Gesetzen  folgt. Die regelmäßig in der Erdgeschichte regis-trierten  Erwärmungs- und Abkühlungsphasen der Erde sind nach allen wissenschaftlichen Indizien natürlichen Urspungs und werden neben Exzentrizitäten der Erdbahnparameter auf den indirekten Einfluß des stark wechselnden Magnetfeldes der Sonne zugeschrieben, die in Zyklen von 11, 22 und 180 bis 208 Jahren gemessen werden können. Und die von dem Autor genannte globale Erwärmung und die Aussage, daß 2010 das wärmste Jahr seit Beginn der Meßreihen sei, ist ein ideologisch-religiöses Märchen, das nicht nachvollziehbar ist. Diese oft kolportierte „Erwärmung“ ist ein statistisch verursachter Mißgriff, verursacht dadurch, daß vor allem die ehemals 6000 Klimastationen von ländlichen Gebieten wie Sibirien und Kanada auf nunmehr 1100 reduziert und vornehmlich in Stadtbereiche oder Flughäfen gelegt worden sind (Wärmeinseleffekt) ferner wurden Quecksilberthemometer durch elektronische Meßverfahren ersetzt. Berücksichtigt man ferner dass ca. 3 % der Erdoberfläche urbanisiert sind, und 80 % der wenigen Meßstationen auf Flughäfen oder in Städten stehen, dann kann man leicht feststellen, dass diese die Zunahme des Weltflugverkehrs bzw. der zunehmenden Verstädterung anzeigen. Mit einem Treibhauseffekt hat das alles nichts zu tun.

Vorgenommene Korrekturen ergaben nun eine dadurch um ein knappes Grad C erhöht errechnete Temperatur. Und trotzdem stagniert die mittlere Global-Temperatur (was immer das ist), seit ca 10-12  Jahren und reduziert sich letzlich .

So dokumentieren drei von vier weltweit tätigen Instituten (UAH; RSS; CRU-Metoffice) bereits eine signifikante Abkühlung.

   Für 2010 kommt als zusätzliches Element der alle paar Jahre wiederkehrende El-Nino-Effekt hinzu, der zu einer Aufwärmung der globalen Luft führt und damit immer einen entscheidenden Einfluß auf unser Klimageschehen mit stoßartigen Erwärmungen hat.  Aber letztendlich nur die Abkühlung des oberflächennahen Meerwassers verzögert. 

Für Deutschland ist die mittlere Jahresdurchschnittstemperatur lt. DWD für dieses Jahr von 8.2 Grad auf nunmehr 7.9 Grad C abgesunken, wobei man noch den erwähnten Wärmeinseleffekt abziehen müßte, so daß die Temperaturen sich denen am Ende der spätmittelalterlichen Eiszeit um 1850 annähern.

   Und die vermeintlich von Ihrem Autor seit Jahren verzeichneten klimatischen Jahrhundertrekorde und Katastrophen? Sie sind leicht erklärbar durch eine intensivere Berichterstattung seitens der Medien, darauf fußenden politisch gefärbten Kommentierungen und der dramatisch ansteigenden Bevölkerungsdichte –  von der aus real gesehen die größte Bedrohung für unser Klima ausgeht – sowie des allgemein Wohlstands. Dies führt zu größeren Schadenssummen bei Extremwetter.  Eine von ihm vorhergesagte starke Erwärmung aber wird es nach jetziger Beurteilung nicht geben. 

Glückauf

Dr. Klaus-Jürgen Goldmann

Dipl.-Geologe

Leserbrief Ewert:

Wer Geologe werden will, hat die Grundlagen der Physik zu lernen, wer Theoretischer Physiker werden will, kann das ohne Grundkenntnisse der Geologie. Man kann nur staunen, wie mutig Theoretische Physiker sind: Obwohl sie wahrscheinlich wissen, dass die Erde etwa 4,5 Mrd Jahre alt ist und dementsprechend eine sehr lange und wechselvolle Klimageschichte hat, trauen sie sich zu, auf der Basis von 130 Jahren Temperaturaufzeichnungen die Temperaturentwicklung für die Zukunft vorherzusagen. Temperaturganglinien, die 1880 beginnen, zeigen tatsächlich Erwärmungsphasen an. Diese werden jedoch unerheblich, wenn man auch die älteren Daten mit einbezieht. Sie sind seit 1701 verfügbar und darauf beruhende Langzeit-Ganglinien zei­gen, dass es in den zwei Jahrhunderten wiederholt noch schnellere und stärkere Erwärmungen gegeben hat. Das industriell und vom Menschen erzeugte CO2 hat damals noch keine Rolle gespielt, woraus zwangsläufig folgt, dass es die Erwärmung nicht verursacht. Wenn sich Theoretische Physiker im Rahmen klimatologischer Fragen zu geologischen Sach­verhalten äußern, sind die resultierenden Folgerungen meistens falsch.

Mit seinem Beitrag in der FAZ vom 30.12.2010 „Die Erderwärmung um acht Grad wird es niemals geben“ hat Prof. Anders Levermann vom Potsdamer Institut für Klimafolgenfor­schung (PIK) einen neuen Rekord aufgestellt. Seine Fakten sagen ihm, dass sich bis 2200 „eine Erwärmung von mehr als acht Grad ergibt.“ Sie sind allerdings so durchsichtig, dass sie sich bei einem Vergleich mit wirklichen Fakten schnell als falsch entlarven:

  •  „In Pakistan entstand im letzten Sommer der größte Süßwassersee der Erde – als Folge von Überschwemmungen, weil „das Klimasystem bebt“. Nach den Regeln der Hydrologie ist eine überflutete Niederterrasse kein Süßwassersee, selbst wenn das Wasser nur langsam abfließt.  An Flüssen gelegene Städte weisen üblicherweise Hochwassermarken aus. Am Zusammenfluss von Werra und Fulda sind 6 Hochwässer verzeichnet – der höchste Pegelstand erreichte am 24.7.1342 mindestens 10 m und der niedrigste am 17.5.1943  etwa 5 m über dem Mittelwasserstand, und dazwischen er­eigneten sich vier weitere in Zeitabständen zwischen 100 und 300 Jahren. Hochwas­serkatastrophen sind episodische Wetterkapriolen, die es unabhängig von Klimaände­rungen immer gegeben hat.

  • Der „größte Süßwassersee“ schrumpft durch den Vergleich mit wirklichen Seen zum Tümpel: er bedeckte zwar für kurze Zeit eine größere Fläche, enthielt aber als typisches Flachwasser nur ca. 300 km³ Wasser. Der bis zu 1642 m tiefe Baikalsee enthält als größtes Süßwasserreser­voir der Erde 23.000 km³ – die 78-fa­che Menge.  Der Vergleich kann durch die nordamerikanischen Großen Seen und viele andere beliebig und eindrucksvoll ergänzt werden.

  • Dass Bangladesh durch das „Eindringen von Meerwasser… unbewohnbar“ werden könnte, ist nicht zu befürchten. Das als Hafenstadt gegründete Ravenna liegt heute viele Kilometer landeinwärts. Aus dem gleichen Grund wächst Bangladesh: die aus dem Himalaya kommenden Sedimente vergrößern das Flussdelta.

  • Winterkälte in Europa infolge fortschreitender Erderwärmung: „Kollegen haben den ….Mechanismus entdeckt“, warum „…die derzeitige Winterkälte in Europa alles an­dere ist, als ein Gegenbeweis“, und  „…durch die globale Erwärmung noch verstärkt werden“ könnte. „Durch das Schmelzen des Eises in der russischen Karasee kann sich ein Hochdruckgebiet bilden, dass arktische Winde nach Eurasien umlenkt und damit zu extrem kalten Temperaturen in Europa führt.“ Die Kollegen haben neue Er­kenntnisse nicht berücksichtigt, denn K.E.Trenberth & J.T.Fasullo von der NASA stellen für das arktische Meer fest: „Seit 10 Jah­ren gibt es keinen Anstieg der Meeres-Temperatur“ (Science, Vol. 328, 16.4.2010, S.316-317). Tatsächlich wächst der arkti­sche Eisschild wieder; seit 2006 hat er sich um die doppelte Fläche Deutschlands ver­größert, und selbst im Sommer 2010 waren die NW- und NO-Passagen nicht vom Eise befreit – auch die Karasee nicht. Aus Platzgründen werden die weiteren Beweise nicht erläutert.

Angeblich verzeichnen wir „klimatische Jahrhundertrekorde“. Selbst der Weltklimarat (IPCC) sieht keine Anzeichen für eine Zunahme extremer Wetterlagen und führende Meteo­rologen stimmen damit überein. „Dass 2010 das wärmste Erdenjahr seit Beginn der Auf­zeichnungen vor über 130 Jahren war“,  ist in Anbetracht der Kälterekorde in der Antarktis, eines überdurchschnittlich kalten und schneereichen Winters in Südamerika, der seit ca. 2000 andauernden Abkühlung und der erneuten Ausdehnung des arktischen Eises, aber auch in Erinnerung an ClimateGate mit triftigen Gründen zu bezweifeln. Im Internetportal eike-klima-energie.eu hat Leistenschneider im Detail nachgewiesen, dass 2010 nicht das wärmste Jahr gewesen ist. Dies bestätigen auch NASA-Temperaturganglinien. Aber selbst wenn das so wäre, was sagt das schon?  Die Datenbasis des IPCC und des PIK ist für einen Vergleich mit früheren Jahrhunderten zu kurz; die älteren Daten weisen frühere Dekaden zweifelsfrei als wärmer aus.

Ein Bericht des Weltklimarates (IPCC) hat schon früh festgestellt, dass das Wetter ein nichtlinearer chaotischer Prozess ist, der keine Voraussagen erlaubt. Wenn man dem zu­stimmt, und das darf man umso mehr, als schon lange fest steht, dass sich die bisherigen Voraussagen nicht bestätigt haben. Dafür nur zwei Beispiele: 

·      „Winter mit starkem Frost und viel Schnee wie noch vor 20 Jahren wird es in unseren Breiten nicht mehr geben“, sagt der Wissenschaftler Mojib Latif vom Hamburger Max-Planck-Institut für Meteorologie im April 2000 dem SPIEGEL.

·      Eine be­sonders eklatante Fehlprognose wurde für das Kaspische Meer 1995 abgege­ben: sein Meeres­spiegel sollte bis 2005 um einen Meter steigen, tatsächlich begann er kurz darauf zu sinken – bis 1996 um 30 cm und bis 2005 um 40 cm.

Trotz dieser eindeutigen Erfahrungen werden weiter Szenarien erstellt. Ist das Autismus oder geht es in Wahrheit um den Erhalt gutdotierter Arbeitsplätze? Dass die Kapa­zität unseres Raumschiffes nicht unendlich ist,  weiß man schon seit Jahrhunderten, und dass es langsam eng wird, ist ebenfalls bekannt. Doch mit Panikmache lässt sich das Problem nicht lösen, sondern wie immer in der Menschheitsgeschichte mit Anpassung. Dafür eignen sich weder ein vermeintlicher Klimaschutz noch der ergebnislos bleibende Versuch, den CO2-Ge­halt par ordre de mufti zu regulieren. Sollte jedoch entgegen aller Erwartung das Lever­mann’sche Szenarium über uns kommen, hätte dies einen makabren Charme: die Erde wäre nicht nur die Panik-Propheten los, auch das Prinzip Narrenfreiheit bliebe der Wissenschaft erspart.

Prof. Dr. F.K. Ewert Dipl. Geologe

Den Artikel unter der beeindruckenden Überschrift "Unsere Systeme sind erschreckend verwundbar"  von A. Levermann finden Sie hier in FAZ Online.

A. Levermann erreichen Sie hier.




Phoenix Runde Teil III: „Kein prima Klima – Ist die Welt noch zu retten?“ Ein Fak­tencheck!

So wurde jedes Thema angesprochen und jede Menge Heilsversprechen abgegeben. Auf die Idee, dass die Armen durch eigene Anstrengung reich werden könnten, wie es uns nicht nur die BRIC Staaten oder die asiatischen Tiger seit Jahrzehnten vormachen, kam kaum einer in der Runde.  Mittel zum Zweck, um die Umverteilung zu erzwingen, ist die Angst vor dem Klimawandel, induziert durch CO2, einem Klimawandel, wie er nur in den Klimamodellen vorkommt. Daher schauen wir uns jetzt die Klimamodelle an.

Zuvor noch der Einfachheit halber der Einblick in die Sendung, die wir hier mit freundlicher Genehmigung von PHOENIX zeigen. Zur Erinnerung: Bei den Originalzitaten sind die Minuten in Klammern angegeben, in denen man diese Zitate (nicht immer wortgetreu) hören kann.

Sendung vom 9.12.10 „Ist die Welt noch zu retten“ (Mit freundlicher Erlaubnis von Phoenix)

7. Wie gut sind die Klimamodelle?

Ausschließlich auf Computer gestützte Klimamodelle werden eingesetzt, um damit Prognosen  über die zukünftige Klimaentwicklung zu errechnen. Wie gut sind nun die Ergebnisse dieser Prognosen? Halt sagt da Prof. Bott (13:16) „Niemand prognostiziert, man entwickelt Scenarien! Es wird nichts vorhergesagt!“. Nichts vorhergesagt, Projektionen? Was denn dann?

Unter den anderen Teilnehmern im Studio, so der allgemeine Eindruck, konnte niemand so recht den Unterschied zwischen den beiden Begriffen erkennen. Wenn das IPCC aber, bestätigt durch Prof. Bott, sagt, dass bei weiterem CO2 Ausstoß die Erde mächtig warm wird, dann soll das keine Prognose sein?  Schauen wir nach:

Was sind Prognosen, was sind Szenarien?

Prognose (aus dem griech. „das Vorwissen) ist definiert als eine Vorhersage, also eine Aussage über Ereignisse, Zustände oder Entwicklung in der Zukunft! So schreibt es das in dieser Hinsicht unverdächtige Wikipedia.

Über Szenario steht dort:

Szenario (Plural Szenarios) oder Szenarium (Plural Szenarien) steht übertragen im Allgemeinen für den ausgedachten oder ausgerechneten Entwurf einer Situation oder eines Ablaufes, spezieller für:

* den szenisch gegliederten Entwurf eines Erzählwerks, siehe Handlung (Erzählkunst)

* eine Stufe der Verfilmungsvorbereitung in der Filmkunst: Filmszenario

* die Planung eines möglichen Zustands in der Zukunft, siehe Szenariotechnik

*  die Bewertung einer Softwarearchitektur nach einem bestimmten Verfahren.

„Ausgedacht“ oder „ausgerechnet“ steht da. Doch leider passt keines der obigen Beispiele so richtig auf die IPCC-Szenarien, so wie sie uns präsentiert werden. Wenn es sich also wirklich um Szenarien statt Prognosen handelt, dann passt noch am Besten das erste Beispiel des ..szenisch gegliederten Entwurf eines Erzählwerks.. oder evtl. besser …die Planung eines möglichen Zustands in der Zukunft..“ Was hier stört ist das Wort „Planung“. Evtl. könnte man sagen: „Berechnung eines möglichen Zustands in der Zukunft“.

Nun, falls es das wirklich ist, dann kann man – ohne zuviel Phantasie einzusetzen – schnell eine schier unendliche Zahl von möglichen Zuständen in der Zukunft = Szenarien berechnen: Z.B, ob wir von einem Meteor getroffen werden, im Lotto gewinnen, vom Auto überfahren werden, eine glücklich oder unglückliche Ehe führen werden, etc. etc. (Einen klugen Beitrag zu dieser Frage hat der Physiker Peter Heller geschrieben, sie finden ihn hier, mit Dank an Leser Bombosch)

Oder auch, ob und wie sich die Mitteltemperatur der Erde durch CO2 Emissionen erhöht! Das setzt voraus, dass ich in mein Modell einbaue, dass z.B. das CO2 der große Treiber dieser Erhöhung ist und zusätzlich, dass eine geschlossene Theorie des Klimas zur Hand ist. Die erste Voraussetzung, in Gestalt der Wasserdampfrückkopplung, ist in alle Klimamodelle eingebaut, sie ist sozusagen der Motor, obwohl kein Nachweis für die hier wirkenden Rückkoppelungsmechanismen erbracht wurde (eine Reihe von Autoren haben auf Grund von Messungen das Gegenteil hergeleitet, z.B. Lindzen, Choi, Spenccer, Paltridge, Arking). Und eine in sich geschlossene Theorie des Klimas existiert ebenfalls nicht, dafür sind u.a. die Ungewissheiten und die sich daraus ergebenden Ungenauigkeiten noch immer viel zu groß.

Nicht ohne Grund schreibt daher das IPCC im 3. Bericht TAR:

“ In der Kli­ma­for­schung und -Mo­del­lie­rung soll­ten wir be­ach­ten, daß wir es mit ge­kop­pel­ten nicht­li­ne­a­ren cha­o­ti­schen Sys­te­men zu tun ha­ben und des­we­gen sind Lang­zeit­prog­no­sen von zu­künf­ti­gen Kli­ma­zustän­den nicht mög­lich“ (Third As­sess­ment Re­port, Sec­tion 14.2.2.2)”

Dabei wurde noch nicht mal der Mangel einer geschlossenen Theorie des Klimas erwähnt. Wie gut also sind die Klimamodelle? Hier herrschte große Uneinigkeit unter den Experten:

Bott (11:56) (Limburg hat sich) …lustig gemacht über Modelle: (sie) sind aus strikten und logischen Gleichungssystemen entwickelt, die absolut korrekt sind. 12:44; aus mathematischen Gesetzmäßigkeiten heraus. …sind (jedoch) hochgradig nichtlinear 13:03; deswegen nicht vorhersagbar. Ist aber nicht schlimm. 13:16 Niemand prognostiziert, man entwickelt Szenarien! Es wird nichts vorhergesagt!

Limburg: 11:56 ausführlicher Widerspruch bis 15:25

Bott übersieht, dass die mathematische-logische Korrektheit eines numerischen Modells überhaupt nichts darüber aussagt, ob es in der Realität zutrifft. Sie ist lediglich eine der Voraussetzungen, die unabdingbar erfüllt sein müssen, mehr nicht. Als stellvertretendes Gegenbeispiel seien die unzähligen – mathematisch-formal vollständig korrekten – volkswirtschaftlichen Modelle genannt, die es noch niemals fertig gebracht haben, die komplexen volkswirtschaftlichen Mechanismen befiriedigend zu beschreiben (die Pleite des LTCC-Hedgefond lässt grüßen). Beim Klima ist es nicht anders. Uns ist kein Modell bekannt, das ohne massive Manipulationen die Klimavergangenheit wiedergeben konnte. Selbst mit so „einfachen“ Phänomenen, wie dem El Nino oder der NAO sind Klimamodelle bereits hoffnungslos überfordert. Kein Modell hat es bis heute geschafft, diese Oszillationen genau zu beschreiben oder gar ihren Eintritt vorherzusagen. Und diese Fähigkeit ist sozusagen als die „leichtere Übung“ unter vielen anderen anzusehen. Mit den Wolken, den klimawirksamsten Gebilden überhaupt, sind Modelle hoffnungslos überfordert. Modelle sind für klimatologische Detailprobleme wertvolle Hilfsmittel, für Weitergehendes kann man sie aber nicht ernst nehmen.

Ein Vergleich der Realität mit den „Szenarien“ erlaubt eine einfache Überprüfung der Qualität dieser Modelle. Für Prognosen wie Szenarien sollte gelten, dass je kürzer die Zeit nach der „Vorhersage, desto sicherer die Aussage ist.

Aus dem IPCC AR4 (4. Abschätzungsbericht von 2007) stammt die folgende Grafik.

Abbildung 9 zeigt verschiedene Szenarien (Prognosen?) A“ bis „Constant“ aus dem AR4 von 2007. Der rote Kringel zeigt die letzten 10 Jahre.

Dazu der Klimamodellierer Mojib Latif vom Geomar in Kiel in der Bild-Zeitung vom 20.09.07 Seite 13:

„Die Erwärmung entwickelt sich wie vorhergesagt. Die Modelle wurden auch an vergangenen Klimaänderungen getestet. Es gibt keinen Grund, den Modellen zu misstrauen „

Gemäß unsreren o.g. Ausführungen ist dies eine Übertreibung (um das Wort „Lüge“ zu vermeiden). Modelle haben definitiv noch nie die Klimavergangenheit befriedigend wiedergeben können!

Abbildung 10. Hier wird der errechnete Verlauf (als Durchschnitt der beiden Satellitenmessungen UAH und RSH ) der globalen Mitteltemperatur seit 9 ½ Jahren ab der Jahrtausendwende gezeigt. Dieser Anstieg über grob 10 Jahre, auf das gesamte Jahrhundert hochgerechnet, beträgt 0,1 K pro Jahrhundert. Das IPCC veröffentlicht in seinen „Szenarien“ dagegen einen Jahrhundertanstieg zwischen 2,4 bis 5,3 K pro Jahrhunder [1]. Also das 24 bis 53 fache! Es muss also noch eine Menge passieren, um die IPCC-Prognosen Wirklichkeit werden zu lassen, wir sind gespannt. Damit wäre auch gleich die Frage mitentschieden, ob es nun immer wärmer wird, oder nicht. Einen netten Artikel dazu finden Sie auch hier!

In der Sendung sagte

Professor Bott dazu (25:10) es ist nicht richtig, dass sich die Erde nicht mehr erwärmt hat in den letzten…10-15 Jahren. Das ist einfach absolut falsch: Einwurf Limburg:-…sagt Phil Jones (25:13)…Bott ..wer das sagt, weiß ich nicht.. Limburg: der  IPCC Chef Hauptautor. Keinerlei Erwärmung seit 1995. (sagt Phil Jones) Modelle haben versagt: CO2 steigt an. (18:3) Bott (25:31) WMO sagt 2010 ist das 3. wärmste Jahr seit Aufzeichnung der Wetterdaten. Limburg: (Das sind).. zwei paar Schuhe!

Eine kurze Anmerkung zu der immer wieder verbreiteten Behauptung von den soundso vielen wärmsten Jahren über (beispielsweise) 100 Jahre in den soundsovielten letzten Jahren: in der Tat ergibt die einfache Kombinatorikberechnung eine extrem geringe Wahrscheinlichkeit für diese Häufung – ist also etwas Schreckliches passiert? Keineswegs: Man muss nur ein wenig weiter in der Zeit zurückgehen und sich z.B. die zuverlässige Hohenpeißenberg-Temperaturkurve ansehen. Hier findet man, wenn etwa die 100 Jahre von 1790 bis 1890 betrachtet werden, eine ebenso unwahrscheinliche Häufung von kalten Jahren am Ende dieses Zeitraums. Woran diese Häufungen liegen, kann mit Hilfe der Persistenz von Temperaturreihen erklärt werden (s. beispielsweise Vortrag von Prof. Lüdecke auf der 3. Berliner Klimakonferenz). Wir wollen aber diesen recht technischen und keineswegs einfachen Punkt hier nicht weiter vertiefen.

Der IPCC Leitautor und bekannte Modellierer Kevin Trenberth schrieb im Oktober 11, 2009: email 1255352257 an den Hockeystick Erfinder Michael Mann:

“The fact is that we cannot account for the lack of warming at the moment and it’s a travesty that we can’t.”

„Fakt ist, dass wir für die fehlende Erwärmung (s. Grafik Abb 10)  keine Erklärung haben und es ist ein Hohn das wir sie nicht haben“

Man beachte das Datum. Es war vor einem Jahr im Oktober. Wie gut sind also die Szenarien bzw. Prognosen ohne Vorhersage? Der Leser möge selbst entscheiden.

8. Schuld und Sühne

Die anderen Diskutanten waren sich trotzdem weitgehend einig, dass

(1) eine massive Klimabedrohung existiere,

(2) diese vom Menschen verursacht sei und

(3) dazu noch der Westen die Schuld an dem drohenden Desaster trüge wegen seines erfolgreichen kapitalistischen Wirtschaftsmodells.

Dazu sagten:

Frau Henneberger (15:55) Historische Klimaschuld, THG Ausstoss massiv senken, und Gelder bereitstellen. Herr Fischer: (24:16) Vorbild: Müssen beweisen das Wirtschaftswachstum und CO2 Ausstoß korrelieren; nicht miteinander zusammenhängen.

Herr Limburg: ( 21:10 Schuld und Sühne?), (21:25)   Es geht ums Geld; Edenhofer Zitat, Modelle zeigen Anstieg, in der Realität zeige sich kein Anstieg.

Wie der bisherige Faktencheck Teil I und Teil II erkennen ließ, lässt sich keiner der von den Diskutanten Henneberger, Fischer und Bott erhobenen Vorwürfe bestätigen. Eine „Schuld“ der westlichen Staaten an irgendeinem Klimawandel, festgemacht an der vermuteten Temperatursteigerung durch anthropogenes CO2, lässt sich nicht erkennen. Dann sollte der Richterspruch lauten: Wo keine Schuld, da keine Sühne. Doch darauf wollte sich bisher keiner einlassen, obwohl Otmar Edenhofer, ehemaliger Jesuit, jetzt Chefvolkswirt des PIK und stellvertretender Vorsitzender des IPCC in einem NZZ [2]( Neue Zürcher Zeitung) Interview ganz deutlich erklärte was von seiten der UNO und der sie unterstützenden Kreise eigentlich angestrebt wird:

„Zunächst mal haben wir Industrieländer die Atmosphäre der Weltgemeinschaft quasi enteignet. Aber man muss klar sagen: Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik, mit Problemen wie Waldsterben oder Ozonloch, fast nichts mehr zu tun.“

Und direkt oder indirekt stimmten ihm alle Gäste zu. Klingt deutlich nach einer Art neuem kommunistischem Manifest. Früher wurde der Mensch ausgebeutet. Als das nicht mehr klappte, weil das Proletariat nach Mallorca flog, anstatt den Herren Marx und Engels endlich den Gefallen zu tun zu verelenden, musste ein neues Opfer her. Nun wird vom Menschen eben die Natur ausgebeutet (wobei wir hier sogar in vielen Teilen zustimmen, denn was die Menschheit mit dem Fischbestand der Weltmeere und dem Gebrauch dieser Meere als Müllkippe macht, kann man schon als „Ausbeutung“ bezeichnen. Leider scheren sich die Klima-Aktivisten keinen Deut um diese realen Ausbeutungsverbrechen, (wie leicht dies derzeit, ist zeigt der Milliarden Dollar Betrug in Dänemark) sie halten es lieber mit imaginären Klimaschädigungen). Am unverblümtesten stimmte die Aktivistin Henneberger zu, verhaltener die Herren Bott und Fischer.

Alle bejahten die Notwendigkeit der unmittelbaren starken Absenkung der weltweiten CO2 Emissionen mit einer starken Vorreiterrolle Deutschlands, wie sie im Energiekonzept der Bundesregierung festgeschrieben worden ist.

Prof.Bott: (36:15) Man redet von 80 % Reduktion um das 2 °C Ziel zu erreichen. An dem Ziel sollten wir wirklich festhalten…(36:29) Limburg : das bringt 2/1000 Grad weniger Erwärmung rechnerisch. Die 80 % Reduktion: Bott: Da ist sooo nicht meine Meinung! Limburg: Wir haben es gerechnet..“

Die Frage war also nicht mehr, ob das CO2 überhaupt etwas bewirkt, sondern, dass wir in jedem Falle absenken müssen, um 80 % oder sogar mehr, wie die Befürworter forderten.

Was bringt dann die deutsche Vorreiterrolle? Limburg behauptet, ca. 2/1000 °C  weniger Erwärmung: Stimmt das?

Wir haben bei EIKE diese Frage mehrfach untersucht. Und je nachdem, ob man den nackten THE ohne Wasserdampfverstärkung berechnet oder mit massiver Wasserdampfverstärkung, wie es das IPCC in allen seinen „Szenarien“ vornimmt, ergeben sich die folgenden Werte .

Tabelle

CO2 Absenkung bezogen auf 1990 in Deutschland

80 % 95 %
Mit IPCC Verstärkung 0,0072 °C 0,0086 °C
Ohne IPCC Verstärkung 0,0017 °C 0,0020 °C

Der vereinfachte Rechenweg dazu kann hier eingesehen werden : „Klassenarbeit für die undefinedObertertia“. Auch wenn man – wie Prof. Bott – von der nicht nachzuweisenden Wasserdampfverstärkung ausgeht, bleiben läppische acht tausendstel Grad oder knapp neun tausendstel Grad Celsius. Wahrlich ein großer Unterschied !

Viel Zeit wurde den Fragen zu den „Erneuerbaren“ gewidmet, sowie der wiederum künstlich erzeugten Angst vor dem Ende der fossilen Energien. Moderator Kähler (30:00) Stichwort regenerative Energien.

Zu den „Erneuerbaren“ haben wir schon viel bei EIKE veröffentlicht. Hier finden Sie die jüngsten Veröffentlichungen im Brief an Bundesumweltminister Röttgen, oder in der Stellungnahme von EIKE zum Energiekonzept hier und hier.

Nicht neu und immer wieder gern gebracht, ist die Annahme, dass die fossilen Energien nicht mehr lange zur Verfügung stehen. Die folgende Auswahl kennzeichnet die Stimmung:

(32:48) Henneberger-sehr viele Studien belegen 100 % Erneuerbare sind möglich. (33:07) Uran ist endliche Ressource (Limburg ..5000 Jahre); Kohle ist endliche Ressource; (Limburg 4000 jahre) Henneberger  (33:13) innerhalb der nächsten 100 Jahre.. Peakoil rückt immer näher.. (Limburg 150 Jahre)….Henneberger  33:26 …Was sie behaupten ist eine komplette Lüge 34:26 Wir in den Indsutrieländern haben die Verantortung für … wir haben den Klimawandel verursacht..

Es ist hier nicht der Platz, auf den von Frau Henneberger verzapften Unsinn im Detail einzugehen. Stellvertretend sei nur die Ressourcenfrage der Kernbrennstoffe genannt, die in den EIKE-News „Die Renaissance der Kernenergie I und II“ detailliert behandelt wude. Hier zeigt sich, dass sogar ohne auf Uran im Meerwasser zuzugreifen, mit den Kernkraftwerken der kommenden Generationen und mit der Transmutationstechnik Kernbrennstoff für mehrere 10.000 Jahre zur Verfügung steht.

Die Kernaussage aller Teilnehmer mit Ausnahme von Limburg lautete dagegen: Weil die fossilen und kerntechnischen Energieressourcen so begrenzt sind, müssen wir schon heute (gezwungen werden) auf diese zu verzichten und voll auf „Erneuerbare“ setzen. Also schon wieder wird eine unbewiesene Behauptung eingesetzt, um damit Angst und mit der Angst Willfährigkeit zu erzeugen. Eine uralte Taktik, wie sie seit Urzeiten angewendet wird, und wie sie leider immer noch funktioniert.

Sicherheitshalber nutzt man dazu gleich drei Ängste,

* einmal die Angst vor der Kernkraft, mit dem schönen Nebeneffekt des Abschaltens von intakten sicheren Kernkraftwerken, die billigen Strom erzeugen, wenn wir ihn brauchen und nicht dann, wenn es dem Wind oder der Sonne passt.

* die Angst vor dem Klimakiller CO2, die genutzt wird, um Kohlekraftwerke – von denen allein China derzeit etwa jede zweite Woche eines eröffnet – als schmutzig zu verteufeln und als Klimakiller dazu, die uns erfolgreich daran hindert, preiswerte und hocheffiziente Kohlekraftwerke zu bauen, welche die in riesigen Mengen vorhandene Kohle billig verstromen. Wer immer noch von „schmutzigen“ Kohlekraftwerken redet, dem sei eine Exkursion ins Kohlekraftwerk Lippendorf bei Leizig empfohlen, um sich kundig zu machen.

* Und dann die Angst vor der mit dem Begriff „Peakoil“ umschriebenen – sehr kurzfristigen – (behaupteten) Erschöpfung von Gas und Ölvorräten (der Club of Rome lässt grüßen), die uns erfolgreich dazu veranlasst, über den indirekten Zwang des unsozialen EEG das ebenso unbrauchbare wie maßlos überteuerte und völlig konkurrenzunfähige Produkt „Ökostrom“ zu kaufen.

Was hat es nun mit den Reichweiten der dieser Ressourcen auf sich.  Die folgende Grafik gibt darüber Auskunft.

Abbildung 11. Reichweite verschiedener Energieträger in Jahren.

Die Abbildung 11 spricht für sich selbst. Deutlich erkennbar die lange Reichweite aller dieser Energieträger, auch wenn hier eine statische Betrachtung angesetzt wurde. Hinzu kommt, dass mit der Suche nach weitere Lagerstätten noch gar nicht so richtig begonnen wurde, wie ständig neue riesige Funde onshore (shale gas) und offshore Öl  & Gas fast im 3 bis 4 Wochentakt beweisen.

Den Teilnehmern der Phönix-Diskussion sei eine wichtige Erkenntnis ins Stammbuch geschrieben, die den meisten Menschen völlig unbekannt zu sein scheint. Wie lange eine Ressource (Energie, wertvolle Metalle usw.) der Menschheit zur Verfügung steht, hängt nicht vom realen Vorkommen dieser Ressource, sondern vom technischen Wissen der Menschheit ab. Die Steinzeit endete nicht damit, dass es keine Steine mehr gab, sondern dass Metalle an ihre Stelle traten.

Bleibt uns Autoren daher nur noch der weihnachtliche Wunsch:

Fürchtet Euch nicht!

Michael Limburg

Prof. Dr. Horst-Joachim Lüdecke


[1] Quelle: SPPI Monthly CO2 Report July 2010 Volume 2 Issue 7

[2] NZZ «Klimapolitik verteilt das Weltvermögen neu»




Wasser predigen, Wein trinken! Wissenschaftler in Cancun fordern strenge Rationierung im Westen, um das Klima zu retten!

Nun, der Telegraph Artikel über Rationierung unsere moderne Lebensweise zur CO2-Reduzierung hat einige Wellen gemacht, zum Glück hat er die Teilnehmer in Cancun  nicht  betroffen. Sehen Sie dazu das Video unten ..

Ausgelassen und fröhlich feiern die Kongressteilnehmer der COP 16 Klimakonferenz ihren Beitrag zur Rettung des Klimas. Gute Stimmung ist immerhin Vorausssetzung für schwere, strenge Beschlüsse. Wie zum Beispiel den zur Umverteilung des Vermögens von reichen an arme Ländern oder die Rationierung von allen Gütern des täglichen Bedarfes in den entwickelten Ländern. Es ist ja nicht persönlich gemeint, es dient nur der Rettung des Weltklimas.

A. Watts (Video) M. Limburg Text

Den Artikel im Telegraph finden Sie hier und hier die Kommentare




Keine Doppelmoral mehr! Regierungsangestellte und Zuwendungsempfänger sollen sich auch für Betrug verantworten.!

* die Pharmafirma GlaxoSmith Klein musste sich mit einer $750-Millionen Strafe einverstanden erklären, weil sie in einer früheren Arzneimittelfabrik Herstellungsmängel geduldet hatte. Obwohl keine Patientenschäden bekannt geworden sind, mußte die Strafe verhängt werden, sagte der Staatsanwalt, "um die Firmen zum Einhalten der Regeln zu zwingen.”

* Die Pharmafirma Johnson & Johnson wurde jüngst von eine $258-Millionen Strafe getroffen, weil sie irreführende Informationen über die Sicherheit und Wirksamkeit eines Psychopharmakons verbreitet hatte. J&J’s Verhalten war “Betrug am medizinischen Sozialsystem des Staates Louisiana," sagten die Staatsanwälte. (Die Firma will Rechtsmittel einlegen.)

* Die Bundespolizei hat schon Baseballspieler verfolgt, weil sie Kongreßabgeordnete wegen ihrer Einnahme von leistungssteigernden Steroiden belogen hatten. Ein Ankläger meinte: "Selbst wenn Ihr dem Gesetzgeber nur Informationen gebt, seid ihr zur Wahrheit verpflichtet."

Wer könnte gegen die Einhaltung der Wahrheitspflicht bei der Herstellung von Qualitätsprodukten sein? Sollten moralische Werte nicht auch eingehalten werden, wenn es um weit mehr geht, als um einige Firmen, Medikamente, Baseball-Leistungen, oder nur um schlechte Vorbilder? Sollten wir nicht darauf achten, dass die Werte auch von Menschen eingehalten werden, deren Handlungen noch nie dagewesene Auswirkungen auf das Leben, die Lebensqualität, die Freiheitsrechte und landesweit auf die Gesellschaft haben?

Können wir uns eine Doppelmoral leisten und hinnehmen, dass Regierungsmitglieder grundlegende Ansprüche an Ehrlichkeit und Verantwortlichkeit verletzen, während wir diese Ansprüche nachdrücklich bei Bürgern und Firmen durchsetzen wollen? Weshalb sollten Gesetzgeber und Untersuchungsbeamte von den Vorschriften ausgenommen sein, deren Einhaltung sie von jedem Anderen einfordern? Sollten wir nicht auch unsere Kinder lehren, dass Regierungsmitglieder uns nicht anlügen dürfen?

Beispiellos in ihren unmittelbaren, teuren und weitreichenden Auswirkungen sind die neuen Ozon-, Staub-, Quecksilber- und CO2-Vorschriften, welche uns die U.S. Umweltschutzbehörde EPA unter dem Deckmantel des Schutzes der Luftqualität, des Weltklimas und der Gesundheit auferlegen will. Nur ganz wenige Entscheidungsträger oder Bürger sind derart von gesetzlichen Grundforderungen freigestellt wie die Energie- und Klimapäpste, die Bürokraten, die regierungsfinanzierten Forscher und die Aktivisten, die uns ihre Anti-Kohlenwasserstoff-Politik aufdrücken wollen, ohne Rücksichtnahme auf die wissenschaftliche Erkenntnis – oder auf die Auswirkungen auf Arbeitsplätze, Wohlstand, Familien und auf das weitere Schicksal der Bürgerrechte.

Allein die neuen Quecksilber-, Ozon- und Rußvorschriften der U.S. Umweltschutzbehörde würden bis 1015 bis zu 76 000 Megawatt Stromerzeugungskapazität vernichten,  wie die North American Electric Reliability Corporation schätzt. Das sind 7% der gesamten amerikanischen Stromerzeugungskapazität – genug Strom, um 39 Millionen Häuser unter normalen Bedingungen zu versorgen. Das ist 1,2 mal so viel wie der höchste bislang dagewesene Spitzen-Strombedarf für den gesamten Staat Texas. 

Credit Suisse schätzt, dass die Umsetzung der neuen Gesetze bis zum Jahre 2020 die Stromerzeuger und damit die Verbraucher 150 Milliarden Dollar kosten wird: für die Nachrüstung der Kohlekraftwerke oder deren Ersatz durch erdgasbefeuerte Einheiten. NERA Economic Consulting schätzt, dass die Umsetzung der vorgeschlagenen neuen 60 ppb Ozon-Vorschrift allein eine Bürde von jährlich einer Billion Dollar und einen Gesamtverlust von 7,3 Millionen Arbeitsplätzen zeitigen wird. 

The costs are monstrous – the benefits negligible, illusory or fabricated.

Die Kosten sind gigantisch – der Nutzen minimal, illusorisch oder verlogen. Die Ozon-Regelungen würden die Kraftwerksemissionen nahezu auf das Maß der natürlichen Hintergrund-Emissionen herabdrücken. Soviel nur für den Anfang.

Die EPA behauptet, dass Kohlekraftwerke 40 Prozent aller menschenverursachten amerikanischen Quecksilber-Emissionen ausstießen. Doch nur ein Viertel davon verbleibt im Gebiet der kontinentalen U.S.  Das National Center for Atmospheric Research meint, dass die gesamten Quecksilber-Emissionen aus U.S. Kraftwerken etwa so hoch sind, wie aus dem Abbrennen von Bäumen bei Waldbränden. (Bäume nehmen natürliches Quecksilber mit den Wurzeln aus dem Boden auf.)

Etwa 30 Prozent des in die USA verbrachten Quecksilbers kommt aus anderen Ländern. Den von der Wissenschaft und von öffentlichen interessengeleiteten Instituten gesammelten Daten zufolge könnten die U.S. Kraftwerke für nur 0,5 Prozent der gesamten jährlichen amerikanischen Quecksilber-Emissionen verantwortlich sein und für nur 0,002% weltweit, wenn die Emissionen aus Vulkanen, geothermalen Meeresausgasungen und aus anderen natürlichen Quellen hinzugerechnet würden.

Umso schlimmer, dass in diesen erheblichen Folgen für die Energieversorgung, Beschäftigung und Wirtschaft noch nicht einmal die noch höheren Kosten und Beeinträchtigungen enthalten sind, die mit dem EPA-Plan zur Beseitigung der Kohlendioxid-Emissionen einhergehen. Und dies unter dem Vorwand, die menschliche Gesundheit und das Wohlergehen zu schützen vor dem gefährlichen Pflanzendünger Kohlendioxid und vor dem menschengemachten Klimawandel, der angeblich vom CO2 verursacht würde.

Das Brookings Institute, das Congressional Budget Office, Charles River Associates, die Heritage Foundation und andere Analysten haben die ökonomischen Auswirkungen benannt. Der Senatskandidate für Delaware, Chris Coons, könnte Millionen "ernten" wenn die Emissionshandelsgesetze durchkämen oder wenn die EPA-Vorschriften umgesetzt würden. Das überige Amerka wird in großem Umfange bezahlen müssen. Während Amerikas höchste Priorität die Sanierung der Wirtschaft und der Beschäftigungslage ist, scheint die EPA das Gegenteil zu tun. 

Was die "Wissenschaft" hinter dem neuerdings vom Weißen Haus so benannten "globalen Klimabruch" (global climate disruption) betrifft, so haben die Klimagate E-mails bestätigt, wie lügnerisch, manipuliert und sogar betrügerisch die behauptete Beweislage war. Die Schlagzeilen heischenden IPCC-Klima-Katastrophen beruhten auf Presseveröffentlichungen von Umweltaktivisten, zufälligen E-Mail-Kommentaren, anekdotischen Geschichtchen und studentischen Examensarbeiten, die rein gar nichts mit dem Klimawandel zu tun hatten – nur nicht auf ehrlicher, fachbegutachteter Wissenschaft.

Am 6. Oktober ist der hoch angesehene Physiker Harold Lewis aus der American Physical Society APS ausgetreten. Er hatte an die Behauptungen vom Klima-Chaos geglaubt, aber jahrelang nicht aufgehört, die wissenschaftlichen Ergebnisse und das Für und Wider zu studieren. Er sah nur ein geringes menschliches Element bei den das Klima steuernden Mechanismen und glaubt nicht mehr an die Hysterie der Alarmschläger. Schließlich wurde es ihm zu viel. Geradeheraus sagte er in seinem Austrittsbrief an den APS-Präsidenten Curtis Gallan:

"Der globale Klimaschwindel mit den (buchstäblichen) Milliarden von Dollar dahinter hat so viele Wissenschaftler korrumpiert und hat die APS wie auf einer Monsterwelle fortgetragen. Es ist der größte und erfolgreichste pseudowissenschaftliche Betrug, den ich je in meinem langen Physikerleben gesehen habe. Jeder, der auch nur den geringsten Zweifel daran hat, sollte die Klimagate-Dokumente lesen, die sagen es klar. Ich glaube nicht, dass auch nur ein wahrer Physiker oder Wissenschaftler dieses Zeug ohne Abscheu lesen könnte." 

Was nun die EPA betrifft, so hat sie ganz einfach die falschen IPCC-Schlussfolgerungen übernommen, ohne eine eigene Analyse der widersprüchlichen Behauptungen über den Klimawandel vorgenommen zu haben. Die Leiterin Lisa Jackson hat sich sogar angesichts der immer offener zutage tretenden Klimagate- und IPCC-Skandale stolz und ausdrücklich geweigert, ihre Position oder ihre Pläne zu ändern. Während derjenige, der Glaxo angezeigt hat, 96 Mio. Dollar dafür erhält, wurde der wissenschaftliche Analyst der EPA, Alan Carlin, in ein bürokratisches Sibirien verbannt, weil er eine unabhängige Analyse herausgegeben hatte, die mit der Meinung seiner Behörde nicht übereinstimmte.

Jetzt erleben wir eine weitere monumentale Machtergreifung auf U.S.-Bundesebene: Diesmal geht es um die Kohlenwasserstoff-Energie, die zu 85% die amerikanische Wirtschaft antreibt. Das drohende Zugriff auf unser Geld, unsere Arbeitsplätze und unsere Freiheit beruht auf einer lausig gemachten "Beweislage", betrügerischer Datenlage, wissenschaftlicher Erkenntnis und auf Aussagen, die jedem Bürger oder Firmenlenker große Geldbußen einbringen oder ihn sogar ins Gefängnis bringen würden.

Wenn die Republikaner die Macht im Abgeordnetenhaus übernehmen, sollte ihre erste Aktion die Untersuchung der "Industrie von der menschengemachten Klimakatastrophe" sein. Bundesangestellte und Zuwendungsempfänger sollten unter Eid über ihre Mittelzuwendungen und Tätigkeiten befragt werden, beweiskräftige öffentliche Expertendebatten sollten abgehalten werden über die Wissenschaft, die Wirtschaft, die Kosten und die vermuteten Vorteile des Zertifikatehandels, über die Gefährdung durch Kohlendioxid, Ozon, und über eine strafandrohende Regierungspolitik, die unsere Energiebasis und wirtschaftliche Zukunft ersticken würde.

Es muss wieder sichergestellt werden, dass die grundlegenden Regeln der Aufrichtigkeit, Offenheit und Verantwortlichkeit so zwingend für die Gesetzgeber und die steuerfinanzierten Forscher und Aktivisten gelten, wie für uns alle.

Gastautor Paul Driessen auf englisch erschienen bei WUWT hier 

Übersetzt von Helmut Jäger EIKE




keine Angst vor eingebildeten Klimakatastrophen! Umfrage des Pew Centers: Klimafurcht nimmt weiter ab!

Umfrage: Einschätzung der „globalen Erwärmung” als ernstes Problem nimmt weiter ab

Abbildung 2: Die Besorgnis wegen einer globalen Erwärmung ist insgesamt rückläufig
Due Graphiken erstellt von klimaskeptiker.info basierend auf Zahlen des Pew Research Center

Die Zahl derer, die eine globale Erwärmung für real halten, ist in den letzten Monaten leicht von 57% auf 59% angestiegen, nachdem sie vor gut vier Jahren noch bei 79% gelegen hatte.

Menschliche Aktivitäten (besonders die Emission der vielgescholtenen „Treibhausgase”) werden nur noch von 34% für eine Erwärmung verantwortlich gemacht. Vor einem Jahr lag diese Zahl noch bei 36%.

Die Zahl derer, die eine Erwärmung für ein sehr ernstes oder ziemlich ernstes Problem halten, ist innerhalb der letzten 12 Monate von 65% auf 63% geschrumpft.

Die Zustimmung zu den AGW-Thesen stagniert weiteerhin auf niedrigen Niveau. Jahrelange pro-AGW-Propaganda haben also nicht nur keine Wirkung gezeigt, mittelfristig ist die Zustimmung zu den Klimakatastrophen-Thesen rückläufig.

Bemerkenswert ist dabei, daß der Trend schwindender Zustimmung zum deutlich vor den Enthüllungen der letzten 12 Monate (ClimateGate, GlacierGate, Schrott im IPCC-Bericht AR4, Interessenkonflikte des IPCC-Chefs Pachauri usw.) eingesetzt hat und offenbar von diesen Enthüllungen nicht verstärkt wurde. Das Vertrauen der Öffentlichkeit haben Al Gore, Pachauri und ihre vielen Mitläufer schon vorher verloren.Befragt wurden in den USA 2251 Erwachsene im Zeitraum 13.10. bis 18.10.10
 Quelle (englisch, externer Link) (1369)

Mit Dank übernommen von KlimaskeptikerInfo.de




Wikipedia stoppt Klimahysterie und schmeißt Klima-Propagandisten Connolley raus“

„Über diese Position“, so Solomon weiter, „konnte Connolley jahrelang abweichende Meinungen aus Wikipedia fernhalten und erlaubte nur jene Sichtweisen, die die Klimaerwärmung als Bedrohung für die Menschheit darstellten. Das Ergebnis war, dass Wikipedia eine Hauptquelle für Klimapropaganda wurde, wobei Connolley der führende Propagandist war.“
Nach einem einstimmigen Beschluss am Ende eines von Wikipedia durchgeführten Schiedsverfahren sei Connolleys Karriere nun beendet, meint Solomon. Der Redakteur sei jetzt von der Bearbeitung jeglicher Artikel, die sich mit dem Klimawandel befassen, gesperrt. Weil Connolley außerdem Biographien jener Wissenschaftler umschrieb, deren Meinungen er nicht teilte, entweder um sie herabzusetzen oder sie als Betrüger darzustellen, hat Wikipedia ihn außerdem – wiederum einstimmig – von der redaktionellen Bearbeitung von Biographien all jener gesperrt, die sich mit dem Klimawandel befassen.   
Quelle: Lawrence Solomon: Global Warming Propagandist Slapped Down

Mit Dank an eigentümlich frei!

Lesen Sie auch hier den Beitrag von Michael Krüger auf Readers Edition




Neuseelands Wetterbehörde zieht Verantwortung für historische Temperaturangaben zurück!

Das NIWA (National Institute of Water & Atmospheric Research) hat eine hilflose Erklärung der Verteidigung veröffentlicht – eine Verteidigung, die man vornimmt, wenn man beschlossen hat, sich zu ergeben.

….Verrat an den Anhängern

Das ist ein Skandal. Die rechtfertigende Selbstdarstellung des NIWA nach Erscheinen unseres Papiers im vergangenen November kann man vergessen. Jetzt haben sie es aufgegeben und sagen, dass das NIWA nichts mit der NZTR zu tun hat, und dass es ohnehin so etwas wie eine „offizielle“ Temperaturaufzeichnung von Neuseeland nicht gibt.

Werden die Main Stream Medien (MSM) dies berichten? Ich denke, dass sie das tun sollten, aber ich habe ziemliche Zweifel, dass sie es auch tun.

Ich wäre jedenfalls sehr ärgerlich, falls ich ein Anhänger des NIWA gewesen wäre. Wir haben sie Monat für Monat gegen skurrile Angriffe auf ihren Ruf unterstützt,  und zwar mit dem Argument, dass sie gute Gründe dafür hatten, das zu tun, was sie getan haben. Dann plötzlich machten sie eine Kehrtwende und erklärten, dass der Graph des Temperaturverlaufs nichts mit ihnen zu tun hat!

NZCSC: „Das ist fehlerhaft!” NIWA: „Das stammt nicht von uns!”

Wie können seriöse, engagierte Wissenschaftler so etwas tun? Wie können sie eine solche Antwort auf monatelange Gerüchte über wissenschaftliche Fehler geben? Ihren Anhängern zufolge waren sie von Versuchen betroffen, ihre führenden Wissenschaftler zu bestechen. Wie kann das NIWA darauf mit der Feststellung reagieren, dass sie nicht dafür verantwortlich sind?

Sie verteidigen nicht die Temperaturaufzeichnung oder die Fehler darin, sondern sie sagen einfach: „Ihr habt recht, der Datensatz könnte verfälscht sein, darum waschen wir uns davon rein.“ Das erweckt nicht unser Vertrauen in die „Wissenschaft“, die sie da hinein steckten. Was ist da eigentlich los? Ich hoffe wirklich, dass ihre Anwälte irgendeinen schlauen, gerissenen Dreh kennen, um sie da heraus zu bringen, aber danach sieht es nicht aus.

Aber es kommt noch schlimmer.

Nach Ansicht des NIWA wird zu keiner Zeit von dem NIWA verlangt, die besten verfügbaren Informationen oder die besten wissenschaftlichen Methoden anzuwenden. Es glaubt nicht, dass das irgendetwas mit ihrer satzungsgemäßen Pflicht zu tun hat, eine „hervorragende Leistung“ zu erbringen.

Das war ein Schlag ins Kontor. Wie können sie eine hervorragende Leistung erbringen, ohne die besten Techniken zu verwenden?

Das NIWA verneint, dass es so etwas wie eine “offizielle” Temperaturaufzeichnung von Neuseeland gibt, obwohl sie Spaß daran hatten, ein Akronym dafür zu erfinden (NZTR). Die berühmte „Serie der sieben Stationen [„seven-station series“] (7SS) ist vollständig inoffiziell und ausschließlich für forschungsinterne Zwecke gedacht. Niemand sonst sollte sich darauf verlassen.

Es sieht eindeutig aus wie die neuseeländische Temperaturreihe

Aber sie existiert nicht außer als Akronym – und im Labor – und das NIWA ist nicht verpflichtet, danach zu suchen.

Die 7SS wurde auf der Website unter dem Titel “NZ Temperature record” [Temperaturreihe von Neuseeland] gepostet [posted on their web site] und sieht für die ganze Welt wie die offizielle Reihe aus. Falls sie absolut zuverlässig korrekt wäre, würde das NIWA dies nur zu gerne behaupten und sorgfältig auf die Korrektheit achten. Der einzige Grund, warum sie sich davon reinwaschen, besteht darin, dass die Reihe voller Fehler und böser Ungenaujigkeiten steckt, genau wie wir gesagt haben.

Wir haben die ganze Zeit recht gehabt!

Aber falls die 7SS eine Totgeburt ist, was wird das NIWA in Zukunft sagen, wenn die Regierung oder die Gerichte fragen, ob es in Neuseeland während der letzten 100 Jahre warmer oder kälter geworden ist? Nun, sie schaffen sich eine neue NZTR und erwarten, dass der Austausch mit der ursprünglichen Reihe ihre Verteidigung etwas verbessert. Es bleibt abzuwarten, ob aus dieser Reihe nun Erwärmung oder Abkühlung herauskommt.

$ 70 000 für nichts und wieder nichts

Im Februar, als die Neuseeland-Sektion der Climate Science Coalition einen Brief an Chris Mace, dem Vorsitzenden der NIWA, geschrieben und auf die vielen fehlerhaften Aspekte der 7SS hingewiesen hatte, versprach Mr. Mace eine „formelle Begutachtung“. Minister Wayne Lapp sagte später im Parlament, dass die „Begutachtung“ durch fünf oder sechs Wissenschaftler erfolgen sollte, die die Anpassungen des NIWA innerhalb von sechs Monaten durchleuchten sollten. Er sagte auch, dass das NIWA eine zusätzliche Staatshilfe in Höhe von $ 70 000 im Budget des Jahres 2010 erhält, um diese „Begutachtung“ finanziell abzusichern.

Das ist viel Zeit und Geld, um ein Problem dingfest zu machen, das wir sehr schnell ohne jede Zuwendung erkannt haben.

Das alles ist auch ein ziemliches Kompliment an Jim Salinger. Schließlich nahm er die Anpassungen der 7SS als Student in den siebziger Jahren vor – ohne Unterstützung durch Steuergelder oder ein Team von Wissenschaftlern. 1992, 20 Jahre später, hat das NIWA nicht einmal Jims Kalkulationen durchgesehen (die in irgendeinem Computerspeicher schmoren) oder die Methodik verbessert, bevor sie das Ganze als ein NIWA-Produkt ausgaben.

Diesmal scheinen sie ihre Hausaufgaben zu machen. Ihr Verteidigungspapier offenbart, dass die neue NZTR fertig zur Präsentation ist und nur noch einer wissenschaftlichen Begutachtung durch das australische Büro der Meteorologie (BOM) harrt. In nicht allzu ferner Zukunft dürfte die 7SS Geschichte sein.

Sieg ohne einen Schuss abzufeuern. Es tut gut, dass unsere Kritik nun offiziell gerechtfertigt ist, aber was für ein Tiefpunkt!

Falls das Land [Neuseeland] irgendwann eine gesicherte Temperaturaufzeichnung hat, wird sich dann irgendjemand noch an uns erinnern?

Richard Treadgold |6. October 2010

Frei übersetzt von Chris Frey für das EIKE

Den Originalartikel finden Sie hier




Die Moritat von der „ungelösten Endlagerfrage“! Nicht der Atommüll, sondern die grüne Anti-Atomkraftideologie leidet unter einem Endlagerungsproblem

Die krankhafte Aufrechterhaltung des Gründungsmythos als „Anti-Atomkraft-Bewegung“ ist allerdings im Internet-Zeitalter der einfach und frei zugänglichen Informationen ein gewagtes Unterfangen. Machen wir uns deshalb die Mühe, uns etwas näher mit dem „Entstehen des Atommülls“ auseinanderzusetzen. Aufklärung ist immer noch die beste Methode dem „Hexenwahn“ und anderen Geschichten der Finsternis entgegen zu leuchten. 

Nähern wir uns der Frage zuerst physikalisch: Die gute alte Physik hat schon andere herrschende Ideologien zum Einsturz gebracht. Sie machte einst die Erde zu einer Kugel und ließ diese um die Sonne kreisen. Beides mit enormen Konsequenzen für das Denken und die Entwicklung der Menschheit. So wie die Erkenntnis, dass ein Atom, welches ein Neutron einfängt, in einen hoch angeregten Zustand versetzt wird, der es entweder spaltet oder ein neues instabiles Element bildet. Bei der Spaltung wandelt sich ein Teil seiner Masse in eine gewaltige Menge Energie. So gewaltig, dass wenn man ein einziges Gramm spaltet etwa gleich viel Energie entsteht, wie bei der Verbrennung von 3 Tonnen Kohle oder 13 barrel Öl (über 2000 Liter). Für die hiesigen Betrachtungen ist nur wichtig, dass durch die Spaltung auch nur ein Gramm Atommüll entstanden ist. Wie viel Müll bei der Verbrennung von drei Tonnen Kohle entsteht, mag sich jeder selbst ausrechnen. Wegen dieser Einzigartigkeit der Kernspaltung, ist es überhaupt möglich, dass ein Atom-U-Boot mehr als 33 Jahre mit einer Brennstoffladung beständig durch die Weltmeere fahren kann und dabei den Lebensraum (einschließlich Atemluft und Trinkwasser) für hunderte von Matrosen schafft. Hier bietet sich bereits ein weiterer Anhaltspunkt für die „Gefährlichkeit“ des Atommülls: Die Menschen leben für Monate in unmittelbarer Nähe zu ihrem Reaktor und das für viele Dienstjahre ihres Lebens ohne nachweisbare Schäden. Warum ist das möglich? Nun, niemand isst Atommüll. Dieser bleibt sicher eingeschlossen und durch mehrere Barrieren von den Menschen getrennt. Ionisierende Strahlung ist technisch einfach und in beliebig geringen Dosen zu messen. Nachweisgrenzen oder das vorab wissen müssen, was man überhaupt sucht um das richtige Analyseverfahren anwenden zu können, sind bei der Radioaktivität nicht nötig. Außerdem ist radioaktive Strahlung biologisch nicht annähernd so wirksam, wie viele Menschen befürchten. Radioaktivität ist überall in der Natur vorhanden. Könnten Lebewesen nicht damit umgehen, gäbe es weder Tiere noch Menschen. Entscheidend ist – wie bei allen Giften – die Dosis. Es gibt allerdings einen entscheidenden Unterschied für die biologische Wirksamkeit: Ob man neben einer Strahlungsquelle steht (geringe „Krebsgefahr“) oder ob man radioaktive Stoffe in seinen Körper aufnimmt (Nahrung, Trinkwasser oder Atemluft). Plutonium kann man problemlos in die Hand nehmen, da die alpha-Strahlung nicht einmal die menschliche Haut durchdringt; man sollte es aber tunlichst nicht essen, da es als Schwermetall bereits ein Knochengift (chemische Wirkung) ist und bei seinem radioaktiven Zerfall auch noch „Krebs“ auslösen kann. Hiermit sind wir bei der nächsten Forderung: Man sollte radioaktive Stoffe sicher von der Umwelt isolieren, damit sie nicht in die Nahrungskette gelangen oder noch besser: Beseitigen. Doch dazu später. Zuerst noch ein paar Worte zu der Geschichte der Kerntechnik.

Die Geschichte der Kerntechnik ist leider untrennbar mit der Atombombe verbunden. Nicht auszudenken, welchen Verlauf sie genommen hätte, wenn sie nicht in den 1930er Jahren — mitten im fürchterlichsten Krieg der Menschheitsgeschichte — entdeckt worden wäre. Aus Angst vor dem Gegner stand die militärische Nutzung im Vordergrund. Man wollte möglichst schnell eine Bombe bauen. Dafür gab es und gibt es zwei Wege: Eine Uran-Bombe oder eine Plutonium-Bombe. Für den zweiten Weg musste ein chemisches Verfahren her, mit dem sich möglichst reines Plutonium 239 von dem Uran und den Spaltprodukten abtrennen ließ. Das PUREX-Verfahren (Plutonium Uranium Extraction) war geboren. Es ging nur darum, waffengrädiges Plutonium zu gewinnen. Alles andere war in diesem Sinne Abfall. Wegen der Waffengrädigkeit gab es nur eine geringe Spaltstoffkonzentration und praktisch keine Aktinoiden (Atome mit noch mehr Neutronen als Pu239). Dies sind gänzlich andere Bedingungen als bei „Atommüll“ aus einem Kraftwerk. Bis zum heutigen Tage hat man dieses Verfahren – wenn auch teilweise modifiziert – beibehalten. Dies mag auch damit zusammenhängen, dass (bisher) alle Nationen mit Wiederaufbereitungsanlagen auch Kernwaffenstaaten sind. Mit anderen Worten: Wirtschaftlichkeit unter besonderen Randbedingungen. Ähnliches gilt für den Druckwasserreaktor: Er ist eigentlich kein besonders glückliches Modell, um elektrischen Strom in einem Kraftwerk herzustellen, aber das geeignetste Schiffsantrieb (Atom-U-Boot). Entsprechend sind überall auf der Welt konzentriert Mittel für Forschung und Entwicklung in dieses Modell geflossen. Mit dem Ergebnis, dass er heute den Markt für zivile Kraftwerke dominiert. Durch das Trauma der Irankrise stoppte Jimmy Carter (selbst mit kerntechnischer Ausbildung) die zivile Wiederaufbereitung in den USA. Da die USA über gewaltige preiswerte Uranvorkommen verfügen, wollte er durch eine langfristige „Zwischenlagerung“ abgebrannter Brennelemente eine Weiterverbreitung der Wiederaufbereitungstechnologie eindämmen. Ein — wie wir heute wissen — zum Scheitern verurteilter Weg.

Seit dem Ende des zweiten Weltkrieges gab es unzählige Konzepte für eine (rein) friedliche Nutzung der Kernkraft. Bereits in den 1950er Jahren baute man Prototypen von Kraftwerken, die das Uran besser nutzen sollten, weniger (langlebigen) Atommüll produzierten oder Thorium verwendeten. Stichworte hierfür sind Reaktoren mit schnellen Neutronen mit Natrium oder Blei/Wismuth als Kühlmittel und Hochtemperaturreaktoren mit Thorium als Brennstoff und Helium als Kühlmittel. Noch weiter ging der Schritt, Brennstoff und Kühlmittel miteinander als geschmolzene Salzlösung zu kombinieren. Bis heute verfolgt Russland beharrlich das Konzept einer „Atomwirtschaft“ aus drei Reaktortypen: Die Grundlast soll mit natriumgekühlten „schnellen Brütern“ erzeugt werden, Leichtwasserreaktoren heutiger Bauart als „Arbeitspferde“ dienen und deren „Atommüll“ in einigen wenigen Salzbadreaktoren „verbrannt“ werden. Worin bestehen nun die Unterschiede im Atommüll solcher (fortschrittlichen) Konzepte?

Hier kommt die Lebensdauer ins Spiel. Wäre der „Atommüll“ innerhalb von — sagen wir 300 Jahren — vollständig verschwunden, würde die Diskussion sicherlich zu einer gänzlich anderen Bewertung führen. Als Totschlagargument gegen die Kerntechnik dient die Gefahr für Jahrmillionen. Diese besteht aber nur, wenn man so langlebige Isotope, wie Plutonium und die  sog. „Minoren Aktinoiden“ weiter bestehen lässt. Genau dies fordern aber nur die Deutschen Grünen! Machen wir uns nichts vor, selbst wenn heute weltweit mit der Nutzung der Kernenergie (Brückentechnologie!) Schluss gemacht würde, würden einige tausend Tonnen Plutonium und Aktinoiden — nicht zuletzt aus der Rüstung — verbleiben. Diese sollen nach den Wünschen von Trittin und Co aus rein ideologischen Gründen einfach verbuddelt werden. Wahrscheinlich als Dünger für die Verwirklichung des Sozialismus. Diese Forderung von „Atomkraftgegnern“ kann man nur als pervers bezeichnen. Es soll eine vermeidbare Gefahr aus einer verquasten Ideologie heraus erhalten werden, um Argumente für die Durchsetzung unsinniger Investitionen in Wind und Sonne rechtfertigen zu können. Warum ist die Rückkehr zu einer Wiederaufbereitung — als erster Schritt zur Beseitigung — zwingend notwendig? Wenn ein Brennelement den Reaktor verlässt, besteht es immer noch zu rund 95% aus Uran. Ein Recycling vermindert die weiterhin zu „bewachende“ Menge auf weniger als 5%. Ein bereits nicht als gering zu schätzender Vorteil. Trennt man nicht nur das Plutonium, sondern auch die Aktinoiden ab, verbleiben die Spaltprodukte, die nach etwa 400 Jahren vollständig verschwunden sind. Plutonium wird bereits heute weltweit in konventionellen Reaktoren als Brennstoff wirtschaftlich eingesetzt. Das eigentliche Problem stellen die „Minoren Aktiniden“ dar, sie lassen sich aber in Reaktoren mit schnellem Neutronenspektrum „mit verbrennen“.

Noch einmal zur Klarstellung, um ein oft gehegtes Missverständnis zu vermeiden: Eine Wiederaufbereitung ist ein rein chemisches Verfahren, bei dem weder Radioaktivität erzeugt noch vernichtet wird. Die Radioaktivität ist am Ende des Prozesses gleich groß, wie am Anfang (abgesehen von einigen Zerfällen während des Prozesses). Jede Wiederaufbereitung dient nur zur (möglichst guten) Trennung in verschiedene Fraktionen. Die größte Fraktion ( 95% Uran) stellt das Uran dar. Da es in seiner Zusammensetzung etwa dem Natururan entspricht, ist es — vom Standpunkt der Radioaktivität betrachtet — völlig harmlos. Jeder, der beispielsweise schon mal mit einem Jumbo geflogen ist, war von mehreren Kilogramm Uran in Form von Ausgleichsgewichten etc. für Stunden umgeben. Ohne ideologische Begleitung wird hierbei offensichtlich ein „Krebsrisiko“ akzeptiert, was für 95% eines abgebrannten Brennelements plötzlich zur „Gefahr für die Menschheit“ hoch stilisiert wird. Kommen wir nun zu den rund 3% Spaltprodukten. Wenn sich Uranatome zerlegen, entsteht praktisch das gesamte Periodensystem chemischer Elemente. Die neu entstandenen Elemente sind überwiegend radioaktiv und zerfallen in bekannten Ketten weiter, bis ein stabiler Zustand erreicht wird. Als Maßstab für die Lebensdauer verwendet man die Halbwertszeit. Das ist die gemessene Zeitdauer, nach der genau noch die Hälfte der ursprünglichen Stoffmenge vorhanden ist. Dieser Zerfall ist übrigens durch nichts zu beschleunigen oder zu verlangsamen. Es hat sich eingebürgert, die zehnfache Halbwertszeit als die Zeitdauer anzusetzen, nach der der Stoff (praktisch, d. h. bis auf weniger als ein Promille) verschwunden ist. In diesem Zeitraum ist eine sichere Lagerung erforderlich. Ob es sinnvoll ist, die Spaltprodukte in Salzstöcke zu verbuddeln, dazu später. An dieser Stelle ist fest zu halten, dass die Spaltprodukte kein Problem für geologische Zeiträume, sondern allenfalls wenige Jahrhunderte  darstellen. Ein Zeitraum, der sonst — es sei hier nur auf „chemische Gifte“ und deren Deponien verwiesen — gesellschaftlich locker akzeptiert wird.

Kommen wir nun zum „Endlagerproblem“. Lediglich die Stoffe, die sich durch das (wiederholte) Einfangen eines Neutrons ohne Spaltung gebildet haben, ergeben wegen ihrer langen Halbwertzeit ein „Problem für die Menschheit“. Dies fängt beim Plutonium an und setzt sich über die Gruppe der „Minoren Aktinoiden“ fort. Es war immer geplant, das eine Prozent Plutonium aus den „abgebrannten“ Brennstäben zu extrahieren und im Kraftwerk wieder als Brennstoff zu verwenden. So kann aus etwa sieben abgebrannten Brennstäben ein neuer (sog. Mischoxid) hergestellt werden. Nebenbei gesagt, eine Technologie die in Deutschland entwickelt und zur Anwendung gebracht wurde. Durch die Hysterie von Rot/Grün („Plutoniumfabrik“ in Hanau) ist dieser Vorteil verspielt worden, wird dafür aber überall in der Welt dankend weiterverwendet. Neuerdings auch großtechnisch in Japan. Ein Anhaltspunkt, wie groß der technische Fortschritt in Deutschland auf diesem Gebiet einmal war, bis der „Taxifahrer“ Joseph Fischer seinen Hass auf das System als Umweltminister in Hessen auszuleben begann. Das war die Geburtsstunde der „Endlagerproblematik“, die dann von Müller/Trittin/Schröder/Fischer mit der Neufassung des „Atomgesetzes“ und dem darin enthaltenen Verbot der Wiederaufbereitung und der „Konditionierung der Brennelemente“ in Gorleben und deren Endlagerung vollendet wurde. Man kann es sehen, wie man es sehen möchte, als Plan zur Deindustriealisierung Deutschlands oder als Vorbereitung der persönlichen Lebensplanung: Müller anschließend im Kohlengeschäft, Schröder und Fischer im internationalen Gashandel.

Von der gesamten „Endlagerproblematik“ bleiben bisher nur die „Minoren Aktinoide“, die sich im Bereich einiger Promille des abgebrannten Brennstoffes bewegen, übrig. Bisher wurden diese international wegen ihrer geringen Menge nicht als Problem betrachtet. In Frankreich z. B. sollen sie zusammen mit den Spaltprodukten in Glas eingeschmolzen und langfristig gelagert werden. Sie lassen sich nur recht aufwendig mit dem PUREX-Verfahren abtrennen. Allerdings war ein solcher zusätzlicher Verfahrensschritt bei der Wiederaufbereitungsanlage in Wackersdorf bereits in der technischen Planung. Der Baustopp der Anlage Wackersdorf war übrigens das erste Bubenstück des Herrn Müller, welches ihn anscheinend zum Minister — parteilos — unter Schröder qualifizierte. Gleichwohl, hat man die Aktinoiden erst mal chemisch aus der Suppe der Spaltprodukte abgetrennt, ist ihre Beseitigung — unter Energiegewinnung — nur eine Frage „überschüssiger“ Neutronen. Egal ob man diese aus „schnellen“ Reaktoren (international favorisierte Lösung), Spallationsquellen (Deutschland) oder Laser-Fusion (USA) bezieht. Alle Verfahren funktionieren und sind bereits erprobt, aber mehr oder weniger kostenintensiv. Bezüglich der Kosten hat aber in den letzten Jahren grundsätzlich eine Verschiebung stattgefunden: Kerntechnik ist nicht mehr in Konkurrenz zu billigem Öl und Kohle, sondern als Alternative zu den exorbitant hohen Kosten der „erneuerbaren“ Energien zu bewerten. Sollte tatsächlich die Versorgung durch Wind und Sonnenenergie die neue Vergleichsbasis werden, wird schlagartig das „Jahrtausend der sauberen Kernenergie“ ausbrechen. Im Moment spricht vieles dafür. Asien (China, Japan, Südkorea und Indien) setzen bereits voll auf diese Karte. China sieht Kerntechnik als die kommende Schlüsseltechnologie an und will auf diesem Gebiet Weltmarktführer werden. Die USA entwickeln gerade fieberhaft eine Antwort auf diese Herausforderung. Nur Deutschland setzt tapfer auf „Plastikflügel auf Stahlmasten“. Wer das verstehen will, sollte sich mal in die Archive begeben und die Flugblätter der „Anti-Atomkraft-Bewegung“ noch einmal lesen. Dort wurde die Nutzung von Wind und Sonne nie als „High-Tech“ verkauft, sondern stets als „Angepaßte Technologie“ bezeichnet. Sie sollte gerade ein Gegenmodell zur Industriegesellschaft bilden. Sozusagen mit dem Windrad auf dem Biobauernhof in die schöne neue Welt des Sozialismus. Überspitzt könnte man auch sagen: Kampuchea light.

Abschließend stellt sich die Frage, ob „Atommüll“ überhaupt Müll ist. Spaltprodukte sind genauso Abfall, wie eine Plastiktüte oder sonstiger Schrott. Sie enthalten jede Menge wertvoller Rohstoffe. Es gibt bereits in Indien ein kommerzielles Projekt, was sich mit der Extraktion von Rhodium beschäftigt. Man ist dort der Meinung, dass allein der Gehalt an Rhodium und Palladium (beides wichtige Ausgangsmaterialien für Katalysatoren) im „Atommüll der Welt“ zu heutigen Preisen bereits mehrere hundert Milliarden Dollar beträgt. Indien ist mit diesen Gedanken nicht allein. Wir erinnern uns, die Aktivität nimmt mit der Zeit exponentiell ab. Der erste Atommüll aus den frühen Atombombenprogrammen ist schon über 60 Jahre alt, d. h. bereits stark abgeklungen. Je geringer die Aktivität, je einfacher und damit billiger ist er technisch handhabbar. Deshalb gibt es in keinem Land der Welt — mit der einzigen Ausnahme Deutschland — mehr das Konzept einer Endlagerung. Überall geht man heute von einer zwar langfristigen aber stets rückholbaren Lagerung aus. Ob dies oberirdisch (USA), in Kammern im Granitfels (Finnland) oder unterirdisch in Ton (Schweiz) erfolgt, ist nahezu Geschmackssache. Technisch hat alles seine Vor- und Nachteile. Der Atommüll ist eine der seltenen Ausnahmen, wo das spielen auf Zeit durchaus wirtschaftlich ist. Je länger man mit dem Recycling wartet, desto einfacher ist die Handhabung. Die Lagerkosten sind wegen der geringen Mengen zu vernachlässigen. Wir erinnern uns: 1 g Uran setzt soviel Energie frei, wie 3.000.000 g Kohle. Die Lagerkosten spielen bezogen auf seinen Wert eine geringere Rolle als bei Gold.

Nun noch ein paar Worte zu den „Endlagern“. In jedem Land wurde nach den „besten“ unter den „möglichen“ Standorten gesucht. Kleine Länder haben deshalb nur eingeschränkte Auswahlmöglichkeiten. Wenn man einen Stoff, den man als gefährlich ansieht, über sehr lange Zeiträume von „menschlichen Aktivitäten“ fern halten will, muss man unter den geeigneten Formationen die auswählen, die am wenigsten wert ist. Es macht wenig Sinn, den Atommüll in Gebiete zu verbuddeln, von denen man weiß, dass sie wertvolle Rohstoffe enthalten. In Deutschland ist dieser Stoff Salz. Das ist der Grund, warum man hier Salz als „Mülldeponie“ — auch für sonstige gefährliche chemische Stoffe — verwendet und nicht z. B. alte Kohlegruben. Insofern ist die Suche nach „alternativen Standorten“ ein äußerst fadenscheiniges Argument. In Frankreich und der Schweiz will man Tonschichten verwenden und in Schweden und Finnland Granit. Das sind die dort „minderwertigsten“ geologischen Vorkommen. Ebenso ist jedem Fachkundigen, der Zustand der alten, außer Betrieb genommenen Salzbergwerke Asse und Morsleben (dort ruht der „Atommüll“ der DDR, der wegen des richtigen Klassenstandpunktes natürlich völlig ungefährlich ist) bekannt gewesen. Ganz einfach und deutlich gesagt: Es war immer klar, dass in beide Bergwerke innerhalb kürzester Zeit Wasser eindringt. Es war deshalb — jedenfalls im Falle Asse und Schacht Konrad — immer nur die Grundlage aller Untersuchungen und Berechnungen, mit welcher Geschwindigkeit und in welchem Zeitraum aufgelöster „Atommüll“ wieder in biologisch genutzte Bereiche gelangt! Es kann immer nur um Wahrscheinlichkeiten gehen. Endlösungen gibt es nur in der Vorstellungswelt von Deutschlehrern und Sozialwirten.

Nach der Bestandsaufnahme stellt sich nun die Frage, in welche Richtung die weitere Reise gehen sollte. Der wichtigste Schritt ist, endlich Schluss mit der Realitätsverweigerung zu machen: Es gibt bereits heute „Atommüll“ und es wird auch auf jeden Fall weiterhin welcher produziert werden — unabhängig von Kernkraftwerken. Es sei denn, man will auch aus der Nuklearmedizin und Werkstofftechnik aussteigen. Das wäre allerdings das endgültige Bekenntnis zum Modell Kampuchea! Darauf ist immer wieder klar und deutlich in der Öffentlichkeit hinzuweisen. Wer das „Risiko Strahlung“ ausschalten will, muß auch die Verantwortung für die daraus resultierenden Konsequenzen (z. B. Verzicht auf Nuklearmedizin) übernehmen. Es ist jedem Menschen freigestellt, sich einer „Strahlenterapie“ z. B. bei Krebs zu verweigern. Wenn man sich aber zu einer Nutzung der „Strahlung“ entscheidet, muss man sich auch der Verantwortung des „Müllproblems“ stellen. Dies ist nicht anders, als bei einem Sonnenkollektor. Wer sich ein solches Gerät zur persönlichen Gewinnerzielung auf das Dach stellt, muss auch die Verantwortung für die Gifte bei Produktion und Beseitigung übernehmen. Die Vorstellung von einer Welt, in der es nur Vorteile oder nur Nachteile gibt, sollte sich mit dem „erwachsen werden“ erledigt haben.

Hat man die Realität zur Kenntnis genommen, geht es darum „mögliche“ Lösungen vorurteilsfrei zu diskutieren. Die Betonung liegt dabei auf „Möglichkeiten zu schaffen“. „Endlösungen“ gibt es nur in sozialistischen Weltvorstellungen. Auf die „Atommüllfrage“ übertragen heißt das: Wiederverwendung bzw. Beseitigung (Plutonium etc.) muss vor Deponierung gehen. Technische Lagerung ist einem vermeintlich kostengünstigem „verbuddeln“ vorzuziehen. Spätestens nach der Erfahrung mit der Asse und Morsleben sollte dies jedem bewusst geworden sein. Es muss endlich wieder dem Begriff der „Wirtschaftlichkeit“ Geltung verschafft werden. Ist es wirklich sinnvoll, weitere Milliarden in den politischen „Zankapfel Gorleben“ zu versenken? Technisch ist das nicht notwendig. Diverse Alternativen einer langfristigen und sicheren Lagerung stehen bereit. Aus dem sehr standfesten und trockenem Schacht Konrad könnte beispielsweise mit weit aus geringerem Aufwand ein „rückholbares“ Lager nach skandinavischem Vorbild gemacht werden. Es wäre hierzu eine rein politische Entscheidung notwendig. Deutschland muss sich wieder auf die internationale Bühne der kerntechnischen Forschung und Entwicklung begeben. Man würde uns mit offenen Armen empfangen! Allerdings kann nur Deutschland selbst, das finstere Rot/Grüne-Zeitalter der totalen Verweigerung beenden. Die Aufgabe der Politik ist es „Möglichkeiten zu schaffen“ und nicht die Welt mit ideologischen „Glaubensbekenntnissen“ und „endgültigen Lösungen“ zu fesseln. Sollten wir wirklich nichts aus unserer jüngeren Geschichte gelernt haben?

Gastkommentar Klaus-Dieter Humpich erschienen zuerst bei Denken für die Freiheit




Der Klima-Schwindel! Wie uns der öko-industrielle Komplex abzockt: Zitat: „Ob C02 oder nicht, ist mir egal, hat mir ein Topmanager gesagt, da will ich dabei sein.“

Die Filmemacher reisten an die Brennpunkte des Geschehens: zur 2. Internationalen Klimakonferenz nach Berlin und zum UN-Klimagipfel nach Kopenhagen. Sie trafen sich mit kritischen Wissenschaftlern und Journalisten, um der allgemeinen Hysterie mit Fakten zu begegnen. Günter Ederer, der mit seinen Enthüllungsreportagen im deutschen Fernsehen schon häufig für Aufsehen sorgte, weist dem selbsternannten Klimapapst Al Gore offensichtliche Propagandalügen nach. Doch wer sind die Hintermänner dieser Kampagne und die Profiteure dieses Milliardengeschäftes? Dr. Wolfgang Thüne, ehemaliger ZDF-Wetterexperte, rehabilitiert den vermeintlichen Klimakiller CO2 und widerlegt die These von der globalen Klimakatastrophe. Dr. Bruno Bandulet, Herausgeber des Informationsdienstes “GOLD & MONEY INTELLIGENCE”, deckt die wahren Absichten der “Klimaretter” auf. Professor S. Fred Singer, renommierter Physiker aus den USA, fordert eine lückenlose Aufklärung des “Climategate”-Skandals. Lord Christopher Monckton, langjähriger Berater der britischen Premierministerin Margaret Thatcher, analysiert die Thesen des UN-Klimarates IPCC bis ins kleinste Detail – und kommt dabei zu verblüffenden Ergebnissen.

Der Journalist Ronald Gläser hat ihn sich angesehen: Wir bringen Auszüge aus seiner Kritik in "Eigentümlich Frei" (Printausgabe S 71). Beziehen können Sie die DVD z.B hier

Der Klimaschwindel; Frei von Gebühren 

Dokumentarfilm auf DVD  von Ronald Gläser 

Das Märchen vom durch den Menschen gemachten Klimawandcl könnte aus Tausendundeiner Nacht stammen, so leicht ist es als wilde Phantasie erkennbar. Inzwischen sind daher auch viele gute Bücher darüber geschrieben worden. Filme im Widerspruch zu Al Gores Machwerk "Eine unbequeme Wahrheit" gibt es dagegen kaum. Mit "Der Klimaschwindcl" liegt nun endlich auch ein Video vor, das die Geschichte "von den aussterbenden Eisbären, den abschmelzenden Polen und dem ansteigenden Meeresspiegel als dreiste Lüge einer kleinen Ökomafia entlarvt. 

Der Wirtschaftsjournalist Günter Ederer fasst deren Motivation so zusammen: "Für die Linken ist die Klimakatastrophe die Möglichkeit vorzuführen., dass die industrialisierte kapitalistische Welt endgültig am Ende angekommenist und abgeschafft gehört." Für große Teile der "Rechten" aber sei es eine Möglichkeit, Subventionen abzugreifen. "Ob C02 oder nicht, ist mir egal, hat mir ein Topmanager gesagt, da will ich dabei sein." ….

…So ist das bei einem Film, der "garantiert nicht aus TVGebühren finanziert ist", wie es in der Eigenwerbung heillt. Es gab bislang noch keine liberalen Untergrundfilmer in Deutschand, die Enthüllungsstreifen im Stile von "Lose Change" produzierten ohne Aussicht auf nennenswerte Umsatzerlöse. Mit "Der Klimaschwindel " ist jetzt ein vielversprechender Anfang gemacht.