1

Zensur durch Rausschneiden: Fehler in der Prognose des UBA und Max Planck-Institutes für Meteorologie werden von 3Sat nicht mehr erwähnt!

Das folgende Video belegt anhand zweier (fast) identischer 3SAT-TV-Berichte, wie in den öffentlich-rechtlichen TV-Medien manipuliert wird, insbesondere wenn es um das Thema "Klimawandel" geht.

SOLARKRITIK.DE beweist mit dem folgenden Video, daß ein 3SAT-TV-Beitrag vom 06.10.2008 über einen dokumentierten Fehler in der Klimaforschung in einem später-gesendeten TV-Beitrag am 04.02.2010, – also ca. 1 1/2 Jahre später –  aus der thematisch-identischen Wiederholung der ursprünglichen 3SAT-Sendung herausgeschnitten worden ist, und gegen einen anderen, "harmloseren" Beitrag – Fehler in der Mars-Raumfahrt – ersetzt worden ist.

Bekanntlich steht seit Dezember 2009 die Klimaforschung und speziell das IPCC vehement in der Kritik, weil angeblich Klima-Daten manipuliert worden sind und auch offenkundige Fehler im IPCC-Bericht 2007 nicht korrigiert worden sind.

Das folgende Video dokumentiert, welche zweifelhafte Rolle auch die gebührenfinanzierten TV-Medien des öffentlich-rechtlichen Rundfunks bei der Vertuschung politisch-nichtgewollter Inhalte spielen:
Übernommen von Solarkritik.de




Spannende Klimadiskussionen in Leipzig! Keinesfalls versäumen!

Grußworte sprechen: Prof. Dr. Klaus Landfried, Heidelberg, vormals Präsident der Hochschulrektorenkonferenz

und

Prof. Dr. Martin Schlegel, Rektorat der Universität Leipzig (Prorektor für Forschung und wissenschaftlichen Nachwuchs).

Die Referenten sind: Diplom-Meteorologe Klaus-Eckart Puls, (Ltd. Reg.-Dir. i.R.), EIKE vormals: Leiter der Wetterämter Essen und Leipzig

und

Prof. Dr. Werner Kirstein, Institut für Geographie der Universität Leipzig. Interessierte sind herzlich eingeladen teilzunehmen.

Redaktion EIKE

Related Files




Obamas Grünes Modell-Land? Dänemark führt Zwangsräumung von Bürgern durch, legt Wälder nieder, um Platz für Windmühlen zu schaffen.

Obama beschwor aber gerade auch Spanien, sich zurückzunehmen oder zu einem Risiko wie Griechenland zu werden. So hat er rasch den Schalter umgelegt und die Legislatur hart bedrängt, das Kerry-Lieberman-Gesetz mit seinem "Weg in die Insolvenz" zu erlassen,  alles we­gen Spanien.

Sehr verwirrend – oder vielleicht schamlos – spielt Obama nun eine andere Platte ab: "Schaut, was in Ländern wie Dänemark passiert."
Natürlich ist das dänische Beispiel nichts Weltbewegendes – die dänische Bevölkerung entspricht mal gerade der Hälfte der Bevölkerung von Manhattan und stellt kaum ein nützliches Energie-Modell für unsere sehr verschiedene [U.S.] Wirtschaft und Gesellschaft dar.

Es kommt aber noch besser.

In meinem neuen Buch: "Power Grab: Wie Obamas Grüne Politik uns unserer Freiheit beraubt und Amerika ruiniert",  beschreibe ich die Absurdität der "Freibier"-Theorien der "Grünen Wirtschaft", die unsere staatlichen Freunde nun eingesogen haben als letzten Daseinsgrund für eine gelenkte Gesellschaft. Meine Schwiegermutter liest anlässlich ihres Besuchs aus Dänemark mein Buch mit einem besonderen Interesse für den Teil, wo es um die schwerlastige Besteuerung der Arbeit in jenem Land geht.

Das Buch hat sie auch dazu veranlasst, eine erstaunliche neue Anekdote über die Fallstudie zu erzählen, die von den Dänen "Das Windmühlenmärchen" genannt wird. Im nördlichen Jütland in einem Gebiet namens Thy vertreibt Dänemark die Menschen von ihrem Land und schickt sich an, 15  vielleicht auch 30 qkm Wald zu roden, um noch mehr von jenen Vogel- und Arbeitsplatzvernichtenden Ungeheuern aufzustellen. (Augenscheinlich ein dänisches Kelo. Anm. d. Ü.: Im "Kelo"-Fall hat das oberste Gericht von Connecticut eine Enteignung für rechtens erklärt, die zum Zwecke des öffentlichen Wohls erfolgt.  Näheres hier )

Jene riesigen Windmühlen sollen nicht einmal eine Energie-Lücke für die dänische Wirtschaft füllen. Nein, sie sind einem Versuch an Land gewidmet für massive neue Meeres-Windturbinen – mit der Möglichkeit der Verleihung an Wind-Fachfirmen, wie Siemens.

Die dafür vorgebrachten Argumente sind nicht einmal die lachhaft typischen Umweltschutzgründe. Am Ende "wird die Abholzung den CO2-Ausstoß um 400.000 Tonnen erhöhen, ent sprechend dem CO2-Ausstoß von 100.000 Menschen pro Jahr".

Sie bringen auch das Argument der Pflicht zur Schaffung von dänischen Arbeitsplätze vor.

Umso notwendiger scheint das Argument vom "Schaffen von Arbeitsplätzen" zu sein, soweit im Rahmen derartiger Zwangsvorhaben überhaupt möglich, da sie typischerweise Arbeitsplatzvernichter sind, weil die Regierung zunächst den privaten Sektor daran gehindert hatte. Dänemark hat gesetzliche Vorschriften, in welchen Mengen mit diesen Methoden Energie erzeugt werden darf. Und immer kommt dabei heraus, dass die zulässigen Verfahren ineffizient, diskontinuier lich und teuer sind. Das erklärt doch schon den Bedarf an gesetzlicher Regulierung.

Unternehmer, die Steuern und weitere Kosten zahlen, bis sie nicht mehr können, verabschieden sich schon bei weniger dümmlichen politischen und wirtschaftlichen Rahmenbedingungen. Wie in Kentucky z. B., wie ich in "Power Grab" ausführe.

Ja, Herr Präsident Obama, schauen wir mal, was in den europäischen Ländern geschieht.

Lassen wir mal die auffällige Ironie bei Seite, welche Notwendigkeiten der "Grüne Vorgehens plan" erfordert, lange bevor er zu seinem logischen Ende kommt. Es gibt nämlich eine wichtigere Lehre, die Lehre von einem Aufguss der europäischen Sozialdemokratie, welche unsere Politikschlauberger uns einzupauken versuchen, bis es im November dazu kommt, dass der Wähler zum Urteil über diese Art von "Change" aufgefordert ist.

Das Wichtigste, was man aus Spanien lernen muss: jene viel gerühmten Arbeitsbeschaffungsprogramme, die der Wirtschaft nur Zeit- und Geldverschwendung durch erhebliche Redundanzen bescheren, erzeugen immer nur wieder Seifenblasen. Diese Blasen entstehen, weil Wohlstand vom Steuerzahler transferiert wird, will sagen von produktiver Verwendung hin zu wesenhaft unwirtschaftlicher Verwendung (noch einmal: sie müssen gesetzlich vorgeschrieben und gefördert werden, um zu entstehen).

Die Blasen platzen so lange nicht, wie fortwährend Infusionen mit umverteiltem Steuerzahler geld stattfinden. Aber dass sie so einfach entstehen, ist politisch nicht hinnehmbar für die Wählerschaft, nur weil sie von Politikern durch Fördergelder und Vorschriften geschaffen werden. Es gibt einen Grund, warum General Electrics Washingtoner Lobby-Budget höher ist als das aller großen Ölfirmen zusammen. Wenn die Regierung einen "Markt" erzeugt hat durch behördliche Anordnung, schütten die Empfänger der Großzügigkeit gigantische Mittel aus, um die Absahnerei am Laufen zu halten und noch zu verstärken.

Das genau ist in Spanien passiert, wo die öffentliche Verschuldung drohte, in den wirtschaftlichen Bankerott zu führen.

Und in Dänemark, wo die Politiker versuchen, jeden Quadratmeter Land zu säubern, den sie finden können – selbst wenn er bewohnt oder bewaldet ist – um noch mehr Windmühlen auf zustellen im Namen der "Arbeitsplatzschaffung".

Wir haben aus Obamas Modellen in Spanien und Dänemark (auch in Deutschland) gelernt, dass es keine zusätzlichen Arbeitsplätze gibt, auch nicht geben wird, wenn Geld zum Fenster hin ausgeworfen wird. Die Arbeitsplatzverluste und Opportunitätskosten durch Belastung mit hö heren Energiekosten und anderen Einschränkungen der persönlichen Freiheit schaden der Wirtschaft insgesamt. Was die Wirtschaft dafür erhält, sind zeitlich begrenzte Arbeitsplätze und höhere Schulden – letztendlich bedeutet das höhere Steuern.

Diese Politik leert die öffentlichen Kassen, lenkt unser schwer verdientes Geld zu etablierten Profiteuren um. Und nun führt sie auch zum Abholzen von Wäldern und zur Enteignung.
Auf solche Art – eine besonders in Washington bekannte Art – aber augenscheinlich auch sonst wo, regieren die "Markt-Sozialisten" – das macht schon Sinn.

24. 05. 2010
von Christopher Horner Den Originalartikel finden Sie hier Obamas Grünes Modell-Land? Dänemark führt Zwangsräumung von Bürgern durch

Die Übersetzung besorgte dankenswerterweise Helmut Jäger für EIKE




Teure Versprechung: Jobmotor Erneuerbare Energien? Eine kritische Betrachtung!

Die real geschaffenen Arbeitsplätze in der Branche liegen bei einem Bruchteil des beworbenen Bruttobeschäftigungseffektes (ca. 1/3) und werden jährlich mit etwa 150.000 EUR/Arbeitsplatz subventioniert.

Nach der Budgeteffekt-Theorie können die Arbeitsplatzeffekte der erneuerbaren Energien ermittelt werden. Der maßgebende Nettobeschäftigungseffekt ist offensichtlich bei den untersuchten Technologien dauerhaft negativ. In Summe wurde dem geplanten Ausbau der erneuerbaren Energien bis 2020 ein Gesamtverlust von etwa 275.000 Arbeitsplatzen über die Zeitdauer der Subventionierung errechnet. Jeder grüne Job hat den Verlust von zwei Arbeitsplätzen in der Realwirtschaft zur Folge.

Das EEG versagt, da es jede Technologie entsprechend Ihres Wettbewerbsdefizites für 20 Jahre subventioniert. Dies bewirkt die massenhafte Verbreitung unwirtschaftlicher Technologien. Innovationen werden verhindert und Partikularinteressen der Lobbyisten und Kapitalanleger bedient. Es besteht keine Aussicht, dass die aufgeführten Technologien unter hiesigen Bedingungen jemals die Grenze der Rentabilität erreichen. Auch bei Berücksichtigung der umstrittenen externen Kosten (70 EUR/t CO2 [BMU 2007]) ändert sich das Bild nur marginal. 

Andere Möglichkeiten (Effizienzsteigerung des Kraftwerksparkes, Weiterlaufen der Kernenergie und Einstieg in die Reaktortechnik der 4. Generation) können zu einem Bruchteil der Kosten eine langfristig sichere, wettbewerbsfähige und CO2- arme Stromversorgung gewährleisten.

Außerhalb Deutschlands bestehen keine Technologieverbote (Kernenergie) und protestiert niemand gegen den Neubau von hocheffizienten Kraftwerken. Die Frage ist, wie lange Deutschland mit den zukünftig weltweit höchsten Energiekosten im Wettbewerb bestehen kann.

Bis zum Jahr 2015 wird damit gerechnet, dass sich die EEG-Umlage von aktuell 2,047 ct/ kWh auf größer 5 ct/kWh erhöht [Handelsblatt 14.05.2010]. Dies entspricht Mehrkosten der erneuerbaren Energien von größer 20 Mrd. EUR/a. Ein Teil energieintensiven Branchen mit einem Mengenanteil von 30 % ist von den direkten Kosten entlastet (Härtefallregelung). Weitere Belastungen erfolgen zukünftig durch den Emissionshandel und die indirekten Kosten des EEG (Netzentgelterhöhung, Verteuerung der konventionellen Stromerzeugung durch Strukturveränderung in Richtung einer Spitzenlasterzeugung). Die Wettbewerbsfähigkeit der Industrie ist damit akut gefährdet.

Im Ergebnis ist zusätzlich zu den dargestellten Beschäftigungseffekten die Verlagerung von Arbeitsplätzen der energieintensiven Industrien (ca. 800.000 direkte Arbeitsplätze) in das Ausland zu erwarten. Der Umweltmister Röttgen hat diese Industriebranchen unlängst zu Auslaufmodellen erklärt [Handelsblatt 19.05.2010]. Dafür sollen „grüne“ Branchen vom Klimaschutz profitieren. Fragt sich nur, wer dann die Mittel für diese Subventionsbranchen erwirtschaftet und wie diese „Münchhausen-Ökonomie“ funktionieren soll….

Lesen Sie weiter im Gesamtartikel. Sie finden ihn in der pdf Anlage.

von EIKE Gastautor Dipl. Ing. Michael Schmidt

Weiterführende Informationen finden Sie z.B. hier (spanische Calzdada Studie)  und hier (italienische Stagnero Studie)

Related Files




Verpaßte Entwicklung im Kernkraftwerksbau: Der Thorium Reaktor!

Das Ergebnis war ein Vortrag, den ich am  vor der FG Nutzen der Kerntechnik gehalten habe. Er ist eine objektiv nüchterne Bestandsaufnahme der positiven und negativen Erfahrungen beim Betrieb beider Anlagen. Danach wurde ich nochmals gebeten, einen Vortrag auszuarbeiten, mit dem Ziel, die vorerwähnten Erfahrungen als Grundlage für eine HTR-NHTTechnik zu nutzen, wie diese nach heutigem Stand der Erfahrungen gebaut werden kann. Diesen Vortrag habe ich unter dem Titel :"Nukleare Hochtemperaturtechnik zur Erzeugung von flüssigen Brennstoffen, Wasserstoff und elektrischer Energie"  am 27.3.2010 gehalten. Beide Vorträge sind im Internet unter : www.buerger-fuer-technik.de nachzulesen. Eine "Power-point" Kurzfassung steht im Internet unter: www.buerger-fuer-technik.de/Vortrag_FG_Nutzen_27.3.2010.pdf .

Die Vorteile dieser neuen weiterentwickelten Konstruktion, die weltweit mit diesem Konzept erstmals vorgestellt wird, habe ich "Schlagwortartig" im Anhang zusammengefaßt. Mit diesem Konzept werden alle gegen die HTR-NHT-Technologie von den verschiedensten ÖKO-Instituten und sonstigen "Bedenkenträgern" gegen diese Technik beschriebenen Argumente ausgeräumt. Ich hoffe, diese sind zu einer sachlichen Diskussion bereit. Es wäre schade für die deutsche Volkswirtschaft, wenn diese Technik nicht mit breiter Zustimmung gebaut werden könnte, da sie absolut radiologisch-nuklear bei etwas Sorgfalt bedenkenlos betrieben werden kann.

Dr.-Ing. Urban Cleve
in jungen Jahren "Hauptabteilungsleiter Technik der BBC/Krupp Reaktorbau GmbH"
danach Vorstand und Geschäftsführer in großen Unternehmen des Umwelt- und Energietechnischen Anlagenbaus.

Auszug:

Die Vorteile der nuklearen Hochtemperaturtechnologie.

 

1.Sicherheit.

·      Spaltprodukte werden im Kern des nur 0,5 mm großen Durchmessers der „Coated Particles“ durch hoch-gasdichte Hüllen aus aus PyC und SiC weitgehend zurückgehalten. 1. Barriere gegen den Austritt von Radioaktivität.

·      Daher nur geringe Belastung des Primärgaskreislaufs mit      Spaltprodukten.

·      Spannbetonbehälter ist „berstsicher“, daher 2. Barriere.

·      Containment mit großem Volumen als 3. Barriere.

·      Doppelter He/He-Kreislauf verhindert Übertragung von Spaltprodukten in Sekundärkreisläufe.

·      Kernschmelze nuklearphysikalisch ausgeschlossen. Kein „GAU“ möglich.

·      Sicher gegen Terrorangriffe und Flugzeugabsturz.

·      Schnell-BE-Abzug in sicheren Notfallbunker.

·      Sicher gegen Fremdmedieneinbruch.

·      Hohe Temperaturen wegen Grafiteinbauten möglich.

·      Sichere und einfache Kontrolle über den Verbleib des radioaktiven Materials.

·      Höchste Erdbebensicherheit.

·      Keine Kontamination im Sekundärbereich.

 

Nuklear physikalisch kein „GAU“ möglich, daher versicherbar.

2. Wirtschaftlichkeit. 

·      Hohe Primärgastemperaturen ermöglichen hohe thermodynamische Wirkungsgrade. Daher beste Ausnutzung des nuklearen Brennstoffs.

·      Einsatz von Thorium 232 ermöglicht das Erbrüten des spaltbaren Urans 233 als neuem Brennstoff. Daher reichen die vorhandenen Uranreserven auf unabsehbare Zeiten aus.

·      Hochtemperaturwärme kann  in verschiedenen Verfahrenstechniken wirtschaftlich eingesetzt werden.

·      Kontinuierliche Beschickung der Brennelemente ermöglicht lange Betriebszeiten ohne Unterbrechung.

·      Das kugelförmige Brennelement ist das nuklear sicherste, betrieblich am einfachsten zu handhabende und am leichtesten und sichersten end-zu-lagernde Brennelement.

·      Das völlig neu konzipierte „Ringcore“ ermöglicht bei gleichem Grundkonzept den Bau von Anlagen bis zu  höchsten Leistungen bei optimalem Durchlauf der BE.

·      Alle wesentlichen Komponenten sind mehrfach vorhanden, daher keine Betriebsunterbrechung bei Reparaturen.

·      Das geringe Volumen strahlender Komponenten ermöglicht deren Lagerung im Anlagenbereich.

·      Keine nuklearen Transporte außerhalb der Anlage.

·      Der Spannbetonbehälter des THTR-300 hat sich als bestmögliches, sicherstes Endlager erwiesen.

„Diese sicherheitstechnischen, betrieblichen und wirtschaftlichen Vorteile hat kein anderes Reaktorkonzept.  Daher kann diese Technik allen anderen Konzepten  überlegen sein.“

3. Schutzrechte.

Das NHTT-Anlagenkonzept mit den  Konstruktions-Merkmalen  in Kombination von:

·      Spannbetonbehälter ;

·      Kugelförmigen Brennelementen;

·      Ringcores,  ggfs. kombiniert mit einem Zentralcore, und/oder auch mehreren peripher angeordneten Ringcores, jeweils  mit mehreren Abzügen für die Brennelemente;

·      Abstand der peripheren Brennelementabzüge   1,5m -3,5m;

·      Ringförmig zwischen Spannbetonbehälter/Liner und den Grafiteinbauten der Cores eingebauten He/He-Wärmetauschern;

·      Betonkonstruktion als Fundament unterhalb des Spannbetonbehälters, ausgelegt auch zur dauerhaften Endlagerung alle in Betrieb gewesenen strahlenden Anlagekomponenten;

 

So wie im Vortrag: „Nukleare Hochtemperaturtechnik zur Erzeugung flüssiger Brennstoffe, von Wasserstoff und elektrischer Energie“ im Detail beschrieben, ist urheberrechtlich geschützt.

Detailbeschreibung: www.buerger-für-technik.de; atw-12/2009;

http://wikipedia.org/wiki/AVR(J%C%BClich)

 

 

 

Related Files




Schiefergas als alternativer Energierohstoff – nur eine goldrauschähnliche Euphorie?

Fast alle hier zu Lande öffentlich zugänglichen Informationen über das „Schiefergas“ stammen aus der Feder von Journalisten unterschiedlichster Bildung und Herangehensweisen. In selteneren Fällen melden sich bzw. kommen hier Fachleute zu Wort. Charakteristisch für die zweifelhafte Qualität der Aussagen zum Thema sind beispielsweise die Beiträge der deutschsprachigen Abteilung von Wikipedia, welche sehr wenig Gehalt aufweisen, z. T. sogar irreführend, unvollständig sind und offensichtlich nicht von Fachleuten stammen. Im positiven krassen Gegensatz dazu stehen analoge Beiträge beispielsweise in den englisch- und russischsprachigen Abteilungen von Wikipedia. Selbstverständlich fühlt sich der Kommentator nicht frei von Subjektivität besonders hinsichtlich weltanschaulicher Gesichtspunkte. Auch ist er kein ausgesprochener Fachmann für Erdöl- und Erdgas, aber durchaus kompetent genug, um fachlich fundierte weitgehend kritikresistente Aussagen aufgrund seines Berufes und dazugehöriger langjähriger Praxis bezüglich Rohstoffexploration, Rohstoffförderung, Bohrtechnik usw. zu treffen.

Zunächst einmal ist vorauszusetzen, dass der interessierte Leser bereits darüber informiert ist, dass Gas aus Schiefern als alternatives Naturgas mit Hilfe „neuer“ Technologien zum jetzigen Zeit­punkt wirtschaftlich gewinnbar zu sein scheint. Weiterhin werden durch Massenmedien wirtschaftli­che und geopolitische Aspekte des Rohstoffmarktes und der Energetik vermittelt. Besonderer Wert wird dabei darauf gelegt, dass die USA endlich unabhängig von Gasimporten werden, was in der Perspektive auch für Europa möglich sei. Auf Gedeih und Verderb ist der Leser diesen Informatio­nen ausgeliefert. So ist es für den durchschnittlichen Bürger von Natur aus sehr schwer, sich ein objektives Bild über die in diesem Zusammenhang behandelten Sachverhalte zu machen.

Deshalb hier einige kurze Begriffserklärungen:

Was sind Schiefer?

Der Begriff Schiefer ist heute in der Geologie ohne weitere zusätzliche Charakterisierung nicht mehr gebräuchlich. Der Terminus Schiefer steht für Gesteine, die eine deutliche Spaltbarkeit auf­weisen. Das heißt, dass sie sich unter mechanischer Einwirkung in mehr oder weniger dünne Ta­feln zerlegen lassen. Man unterscheidet Tonschiefer und kristalline Schiefer.

Tonschiefer sind feinkörnige Gesteine mit sehr hohem Tonmineralanteil, die aufgrund der Wirkung gerichteter Drücke (tektonisch bedingt) eine Schieferung aufweisen. Tonschiefer haben einen ge­ringen Metamorphosegrad. Sie entstanden aus feinkörnigen Lockersedimenten, welche sich im Resultat der Diagenese (physikalisch, physikochemischer Prozess der Gesteinsbildung bzw. Ver­festigung und Umbildung in Raum und Zeit) verfestigten. Diese feinkörnigen z. T. schlammartigen Sedimente bildeten sich unter relativ ungestörten Ablagerungsbedingungen in meist tiefen stehen­den Gewässern. Dort dominierten in der Regel anoxische Bedingungen bzw. ein reduzierendes Mi­lieu, was zur Zerlegung (Fäulnis) organischer Substanz (z. B. abgestorbenes Plankton) unter der Mitwirkung entsprechender Bakterienarten führte. Die neben verschiedensten Farbtönen auftreten­de dunkle Färbung dieser Schiefer ist ein Hinweis auf die  Anwesenheit organischer Substanz. Die­se Schiefer sind potentiell gasführend (meist Methan) und kommen deshalb als Arsenal alternati­ven Naturgases in Frage. Das Gas befindet sich meistens in geschlossenen Klüften und auch in Mikroporen. Dieses Gas kann durch Aufbrechen („hydrofracing“ oder „fracing“) der inneren Ge­steinsstruktur zur Förderung mobilisiert werden kann.

Im Gegensatz zu den oben beschriebenen Schiefern stehen die hochmetamorphen kristallinen Schiefer, die sich infolge der Langzeitwirkung hoher Drücke, Wärme und auch harter Strahlung herausbildeten. Das Ausgangsgestein für die Bildung kristalliner Schiefer waren Tonschiefer und auch andere Gesteine (z.B. auch nichtsedimentäre). In diesen Schiefern sind mineralogische Re­likte als direkter Hinweis auf einen sedimentären Ursprung nicht mehr vorhanden. Das Mineralin­ventar besteht hier aus sekundären silikatische Bildungen. Eine nennenswerte Gasführung ist für kristalline Schiefer untypisch.

Weshalb erfolgte in Europa bisher keine Gewinnung von Naturgas aus Schiefern?

In den traditionellen Erdgasförderländern konnte bei zuverlässigen Förderraten und deren ständi­ger Erhöhung niemand ernsthaft auf die Idee kommen; Naturgas aus weniger wirtschaftlichen La­gerstätten zu gewinnen. Die erdgasimportierenden Länder andererseits gaben sich bei zuverlässi­ger Lieferung mit dem traditionellen Erdgas und den entsprechenden Preisen ab.

In der nachfolgenden Abbildung ist aus geologischer Sicht dargestellt, welche Position „Schiefer­gas“ unter den anderen Naturgasvorkommen einnimmt.

Abb. 1: Vorkommen von Naturgas

Ebenfalls der Fachbegriff „hydrofracing“ oder „fracing“ als „neues“ Verfahren zur Gewinnung von Fluiden (Naturgas, Erdöl) soll an dieser Stelle kompetent erklärt werden:

„Hydrofracing“ ist eine unter mehreren möglichen Methoden, die bei der Intensivierung der Förder­tätigkeit von Produktionsbohrungen für Erdöl und Erdgas angewendet werden. Die Anwendung dieser Methode zielt auf die Herstellung einer hohen Leitfähigkeit innerhalb der auszubeutenden Schicht zur Gewährleistung eines höheren Zuflusses des zu fördernden Fluids (Gas, Wasser, Kon­densat, Erdöl oder deren Gemische) in Richtung der mit Filter ausgebauten Strecke einer Produkti­onsbohrung. Dazu wird ein flüssiges Mittel (Gel, Wasser, Säure) unter Anwendung von Hochleis­tungspumptechnik in das Bohrloch bis zum Erreichen eines für den konkreten Förderhorizont spe­zifischen Drucks gepumpt. Mit dem Erreichen dieses Drucks wird die innere Struktur des Förderho­rizontes gestört, so dass bisher geschlossene Klüfte und Poren geöffnet werden. Zur Aufrechter­haltung dieses geöffneten Zustandes der Klüfte wird in Kollektoren, die aus terrigenem Material (tonige, sandige Sedimentgesteine) bestehen, ein spezieller Quarzsand quasi als Keil verwendet. Im Fall von kalkigen bzw. kalkhaltigen Kollektoren kann Säure zur Anwendung kommen. Im Resul­tat der Nutzung dieser Methode erhöht sich das Fördervolumen einer Bohrung in der Regel erheb­lich. Diese Methode erlaubt es alte Bohrungen, die nicht mehr rentabel fördern, wiederzubeleben.

Die Entwicklung dieser Methode wird der Firma Halliburton zugeschrieben (1947). Diese nutzte in den USA das Verfahren erstmals kommerziell im Jahr 1949. Damals wurde Wasser und als „prop­ping agent“ (aufspaltendes Mittel) einfacher Flusssand verwendet. Das Verfahren wird auch zur Förderung von Methan aus Kohlenflözen angewendet. Sehr schnell nach seiner Einführung fand diese Methode weltweit Eingang in die Praxis der Erdöl- und Erdgasförderung.

Weltweit werden Arbeiten nach dieser Methode von Serviceunternehmen der Erdöl und Erdgasin­dustrie wie Halliburton, Schlumberger, BJ Services u. a. angeboten.

Für eine Übersetzung des Fachterminus ins Deutsche erscheint dem Berichterstatter der Begriff „hydraulische Schichtbrechung“ als günstig.

In unten folgender Abbildung ist das technische Prinzip des Hydrofracings schematisch dargestellt.

 

Abb. 2: Prinzip des Hydrofracings (nach „Bergenzyklopädie“ V2, S. 36 – Kozlowski et. al (Red.), Moskau 1986)

Für den Leser liegt es nun auf der Hand, dass es sich beim „fracing“ durchaus nicht um ein neues Verfahren als solches handelt. Das „Neue“ besteht darin, dass Gasvorkommen in entsprechenden Schiefern wirtschaftlich nutzbar sind mit Hilfe eines Förderverfahrens unter Anwendung einer spe­ziell dafür angepassten Variante der hydraulischen Schichtsprengung (fracing).

Ähnlich verhält es sich mit dem Neuheitsgrad von Technologien gerichteter einschließlich horizon­taler Bohrungen. In Industrie, Bergbau, Erdöl-/Erdgasförderung und geologischer Erkundung ist die Anwendung solcher Technologien schon über viele Jahrzehnte lang geübte Praxis. In letzter Zeit hat das technologische Grundprinzip der verschiedenen Bohrtechnologien keine revolutionäre Er­neuerung erfahren. Andererseits ist es selbstverständlich, dass neuartige Materialien, Elektronik (Mess- und Steuertechnik), EDV- Anwendungen (Steuerung, GPS u. a.) und neu entwickelte leis­tungsfähigere Aggregate zeitgemäß Eingang in die Praxis finden und somit die bestehenden Bohr­technologien ständig verfeinert und verbessert werden.

Das Neue an der Fördertechnologie für Schiefergas besteht in der Anwendung einer prinzipiell be­kannten Bohrtechnologie, die speziell auf diese Art von Naturgasvorkommen eingestellt und dafür entsprechend verfeinert wurde.

Abb. 3 veranschaulicht das Grundprinzip gerichteten Bohrens bei der Förderung von Erdöl und Erdgas.

 

Abb. 3: Beispiel für gerichtetes Bohren („Nestbohren“) von einem Punkt aus (nach „Bergenzyklopädie“ V3, S. 137 – Kozlowski et. al (Red.), Moskau 1987)

Nach dieser „Einleitung“ wird nun dem Leser vorgeschlagen, sich zum Thema „Schiefergas“ mit einer Stellungnahme von russischer exponierter Stelle bekannt zu machen.

„Ein Zuwachs der Gewinnung von Schiefergas in Europa ist nicht zu erwarten“; (Transkript: OSHIDAT´  ROSTA DOBYTSCHI GAZA IZ SLANTSEW HJE PRICHODITSJA Übersetzung ins Deutsche B. Hartmann) Von Sergej Prawosudow – Generaldirektor des Instituts für Nationale Energetik über Zuwachsperspektiven der Förderung von Schiefergas (aus  http://tinyurl.com/2vfn9ma, erschienen am 13.04.2010 in „Neft` Rossii“ (Erdöl Russlands) und „Russische Business-Zeitung“ Nr. 745 (12))

„In letzter Zeit wird in der Welt eine aktive Kampagne zur Propagierung von Schiefergas geführt. All dies begann, als gemäß den Bilanzen des vergangenen Jahres die USA Russland in den För­dermengen von Erdgas überholten (624 Mrd. m³ gegenüber 596 Mrd. m³).

Dieser Sachverhalt ist durch den Zuwachs der Förderung eben dieses Schiefergases begründet. Sogleich wurde vielfach prognostiziert, dass nun in der ganzen Welt diese Art von Erdgas aktiv ge­fördert werden und damit der russische „blaue Treibstoff“ nicht mehr gefragt sein wird. Jedoch teil­te anschließend die amerikanische Zeitung „The Wall Street Journal“ mit, dass das US-Ministerium für Energetik allzu optimistisch das Fördervolumen des Erdgases im Lande einschätzte. Im besag­ten Artikel wird mitgeteilt, dass die Angaben für das Jahr 2009 noch um 10-12% nach unten korri­giert werden könnten. Wahr ist auch, dass dies noch bis zum Herbst des laufenden Jahres dauern könnte. Dabei hat sich in Russland die gesamte Gasfördermenge bereits im ersten Quartal 2010 gegenüber dem Vorjahr um 18,3% erhöht. Auf diese Weise könnte sich herausstellen, dass sich in Amerika keinesfalls ein „Gaswunder“ ereignet hätte.

In letzter Zeit propagieren amerikanische Firmen verstärkt die Förderung von Schiefergas. Die Selbstkosten für Schiefergas betragen im Mittel 150 $ pro 1000 m³ (d.h., 10 mal höher als für tradi­tionelles Gas in Russland). Deshalb ist es sinnvoll, dieses Gas in unmittelbarer Nähe des Konsu­menten zu fördern. Im Unterschied zu den USA wird Schiefergas in Europa bisher nicht gefördert.

Ein stetiges Wachstum der Förderung von Schiefergas in Europa ist nicht zu erwarten. Dafür gibt es einige Gründe: Erstens, die Schichten gasführender Schiefer sind in den Ländern der Europäi­schen Union gänzlich ununtersucht. Zweitens, ist die Bevölkerungsdichte in Europa weitaus höher als in den USA. Folglich würde die Gasförderung aus Schiefern ständig von Protesten aktiver Bür­ger und ökologischer Organisationen begleitet sein. Die Fördertechnologie bedingt im großen Maßstab die Anwendung des „fracings“ (dafür gibt es im Russischen schon von Anfang an über viele Jahrzehnte einen russischen Fachterminus, der in wörtlicher Übersetzung etwa „Hydrospren­gung“ heißen würde – Anm. d. Übers.), bei dem 900 bis 1000 m³ Wasser in das Gestein gepumpt werden müsste, um damit das dort befindliche Gas zu verdrängen. Man könnte sich damit abfin­den, falls dabei nur Wasser verwendet werden würde – es müssen aber immer diverse chemische

Reagenzien hinzugefügt werde (z. B. Tenside zur Verringerung der Oberflächenspannung des Wassers – Anm. d. Übers.), was zu einer Verschmutzung des Grundwassers bzw. von Süßwasser­quellen führen würde. Sogar in den USA, wo es hinsichtlich ökologischer Fragen nicht so genau genommen wird wie in Europa, wurde die Förderung von Schiefergas im Raum von New York un­tersagt.

Es ist zu erwarten, dass in nächster Zeit die europäischen Länder einem Druck der USA ausge­setzt sein werden, der durch die hinter ihnen stehenden Service-Unternehmen der Erdölindustrie (z. B. Halliburton – Anm. d. Übers.) verursacht wird. Könnte ihnen doch eine großangelegte Förde­rung von Schiefergas in Europa milliardenschwere Gewinne bringen. Solche Unternehmen wie die bekannte Halliburton beschäftigen sich ständig eben mit dem Niederbringen von Bohrungen und dem „fracing“ von Schieferschichten. Ist eine Exploitationsbohrung auf traditionellen Erdgasfeldern in der Größenordnung von insgesamt 30 Jahren funktionsfähig, so sinkt die Ergiebigkeit analoger Bohrungen auf Gasschieferfeldern gegen Ende des ersten Jahres ihrer Nutzung um 70 bis 90%. Deshalb ist man zur Aufrechterhaltung der Gasförderung gezwungen, ständig neue Bohrungen zu teufen und die Aufsprengung der Schichtklüfte (fracing) zu gewährleisten.

In den USA sind ständig etwa 2000 Bohranlagen in Betrieb – in Europa sind es 50. Dies steht da­mit im Zusammenhang, dass in den USA traditionsgemäß die überwiegende Menge von Erdöl und Gas auf dem Festland gewonnen wird. In Europa sind dagegen (gemeint ist Westeuropa; nicht ganz untypische Ausdrucks- und Denkweise vieler Russen – man spricht von Europa und vergisst dabei, dass Russland selbst einen großen Teil Europas bis zum Ural belegt ist und Russen Euro­päer sind. – Anm. d. Übers.) Festlandslagerstätten (gemeint sind Lagerstätten im Teufenbereich bis 5000 m, tiefer gelegene sind höchstwahrscheinlich vorhanden, aber nicht erkundet – Anm. d. Übers.) fast vollständig erschöpft. Die Ölförderung erfolgt fast ausschließlich auf dem Schelf der Nordsee. Bei der Gewinnung von Schiefergas müssten die Europäer amerikanische Bohrfirmen heranziehen.

Es ist sinnvoll daran zu erinnern, dass sich die Förderung von Schiefergas in den USA aktiv in­nerhalb der letzten fünf Jahre entwickelte, was auf die hohen Gaspreise auf dem amerikanischen Markt zurückzuführen ist. Angesichts dessen, dass der „blaue Treibstoff“ 500-600 $/1000 m³ koste­te und die Selbstkosten für dieses Volumen 150 $ betrugen, erscheint dies vollkommen akzepta­bel. Gegenwärtig bei Preisen von weniger als 130 $ / 1000 m³ auf dem US-Markt werden sich wohl wenige Investoren für solche Projekte finden. Es ist also nicht verwunderlich, dass sich der Still­stand von Bohranlagen stark erhöhte und sich bei mehr als 700 Stück beläuft. Gleichzeitig startete irgend jemand eine große PR-Kampagne zur Propagierung von Schiefergas.

Mit dem Wissen über das Umweltbewusstsein der Europäer verbreitete Anfang März das Unter­nehmen Halliburton eine Meldung, in der mitgeteilt wird, dass seine Spezialisten an einer ökolo­gisch sauberen Technologie der hydraulischen Aufsprengung von Gesteinsschichten arbeite. Im Speziellen wird über die Behandlung der einzupumpenden Wässer mit UV-Strahlung zur Abtötung von Bakterien berichtet, womit sich erweist, dass die Wasserzusätze auch noch gefährliche Bakte­rien enthalten. Außerdem wurden hinsichtlich schädlicher Austräge in die Atmosphäre während der Gasförderung bisher keinerlei seriöse Untersuchungen durchgeführt.

Man kann erwarten, dass in nächster Zeit in der EU eine seriöse Diskussion über die Perspektiven einer Gasförderung aus Schiefern geführt werden wird. Führende Rollen dabei werden aller Vor­aussicht nach solche Länder übernehmen, deren Außenpolitik im großen Maß auf die USA orien­tiert ist wie beispielsweise Polen.

Kommentar der Newchemistry (NC, Russland) (ein Verband der chem. Industrie – Anm. d. Übers.)

Nach Angaben der britischen The Times beginnt in Polen die amerikanische Firma ConocoPhillips ab Mai 2010 mit der Realisierung eines Programms zur Gasförderung aus tiefliegenden Schiefern. Die ersten „high-tec-Schächte“ (Schächte, aus denen Bohrungen in alle Himmelsrichtungen geteuft werden können – Anm. d. Übers.) werden für diesen Zweck in Gda?sk am Ufer der Ostsee errich­tet. Ähnliche Projekte werden in den nächsten Monaten zwei weitere amerikanische Unternehmen sowie ein kanadisches (Exxon-Mobile, Marathon und entsprechend Talisman Energy) in Angriff nehmen.

Es ist zu erwarten, dass diese Projekte einen Sprung in der polnischen wie auch in der amerikani­schen Wirtschaft verursachen werden. Mit Beginn der 2000-er Jahre, als die Technologie des ge­richteten Bohrens im Bereich der Gasförderung aus Schiefern in den USA eingeführt wurde, erwies sich die Gewinnung diese Rohstofftyps als rentabel. Ausgehend von den 1990-er Jahren bis heute haben sich die Fördermengen in den USA vervierfacht, was den Rohstoffpreis wesentlich senkte. Gegenwärtig beträgt der Anteil der Förderung von Schiefergas am Gesamtvolumen der Gasförde­rung in den USA 20 %. Es wird erwartet, dass der Anteil bis zum Jahr 2020 auf 50 % ansteigt.

Gas aus Schiefern unterscheidet sich von Naturgas, welches aus traditionellen Speichern gewon­nen wird, durch sein Vorkommen in Mikroklüften fester brennbarer Schiefer (nicht ganz exakt, sonst wären es Ölschiefer, die eigtl. keine echten Schiefer sind: gemeint sind Schiefer, die natürlich immer Festgesteine sind, organikführend sein können und gasführend in Mikroklüften und Mikro­poren sind, müssen auch nicht brennbar sein – Anm. d. Übers.), die in größeren Tiefen als ge­wöhnliche Erdgaslager vorkommen (muss auch nicht unbedingt sein – Anm. d. Übers.) und einen niedrigen Filtrationskoeffizienten (Maß für die Durchlässigkeit von Poren und Klüften-Maßeinheit – m/d; m/s – Anm. d. Übers.). Vom Standpunkt der bisherigen Gasförderung erscheint das Schiefer­gas aufgrund der besonderen Schwierigkeiten seiner Förderung und der damit verbundenen auf­wendigen Fördertechnologie als nicht traditioneller Rohstoff.“

(Ende der Übersetzung)

Prawosudow führt einige Fakten an, die so in der euphorischen Presse bisher wohl kaum behan­delt wurden. Andererseits ist, zwischen den Zeilen lesend, durchaus erkennbar, dass in Russland hinsichtlich der Rolle des Schiefergases große Aufruhr entstand. Klar ist auch, dass die Medien­welt beispielsweise in Fragen Schiefergas, unabhängig von der Objektivität der Informationen dar­über und von welcher Seite sie kommen, eine neue Qualität des immer noch nicht vergangenen kalten Krieges widerspiegelt. Das Thema Schiefergas ist in diesem Kontext ein Nebenschauplatz des internationalen Gerangels um Rohstoffe, wirtschaftlichen und politischen Einfluss, welches sich nun aktuell u. a. auf dem europäischen Kontinent abspielt.

Die Vorteile des Schiefergases bestehen vor allem darin, dass es praktisch überall in der Welt in insgesamt großen Mengen vorkommt. Glücklicherweise aus Sicht der USA lagern diese gasführen­den Schiefer in Nordamerika relativ oberflächennah (weniger als 1500 m). Für die USA besteht das wirtschaftlich Wesentliche darin, dass das einheimische nicht teurer als das importierte Gas ist. So betrug der Preis für Importgas im Jahr 2009 im Mittel 115 $ pro 10000 m³. Dabei ist es wichtig, dass der Gaspreis bei der Einleitung ins Verteilungsnetz ein Niveau von 180 $/1000 m³ nicht über­steigt. Für den Endverbraucher sind dann 330 $/1000 m³ zu entrichten.

In den EU-Ländern ist die Situation schon eine andere – bei einem Importpreis aus Russland von 300 $ für 1000 m³ Gas muss der Endverbraucher hier 650 $ bezahlen. Angesichts solcher Preise und einer entsprechenden staatlichen Förderung erscheint eine wirtschaftliche Gewinnung von Schiefergas künftig als durchaus gestaltbar. Genau davor müsste man in Russland Angst haben.

Es ist außerdem aber ernsthaft in Betracht zu ziehen, dass auch Russland gemäß seines natürli­chen Potentials wie auch aufgrund seiner fachlichen, technischen und materiellen Möglichkeiten in der Lage wäre, den Weg der verstärkten Ausbeutung von Schiefergas zu begehen.

Dem steht in Europa der EU-Länder folgendes entgegen:

1. Die potentiellen Schiefergaslager sind aus lagerstättengeologischer Sicht praktisch nicht untersucht. Dementsprechend sind die Fragen nach Vorräten, Stabilität der Förderung und der Zuverlässigkeit der Versorgung der Wirtschaft nicht im Geringsten geklärt.

2. In keinem EU-Land besteht ein leistungsfähiger Sektor zur Erkundung und Gewinnung des besagten Rohstoffs. Wollte man aus eigener Kraft diese Aufgabe bewältigen, müsste dem ein entsprechender politischer Beschluss vorausgehen. Der schnellere Weg wäre mit der Inanspruchnahme ausländischer Hilfe gangbar. Hier bestünde aber die Gefahr der Erhöhung des Potentials der äußeren wirtschaftlichen und politischen Einflussnahme.

3. Zur Gewinnung des Schiefergases ist das Niederbringen vieler Produktionsbohrungen unumgänglich, da ihre Funktionsfähigkeit auf ca. 1 Jahr begrenzt ist (im Vergleich dazu funktionieren Produktionsbohrungen für die Erdgasgewinnung ohne zusätzliche Intensivierungsmaßnahmen in Westsibirien 10-15 Jahre). Damit macht sich die Inanspruchnahme großer Flächen einhergehend mit ihrer Verwüstung erforderlich. Das steht im Missverhältnis zur verhältnismäßig hohen Bevölkerungsdichte und der damit verbundenen engmaschigen Infrastruktur. Hinzukommt die restriktive Wirkung komplizierter Eigentumsverhältnisse, die Existenz verschiedenartiger großflächiger gesetzlich festgeschriebener Schutzgebiete und nicht zuletzt eventuell fehlender Akzeptanz in der Bevölkerung.

So ließen sich noch einige Aspekte aus dem Für und Wider zum Thema Schiefergas anführen. Auf jeden Fall ist die Lage zu Gunsten des Schiefergases bei Weitem nicht so eindeutig und rosig, wie es zum Beispiel von namhaften Wirtschaftszeitschriften versucht wird, zu suggerieren. Der Bericht­erstatter hofft, dass er dem Leser das Verständnis dafür vermitteln konnte.

Kurzfristig wird Schiefergas als Energierohstoff auf keinen Fall eine wichtige Rolle in der Wirtschaft Europas übernehmen können. Trotzdem wird es interessant und bleibt abzuwarten, wie die weitere Entwicklung in Sachen Schiefergas verlaufen wird. 

Gastautor Dipl. Geologe Dr. B. Hartmann Halle (S.), 14. Mai 2010 für EIKE




Warmzeiten sind gute Zeiten: Das römische Klimaoptimum – Eine Zusammenfassung

 Genauso sträuben sie sich dagegen zu akzeptieren, dass die Temperatur vor zweitausend Jahren während der römischen Warmperiode RWP ebenfalls höher lag als heute, weil die CO2-Konzentration damals noch geringer war. Folgerichtig sprechen die Alarmisten nicht einmal von der römischen Warmperiode. Und selbst wenn, sie lehnen es ab, die Möglichkeit auch nur zu erwägen, dass diese frühen Warmzeiten global auftraten. Mit Bezug auf die MWP – von der sie hin und wieder sprechen, wenn auch verächtlich – behaupten sie stattdessen, dass es sich dabei um ein rein lokales Phänomen handelt, das auf die Gebiete rings um den Nordatlantik beschränkt war. In dieser Zusammenfassung untersuchen wir diese Zusammenhänge bzgl. der römischen Warmperiode RWP auf der anderen Seite der Nordhemisphäre, in Asien.

Wir beginnen mit der Arbeit von Ma et al. (2003), die mit einem Stalagmiten aus der Jingdong-Höhle etwa 90 km nordöstlich von Peking arbeiteten. Sie wollten die Klimageschichte der vergangenen 3000 Jahre in 100-Jahres-Schritten auf der Basis von ?18O-Daten abschätzen, dem Verhältnis zwischen Magnesium und Strontium (Mg/Sr) und der Fest-flüssig-Verteilung von Magnesium. Sie fanden heraus, dass im Zeitraum von vor 200 bis 500 Jahren „die Temperatur etwa 1.2°C niedriger lag als heute, was sehr gut zur sog. kleinen Eiszeit in Mitteleuropa passt.“ Davor, in den Jahren 700 bis 1000 n. Chr. hat es eine gleich große Abweichung zum Wärmeren gegeben mit dem Höhepunkt um das Jahr 900, was, wie sie sagen, „gut mit der MWP in Europa korrespondiert“. Dieser Wärmeperiode ging die Kaltphase des sog. „Dunklen Zeitalters (dark ages)“ voraus, die wiederum der römischen Warmperiode folgte. Der Stalagmit zeigt, dass es vor dieser RWP viel kälter war.

Zu ähnlichen Ergebnissen kamen Xu et al. (2002) , die die Variationen von ?18O in der Zellulose von Pflanzen untersuchten. Hierzu verwendeten sie Bohrkerne von Torfablagerungen am nordöstlichen Rand des Quinghai-tibetischen Plateaus in China. Sie fanden drei Kaltphasen um die Jahre 500, 700 und 900 während der Kälteperiode des Dunklen Zeitalters, die dem Abklingen der RWP folgten. [Im vorigen Absatz war da von der MWP schon um das Jahr 900 die Rede. Dies ist kein Widerspruch, wenn man bedeckt, dass die Anpassung von Pflanzen an ein anderes Klima einige Zeit dauert. A. d. Übers.] Danach, für die Jahre 1100 bis 1300, berichten sie, dass „der ?18O-Anteil aus Hongyuan in der Torfcellulose zugenommen hatte, was mit der MWP korrespondiert. Abschließend weisen sie auf drei weitere Kaltphasen in den Jahren 1370 – 1400, 1550 – 1660 und 1780 – 1880 hin, die die kleine Eiszeit spiegeln, nach der die aktuelle Erwärmung einsetzte. [Sollte hier nicht nochmals auf die ca. 100jährige Verzögerung bei den Pflanzen explizit hingewiesen werden, weil die Herren NF und NB sofort schreien werden, dass die Kleine Eiszeit ca von 1650 – 1780 dauerte und nicht 100 Jahre später war?]

In einer wesentlich breiter angelegten Studie benutzten Yang et al. (2002) neun verschiedene Proxydatenreihen aus Torf, Sedimenten in Gewässern, Eisbohrkernen, Baumringen und anderen, um einen eindeutigen Temperaturverlauf in ganz China zu erhalten, der die vergangenen zweitausend Jahre umfasst. Diese aus vielen Einzeluntersuchungen gewonnene Reihe zeigt fünf verschiedene Klimaepochen: eine Warmzeit in den Jahren 1 bis 240 (das Ende der RWP), ein kaltes Intervall in den Jahren 240 bis 800 (die Kaltzeit des Dunklen Zeitalters), eine Wiederkehr zu einer Warnzeit von 800 bis 1100 (was die mittelalterliche Warmperiode umfasst), eine weitere Kaltzeit zwischen 1400 und 1820 (die Kleine Eiszeit) und – schließlich – die jüngste Warmphase (Current Warm Period CWP), deren Erwärmung in der ersten Hälfte des 19. Jahrhunderts begann. Von größter Signifikanz war jedoch die Tatsache, dass die Studie von Yang et al eindeutig zeigte, dass die höchste Temperatur der letzten zwei Jahrtausende im zweiten und dritten Jahrhundert beobachtet wurden, also während der späten römischen Warmphase.

Eine andere breit angelegte Studie in einem großen Gebiet von China wurde von Ge et al. (2003) veröffentlicht. Sie werteten 200 verschiedene Datensätze phänologischer und meteorologischer Art aus einer ganzen Anzahl historischer Chroniken aus, von denen viele durch Gong und Chen (1980), Man (1990), Sheng (1990) sowie Wen und Wen (1996) beschrieben wurden. Damit wollten sie eine 2000-jährige Geschichte des Temperaturverlaufs in den Winterhalbjahren (Oktober bis April) in einem Gebiet in China erstellen, das zwischen 27° und 40° nördlicher Breite sowie 107° und 120° östlicher Länge liegt. Daraus konnten sie folgern, dass „sich seit Christi Geburt das Klima mit einer Rate um etwa 0.17°C pro Jahrhundert abkühlte“. Gut dazu passt, dass dies die Zeit war, in der die RWP zu Ende ging und in die Kaltzeit des Dunklen Zeitalters überging. Sie weisen außerdem darauf hin, dass um das Jahr 490 die Temperatur etwa 1°C niedriger lag als gegenwärtig (d. h. bezogen auf das Mittel der Periode 1951 – 1980).

Sie fahren fort: “Danach folgte eine warme Periode von 570 bis 1310 mit einem Erwärmungstrend von etwa 0.04°C pro Jahrhundert.  Auf dem Höhepunkt dieser Erwärmung lag die Temperatur um 0.3 bis 0.6°C höher als gegenwärtig bezogen auf einen Zeitraum von 30 Jahren, jedoch über 0.9°C wärmer bezogen auf einen Zeitraum von 10 Jahren.“ Dieses Ergebnis spricht sehr für sich selbst: während der mittelalterlichen Warmphase war es in diesem großen Gebiet von China wärmer als jemals in modernen Zeiten in einem ähnlichen Zeitraum.

Ge et al. stellten weiterhin fest, dass „nach dem Jahr 1310 die Temperatur rasch mit einer Rate von 1.0°C pro Jahrhundert zurück ging; die mittlere Temperatur der vier Kaltzeiten lag um etwa 0.6 – 0.9°C niedriger als gegenwärtig; auf dem Tiefpunkt dieser Kaltphase bis 1.1°C niedriger.“ Hierbei handelte es sich natürlich um die Kleine Eiszeit, und es scheint so, als ob sich die Welt immer noch in der Phase der Erholung daraus befindet. In diesem Zusammenhang stellen die Autoren fest, dass „die Temperatur während des 20. Jahrhunderts rasch gestiegen ist, besonders im Zeitraum 1981 – 1999, und dass die mittlere Temperatur derzeit um 0.5°C über dem Wert der Periode 1951 – 1980 liegt.“ Nichtsdestotrotz betonen Ge et al., dass die Temperatur während der MWP noch höher lagen, und das für mehrere Perioden von 10 bzw. 30 Jahren.

In einer weiteren Regionalstudie verwendeten Bao et al. (2003) bereits ausgewertete Proxydaten (?18O aus Eisbohrkernen sowie aus Torfzellulose, Baumringdaten, Kohlenstoffisotopen aus Baumringen, dem gesamten organischen Kohlenstoffgehalt, Wassertemperaturen in Binnenseen, Gletscheränderungen, Methangehalt in Eisbohrkernen, magnetischen Parametern, Pollenablagerungen und Sedimenten), die sie aus zwanzig bereits veröffentlichten Studien gewannen. Daraus wollten sie einen 2000-jährigen Temperaturverlauf in den nordöstlichen, südlichen und westlichen Gebieten des Tibetischen Plateaus ableiten. Nun, was fanden sie heraus?

Die Temperaturverläufe in allen drei Gebieten des Tibetischen Plateaus unterschieden sich alle signifikant. Jedoch hatten sie alle eine wichtige Gemeinsamkeit: Es gab mehr als nur eine 50-Jahre-Periode, in der die Temperatur in allen drei Gebieten höher lag als in der jüngsten 50-Jahr-Periode. Im nordöstlichen Sektor des Tibetischen Plateaus traten diese Zeiträume maximaler Erwärmung während der Mittelalterlichen Warmperiode auf, während sie im östlichen Sektor zur Zeit der Römischen Warmperiode auftraten. Im südlichen Sektor lag die Temperatur in beiden  Warmphasen höher. Fazit: für alle drei Sektoren des Tibetischen Plateaus gilt, dass an den jüngsten relativ hohen Temperaturen nichts Ungewöhnliches ist.

Hinsichtlich des gesamten Plateaus ergibt sich so ziemlich das gleiche Bild: es gab nichts Außergewöhnliches in der jüngsten Vergangenheit. Für die gesamte Region ergibt sich jedoch, dass es in nur einer früheren 50-Jahr-Periode wärmer als zuletzt war, und zwar gegen Ende der römischen Warmperiode, also vor etwa 1850 Jahren.

Ein anderer wichtiger Beitrag zur Geschichte der römischen Warmperiode stammt von Bao et al. (2004). Sie sammelten und analysierten zahlreiche Proxydaten aus Eisbohrkernen, Baumringen, Fluss- und Seesedimenten, studierten aber auch historische Aufzeichnungen. Dies ermöglichte es ihnen, den Klimaverlauf während der Han-Dynastien (206 vor bis 220 nach Christus) im Vergleich zum Klima der letzten zwei Jahrtausende zu ermitteln. Sie schreiben, dass ihre Analysen „starke, eindeutige Beweise für eine relativ warme und feuchte Periode“ im gleichen Zeitintervall wie die römische Warmperiode zeigten. Tatsächlich stellten sie fest, dass die Temperaturen in diesem Zeitraum höher lagen als heute. Außerdem beschreiben sie, dass diese Warmperiode auch in Zentral- und Westchina aufgetreten war. Danach gab es eine „rapide Abkühlung“ (Zhu, 1973; Hameed and Gong, 1993; Yan et al., 1991, 1993; Shi and Zhang, 1996; Ge et al., 2002). Wir stellen zusätzlich fest, dass historische Chroniken von einer „abrupten Klimaänderung von warmen und feuchten Bedingungen zu kühlerem und trockenerem Klima um das Jahr 280 n. C.“ berichten (Zhang et al., 1994). Sie fügen die Feststellung hinzu, dass „drei verschiedene Methoden, den Temperaturverlauf der letzten 2000 Jahre zu ermitteln, eine offensichtliche Warmphase im Zeitraum 0 bis 240 n. C. ergaben (Yang et al., 2002), und dass eine Rekonstruktion der Sommertemperatur der letzten 2650 Jahre aus einem Stalagmiten der Shihua-Höhle nahe Peking (Tan et al., 2003) zeigte, dass die Temperatur in der Zeit der RWP über dem Mittelwert der gesamten Temperaturreihe lag.“

In einer Zusammenfassung ihrer Forschungsergebnisse erklären Bao et al., dass „die warmen und feuchten Bedingungen während der westlichen und östlichen Han-Dynastien [i. e. die RWP] offensichtlich Landwirtschaft im großen Stil sowie einen sozialen und gesellschaftlichen Boom ermöglichten. Hiervon zeugen noch die berühmten Ruinenstätten Loulan, Niya und Keriya“. Pflanzenrückstände von Walnussbäumen, Reis, Gerste, bestimmten Gräsern und Weizenkörnern, die in dem Gebiet gefunden wurden, deuten darauf hin, dass die Wasser- und Temperaturbedingungen zur Zeit der RWP in diesem Teil von Asien „geeignet für den Reisanbau und allgemein viel besser als heute waren.“

Feng and Hu (2005) ermittelten dekadenweise den Temperaturverlauf der letzten zwei Jahrtausende aus Eisbohrkernen und Baumringdaten an fünf verschiedenen Stellen auf dem Tibetischen Plateau. Dabei zeigte sich, dass an zwei Stellen die Temperatur im späten 20. Jahrhundert am höchsten lag verglichen mit den letzten 2000 Jahren. An den drei anderen Stellen (Baumringdaten aus Dulan und dem südlichen tibetischen Plateau, Eisbohrkern aus Guilya) war das jedoch nicht der Fall! Beispielsweise zeigen die Daten aus Guilya, dass es dort in den ersten beiden Jahrhunderten des Zeitraumes (zeitgleich mit der RWP) wärmer war als während der letzten zwei Jahrzehnte des 20. Jahrhunderts. Im südlichen tibetischen Plateau war es während eines ganzen weiteren Jahrhunderts zu Anfang dieser Reihe und während zweier Jahrhunderte zur Zeit der MWP signifikant wärmer als heute.

Wei et al. (2004) untersuchten an einer bestimmten Korallenart (Porites lutea) vor der Küste der Leizhou-Halbinsel im nördlichen Teil des Südchinesischen Meeres mit hoch auflösenden Messgeräten das Strontium/Kalzium-Verhältnis, während sie deren Alter mit Hilfe der Uran-Thorium- Methode ermittelten. Die Abhängigkeit des Mischungsverhältnisses zwischen Strontium und Kalium von der Temperatur wurde an einer lebenden Koralle der Gattung Porites lutea festgestellt, indem man dieses Verhältnis zur Wassertemperatur in Beziehung setzte, die an der nahe gelegenen meteorologischen Station Haikou im Zeitraum von 1989 bis 2000 gemessen wurde. Mit diesen Methoden konnte ermittelt werden, dass eine der Korallen aus der Zeit 489 – 500 stammte, also mitten in der Kaltphase des Dunklen Zeitalters, während die andere aus der Zeit 539 – 530 v. C. stammte, also aus der Zeit der RWP. Aus der ersteren schlossen Wei et al., dass die Wassertemperatur zur Zeit der DACP (Dark Ages Cold Period; Periode des Dunklen Zeitalters) etwa 2.0°C unter der der letzten Dekade des 20. Jahrhunderts lag. In der Zeit der RWP zeigte die zweite Koralle, dass die Wassertemperatur etwa gleich derjenigen in der Periode 1989 – 2000 war, wie sie an der Station Haikou gemessen worden war.

 [Der folgende Absatz beschreibt dieses Verfahren mit anderen Worten noch einmal. Daher wird er hier nur zusammengefasst wiedergegeben. A. d. Übers.]  In einer anderen Studie mit dem gleichen Verfahren kamen Yu et al. (2005) zu dem Ergebnis, dass das Verhältnis zwischen Strontium und Kalzium “ein ideales und verlässliches Thermometer” darstellt. Zusammen mit einer genauen Altersbestimmung ergibt sich, dass die Wassertemperatur während der RWP ähnlich derjenigen wie in den 1990er – 2000er Jahren war, der wärmsten Dekade des vergangenen Jahrhunderts. Und weiter: „Während der Eastern Zhou-Dynastie (770 – 256 v. C.) war es so warm, dass die Flüsse in der heutigen Provinz Shangdong (35-38°N) den ganzen Winter über in den Jahren 698, 590 und 545 v. C. nicht zugefroren waren.“

In verschiedenen anderen Studien in ganz Asien, die sich mit diesem Zeitrahmen befassen, konnte ebenfalls nachgewiesen werden, dass das Klima über die Jahrtausende variierte und dass es eine signifikante Römische Warmperiode gab. Diese Studien schließen ein diejenige von (1) Ji et al. (2005), in der ein Bohrkern aus Sedimenten aus dem Qinghai-See im Nordosten des tibetischen Plateaus spektroskopisch untersucht wurde, um eine hoch aufgelöste Analyse der asiatischen Monsunereignisse über einen Zeitraum von  18.000 Jahren zu gewinnen. (2) Beweise wurden auch gefunden von Matul et al. (2007) , die die historische Mikroflora sowie Sporen- und Pollenablagerungen aus verschiedenen Bohrkernen von Sedimenten an 21 Stellen auf dem Schelf der Laptev-See untersuchten, aus einem Gebiet, das vom Delta der Lena bis zum Seegebiet zwischen 130° und 134° östl. Länge sowie 71° bis 78° nördl. Breite reicht. Diese Bohrkerne hat eine russisch-französische Expedition mit dem Forschungsschiff Yakov Smimitsky im Jahre 1991 abgestochen.

(3) Bhattacharyya et al. (2007) rekonstruierten den Verlauf von Wärme und Feuchtigkeit während der letzten 1800 Jahre in der Region um den Paradise – See im nordöstlichen Himalaja aus Sedimenten mit Pollenablagerungen und der Anreicherung mit dem Kohlenstoffisotop ?13C. Sie konnten eine Periode „warmen und feuchten Klimas, ähnlich den gegenwärtigen Bedingungen“ um das Jahr 240 n. C. identifizieren, also am Ende der RWP. Eine weitere, sogar wärmere Periode fand sich um das Jahr 985, was sehr gut mit der MWP korreliert.

Die jüngste Studie von Yang et al. (2009) analysierte Proxydatenreihen hinsichtlich des Verlaufs von Temperatur und Niederschlag im ariden Zentralasien während der letzten 2000 Jahre. Sie konzentrierten sich auf das Verhältnis zwischen Temperatur und Niederschlag in verschiedenen Zeiträumen von Jahren bis Jahrhunderten. Hinsichtlich der Temperatur ergab sich, dass „die interessantesten Phänomene die Existenz der MWP und der Kleinen Eiszeit (Little Ice Age LIA) waren“, die sich beide in der Abbildung unten spiegeln. Auch die davor liegende RWP und die Kaltzeit des Dunklen Zeitalters DACP zeichnen sich ab, ebenso wie die kürzliche bis in das 20 Jahrhundert reichende Erwärmung, die wir die Gegenwärtige Warmperiode (Current Warm Period CWP) nennen wollen. Hinsichtlich des Niederschlags stellen die fünf Forscher fest, dass die MWP „mit ungewöhnlicher Trockenheit verbunden war, während die LIA mit extrem feuchten Bedingungen zusammen fiel.“ 

Darstellung verschiedener standardisierter Temperaturverläufe im ariden Zentralasien

Nach Yang et al. (2009)

Wieder einmal haben wir also ein ganzes Bündel an Beweisen für die natürliche, nicht durch CO2 verursachte Klimavariation im Zeitraum von Jahrtausenden, die Asien – und die übrige Welt gleichermaßen – in die römische Warmperiode, die Kaltzeit der dunklen Zeitalter, die mittelalterliche Warmperiode und die kleine Eiszeit hinein und dann wieder heraus geführt hat. Und diese große Anzahl realer Beobachtungen und Fakten liefert alle Gründe für die Annahme, dass die natürliche Klimavariation unseren Planeten 1) in die gegenwärtige Warmphase geführt hat und uns 2) sehr wahrscheinlich auch wieder daraus heraus führt, und zwar in einer nicht allzu fernen Zukunft. 

Der Artikel erschien auf der Homepage des CO2 Science Institutes der Idso´s

Alle Hervorhebungen im Original, außer den Anmerkungen des Übersetzers.

Ein Artikel zum Thema erschien im Spiegel am 23.5.2005, Sie finden ein Kopie davon im Anhang

Übersetzer: Chris Frey

Literatur
Bao, Y., Brauning, A. and Yafeng, S. 2003. Late Holocene temperature fluctuations on the Tibetan Plateau. Quaternary Science Reviews 22: 2335-2344. 

Bao, Y., Braeuning, A., Yafeng, S. and Fahu, C. 2004. Evidence for a late Holocene warm and humid climate period and environmental characteristics in the arid zones of northwest China during 2.2 ~ 1.8 kyr B.P. Journal of Geophysical Research 109: 10.1029/2003JD003787.

Bhattacharyya, A., Sharma, J., Shah, S.K. and Chaudhary, V. 2007. Climatic changes during the last 1800 yrs BP from Paradise Lake, Sela Pass, Arunachal Pradesh, Northeast Himalaya. Current Science 93: 983-987.

Chu, G., Sun, Q., Li, S., Zheng, M., Jia, X., Lu, C., Liu, J. and Liu, T. 2005. Long-chain alkenone distributions and temperature dependence in lacustrine surface sediments from China. Geochimica et Cosmochimica Acta 69: 4985-5003.

Feng, S. and Hu, Q. 2005. Regulation of Tibetan Plateau heating on variation of Indian summer monsoon in the last two millennia. Geophysical Research Letters 32: 10.1029/2004GL021246.

Ge, Q., Zheng, J., Fang, X., Man, Z., Zhang, X., Zhang, P. and Wang, W.-C. 2003. Winter half-year temperature reconstruction for the middle and lower reaches of the Yellow River and Yangtze River, China, during the past 2000 years. The Holocene 13: 933-940.

Ge, Q., Zheng, J.Y., Man, Z.M., Fang, X.Q. and Zhang, P.Y. 2002. Reconstruction and analysis on the series of winter-half-year temperature changes over the past 2000 years in eastern China. Earth Science Frontiers 9: 169-181.

Gong, G. and Chen, E. 1980. On the variation of the growing season and agriculture. Scientia Atmospherica Sinica 4: 24-29.

Hameed, S. and Gong, G.F. 1993. Temperature variation in China during historical times. In: Climate Change and Its Impact. (Y. Zhang et al., Eds.) China Meteorology, Beijing, China, pp. 57-69.

Ji, J., Shen, J., Balsam, W., Chen, J., Liu, L. and Liu, X. 2005. Asian monsoon oscillations in the northeastern Qinghai-Tibet Plateau since the late glacial as interpreted from visible reflectance of Qinghai Lake sediments. Earth and Planetary Science Letters 233: 61-70.

Liu, Z., Henderson, A.C.G. and Huang, Y. 2006. Alkenone-based reconstruction of late-Holocene surface temperature and salinity changes in Lake Qinghai, China. Geophysical Research Letters 33: 10.1029/2006GL026151.

Ma, Z., Li, H., Xia, M., Ku, T., Peng, Z., Chen, Y. and Zhang, Z. 2003. Paleotemperature changes over the past 3000 years in eastern Beijing, China: A reconstruction based on Mg/Sr records in a stalagmite. Chinese Science Bulletin 48: 395-400.

Man, Z. 1990. Study on the cold/warm stages of Tang Dynasty and the characteristics of each cold/warm stage. Historical Geography 8: 1-15.

Mann, M.E. and Jones, P.D. 2003. Global surface temperatures over the past two millennia. Geophysical Research Letters 30: 10.1029/2003GL017814.

Matul, A.G., Khusid, T.A., Mukhina, V.V., Chekhovskaya, M.P. and Safarova, S.A. 2007. Recent and late Holocene environments on the southeastern shelf of the Laptev Sea as inferred from microfossil data. Oceanology 47: 80-90.

Prahl, F.G., Muehlhausen, L.A. and Zahnle, D.L. 1988. Further evaluation of long-chain alkenones as indicators of paleoceanographic conditions. Geochimica et Cosmochimica Acta 52: 2303-2310.

Sheng, F. 1990. A preliminary exploration of the warmth and coldness in Henan Province in the historical period. Historical Geography 7: 160-170.

Shi, Y. and Zhang, P.Y. (Eds.) Climatic Variation in Historical Time in China. Shandong Science and Technology, Jinan, China.

Wei, G., Yu, K. and Zhao, J. 2004. Sea surface temperature variations recorded on coralline Sr/Ca ratios during Mid-Late Holocene in Leizhou Peninsula. Chinese Science Bulletin 49: 1876-1881.

Wen, H. and Wen, H. 1996. Winter-Half-Year Cold/Warm Change in Historical Period of China. Science Press, Beijing, China.

Xu, H., Hong, Y., Lin, Q., Hong, B., Jiang, H. and Zhu, Y. 2002. Temperature variations in the past 6000 years inferred from ?18O of peat cellulose from Hongyuan, China. Chinese Science Bulletin 47: 1578-1584.

Yan, Z.W., Ye, D.Z. and Wang, C. 1991. Climatic jumps in the flood/drought historical chronology of central China. Climate Dynamics 6: 153-160.

Yan, Z.W., Li, Z.Y. and Wang, C. 1993. Analysis on climatic jump in historical times on decade-century timescales. Sci. Atmos. Sin. 17: 663-672.

Yang, B., Braeuning, A., Johnson, K.R. and Yafeng, S. 2002. General characteristics of temperature variation in China during the last two millennia. Geophysical Research Letters 29: 10.1029/2001GL014485.

Yang, B., Wang, J., Brauning, A., Dong, Z. and Esper, J. 2009. Late Holocene climatic and environmental changes in arid central Asia. Quaternary International 194: 68-78.

Yu, K.-F., Zhao, J.-X, Wei, G.-J., Cheng, X.-R., Chen, T.-G., Felis, T., Wang, P.-X. and Liu, T-.S. 2005. ?18O, Sr/Ca and Mg/Ca records of Porites lutea corals from Leizhou Peninsula, northern South China Sea, and their applicability as paleoclimatic indicators. Palaeogeography, Palaeoclimatology, Palaeoecology 218: 57-73.

Zhang, P.Y., Wang, Z., Liu, X.L. and Zhang, S.H. 1994. Climatic evolution in China during the recent 2000 years. Sci. China Ser. B. 24: 998-1008.

Zhu, K.Z. 1973. A preliminary study on the climatic fluctuations during the last 5,000 years in China. Sci. Sin. 16: 226-256.

Zink, K.G., Leythaeuser, D., Melkonian, M. and Schwark, L. 2001. Temperature dependency of long-chain alkenone distributions in recent to fossil limnic sediments and in lake waters. Geochimica et Cosmochimica Acta 65: 253-265.

Last updated 12 May 2010 

Printer Friendly Version

Gefunden auf: http://www.co2science.org/subject/r/summaries/rwpasia.php

Related Files




Die 10 Billionen Dollar Gelddruckmaschine im Handel mit Emissionsrechten: Die Chicago Climate Exchange (CCX)

Bei ihrer Gründung im Jahre 2003 wurde die Chicago Climate Exchange (CCX) das erste Handelsunternehmen der Welt für CO2-Emissionen, eingerichtet, alle Transaktionen zu regulieren, die unter Arbeitsplänen zu Emissionsrechten entwickelt wurden, um Treibhausgas-Emissionen von US-Unternehmen einzuschränken und zu besteuern. 

Die frühesten Wurzeln der CCX können bis ins Jahr 2000 zurückverfolgt werden, als Dr. Richard Sandor – ein Ökonom und Universitätsprofessor an der Northwestern University und früherer Leiter der Chicago Mercantile Exchange – die Umsetzbarkeit zu untersuchen begann, ein Emissionsrechtesystem in den Vereinigten Staaten zu initiieren. Zu dieser Zeit besaß Sandor ein Unternehmen mit dem Namen Environmental Financial Products (EFP). Er kannte auch den Senator des Staates Illinois, Barack Obama, der zusätzlich zu seinen legislativen Verpflichtungen ein Führungsmitglied der Joyce Foundation aus Chicago war, die lange eine wichtige Unterstützerin radikaler Umweltgruppen und von Gerichtsprozessen war. Im Jahre 2001 half Obama, ein Darlehen der Joyce Foundation über 347.600 US-$ an Sandors EFP zu lenken. Die Präsidentin der Stiftung, Paula DiPerna, erklärte, dass dieses Darlehen bezweckt, „den Aufbau einer Pilotphase für einen Markt für CO2-Emissionshandel zu unterstützen, die Chicago Climate Exchange“.

Im August 2001 meldete Carlton Bartels, ein Teilhaber von Cantor Fitzgerald und der Geschäftsführer einer Firma namens CO2e.com, ein Patent auf die Software an, welche die CCX irgendwann einmal benutzen würde, um den Handel von CO2-Emissionsrechten in Wohngebieten genau zu überwachen. Aber bevor er sich das Patent sichern konnte, wurde Bartels bei den 9/11-Terroranschlägen auf das World Trade Center getötet. Seine Witwe machte anschließend einen Käufer für die Softwaretechnologie aus: Franklin Raines, Geschäftsführer bei Fannie Mae, dem Hypothekenbank-Giganten, dessen Praktiken, riskante Hypotheken von Banken anzukaufen -und sie dann zu bündeln und seinen Investoren als Hypothekenpfandbriefe zu verkaufen- den US-Immobilienmarkt letzten Endes in einen steilen Niedergang senden würde. Raines überwachte diese Praxis nicht nur sechs Jahre lang, sondern er manipulierte auch Gewinn- und Verlustrechnungen so, um sich selbst und anderen Fannie Mae-Führungskräften zu ermöglichen, gigantische Bonuszahlungen zu verdienen – fast 100 Mio. US-$ für Raines allein – sogar, als der Darlehnsgeber zusammenbrach. Raines sollte schließlich der Kanal sein, mit dem Bartels Software ihren Weg zur CCX findet.

Im November 2001 legte Paula DiPerna ihr Amt als Präsidentin der Joyce Foundation nieder und wechselte zur CCX, wo sie weiterarbeitete, um dort stellvertretende Vorsitzende zu werden und die unternehmensinterne Personalbeschaffung und Öffentlichkeitsarbeit leitete, und als Präsidentin einer Tochtergesellschaft tätig war, der CCX International.

Im Jahre 2002 wurde ein zweites Darlehen der Joyce Foundation über 760.100 US-$ dazu benutzt, den „Start“ der CCX mit seinen 14 Gründungsmitgliedern im Jahr 2003 zu finanzieren, die Prominentesten von ihnen waren so unternehmerische Giganten wie DuPont, die Ford Motor Company und Motorola.

Im November 2002 arbeiteten Franklin Raines und neun Geschäftspartner im Auftrag von Fannie Mae zusammen, um ein Patent auf die Softwaretechnologie anzumelden, die sie von Carlton Bartels Witwe gekauft hatten. Einer dieser Geschäftspartner war Scott Lesmes, der frühere Vizepräsident von Fannie Mae, der für das oben erwähnte System der gebündelten Hypotheken verantwortlich war. Ein anderer war Robert Sahadi, auch ein ehemaliger Vizepräsident der Fannie Mae, der jetzt GreenSpace Investment Finanzdienstleistungen von  seinem 450 m²-Haus in Maryland aus vertreibt.

Das U.S. Patent and Trademark Office erteilte das Patent am 07. November 2006, einen Tag, nachdem die Demokraten die Kontrolle im Kongress übernommen hatten. Die patentierte Technologie, die jetzt beim CCX eingesetzt wird, bündelt CO2 und andere Treibhausgase in einer ähnlichen Weise, wie Fannie Mae faule Hypotheken unter Raines und Lesmes gebündelt hat. Die Kurzfassung des Patents beschreibt, wie CO2 „und andere noch zu bestimmende Umweltschadstoffe in einem einzigen Emissionspool zusammengefasst“ und gehandelt werden.

Heute bezeichnet sich die CCX als „Nord-Amerikas einzigen Emissionsrechtehandel für alle sechs Treibhausgase“- nämlich CO2, Methan, Stickstoffoxid, Schwefelhexaflourid, Perfluorkohlenstoffe und teilfluorierte Kohlenwasserstoffe. Das Unternehmen hat annähernd 300 multinationale Mitglieder, die eine große Anzahl von Industrien repräsentieren, wie die Fahrzeugindustrie, verarbeitende Industrie, Chemie, Elektronik, Pharmazie, Stahl und Transportwesen. Unter den bekannteren Mitgliedern sind die Ford Motor Company, Dow Corning, DuPont, Kodak, Motorola, Sony, Bank of America, Honeywell International, Safeway, IBM und Intel Corporation.

CCX Mitglieder werden definiert als Funktionseinheiten, die „direkte Treibhausgas-Emissionen“ im Zuge ihrer normalen Geschäftstätigkeit produzieren. Die Mitglieder legen sich fest, eine „rechtsverbindliche Verpflichtung zur Emissionsreduktion“ einzugehen, und damit ihre gesamten Emissionen um mindestens 6 % innerhalb einer Periode von 6 Jahren abzusenken. Das CCX sagt, dass die Mitglieder im Gegenzug als „international unter  Umweltgesichtspunkten führende Unternehmen in ihren Industriezweigen anerkannt werden“.

Außerordentliche Mitglieder  setzen sich zusammen aus einer separaten Klassifizierung von CCX-Teilnehmern; sie sind „Bürounternehmen oder Institutionen“, die „vernachlässigbare direkte Emissionen, aber indirekte Emissionen durch den Verbrauch von Elektrizität und Geschäftsreisen generieren, neben anderen Aktivitäten“. Als außerordentliche Mitglieder der CCX legen sich diese Unternehmen rechtsverbindlich fest, sich 100 % ihrer jährlichen indirekten Emissionen“ über einen 6-Jahres-Zeitraum anrechnen zu lassen. Unter den namhafteren außerordentlichen Mitgliedern der CCX sind die Nathan Cummings Foundation, die Rainforest Alliance und das World Resources Institute.

Zu den weltweiten CCX-Filialen zählen jetzt die European Climate Exchange, die Montreal Climate Exchange und die Tianjin Climate Exchange (in China). Darüber hinaus ist die CCX selbst die Filiale eines in London ansässigen Unternehmens, der Climate Exchange PLC  geworden, dem auch die European Climate Exchange gehört und vom Gründer des CCX, Richard Sandor, geleitet wird.

Gemäß Sandors Einschätzung macht der Emissionsrechtehandel einen 10-Billionen-US-$-Markt pro Jahr aus. Generation Investment Management (GIM) – ein Unternehmen, das CO2-Emissionsreduktionszertifikate anbietet, dessen Vorsitzender und Gründungsmitglied Al Gore ist – bemerkte das enorme Profitpotential, erwarb einen 10-Prozent-Anteil an der CCX und wurde der fünftgrößte Mitinhaber der Gesellschaft. 2006 erwarb Goldman Sachs auch einen 10-Prozent-Anteil der CCX.

Ein besonders bemerkenswertes Vorstandsmitglied der CCX ist Maurice Strong,  ein früherer Generalsekretär der UN-Umweltkonferenz von 1992 und ein führender Architekt des Kyoto Protokolls von 1997, einer internationalen Vereinbarung, die für 37 Industriestaaten verbindliche Ziele für Reduktionen von Treibhausgasemissionen festsetzte. Strong hat eine Vorgeschichte von Verstößen wegen Insider-Handels aufzuweisen.

Im Jahre 2009 kaufte ein Konzern in Atlanta, die Intercontinental Exchange (ICE), einen 4,8 %-Anteil der CCX. Im April 2010 willigte die ICE ein, 604 Mio. US-$ für die Climate Exchange PLC zu zahlen, der in London ansässigen Betreiberin der CCX und der European Climate Exchange.

Chicago Climate Exchange (CCX)

190 South LaSalle Street, Suite 1100 Chicago, Illinois 60603

Phone: (312)554-3350 URL: http://www.chicagoclimatex.com

Übernommen von Discover the network org 

Eine kleine Werbung (Welcome to Trading Carbon’s Bonn climate talks supplement.)  für deutsche Trittbrettfahrer finden Sie hier

Die Übersetzung besorgte dankenswerterweise Thomas Ebbinghaus EIKE 




Klimawandel ist immerwährend und natürlich: Weltgrößte Klimarealistenkonferenz in Chicago erfolgreich beendet!

Nach den bisherigen Veranstaltungsorten New York und Washington DC wurde diesmal die Stadt am Michigan River, Chicago ausgewählt. Über 700 Wissenschaftler, Politiker und kompetente Bürger folgten der Einladung, darunter auch viele der weltbesten Klimatologen. Die Veranstaltung selbst fand im riesigen Mariott Magnificent Mile Hotel im Zentrum Chicagos statt und war straff organisiert. Mit über 80 Vorträgen (Hier die Vorträge, hier die PPT Dateien – soweit verfügbar) zu den Themen Klima, Energie und Politik – die überwiegend in 4 Strängen parallel stattfanden- hatte die Konferenz das Ziel, die neuesten Erkenntnisse der Klimaforschung und der Energiesicherung dem kompetenten Publikum zu vermitteln. Dieses Ziel wurde umfassend erreicht.

Die Internationalität wurde sowohl von den Besuchern als auch durch die Vortragenden gewährleistet. Sie kamen aus 23 Ländern. Wie auch bei den Vorgängerkonferenzen hatten sich die Veranstalter große Mühe gegeben kompetente Vertreter des IPCC einzuladen.  Anders als bei den Vor-Konferenzen folgte mindestens einer dieser Einladung und bedankte sich öffentlich für die offene und faire Aussprache wie Berichterstattung. 

Ohne die vielen, vielen hervorragenden Beiträge der anderen Sprecher abwerten zu wollen, waren -nach subjektivem Eindruck des Berichterstatters- die Ganzlichter der Konferenz, die Vorträge des Geologen, Astronauten und letzten Mondbesuchers  Dr. Harrison Schmitt,  des MIT Klimatologen Dr. Richard Lindzen, des Heartland Wissenschaftsdirektors Dr. Jay H. Lehr  und des ehemaligen Wissenschaftsberatersberaters von Maggie Thatcher Lord Christopher Monckton. (Alle Vorträge finden Sie hier und die PPT Dateien soweit eingereicht hier). Die evtl noch fehlenden Vorträge werden nach und nach ergänzt.

Neben den hochinteressanten Vorträgen mit oft nicht minder interessanten Diskussionsbeiträgen, war es erklärtes Ziel der Konferenz, die verschiedensten Akteure zueinander zu bringen umd miteinander bekannt zu machen. Auch dieses Ziel wurde umfassend erreicht. Viele neue Aktionen im In- und Ausland wurden angeregt oder bindend verabredet.

Unser Dank gilt deshalb den unermüdlichen Akteuren von Heartland, die dieses Großereignis möglich gemacht haben. Der Erfolg gibt ihnen Recht. 

Die internationale Medienberichterstattung war – wie früher- zurückhaltend, in Deutschland fiel sie ganz aus. Einen eher verärgerten BBC Beitrag finden Sie hier. Eine größere Auswahl weiter unten

Den vollen Beitrag des NIPCC zum Thema Klimawandel finden Sie hier Climate Change Reconsidered

Michael Limburg EIKE

If you are a journalist seeking more information about the conference, speakers or co-sponsors, please contact Dan Miller (dmiller@heartland.org) or Tammy Nash (tnash@heartland.org)  (312) 377-4000.

Recent media coverage

Climate sceptics rally to expose ‚myth‘
http://news.bbc.co.uk/2/hi/science/nature/8694544.stm
05/21/10, By Roger Harrabin, BBC

A"warmist" scientist embraces the Heartland
http://wattsupwiththat.com/2010/05/20/a-warmist-scientist-embraces-the-heartland-conference/
05/21/10, By Anthony Watts, What’s Up With That

The Anti-Copenhagen
http://frontpagemag.com/2010/05/21/the-anti-copenhagen/
05/21/10, By Rich Trzupek, Frontpage Magazine

Richard Lindzen seeks new name for climate sceptics
http://www.m.guardian.co.uk/ms/p/gmg/op/stwORyPn7KbCuj41C1_S3Xg/view.m?id=440211&tid=120787&cat=Climate_change
05/19/10, By Leo Hickman, The Guardian

Only morons, cheats and liars still believe in Man-Made Global Warming
http://blogs.telegraph.co.uk/news/jamesdelingpole/100040219/only-morons-cheats-and-liars-still-believe-in-man-made-global-warming/
05/19/10, By James Delingpole, Telegraph.co.uk

Global Cooling I Coming — and Beware the Big Chill, Scientist Warns

http://www.foxnews.com/scitech/2010/05/19/global-cooling-scientists-warming/
05/19/10, By Gene J. Koprowski, Foxnews.com

"Deniers" meet and the Media Ignores Them Again
http://canadafreepress.com/index.php/article/23336
05/18/10, By Alan Caruba, Canada Free Press

MSM AWOL From a Non-Ideological Climate Conference
http://bigjournalism.com/rtrzupek/2010/05/18/msm-awol-from-a-non-ideological-climate-conference/
05/18/10, By Rich Trzupek, Big Journalism

Inhofe Floor Speech: The Heartland Institutes International Climate Conference
http://epw.senate.gov/public/index.cfm?FuseAction=Minority.Blogs&ContentRecord_id=a880900c-802a-23ad-45e0-6ac1d20af80f&Issue_id
05/17/10, By Matt Depmsey, EPW.Senate.Gov

‚Warmists‘ Missing at Skeptics‘ Conference
http://auth.heartland41.siteexecutive.com/admin.cfm
05/14/10, By Dan Miller, press release

The US Government is Pushing Climate Change like a Drug
http://canadafreepress.com/index.php/article/23150
05/14/10, By Alan Caruba ,Canada Free Press

PJTV to Cover Climate Conference
http://www.heartland.org/full/27639/PJTV_to_Cover_Climate_Conference_Live.html
05/13/10, By Dan Miller, press release

Meltdown Shows pm is Hot Under the Collar

http://www.thepunch.com.au/articles/7.30-meltdown-shows-pm-is-hot-under-the-collar/
05/13/10, By Kevin Rudd, The Punch

Cap and Trade Meets Skeptics in Chicago
http://www.heartland.org/full/27626/Cap_and_Trade_Meets_Skeptics_in_Chicago.html
05/11/10, By Dan Miller, press release

Inhofe to Address Global Warming Skeptics
http://www.heartland.org/full/27566/Inhofe_to_Address_Global_Warming_Skeptics.html
05/04/10, By Dan Miller, press release

EXCLUSIVE: Citizen’s Group Plans Extensive Audit of U.N. Climate Report
http://www.foxnews.com/scitech/2010/04/28/climate-change-ipcc-noconsensus/
04/29/10,By Gene J. Koprowski, FoxNews.com

EPA Must Revisit Finding
http://www.heartland.org/full/27523/EPA_Must_Revisit_Finding.html
04/21/10, By Dan Miller, press release

Last in Class: Critics Give U.N. Climate Researchers an ‚F‘
http://www.foxnews.com/scitech/2010/04/19/united-nations-climate-global-warming-ipcc/
04/20/10, By Gene J. Koprowski, FoxNews.com

International Scientists to Present at Climate Conference
http://newsblaze.com/story/20100408155755zzzz.nb/topstory.html
04/09/10, By Dan Miller, News Blaze, press release

International Flavor in May Conference
http://www.heartland.org/full/27429/International_Flavor_in_May_Climate_Conference.html
04/08/10, By Dan Miller, press release

Obama yields to pragmatism on energy

http://www.suntimes.com/news/huntley/2136248,CST-EDT-HUNT02.article
04/02/10, By Steve Huntley, Chicago Sun-times

70 Speakers Set for 4th Climate Conference

http://www.heartland.org/full/27384/70_Speakers_Set_for_4th_Climate_Conference.html
03/29/10, press release by Dan Miller

Among Weathercasters, Doubt on Warming

03/29/10, By Leslie Kaufman, New York Times

Global Warming Advocates Threaten Blizzard of Lawsuits

http://www.foxnews.com/scitech/2010/03/29/global-warming-advocates-threaten-blizzard-lawsuits/
03/29/10, By Gene J. Koprowski, FOXNews.com

The Next “Enemy of the State” is Energy
http://canadafreepress.com/index.php/article/21368
03/25/10, By Alan Caruba, Canada Free Press

El Nino and climate alarmism
http://funwithgovernment.blogspot.com/2010/03/el-nino-and-climate-alarmism.html
03/16/10, By Nonoy Oplas, Government and Taxes

Global warming is a hoax on the American people

http://www.stclairrecord.com/arguments/225159-global-warming-is-a-hoax-on-the-american-people
03/09/10, By Nancy Thorner, The Record

For the Tea Party Movement, Sturdy Roots in the Chicago Area
http://www.nytimes.com/2010/02/19/us/19cncodom.html?pagewanted=102/19/10
02/19/10,  By Daniel Libit, The New York Times
  
Science vs. Alarmism

http://hosted-p0.vresp.com/169595/123b82f8cd/ARCHIVE
02/12/10, By Tom DeWeese, American Policy Center

Heartland Plans Fourth Climate Conference
http://www.heartland.org/full/26985/Heartland_Plans_Fourth_Climate_Conference.html
02/08/10, press release by Dan Miller






Klimaforscher weist den Brief zurück, mit dem 255 fachfremde Wissenschaftler die Erwärmungsthese stützen:

Climate Depot: Die 255 Wissenschaftler behaupten in ihrem Brief: (I) (Details hier) Die Erde erwärmt sich infolge der zunehmenden Konzentrationen von Treibhausgasen in der Atmosphäre. Ein schneereicher Winter in Washington ändert daran nichts.

Professor Kramms Antwort: Bis auf den heutigen Tag gibt es keinen wissenschaftlichen Beweis, dass der Anstieg der globalen Mitteltemperatur um weniger als 1 K während der letzten 160 Jahre (s. Daten von HadCRUT3) im Zusammenhang steht mit der Zunahme der Konzentrationen sog. Treibhausgase in der Atmosphäre. Der Begriff ’Wärmefalle’ ist unphysikalisch und beschreibt nicht die Strahlungsprozesse, die in der Atmosphäre stattfinden.

Im Jahre 1971 stellte Prof. Dr. Heinz Fortak, Institut für theoretische Meteorologie an der Freien Universität Berlin, einer der weltweit führenden Theoretiker der Meteorologie in seinem Buch „Meteorologie“ fest: „Der ‚Zyklus’ der langwelligen Strahlung zwischen Erdoberfläche und Atmosphäre trägt nichts zur Erwärmung des Systems bei. Die Emission infraroter Strahlung sorgt lediglich für das Strahlungsgleichgewicht am oberen Rand der Atmosphäre.“

Alle Erklärungen des sog. Treibhauseffektes erfolgen in einem globalen Maßstab. Dies bedeutet, dass die globale Strahlungsbilanz des Systems ‚Erde – Atmosphäre’ betrachtet werden muss. Aufgrund dieser globalen Strahlungsbilanz kann gezeigt werden, dass Prof. Fortak recht hat. Man beachte, dass ein ‚globales Klima’ nicht existiert. Es ist ein Widerspruch in sich.

Climate Depot: Die 255 Wissenschaftler behaupten: (II): Überwiegend ist die Zunahme dieser (Treibhaus)Gase während des vergangenen Jahrhunderts auf menschliche Aktivitäten zurückzuführen, vor allem auf das Verbrennen fossiler Energieträger und das Abholzen der Wälder.

Prof. Kramms Antwort: Falls die erste Behauptung der 255 Wissenschaftler wie oben gezeigt nicht korrekt ist,  existiert kein wissenschaftlicher Beweis dafür, dass das Verbrennen fossiler Energieträger für Klimaänderungen verantwortlich ist. Die Abholzung von Wäldern kann die Albedo im System ‚Erde – Atmosphäre’ verändern. Um solche Landschaftsveränderungen numerisch zu untersuchen, sind die sog. GCM’s (Global Circulation Model GCM – globale Zirkulationsmodelle, A. d. Übers.) ziemlich ungeeignet, weil deren Gitterpunkte viel zu weit auseinander liegen, um die Wechselwirkungen zwischen Boden, Bio–  und Atmosphäre mit ausreichender Genauigkeit zu berechnen. Ist nur einer dieser 255 Wissenschaftler in der Lage, die stomatale Leitfähigkeit in einem über 60 000 Km² großen Gebiet zu beschreiben, der üblichen Gitternetzfläche in einem GCM-Element?

Climate Depot: Die 255 Wissenschaftler behaupten: (III) Natürliche Prozesse spielen bzgl. des Erdklimas immer eine Rolle. Jetzt jedoch werden sie von den anthropogenen Änderungen überlagert.

Professor Kramms Antwort: Wenn die erste Behauptung dieser 255 Wissenschaftler falsch ist, wie bereits dokumentiert, ist diese dritte Behauptung genauso sinnlos wie die zweite.

Climate Depot: Die 255 Wissenschaftler behaupten: (IV) Die Erwärmung des Planeten hat die Änderungen vieler anderer Klimaverhältnisse zur Folge mit einer Geschwindigkeit, wie es sie in jüngerer Zeit noch nie gegeben hat, einschließlich eines zunehmenden Anstiegs des Meeresspiegels und Änderungen in hydrologischen Kreisläufen. Die zunehmende Konzentration von Kohlendioxid lässt die Ozeane immer mehr versauern.

Professor Kramms Antwort: Die vierte Behauptung dieser 255 Wissenschaftler klingt wie eine Spekulation über mögliche Verletzungen beim Fußballspielen. Sie ist deswegen spekulativ, weil die Behauptungen (I) bis (III) unzutreffend sind. Spekulation entspricht aber keinem einzigen wissenschaftlichen Standard.

Climate Depot: Die 255 Wissenschaftler behaupten: (V) Die Kombination dieser komplexen klimatischen Änderungen bedroht küstennahe Städte und Gebiete, unsere Versorgung mit Wasser und Nahrung, Ökosysteme in Meeren, Flüssen und Seen, Wälder, das Hochgebirge und viele mehr.

Professor Kramms Antwort: Wenn die Behauptungen (I) bis (III) irrelevant sind, beruht auch die fünfte Behauptung auf reiner Spekulation. Es scheint so, dass einige zusätzliche Erklärungen unerlässlich sind. Die Modellierung des Klimas mit Hilfe von GCM’s erfüllt keine wissenschaftliche Standards, weil jede numerische Rechnung der Verifikation durch Beobachtungen bedarf. Außerdem, worauf schon Kramm und Dlugi hinwiesen (2009, http://arxiv.org/abs/0911.2286) verhindert die den Modellrechnungen anhaftende typische Unsicherheit, dass die Klimaentwicklung mit einem hinreichenden Grad an Genauigkeit vorhersagbar ist. Kramm und Dlugi kommen zu der Schlussfolgerung: „Es ist für uns keine Überraschung, dass die Nationale Stiftung der Wissenschaften (National Science Foundation NSF) kürzlich die Aufforderung 09-568 veröffentlicht hat. In ihr werden Teams angefordert, Klimaprozesse zu modellieren mit dem Ziel, möglichst schnell globale vernetzte Modelle zu entwickeln, indem man Theoretiker, Beobachter und Modellierer in großen Modellentwicklungszentren zusammen bringt, um sich mit den speziellen wissenschaftlichen Problemen zu befassen, die Klimamodelle heutzutage aufwerfen.“

Da jede Änderung nur festgestellt werden kann, wenn man sich auf einen Referenzzustand bezieht, kann eine Klimaänderung nur identifiziert werden, wenn man mindestens zwei Zeiträume miteinander vergleicht, die sich nicht überlappen. Nach den Empfehlungen internationaler Konferenzen der WMO in den Jahren 1935 und 1957 sollte eine Periode mindestens 30 Jahre umfassen, für die man längerfristige Wettervorgänge statistisch beschreibt. Folglich benötigt man 60 Jahre, um eine Klimaänderung wirklich identifizieren zu können.

erschienen am Montag, 10. Mai , 2010 By Marc Morano  –  Climate Depot

Die Fragen stellte Marc Morano von Climate Depot an den Klimatologen Prof. Dr. Gerhard Kramm von der Universität von Alaska in Fairbanks. Dr. Kramm forscht am Geophysikalischen Institut im Bereich atmosphärische Wissenschaften, College der Naturwissenschaften und Mathematik – Dr. Kramms Website: : http://www.gi.alaska.edu/~kramm

Prof. Kramm hat mehrere Aufsätze als Autor oder Co-Autor zum Thema Existenz oder Nicht-Existenz des Treibhauseffektes verfasst. Er ist ein Unterstützer des Gerlich Tescheuschner Papiers und befasst sich mit der vermeintlichen Widerlegung (Original hier) dieses Papers von A. Smith

Weiterer Link zu diesem Thema:

March 2009 U.S. Senate Report: 700 Plus Scientists Dissent Over Man-Made Warming Claims

Die Übersetzung besorgte Chris Frey EIKE




Über die Gefahren der Modellierung globaler Erwärmung

Vielleicht werde ich jetzt von Kollegen angegriffen, aber als Programmierer (und Physiker und Umweltschützer) möchte ich meine Zweifel öffentlich machen.

Den ersten Hinweis, was gemeint ist, bietet die Erklärung in „Wikipedia“ zum Stichwort Programmierer. Dort heißt es:

Im Unterschied zu fast allen anderen technischen Berufen braucht ein Programmierer weder eine Lizenz, noch muss er sich irgendwelchen Prüfungen unterwerfen, um sich als „Programmierer“ oder gar „Softwareingenieur“ bezeichnen zu dürfen.

Hmmm…

Vereinfacht gesagt, ist aus meiner Sicht das Programmieren nichts weiter, als ein Bündel von Annahmen in mathematische Gleichungen zu pressen.

Aber ist es wirklich möglich, hoch komplexe reale Zusammenhänge exakt in Nullen und Einsen zu übertragen? HAL [der Computer in „Odyssee 2001“, A. d. Übers.] mag das glauben, aber der gesunde Menschenverstand sagt nein. Dennoch versucht man es natürlich immer wieder, jedoch mit sehr begrenzten Erfolgen. Schauen wir uns das mal näher an!

Fangen wir mal mit den Annahmen an, die ein solches Modell macht.

Ich habe einmal ein Programm für das Begleichen von Rechnungen geschrieben. Typischerweise teilt man dem Schuldner mit, bis wann er zu zahlen hat. Die rechnungsstellende Firma hat die Zahlung nicht rechtzeitig verbucht. Welche Antwort ist jetzt angebracht? (Kursiv im Original).

Üblicherweise nimmt in solchen Fällen ein Computer Kontakt mit dem Schuldner auf. (Bei hunderten solcher Schuldner jeden Einzelfall von Hand zu prüfen, ist zeitlich völlig illusorisch!)

Also, was sagt man in diesem Falle dem Schuldner? Schon hier muss ein Programmierer bereits erste Annahmen machen.

Der Programmierer versucht, diese oder ähnliche Situationen in einem möglichst einfachen Modell zu erfassen. Entscheidend könnte zum Beispiel die Frage sein, ob der Schuldner überhaupt das Geld hat, die Rechnung zu begleichen, ja oder nein? (Kursiv im Original). Diese grundsätzliche Frage wird dann einer Boole’schen Regression unterzogen.

Welche Entscheidungshilfen hat der Programmierer für ja oder nein? Nun, zum Beispiel könnte er schauen, ob frühere Zahlungen pünktlich geleistet wurden, um eine statistische Wahrscheinlichkeit zu berechnen.

Natürlich besteht kein Computerprogramm lediglich aus einem einzigen möglichen Szenario, sondern einer ganzen Serie solcher Möglichkeiten, alle zu bearbeiten mit einer ja/nein – Entscheidung, die alle zusammen zu einer generellen Schlussfolgerung führen. In einer sehr komplexen Situation (z. B. Schulden eintreiben, Klimaänderungen oder finanzielle Transaktionen) kann man sehr leicht hunderte solcher Annahmen konstruieren.

Um zu verstehen, was das bedeutet, wollen wir einmal einen Fall betrachten, in dem es zehn solcher Entscheidungen zu treffen gilt – jede einzelne mit der Antwort „ja“ oder „nein“. Am Ende eines solchen Prozesses gibt es 2 hoch 10, also 1024 verschiedene Möglichkeiten. M. a. W., es gibt eine ganze Menge völlig verschiedener Schlussfolgerungen.

Unglücklicherweise gibt es in der Realität noch viel mehr Möglichkeiten. Die Annahme, dass die Situation unseres Schuldners in diesem Fall auf eine einfache ja/nein – Antwort reduziert werden kann, ist sehr ungenau. Es gibt viele andere reale Möglichkeiten, die sich häufig eben nicht mit ja oder nein beantworten lassen!

Beispiele: Es könnte sein, dass der Schuldner gar keine Rechnung bekommen hat, warum auch immer. Oder er hat korrekt gezahlt, aber die Überweisung ist irgendwie verloren gegangen. Oder er hat die Rechnung versehentlich an eine falsche Adresse gezahlt. Oder er hat es korrekt und pünktlich überwiesen, aber die Firma hat es falsch verbucht. Und so weiter, und so fort.

Soll ein Computerprogramm (oder –modell) genau sein, müssen alle diese Möglichkeiten in Betracht gezogen werden. Sieht man hier schon, wie kompliziert das Ganze schon in diesem einfachen Beispiel einer nicht eingegangenen Zahlung wird?

Es gibt noch einen anderen Faktor, der bisher nicht erwähnt wurde. Vielleicht kann ja der Schuldner gar nicht zahlen, weil sein Kind MS hat und er nicht krankenversichert ist? Wie kann ein Programmierer so etwas wie „fairness“ in seinem Programm berücksichtigen? Anders ausgedrückt: Können Nullen und Einser wirklich alle Möglichkeiten erfassen? Ich denke nein.

Also lautet die grundsätzliche Frage: Gibt es eine Möglichkeit, dass ein Computerprogramm alle Möglichkeiten der Realität korrekt abbilden kann, und sei es nur in diesem einfachen Beispiel? Die Antwort lautet nein!

Ein anderes scheinbar ganz einfaches Beispiel ist die simple Übersetzung hebräischer Bibeltexte in die englische Sprache. Wie viele Versionen der Bibel gibt es? Warum gibt es nicht nur eine einzige?

Kann man wirklich einen Prozess, der viel komplizierter ist, korrekt in ein Programm pressen? Man kann es natürlich versuchen, aber natürlich wird bei dieser Übertragung eine Menge (Kursiv im Original) verloren gehen.

Viele Menschen glauben, die volle Kontrolle über alle Variablen zu haben, und dass sie Szenarien von Hand verändern können. Das stimmt aber nicht, denn die vom User kontrollierten Elemente repräsentieren immer nur einen kleinen Teil aller Faktoren, die in einem Computermodell eine Rolle spielen.

Ganz ähnlich ist der Trugschluss, dass „wir alle Annahmen des Programmierers kennen, und dass wir diese Annahmen beeinflussen können“. Das ist falsch.

Beim Schreiben eines Computerprogramms werden jedes Mal Hunderte von Annahmen gemacht. Der Programmierer teilt dem User natürlich längst nicht (kursiv im Original) alle diese Annahmen mit; ähnlich wie ein Buchhalter, der einem Klienten, für den er eine Steuererklärung vorbereitet, auch nicht alle Annahmen mitteilen wird. Er präsentiert lediglich einige wichtige und sagt dann nur noch: „Bitte hier unterschreiben!“

Und noch eine andere grundlegende Variable ist zu beachten: Welche Datenbasis benutzt der Computer überhaupt für seine Annahmen?

Das Erstellen einer Steuererklärung ist abhängig von der Zusammenarbeit zweier Parteien. Beim Schreiben eines Computerprogramms bestehen diese zwei Parteien aus dem Programmierer und dem Wissenschaftler. Wenn der Steuerzahler seinem Buchhalter falsche oder nicht korrekte Zahlen übermittelt, wird das Ergebnis falsch sein. Viel schlimmer ist, dass keine der beiden Parteien dies bemerken dürfte.

Falls ein Wissenschaftler (irrtümlich) dem Programmierer unvollständige oder nicht korrekte Daten für sein Programm zur Verfügung stellt, dürfte das Ergebnis ebenfalls falsch sein. Und keiner der beiden wird das bemerken oder wissen! (Kursiv im Original).

Dann gibt es noch eine grundlegende Variable! Nachdem der Computer sein Modell berechnet hat, muss es jemanden geben, der dieses Ergebnis für Politiker und Öffentlichkeit (meist in Gestalt der Medien) interpretiert.

Und da gibt es eine Überraschung: Diese öffentliche Interpretation wird beeinflusst durch politische, religiöse, umwelttechnische, finanzielle und wissenschaftliche Meinungen! (Kursiv im Original). Berücksichtigen die Interpretierenden all diese unterschwelligen Verschiebungen? Die Antwort dürfte inzwischen klar sein: Absolut nicht!

Sollten alle diese Meinungen auch noch in die Gleichungen eingefügt werden, entfernt man sich so weit von den wissenschaftlichen Fakten, dass diese gar nicht mehr zu sehen sind.

Also sollte man sehr sorgfältig nachdenken, bevor man massive Aktionen durchführt, die nur auf solchen Modellergebnissen beruhen (als da wären: Ausgabe von Milliarden Dollar für Klimaschutz,; Bewertung der Rentabilität von Windparks, usw.)

Was also kann man tun? Soll man nun alle Computermodelle einstampfen?

Nein, das wäre das andere Extrem. Modelle haben ihre Berechtigung – sollten aber nicht der Schwanz sein, der mit dem Hund wedelt!

Man sollte Computermodelle realistischerweise als das sehen, was sie sind – Hilfsmittel, Denkanstöße und Hinweise, die als Ausgangspunkt für echte wissenschaftliche Forschungen dienen können.

Wegen ihrer naturgemäßen Grenzen (die ich hier nur gestreift habe), sollten alle (Kursiv im Original) diese Modelle mit einer gehörigen Portion Skeptizismus betrachtet werden. Außerdem sollten sie, um ihre Berechtigung unter Beweis zu stellen, den Forderungen wissenschaftlicher Methoden unterworfen werden.

Unglücklicherweise passier genau das nicht!

Wir sind der Illusion, dass diese Modellrechnungen korrekt sind, so hörig, dass wir jetzt sogar umgekehrt diese echten Fakten den Modellen anpassen oder sie anstelle der Modelle verwerfen, wenn sie nicht zu den Modellrechnungen passen (beide Hervorhebungen vom Übers.)! Das ist krankhaft!

Wenn eine Modellrechnung die Realität nicht vollständig spiegeln kann, hat sie nur sehr begrenzten Nutzen und sollte genauso behandelt werden wie die Vorhersagen eines Horoskops!

John Droz jr. ist Physiker und Anwalt für Umweltschutz

frei übersetzt von Chris Frey EIKE. Der Originalartikel erschien im Dezember 2009 bei Pajamas Media hier




Ein typischer Fall von Temperatur Daten-Manipulation?

Die erste Abbildung zeigt das Diagramm von GISS. Warum dort die Werte vor 1978 weggelassen werden ist nicht ersichtlich, vielleicht um so einen "dramatischen" Temperatur-Anstieg im Polargebiet zu zeigen, die sogenannte "polare Amplifikation".


Abbildung 1 GISS: Temperaturverlauf der Svalbard Inseln von 1978 bis 2008

Die zweite Abbildung zeigt das Temperatur-Diagramm von "Nordklim", dem Daten-Zentrum von Skandinavien:  Es zeigt ziemlich genau das Gegenteil:


Abbildung 2 Nordklim-Datenbank: Temperaturverlauf der Svalbard Inseln von 1913 bis 2006

Es gibt keinen "einmaligen Anstieg", sondern das Temperaturniveau ist in den letzten 90 Jahren praktisch konstant geblieben – mit ganz natürlichen Schwankungen um plus/minus 3°C.

Hinzu kommt die Tatsache, dass sich die Messstation am Flughafen bei Longyearbyen befindet und zwar direkt neben der asphaltierten Vorfeldfläche. Das bedeutet, dass mit dem Wachstum des Ortes und des Flugverkehrs in den letzten 20 Jahren neben dem Albedo-Effekt auch ein UHI-Effekt aufgetreten sein dürfte.

Die Daten von Svalbard werden auch für grosse Polarregionen verwendet , weil es im Bereich nördlich davon nur noch zwei Stationen auf 82° gibt.

D.E.Koelle EIKE

Redaktionelle Ergänzung:

Wie Leser Kowatsch herausfand nimmt die Sorge wegen des Beginns einer neuen Eiszeit zu, ganz anders als es uns Prof. Rahmstorf glauben machen will, dass das chronisch katastropenverkündende IPCC sogar noch untertrieben hätte. 

Als Ergänzung zum Kopfartikel paßt vielleicht auch diese Meldung:

SANKT PETERSBURG, 23. April (RIA Novosti). Nicht eine Erwärmung, sondern eine Abkühlung wird laut dem russischen Forscher Oleg Pokrowski in den nächsten Jahren das Erdklima prägen und die Pläne zur Erschließung der Arktis-Rohstoffe durchkreuzen. Seit etwa 1998 kühle das Klima ab. „Es wird natürlich keine Eiszeit geben, doch die Temperaturen werden auf den Stand des kalten Jahrzehnts von 1950 bis 1960 fallen“, sagte Pokrowski, leitender Mitarbeiter am Staatlichen Geophysikalischen Wojejkow-Observatorium, am Freitag am Rande einer Klima-Forschungskonferenz für Arktis und Antarktis in Sankt Petersburg. Nach seinen Worten schwanken die Temperaturen auf der Erde in einem 60-jährigen Turnus. „Jetzt treten alle Komponenten des Klimasystems in eine negative Phase ein.“ Die Abkühlung werde in 15 Jahren ihren Höhepunkt erreichen, sagte der Forscher. Politiker, die auf eine globale Klimaerwärmung bauen, hätten auf das falsche Pferd gesetzt. „Die Nordostpassage wird einfrieren und nur mit Eisbrechern passierbar sein“, sagte Pokrowski. Auch die angekündigte Erschließung des arktischen Schelfs könne auf schwere Probleme stoßen. Der Weltklimarat IPCC, der eine Klimaerwärmung prophezeit, lässt laut Pokrowski viele Faktoren außer Acht. So befänden sich die meisten amerikanischen Wetterstationen in Städten, wo die Temperaturen immer höher seien. „Wir wissen nicht alles, was passiert. Das Klimasystem ist sehr kompliziert und der IPCC ist nicht die Wahrheit in letzter Instanz.“ Die Rivalität um die Arktis hat sich in den letzten Jahren deutlich verschärft. Um die reich gefüllte Naturschatzkammer buhlen Russland, die USA, Kanada, Großbritannien und andere Anrainerstaaten. Viele von ihnen kündigten die Aufstellung von Schiffsverbänden für Polfahrten an.




Erneuter Rückschlag für Klimaalarmisten – Die globale Strahlungsbilanz zeigt ein starkes negatives Feedback

Dr. Spencer gilt als einer der führenden Experten bei der Temperaturbestimmung mithilfe von Mikrowellen-Messungen von Satelliten. Er hat viele Jahre als Klimawissenschaftler für die NASA gearbeitet und beschäftigt sich noch heute, als Grundlagenforscher an der University of Alabama, mit dem Programm der NASA zur satellitengestützten Temperaturmessung. Durch seine unbestreitbare Expertise und seine sehr sachliche Art, Zusammenhänge darzustellen, haben seine Ansichten heute sowohl bei AGW-Befürwortern, als auch bei sogenannten Klimaskeptikern, einiges Gewicht. Das Original von Dr. Spencers Artikel finden Sie auf seiner Homepage. Lesen Sie im Folgenden die deutsche Übersetzung.

Die aktuellen CERES-Messungen zur Strahlungsbilanz über den globalen Ozeanen zeigen ein starkes negatives Feedback

Die zurzeit wohl wichtigste wissenschaftliche Einzelfrage in der Debatte um die globale Erwärmung, welche noch immer ungelöst ist, stellt die Klimasensitivität dar. Führt der Anstieg des CO2 Gehaltes in der Atmosphäre zu einer zusätzlichen Erwärmung, die so gering ist, dass man sie getrost ignorieren kann (geringe Klimasensitivität), oder verursacht dieser ein globales Wärme-Armageddon (hohe Klimasensitivität)?

Die Antwort auf diese Frage hängt stark von der Netto-Strahlungs-Rückkopplung ab, also der Rate mit der die Erde zusätzliche Strahlungsenergie bei einer Erwärmung abgibt. Die Klimasensitivität wird hauptsächlich von Änderungen in der Wolkenbedeckung und dem Wasserdampfgehalt der Atmosphäre bestimmt, welche als Reaktion auf relativ kleine direkte Erwärmungseinflüsse durch (zum Beispiel) erhöhte Kohlendioxid-Konzentrationen folgen.

Die Netto-Strahlungs-Rückkopplung kann mithilfe von globalen satellitengestützten Messungen der natürlichen Klimaveränderungen in (1) der Strahlungsbilanz der Erde und (2) den Temperaturen der Troposphäre abgeschätzt werden.

Diese Abschätzungen von Rückkopplungen sind abhängig von der Verfügbarkeit brauchbarer Messungen. Die besten zurzeit verfügbaren Daten zum Strahlungshaushalt der Atmosphäre stammen von den NASA CERES Instrumenten, welche Daten der letzten 9,5 Jahre (Terra-Satellit) bzw. der letzten 7 Jahre (Aqua-Satellit) liefern. Beide Datensätze sind jetzt bis September 2009 verfügbar.

Ich habe diese Daten auf verschiedenste Weise untersucht und möchte hier die Ergebnisse von 7 Jahren Messungen der globalen Ozeane (60°N bis 60°S) des NASA Aqua-Satelliten vorstellen. Das folgende Diagramm zeigt die Daten der monatlichen Veränderung der Netto-Abstrahlung der Erde (reflektierte kurzwellige Strahlung plus der emittierten langwelligen Infrarotstrahlung) in Abhängigkeit zur gemittelten Troposphärentemperatur, die ebenfalls mit Satelliten ermittelt wurde (AMSU Channel 5).

Eine einfache Lineare Anpassung der Daten ergibt einen Netto-Rückkopplungsfaktor von 5,8 Watt Abstrahlung pro m² pro Grad Celsius. Wenn man diesen Rückkopplungsfaktor in globale Erwärmung umrechnet, ergibt sich eine menschengemachte globale Erwärmung von 0,6 °C bis zum Ende dieses Jahrhunderts im Vergleich zur vorindustriellen Temperatur. (Wenn man die Temperatur der Meeresoberfläche anstelle der Troposphärentemperatur verwendet, kommt man auf einen Faktor von 11 W/m²K, also eine noch geringere Klimasensitivität).

Vor dem Hintergrund, dass wir in den letzten 100 Jahren bereits 0,6 °C Erwärmung erlebt haben lässt sich also folgern, dass der größte Teil dieser Erwärmung natürlich ist, und keine anthropogenen Ursachen haben muss.

Wie wir allerdings in einer aktuellen Arbeit (im Druck) im Journal of Geophysical Research zeigen, können solche Rückkopplungen nicht allein mit einer einfachen linearen Regression der Satellitendaten ermittelt werden, weil diese so gut wie immer ein Unterschätzen der Netto-Rückkopplung, und damit ein Überschätzten der Klimasensitivität, zur Folge haben.

Ohne hier zu stark ins Detail gehen zu wollen, haben wir gefunden, dass die am meisten robuste Methode zur Abschätzung der Rückkopplung eine andere ist. Hierfür haben wir die Größe der Veränderung der Strahlungsbilanz von Monat zu Monat (im obigen Diagramm dargestellt als die Steigungen der blauen Linien) in ein Diagramm aufgetragen und nach der Größe der Temperaturveränderung für den jeweiligen Monat sortiert. Hierbei wurden die stärksten monatlichen Temperaturschwankungen links und die kleinsten rechts aufgetragen, unabhängig, ob es sich dabei um eine Erwärmung oder Abkühlung gehandelt hat.

Das folgende Diagramm zeigt, von links nach rechts, die kumulierten durchschnittlichen Veränderungen der Strahlungsbilanz von den größten Temperaturveränderungen hin zu den kleinsten. Diese Werte reichen von ungefähr 10 W/m²K für die größten monatlichen Temperaturveränderungen und pendeln sich bei einem Wert von ungefähr 6 W/m²K bei der Mittelung der Daten vieler Monate ein. (Hierbei ist zu beachten, dass nicht der gesamte Datensatz benutzt wurde, sondern nur solche Daten mit monatlichen Temperaturänderungen größer als 0,03 °C. Es ist übrigens größtenteils Zufall, dass beide hier vorgestellten Methoden in etwa den gleichen Wert ergeben.)

 

Eine Netto-Rückkopplung von 6 W/m²K ergibt eine Klimasensitivität (also Erwärmung bei CO2-Verdopplung) von nur 0,5 °C. Dieser Wert ist um einiges niedriger, als die 3 °C, welche das IPCC als beste Schätzung angibt, und auch deutlich unterhalb des Wertes von 1,5 °C, von welchem das IPCC nach eigener Aussage zu mehr als 90% überzeugt ist.

Wie vertragen sich dies Ergebnisse mit den IPCC Klimamodellen?

Wenn wir vergleichen stellen wir fest, dass kein einziges der 17 IPCC Modelle (solche, die genügend Daten für eine Vergleichsrechnung liefern) einen so großen Wert für die negative Rückkopplung liefert, wenn man diese analog berechnet. Das gilt sowohl für die Simulationen für das 20. Jahrhundert, als auch für die Simulationen für weiter ansteigende CO2-Werte. Die Model-basierten Werte bewegen sich alle in der Größenordnung von um 2 bis wenig über 4 W/m²K.

Diese Ergebnisse legen nahe, dass die Sensitivität des realen Klimasystems weit geringer ist, als es in sämtlichen IPCC-Modellen dargestellt wird. Daraus werden sich ernsthafte Probleme für die Vorhersagen der Globalen Erwärmung ergeben. Wie man sieht, obwohl die Modellierer für sich in Anspruch nehmen, dass die Klimamodelle recht gut in der Lage sind, das durchschnittliche Verhalten des Klimas widerzugeben, ist es nicht das durchschnittliche Verhalten, dass von Interesse ist, sondern inwieweit sich dieses durchschnittliche Verhalten verändert.

Und die oben dargestellten Ergebnisse zeigen ganz deutlich, dass nicht ein einziges der IPCC Klimamodelle sich so verhält, wie das reale Klima, wenn man die Rückkopplungen bei mehrjährigen Klimaschwankungen betrachtet. Und diese Rückkopplungen sind es, die bestimmen, eine wie ernsthafte (oder vernachlässigbare) Gefahr die menschengemachte globale Erwärmung sein wird.

 Rudolf Kipp, EIKE (Science Skeptical Blog)




Kehraus der Klimapolitik: Das Hartwell-Papier

Auf die Frage, ob unser Wissen genügt, um Risiken vorhersehen und rechtzeitig die richtigen Maßnahmen zu ihrer Minimierung ergreifen zu können, gibt es je nach Problemstellung unterschiedliche Antworten. Die Kollision eines Fahrzeuges mit einem Hindernis gleich welcher Natur ist (abhängig von seiner Masse und seiner Geschwindigkeit) ab einer bestimmten Annäherung tatsächlich unvermeidbar. Auf dieser Basis können Automaten entscheiden, eine Vollbremsung einleiten (um die Aufprallenergie zu vermindern) und tatsächlich in Zukunft einen Notruf bereits kurz vor dem Unfall absetzen. Ob aber ein bestimmter Fluß zu einem bestimmten Zeitpunkt über seine Ufer tritt und Menschen und Sachwerte gefährdet, ist letztendlich auch durch noch so viel klimawissenschaftliche Erkenntnisse niemals beantwortbar. Und selbst wenn man das im Rahmen der Hypothese von der menschgemachten Erwärmung steigende Risiko einer Überschwemmung durch Gegenmaßnahmen wie Emissionsvermeidung verringert, es wird immer größer als Null sein. Denn der Fluß kann aus einer Vielzahl von Gründen sein Bett verlassen, von denen kaum alle jemals menschlicher Kontrolle unterliegen werden.

Das Hartwell-Papier hat hier seine stärksten Momente. Probleme vom Typ des kollidierenden Autos nennt es „zahm“ („tame“). Solche Herausforderungen können durch den Ansatz der Risikovermeidung gebändigt werden. Fragestellungen vom Typ Klimawandel aber sind „boshaft“ („wicked“), denn was man auch unternimmt, sie erstehen auf tückische Weise immer wieder neu und sind nie endgültig zu beantworten. Das Papier nennt neben der Klimafrage Themen wie Armut, Krebs, Drogen und Terrorismus als typische Beispiele für die Boshaftigkeiten, denen man sich  ohne Hoffnung auf Lösung stellen muß.

Da haben sich also 14 Wissenschaftler aus unterschiedlichen Disziplinen, die in unterschiedlichen Zusammenhängen tätig sind, an drei Tagen im Februar im Hartwell House in Buckinghamshire getroffen, um sich über eine Neuausrichtung der Klimapolitik Gedanken zu machen.

Ihre Argumentation beginnt mit einer klaren Beschreibung der realen Situation. Das Scheitern des Kopenhagen-Gipfels hat jegliche Anstrengungen, ein globales Regime zur Emissionsminderung aufzubauen, für die kommenden Jahre (wenn nicht Jahrzehnte) sinnlos werden lassen. Das „zwei Grad Ziel“ ist endgültig obsolet. Climategate und verknüpfte Enthüllungen haben einen großen Vertrauensschwund in Politik, Medien und allgemeiner Öffentlichkeit in die Klimawissenschaft zur Folge. Ein Vertrauensschwund, der zu Recht besteht und ebenfalls auf Jahre hinaus irreparabel sein wird.

Davon ausgehend ruft das Hartwell-Papier einige grundlegende Wahrheiten in Erinnerung, die von der Debatte oft überdeckt wurden und damit aus dem Bewußtsein der Menschen verschwunden zu sein schienen:

  • Jegliche Technologie, und insbesondere die zu Bereitstellung von Energie bzw. Elektrizität, hat aus Nutzersicht robust (verfügbar und verläßlich), sicher und wirtschaftlich zu sein. Nur solche Technologien setzen sich im Marktgeschehen durch, die diese Ansprüche besser erfüllen, als ihre Vorgänger.
  • Technologien robust, verfügbar und verläßlich zu gestalten, bzw. Rahmenbedingungen zu schaffen, in denen dies geschehen kann, ist eine Frage der Menschenwürde. Denn ein würdiges Leben aus heutiger Sicht ist ein solches, in dem die Versorgung mit Nahrung, Gesundheit, Mobilität und Kommunikation, also letztlich mit Energie, gesichert ist.
  • Wenn also mehr als 1 Milliarde Menschen auf diesem Planeten hungern, wenn mehr als 1,3 Milliarden Menschen keinen Zugang zu Elektrizität haben, wenn Menschen in unterentwickelten Regionen nach wie vor an eigentlich leicht zu behandelnden Krankheiten sterben, dann ist dies das Problem, dem sich die Politik auf globaler Ebene mit höchster Intensität widmen muß. Es kann keine andere Priorität geben. Alles, was man auf globaler Ebene vereinbart, hat sich dieser Fragestellung unterzuordnen.

Als Astronom kennt man die Technik des indirekten Sehens. Man schielt an einem kontrastarmen Objekt im Zentrum des Bildfeldes vorbei, um es letztendlich besser erkennen zu können. Das Hartwell-Papier verwendet ein ähnliches Beispiel aus der Arbeit eines berühmten englischen Landschaftsgärtners, wo Menschen auf indirekten Wegen zu ihrem Ziel geführt werden. Wege, die letztendlich aber effektvoll Freude und Entspannung bereiten.

Es ist diese Form der Strategie, die auch für die Neuausrichtung der Klimapolitik vorgeschlagen wird. Ein eher zahmes Problem, also die Versorgung der Menschen mit Strom, in den Mittelpunkt zu rücken, und auf dem Weg zu dessen Lösung indirekt auch eine Antwort auf die boshafte Klimafrage zu geben.

Es ist ja völlig richtig, den wachsenden Energiehunger der Welt kann man durch fossile Energieträger nicht stillen. Sie werden ausreichen, um den Bedarf der Industrieländer für viele Jahrzehnte zu sichern, aber sie sind unmöglich dazu in der Lage, eine Verdoppelung oder Verdreifachung des Energieumsatzes weltweit bis 2050 darzustellen. Um die Welt mit Energie zu versorgen, sprich die Menschen überall mit Strom und Treibstoffen, sind zwingend neue Technologien, alternative Energielieferanten zu entwickeln. Und die, die man sich vorstellen kann, sind oft frei von Kohlendioxid-Emissionen. Wind- und Sonnenenergie werden im Hartwell-Papier genannt, aber auch Kernenergie und die Nutzung von Pflanzenabfällen (Biomasse der zweiten bzw. dritten Generation). Und es ist auch möglich, durch den technischen Fortschritt Strom aus diesen Energieträgern irgendwann einmal preiswerter darzustellen, als solchen aus Kohle. Und dann haben alternative Quellen nicht nur das Potential, fossile Energieträger zu ergänzen, sondern auch, sie zu substituieren, zu ersetzen.

Auf diese Weise, so das Hartwell-Papier, schlägt man zwei Fliegen mit einer Klappe. Man löst die Energiefrage und vermindert dabei, als indirekten Nebeneffekt, langfristig die Kohlendioxid-Emissionen. Daß dieser Weg nur als Marktlösung, nur durch den Verzicht auf verzerrende Subventionen, beschritten werden kann, wird im Papier ebenfalls klar benannt.

Nur: Ist das nicht der Weg, den die Welt schon immer genommen hat? Es ist der Weg des technischen Fortschrittes, wie er sich natürlicherweise ergibt. Dieser Weg hat nicht nur dazu geführt, daß man nach Holz und Torf auf Kohle und Erdgas, nach Walöl auf Erdöl und schließlich auf Kernenergie gesetzt hat. In freien Märkten ist immer schon das Gute durch das Bessere ersetzt worden, religiös getriebener Umweltaktivismus ist da eher hinderlich. Der stetige Gang des technischen Fortschrittes hat auch in den entwickelten Industrieländern zur Entkopplung von Energieumsatz und Wertschöpfung geführt. Effizienzsteigerungen unter dem Aspekt der Wirtschaftlichkeit sind eine Grundbedingung freier Märkte, um Anbietern von Produkten aller Art das Überleben zu gewährleisten. In der westlichen Welt sind die Steigerung der Wirtschaftsleistung und der Energieumsatz seit mehr als 20 Jahren bereits entkoppelt.

Es bedarf keiner formulierten Klimapolitik, um diese Entwicklung überall auf der Welt weiter zu fördern. Es bedarf einzig einer klugen, auf Liberalisierung und dem freien Spiel der Kräfte beruhenden Wirtschaftspolitik.

Auch der zweite wesentliche Aspekt der neuen Klimapolitik im Sinne der Hartwell-Gruppe, die Anpassung an Veränderungen unserer natürlichen Umwelt, ist ein stetiges Element in der Entwicklung der menschlichen Zivilisation. Denn deren Fortschreiten kann auch unter dem Blickwinkel einer immer größeren Unabhängigkeit von destruktiven natürlichen Einflüssen und einer immer größeren Nutzung der Möglichkeiten, die die Natur uns bietet, verstanden werden.

Das Hartwell-Papier fordert als dritte Säule, die Kohlendioxid-Emissionen dann doch nicht so ganz außer Acht zu lassen. Die Wirkungslosigkeit des Kyoto-Protokolls und der etablierten oder geplanten Emissionshandelssysteme wird klar und eindeutig beschrieben. Eine geringe Karbonsteuer, gering genug, um das Wirtschaftswachstum nicht zu bremsen, wird als Ersatz empfohlen.

Vergessen aber haben die 14 Wissenschaftler an dieser Stelle, daß die Karbonsteuer im Prinzip bereits existiert. In Deutschland beispielsweise werden Energieträger aller Art auf unterschiedliche Weise besteuert, neben der Mehrwertsteuer kann man Mineralöl- und Ökosteuern anführen aber auch die Zwangsabgaben zur Subventionierung von Alternativen wie Wind oder Sonne.

Letztendlich ist die neue Klimapolitik, die das Hartwell-Papier formuliert, schlicht und einfach keine Klimapolitik. Und das ist erstens intellektuell brillant begründet und zweitens auch folgerichtig.

Denn der Sündenfall der Klimaforschung war und ist es, die Herausforderungen mutmaßlich anthropogener Klimaveränderungen als zahmes Problem darzustellen, dem man durch eine einfache, direkte und simple Maßnahme wie der Vermeidung von Kohlendioxid-Emissionen begegnen könne. Im Angesicht der wissenschaftlichen Unwägbarkeiten bezüglich aller anderen Klimatreiber, seien sie anthropogen oder natürlich, konnte dies nur geschehen, weil wertegetriebene mit rationalen Argumenten unzulässig verknüpft wurden. Die Klimafrage war und ist nur für eine bestimmte Klientel die Mutter aller Fragen. Für die Ökologisten, die damit eine Veränderung des Menschen an sich durchsetzen wollten. Zugunsten quasi-theologischer Vorstellungen von einer Mutter Natur, der unabhängige, eigene Rechte zugewiesen wurden. Und wenn es auch nur das Recht auf konstante Temperaturen unabhängig von menschlichen Einflüssen ist. Der Absolutheitsanspruch, jegliche andere Fragestellung allein als Unteraspekt der Klimaproblematik behandeln zu dürfen, sei sie zahm oder boshaft, sei sie hinsichtlich Energie, Mobilität oder gar Fortpflanzung, liegt im Wesen solcher Vermischungen von Wertvorstellungen und Rationalität.

Es gilt aus Sicht der Klimaskeptiker nicht, den Versuch zu unternehmen, das Nichteintreten der Klimakatastrophe zu beweisen. Es gilt, diese Verknüpfung zwischen einer Wertvorstellung und einer rationalen Problembeschreibung zu zerbrechen. Denn eine Politik, die auf  dieser Basis Maßnahmen ergreift, wird erstens scheitern und zweitens bis zu diesem Zeitpunkt erheblichen Schaden anrichten. Beides ist bereits geschehen. Nun sind die Scherben aufzuwischen. Das Hartwell-Papier liefert den Besen dazu.

Links:

Peter Heller, Science Skeptical Blog




Spanische Solarenergieblase geplatzt!

Selbstverständlich kann jede Industrie „steil wachsen“, falls die Regierung genug Steuerzahler-Dollars einwirft. Jetzt, da Spanien in ein schwarzes Haushaltsloch rutscht, kommt heraus, dass die Sonnenenergieförderung nicht mehr aufrechterhalten werden kann. In diesem Frühjahr haben wir gesehen, wie die spanische Sonnenergieblase platzte. Climatewire [Artikel steht nicht frei zur Verfügung] berichtete: 

Vor zwei Jahren erst schwelgten die spanischen Sonnenenergiefirmen in großzügiger Regierungsförderung und wuchsen in fiebrigem Tempo, 18 Milliarden € (damals etwa $28 Mrd.) wurden für Fotovoltaik auf Dächern und Feldern ausgegeben. In Kürze wurde das Land zum Spitzenreiter aller Solarmärkte der Welt.

Spaniens Solarenergieförderung war vier bis sechs Mal höher als für die Windenergie. Die Preise für die Einspeisung von Sonnenenergie waren 12 Mal höher als für Elektrizität aus fossiler Energieerzeugung. Deutschland und Spanien installierten vor zwei Jahren rund 75 Prozent aller Solaranlagen weltweit.

Plötzlich, angesichts einer bevorstehenden tiefen Rezession, einer einbrechenden Baukonjunktur und einem in die Höhe schießenden Haushaltsdefizit, hat die spanische Regierung im vergangenen Jahr den Einkaufspreis für Solarenergie um 29 Prozent gekürzt, und die Obergrenze für neue Solarenergieanlagen auf 500 Megawatt pro Jahr gesetzt. Derzeit werden weitere Kürzungen erwogen, die bis zu 40 Prozent betragen und sogar rückwirkend gelten könnten, wie lokale Zeitungen berichteten.

Deutschland und Frankreich haben ebenfalls ihre lachhaft teuren Sonnenenergieförderungen zurückgefahren. Freilich sind nun einige U.S.–Bundesstaaten und Städte dabei, Gesetze für die gleiche fehlgehende Förderung zu machen, die in Europa derzeit rasch über Bord geworfen wird. 

Wenn aber die Förderung stirbt, sterben damit auch die davon abhängigen viel gepriesenen „grünen Arbeitsplätze“. Laut Climatewire haben sich in Spanien etwa 30.000 grüne Jobs in Luft aufgelöst. Frühere Studien haben herausgefunden, dass jeder neue grüne Arbeitsplatz in Spaniens Erneuerbarem Energiesektor beinahe $750.000 gekostet hat.

Ja, Herr Präsident, bedenken Sie bitte, was in Ländern wie Spanien passiert.

von Dr. Benny Peiser, 07.05.2010auf ACHGUT Spanische Sonnenergieblase geplatzt

Sehen Sie hierzu auch die interessanten Bemerkungen von Chris Horner in Pajamas Media

 Die Übersetzung besorgte dankenswerterweise Helmut Jäger für EIKE.